Près de quarante salariés d’OpenAI et de Google ont déposé un document juridique auprès du tribunal saisi par Anthropic. Ils y présentent divers arguments favorable à la start-up et géant de l’IA, dans l’espoir que la classification de l’entreprise comme « risque pour les approvisionnements » soit levée.
Dans son combat face au gouvernement américain, Anthropic n’est pas seul. Il peut toujours compter sur le soutien d’employés travaillant pour la concurrence. Quelques heures après que la start-up, connue pour le chatbot Claude, a porté plainte contre l’administration Trump pour contester sa désignation comme « risque pour les approvisionnements », près de quarante salariés d’OpenAI, Google et sa filiale Deepmind ont déposé un mémoire d’amicus curiae, un document juridique soumis par une personne ou organisation qui n’est pas partie au procès et qui a pour but d’apporter des informations, analyses ou arguments susecptibles d’aider les juges dans leur décision .
« Si les accusés (le gouvernement américain, NDLR) n’étaient plus satisfaits des termes convenus de leur contrat avec Anthropic, ils auraient pu simplement résilier le contrat et faire appel aux services d’une autre entreprise leader en IA », reprochent les signataires, qui incluent notamment Jeff Dean, directeur scientifique chez Google.
Abus de pouvoir
Autrement dit, ils estiment que l’administration Trump aurait pu se contenter de choisir OpenAI lorsqu’Anthropic a refusé de laisser l’armée américaine utiliser son IA sans restrictions au lieu de sanctionner la start-up avec cette désignation. Classification qui empêche, théoriquement, tout fournisseur de l’État fédéral américain de travailler avec l’entreprise à l’origine de Claude.
« Cette tentative de sanctionner l’une des principales entreprises américaines d’IA aura inévitablement des conséquences sur la compétitivité industrielle et scientifique des États-Unis dans le domaine de l’intelligence artificielle, et au-delà », ont dénoncé les employés dans leur mémoire.
Ils espèrent convaincre le tribunal d’accorder la réparation demandée par Anthropic, à savoir la levée des sanctions que la jeune société juge excessives avec leurs arguments. Pour commencer, la classification de la jeune pousse comme entreprise « à risque » constitue un « abus de pouvoir arbitraire et inapproprié qui a de graves répercussions sur notre secteur ». Réservée jusqu’à présent aux adversaires étrangers (Huawei, Kaspersky…) cette appellation inquiète, les acteurs du secteurs craignent qu’elle nuise à la compétitivité du pays dans le domaine de l’IA, mais aussi au débat public sur les avantages et les risques de cette technologie.
Des risques graves et aux dommages irréparables
Les employés d’OpenAI et de Google considèrent par ailleurs que les « lignes rouges » d’Anthropic sont légitimes. Pour rappel, la start-up ne voulait pas que le Pentagone puisse utiliser son IA pour contrôler des armes autonomes ou pour espionner ou surveiller en masse la population américaine.
« Ces applications de la technologie actuelle d’IA comportent des risques si graves et menacent de causer des dommages si irréparables après coup qu’il est nécessaire de mettre en place des garde-fous, qu’ils soient contractuels ou techniques, pour les limiter en l’absence de cadres de gouvernance solides et véritablement efficaces », avancent-ils, soulignant que cet avis est largement partagé par la communauté des développeurs d’IA.
« Les modèles d’IA actuels ne sont pas suffisamment fiables pour assumer seuls la responsabilité de prendre des décisions mortelles en matière de ciblage, et les risques liés à leur déploiement à cette fin nécessitent une réponse et des garde-fous », expliquent-ils.
Et à l’heure où les caméras, les smartphones ou encore les réseaux sociaux récoltent et génèrent déjà beaucoup d’informations sur les individus, cela pourrait être pire avec l’IA, préviennent les signataires. « Ce qui manque encore, c’est la couche d’IA qui transformerait cet immense paysage de données fragmenté en un dispositif de surveillance unifié et en temps réel », mettent-ils en garde.
Concrètement, alors qu’un effort humain considérable est nécessaire aujourd’hui pour relier ces informations entre elles, un système d’IA utilisé pour la surveillance de masse mettrait fin à cette ultime barrière, en corrélant les données de reconnaissance faciale avec l’historique de déplacements ou encore aux enregistrements de transactions de centaines de millions de personnes simultanément, selon eux.
« En l’absence d’un cadre juridique permettant de contenir les risques liés au déploiement de systèmes d’IA de pointe, les engagements éthiques des développeurs d’IA – et leur volonté de les défendre publiquement – ne constituent pas des obstacles à la bonne gouvernance ni à l’innovation, mais y contribuent. Le tribunal devrait le reconnaître », concluent-ils.
Source: BFM


