Dans une interview récente, le PDG de l’entreprise à l’origine de l’intelligence artificielle Claude, Dario Amodei, a réaffirmé les deux principes éthiques intangibles de son entreprise face au Pentagone : refuser toute contribution à la surveillance de masse sur le sol américain et à l’intégration de sa technologie dans des armes entièrement autonomes. Une prise de position inédite dans la Silicon Valley, qui a valu au groupe d’être classé « risque pour la chaîne d’approvisionnement » par le secrétaire à la Défense.
Anthropic peut se targuer d’être la première entreprise d’intelligence artificielle à déployer ses modèles sur le cloud classifié américain, à concevoir des systèmes sur mesure pour la sécurité nationale et à voir ses technologies intégrées dans les services de renseignement comme dans l’armée ; appliquées à la cybersécurité, au soutien opérationnel ou à l’analyse d’informations sensibles. Mais pas question pour autant de se laisser griser par le succès.
Le groupe tient ainsi à préserver son intégrité morale en s’opposant à toute dérive dans l’usage de son modèle, Claude, même si cette intransigeance met en péril son contrat de 200 millions de dollars avec l’administration fédérale.
Dans un entretien accordé le 28 février à CBS News, son PDG, Dario Amodei, a dévoilé la nature du bras de fer qui l’oppose désormais au Pentagone, insistant sur les deux points qu’il juge non négociables.
Deux lignes rouges, deux questions de civilisation
Le premier concerne la surveillance de masse domestique. L’IA rend en effet désormais possible ce qui était techniquement irréalisable hier. Comme le croisement, à grande échelle, des bases de données collectées par des entreprises privées — localisation, affiliation politique, informations personnelles — rachetées par le gouvernement, puis analysées automatiquement par des algorithmes.
« La technologie progresse tellement vite qu’elle devance le droit », constate Amodei. Ni le Congrès ni la justice n’ont encore posé de cadre clair, et Anthropic refuse d’alimenter cette zone grise. Au-delà de la légalité, c’est, selon lui, un principe démocratique fondamental qui est en jeu : le droit de ne pas être espionné par son propre gouvernement.
Le second interdit concerne les armes entièrement autonomes, capables de frapper sans intervention humaine. Amodei nuance toutefois sa position : il ne s’y oppose pas par principe, mais estime qu’un recours prématuré serait dangereux, tant que d’autres puissances, comme la Chine ou la Russie, n’ont pas ouvertement franchi ce seuil.
Un appel à l’encadrement des usages
Deux raisons motivent cette prudence. D’abord une limite technique : les modèles actuels demeurent imprévisibles et donc incapables de garantir la fiabilité qu’exige une décision létale. « Quiconque a travaillé avec des modèles d’IA sait qu’ils comportent une part d’imprévisibilité que nous n’avons pas encore résolue », reconnaît-il.
Ensuite, un problème de gouvernance : si une armée de drones peut opérer sans présence humaine, qui, alors, détient le contrôle ? Qui peut refuser un ordre ? L’effacement de la responsabilité humaine dans la décision de tuer représente, pour Amodei, un risque systémique que la société n’a pas encore débattu ni encadré.
Alors que l’administration Trump menace Anthropic de sanctions en réponse à son refus de coopérer sans conditions, le dirigeant appelle le Congrès à légiférer sur ce que la technologie rend possible avant que la réalité ne l’impose.
