21.2 C
New York
Lundi, mars 9, 2026
spot_img

Anthropic poursuit l’administration Trump pour annuler l’étiquette américaine de « risque de chaîne d’approvisionnement » | Actualités économiques et commerciales

Anthropic a intenté une action en justice pour empêcher le Pentagone de l’inscrire sur une liste noire de sécurité nationale américaine, intensifiant ainsi la bataille aux enjeux élevés du laboratoire d’intelligence artificielle avec l’administration du président américain Donald Trump sur les restrictions d’utilisation de sa technologie.

Anthropic a déclaré lundi dans son procès que la désignation était illégale et violait ses droits à la liberté d’expression et à une procédure régulière. Le dossier déposé auprès du tribunal fédéral de l’État américain de Californie demandait à un juge d’annuler la désignation et d’empêcher les agences fédérales de l’appliquer.

Histoires recommandées

liste de 4 élémentsfin de liste

« Ces actions sont sans précédent et illégales. La Constitution ne permet pas au gouvernement d’exercer son énorme pouvoir pour punir une entreprise pour son discours protégé », a déclaré Anthropic.

Le Pentagone a attribué jeudi à Anthropic une désignation officielle de risque pour la chaîne d’approvisionnement, limitant l’utilisation d’une technologie qui, selon l’agence de presse Reuters, citant une source anonyme, était utilisée pour des opérations militaires en Iran.

Le secrétaire américain à la Défense, Pete Hegseth, a désigné Anthropic après que la start-up ait refusé de supprimer les garde-fous contre l’utilisation de son IA pour des armes autonomes ou pour la surveillance nationale. Les deux parties étaient engagées depuis des mois dans des négociations de plus en plus controversées sur ces limitations.

Trump et Hegseth ont déclaré qu’il y aurait une suppression progressive sur six mois.

L’entreprise cherche également à annuler l’ordre de Trump ordonnant aux employés fédéraux de cesser d’utiliser son chatbot IA, Claude.

Cette contestation judiciaire intensifie un différend inhabituellement public sur la manière dont l’IA peut être utilisée dans la guerre et la surveillance de masse – un conflit qui a également entraîné les rivaux d’Anthropic dans l’industrie technologique, en particulier OpenAI, qui a conclu son propre accord pour travailler avec le Pentagone quelques heures seulement après que le gouvernement ait puni Anthropic pour sa position.

Anthropic a déposé lundi deux poursuites distinctes, l’une devant le tribunal fédéral de Californie et l’autre devant la cour d’appel fédérale de Washington, DC, chacune contestant différents aspects des actions du gouvernement contre l’entreprise.

Les responsables d’Anthropic ont déclaré que le procès n’empêchait pas de rouvrir les négociations avec le gouvernement américain et de parvenir à un règlement. L’entreprise a déclaré qu’elle ne voulait pas se battre avec le gouvernement américain. Le Pentagone a déclaré qu’il ne ferait aucun commentaire sur le litige. La semaine dernière, un responsable du Pentagone a déclaré que les deux parties n’étaient plus en pourparlers actifs.

Menace pour les entreprises

Cette désignation constitue une grande menace pour les affaires d’Anthropic avec le gouvernement, et le résultat pourrait façonner la façon dont d’autres sociétés d’IA négocient les restrictions sur l’utilisation militaire de leur technologie, bien que le PDG de la société, Dario Amodei, ait précisé jeudi que la désignation avait « une portée étroite » et que les entreprises pouvaient toujours utiliser ses outils dans des projets sans rapport avec le Pentagone.

Les actions de Trump et Hegseth le 27 février sont intervenues après des mois de discussions avec Anthropic sur la question de savoir si les politiques de l’entreprise pouvaient limiter l’action militaire et peu de temps après qu’Amodei ait rencontré Hegseth dans l’espoir de parvenir à un accord.

Anthropic a déclaré qu’elle cherchait à empêcher que sa technologie soit utilisée à deux fins de haut niveau : la surveillance de masse des Américains et les armes entièrement autonomes. Hegseth et d’autres responsables ont publiquement insisté sur le fait que l’entreprise devait accepter « toutes les utilisations licites » de Claude et ont menacé de sanctions si Anthropic ne s’y conformait pas.

Désigner l’entreprise comme risque de chaîne d’approvisionnement interrompt le travail de défense d’Anthropic en utilisant une autorité conçue pour empêcher les adversaires étrangers de nuire aux systèmes de sécurité nationale. C’était la première fois que le gouvernement fédéral utilisait cette désignation contre une entreprise américaine.

Le Pentagone a déclaré que c’est la loi américaine, et non une entreprise privée, qui déterminerait comment défendre le pays, et a insisté pour avoir une flexibilité totale dans l’utilisation de l’IA pour « toute utilisation licite », affirmant que les restrictions d’Anthropic pourraient mettre la vie des Américains en danger.

Anthropic a déclaré que même les meilleurs modèles d’IA n’étaient pas suffisamment fiables pour des armes entièrement autonomes et que les utiliser à cette fin serait dangereux.

Après l’annonce de Hegseth, Anthropic a déclaré dans un communiqué que cette désignation serait juridiquement infondée et créerait un dangereux précédent pour les entreprises qui négocient avec le gouvernement. L’entreprise a déclaré qu’elle ne se laisserait pas influencer par « des intimidations ou des sanctions ».

La semaine dernière, Amodei s’est également excusé pour une note interne publiée mercredi par le site d’information technologique The Information. Dans la note publiée le 27 février, Amodei a déclaré que les responsables du Pentagone n’aimaient pas l’entreprise en partie parce que « nous n’avons pas fait l’éloge de Trump à la manière d’un dictateur ».

Tout en luttant contre les actions du Pentagone, Anthropic a cherché à convaincre les entreprises et autres agences gouvernementales que la sanction de l’administration Trump est étroite et n’affecte que les sous-traitants militaires lorsqu’ils utilisent Claude dans le cadre de travaux pour le ministère de la Défense.

Faire cette distinction clairement est crucial pour la société privée Anthropic, car la majeure partie de ses 14 milliards de dollars de revenus prévus cette année proviennent d’entreprises et d’agences gouvernementales qui utilisent Claude pour le codage informatique et d’autres tâches. Plus de 500 clients paient à Anthropic au moins 1 million de dollars par an pour Claude, selon une récente annonce d’investissement valorisant l’entreprise à 380 milliards de dollars.

Related Articles

Subscribe
Notify of
guest
0 Comments
Inline Feedbacks
View all comments

Stay Connected

0FansJ'aime
0SuiveursSuivre
22,800AbonnésS'abonner
- Advertisement -spot_img

Latest Articles

0
Would love your thoughts, please comment.x
()
x