Anthropic poursuit le gouvernement américain pour une liste noire de l'IA liée à un litige sur l'utilisation militaire

robot
Création du résumé en cours

Le développeur d’intelligence artificielle Anthropic a déposé une plainte contre plusieurs agences gouvernementales américaines, accusant le gouvernement fédéral d’avoir illégalement inscrit sa technologie sur une liste noire après que l’entreprise a refusé d’autoriser certaines utilisations militaires de ses systèmes d’IA.

Résumé

  • Anthropic a poursuivi plusieurs agences américaines, alléguant une retaliation après avoir refusé certaines utilisations militaires de son IA.
  • Le différend porte sur des restrictions concernant les armes autonomes et la surveillance de masse utilisant les modèles d’IA Claude de l’entreprise.
  • La plainte conteste une directive fédérale qui a suspendu l’utilisation par le gouvernement de la technologie d’Anthropic et a qualifié l’entreprise de risque pour la chaîne d’approvisionnement en sécurité nationale.

La plainte, déposée devant le tribunal de district du Nord de la Californie, demande une déclaration et une injonction contre un large groupe d’entités et de responsables fédéraux, notamment les départements de la Guerre, du Trésor, d’État et de la Sécurité intérieure, ainsi que la Réserve fédérale et la Securities and Exchange Commission.

Anthropic affirme que le gouvernement a réagi en représailles après que l’entreprise a refusé de permettre à sa famille de modèles d’IA, connue sous le nom de Claude, d’être utilisée pour la guerre autonome létale ou la surveillance de masse des Américains.

Selon la plainte, les tensions ont augmenté après que des responsables gouvernementaux ont exigé qu’Anthropic supprime ces restrictions et permette au Département de la Guerre de faire « toute utilisation légale » de la technologie. L’entreprise a déclaré qu’elle était prête à élargir sa coopération mais a maintenu ses deux principales limitations de sécurité.

Le différend a culminé avec une directive de Donald Trump, ordonnant aux agences fédérales de cesser immédiatement d’utiliser la technologie d’Anthropic, suivie d’une décision du Département de la Guerre de qualifier l’entreprise de « Risque pour la sécurité nationale dans la chaîne d’approvisionnement ».

Cette désignation interdit aux contractants militaires et partenaires de faire affaire avec Anthropic, coupant ainsi l’entreprise de la chaîne d’approvisionnement en défense. Plusieurs agences ont par la suite suspendu des contrats ou demandé à leurs employés de cesser d’utiliser les systèmes d’IA de l’entreprise.

Anthropic soutient que ces actions violent le Premier Amendement, la loi sur la procédure administrative et les protections constitutionnelles du droit à un procès équitable. La société affirme que ces mesures ont été prises en représailles pour avoir exprimé des préoccupations concernant la sécurité et la fiabilité des systèmes d’IA utilisés dans les armes autonomes et la surveillance de masse.

La plainte indique que les actions du gouvernement ont déjà conduit à l’annulation de contrats et pourraient mettre en danger des centaines de millions de dollars d’affaires à court terme, tout en nuisant à la réputation de l’entreprise et à ses relations commerciales.

Anthropic demande au tribunal de déclarer que les actions du gouvernement sont illégales et de suspendre l’application des directives pendant que le litige est en cours.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler