Anthropic demanda al gobierno de EE. UU. por lista negra de IA relacionada con disputa por uso militar

robot
Generación de resúmenes en curso

El desarrollador de inteligencia artificial Anthropic ha presentado una demanda contra varias agencias del gobierno de EE. UU., acusando al gobierno federal de incluir ilegalmente en listas negras su tecnología después de que la compañía se negara a permitir ciertos usos militares de sus sistemas de IA.

Resumen

  • Anthropic demandó a varias agencias de EE. UU., alegando represalias tras negarse a permitir ciertos usos militares de su IA.
  • La disputa se centra en las restricciones contra armas autónomas y vigilancia masiva usando los modelos de IA Claude de la compañía.
  • La demanda impugna una directiva federal que detuvo el uso gubernamental de la tecnología de Anthropic y calificó a la firma como un riesgo en la cadena de suministro de seguridad nacional.

La denuncia, presentada en el Tribunal de Distrito de EE. UU. para el Distrito Norte de California, busca una declaración y una orden judicial contra un amplio grupo de entidades y funcionarios federales, incluyendo los Departamentos de Guerra, Tesoro, Estado y Seguridad Nacional, así como la Reserva Federal y la Comisión de Bolsa y Valores.

Anthropic afirma que el gobierno tomó represalias contra la compañía después de que esta se negara a permitir que su familia de modelos de IA, conocida como Claude, fuera utilizada para guerra autónoma letal o vigilancia masiva de estadounidenses.

Según la denuncia, las tensiones aumentaron después de que funcionarios gubernamentales exigieron a Anthropic eliminar esas restricciones y permitir que el Departamento de Guerra hiciera “todo uso legal” de la tecnología. La compañía dijo que aceptó ampliar la cooperación, pero mantuvo sus dos principales limitaciones de seguridad.

La disputa culminó en una directiva de Donald Trump, que ordenó a las agencias federales cesar inmediatamente el uso de la tecnología de Anthropic, seguida por una decisión del Departamento de Guerra de calificar a la firma como un “Riesgo en la Cadena de Suministro para la Seguridad Nacional”.

La designación prohibió a contratistas militares y socios hacer negocios con Anthropic, excluyendo efectivamente a la compañía de la cadena de suministro de defensa. Varias agencias posteriormente detuvieron contratos o instruyeron a sus empleados a dejar de usar los sistemas de IA de la empresa.

Anthropic argumenta que estas acciones violan la Primera Enmienda, la Ley de Procedimiento Administrativo y las protecciones constitucionales de debido proceso. La compañía afirma que las medidas se tomaron en represalia por expresar preocupaciones sobre la seguridad y fiabilidad de los sistemas de IA utilizados en armas autónomas y vigilancia masiva.

La denuncia indica que las acciones del gobierno ya han llevado a la cancelación de contratos y podrían poner en riesgo cientos de millones de dólares en negocios a corto plazo, además de dañar la reputación y las relaciones comerciales de la empresa.

Anthropic solicita al tribunal que declare ilegales las acciones del gobierno y que bloquee la aplicación de las directivas mientras se resuelve la disputa.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado