Vitalik elogia a Anthropic por mantener la línea ética de "no realizar vigilancia social a gran escala"

robot
Generación de resúmenes en curso

Según ChainCatcher, Vitalik Buterin publicó un artículo apoyando la adhesión de la empresa de IA Anthropic a las dos líneas éticas de “no desarrollar armas totalmente autónomas” y “no realizar vigilancia a gran escala por parte de Estados Unidos”, elogiando su determinación para enfrentar la presión gubernamental. Vitalik sostiene que, en un mundo ideal, estas aplicaciones de alto riesgo estarían limitadas al nivel de acceso a LLM de código abierto (es decir, el nivel en el que todas las personas tienen acceso público igual); Incluso un avance del 10% reduce el riesgo de violaciones de armas autónomas y privacidad, lo que impulsa una IA más segura.

Según noticias anteriores, la reciente amenaza del Pentágono de cortar la cooperación con Anthropic podría suponer la pérdida de 200 millones de dólares en contratos porque Anthropic se niega a proporcionar tecnología de IA sin intervención humana para uso militar.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)