La noticia de CoinWorld, el 25 de febrero, Vitalik Buterin publicó un mensaje apoyando a la empresa de IA Anthropic por mantener dos líneas éticas: «no desarrollar armas completamente autónomas» y «no realizar vigilancia masiva en Estados Unidos», elogiando su determinación frente a la presión gubernamental. Vitalik considera que, en un mundo ideal, este tipo de aplicaciones de alto riesgo deberían limitarse al nivel de acceso de LLM de código abierto (es decir, acceso público y equitativo para todos); incluso un avance del 10% en este aspecto podría reducir los riesgos de armas autónomas y violaciones de privacidad, promoviendo un desarrollo más seguro de la IA. Anteriormente, se informó que el Pentágono amenazó recientemente con cortar la colaboración con Anthropic, lo que podría resultar en la pérdida de un contrato de 200 millones de dólares, ya que Anthropic se negó a proporcionar tecnología de IA sin intervención humana para fines militares.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
La noticia de CoinWorld, el 25 de febrero, Vitalik Buterin publicó un mensaje apoyando a la empresa de IA Anthropic por mantener dos líneas éticas: «no desarrollar armas completamente autónomas» y «no realizar vigilancia masiva en Estados Unidos», elogiando su determinación frente a la presión gubernamental. Vitalik considera que, en un mundo ideal, este tipo de aplicaciones de alto riesgo deberían limitarse al nivel de acceso de LLM de código abierto (es decir, acceso público y equitativo para todos); incluso un avance del 10% en este aspecto podría reducir los riesgos de armas autónomas y violaciones de privacidad, promoviendo un desarrollo más seguro de la IA. Anteriormente, se informó que el Pentágono amenazó recientemente con cortar la colaboración con Anthropic, lo que podría resultar en la pérdida de un contrato de 200 millones de dólares, ya que Anthropic se negó a proporcionar tecnología de IA sin intervención humana para fines militares.