Sam Altman responde ao Departamento de Defesa dos EUA por escolher OpenAI em vez de Anthropic: possivelmente devido a divergências na reivindicação de controlo operacional

Revelou que a Anthropic e o Departamento de Guerra dos EUA estiveram “muito perto de chegar a um acordo” em determinado momento, e que ambos os lados tinham uma forte vontade de cooperar na maioria das negociações, mas a situação poderia deteriorar-se rapidamente num ambiente de negociação altamente tenso, o que pode ser uma das razões importantes pelas quais o acordo não foi finalmente concretizado. Em termos de conceitos de segurança, a OpenAI adota uma abordagem de “segurança em camadas”, incluindo a construção de uma pilha tecnológica de segurança, a implementação de engenheiros de implementação de linha da frente (FDE), o envolvimento de investigadores de segurança em projetos, a entrega através da implementação na cloud e o trabalho direto com o Departamento de Guerra dos EUA. Com as medidas técnicas de segurança como garantia central, mas outras empresas podem ter posições diferentes sobre isto, a Anthropic poderá querer obter mais controlo operacional na cooperação, o que pode ser uma das razões para a divergência dos dois caminhos.

Ver original
Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.
Comentário
0/400
Sem comentários