OpenAI e o Departamento de Defesa dos EUA entram em controvérsia, Sam Altman admite que o acordo foi apressado e altera urgentemente os termos

GateNews

3 de março, notícias, de acordo com a CNBC, o CEO da OpenAI, Sam Altman, admitiu que o acordo de cooperação em inteligência artificial com o Departamento de Defesa dos Estados Unidos foi acelerado demais e anunciou que irá ajustar os termos relacionados. Essa declaração ocorreu em meio a uma crescente controvérsia pública, após a OpenAI anunciar uma parceria com o Pentágono, o que gerou debates amplos sobre ética em IA, uso militar e segurança de dados.

De acordo com informações públicas, o acordo foi anunciado na sexta-feira passada, enquanto, ao mesmo tempo, o governo dos EUA avançava com várias decisões relacionadas à segurança nacional. Após a divulgação, alguns membros da comunidade tecnológica e usuários expressaram preocupações de que a tecnologia de IA possa ser usada para fins militares. Sam Altman respondeu nas redes sociais, dizendo que a empresa irá acrescentar novas restrições ao acordo, incluindo a proibição explícita de usar os sistemas de IA para monitoramento doméstico de cidadãos ou residentes americanos.

Sam Altman também afirmou que o Departamento de Defesa dos EUA confirmou que as ferramentas de IA da OpenAI não serão usadas diretamente por agências de inteligência como a NSA para tarefas de vigilância. Ao mesmo tempo, a OpenAI planeja colaborar com o Pentágono na implementação de medidas adicionais de segurança técnica para reduzir o risco de uso indevido da IA em cenários sensíveis.

O CEO admitiu ainda que houve erros de julgamento na condução do acordo. Ele explicou que, na época, a equipe buscava aliviar rapidamente a tensão e evitar conflitos políticos mais graves, mas, ao olhar para trás, essa decisão foi precipitada e facilmente interpretada como uma ação especulativa.

A controvérsia também envolve outra empresa de IA, a Anthropic. Anteriormente, a Anthropic teve divergências com o governo dos EUA sobre os limites de uso do seu modelo de IA, Claude, buscando garantias de que seu sistema não seria usado para vigilância doméstica ou desenvolvimento de armas autônomas. Segundo relatos, as negociações entre as partes posteriormente fracassaram.

Ao mesmo tempo, há uma clara oscilação no sentimento dos usuários na internet. Alguns reduziram o uso do ChatGPT na plataforma e migraram para produtos concorrentes como o Claude, ampliando ainda mais o debate ético na indústria de IA.

Sam Altman também afirmou que não considera a Anthropic como um risco na cadeia de suprimentos e espera que o Departamento de Defesa dos EUA ofereça condições de cooperação semelhantes às da OpenAI. Este incidente reforça a questão de fronteiras entre o avanço rápido da tecnologia de IA, segurança nacional, aplicações militares e regulação social, que se tornou um foco de atenção na indústria tecnológica global.

Ver original
Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.
Comentário
0/400
Sem comentários