Inovação disruptiva pisa na linha vermelha política, como é que a Anthropic consegue sobreviver no meio?

ChainNewsAbmedia

As startups do Vale do Silício gostam de chamar seus produtos de inovação disruptiva, mas nenhuma empresa enfrenta uma crise de sobrevivência como a Anthropic ao realmente criar uma inovação disruptiva. Quando “inovação disruptiva” se torna um clichê cansativo para os investidores do Vale do Silício, a Anthropic mostra ao mundo uma espécie de apocalipse moderno; avanços tecnológicos fizeram a avaliação da empresa dobrar, mas as etiquetas políticas e a tempestade regulatória que se seguiram a empurraram a empresa para o fundo do poço. A revista Time revelou exclusivamente a história por trás desses estranhos do mundo da IA. Sob a sombra de ameaças à segurança nacional e de adversários poderosos, essa empresa de IA que jura proteger a humanidade luta para sobreviver na brecha da política de alta pressão.

Crescimento acelerado da Anthropic, tornando-se uma ameaça ao setor de software

No campo das aplicações comerciais de IA, a avaliação da Anthropic atingiu 380 bilhões de dólares, com um crescimento de receita notável, chegando até a superar Goldman Sachs, McDonald’s e Coca-Cola. O Claude, produto da Anthropic, consegue executar códigos de forma independente, detectar erros e otimizar sistemas, revolucionando completamente o modo tradicional de trabalho dos engenheiros de software. Investidores perceberam que a Anthropic tem até a capacidade de influenciar o mercado financeiro; sempre que uma nova versão é lançada, há oscilações drásticas nas ações de tecnologia. O CEO Amodei prevê que, nos próximos cinco a dez anos, a inteligência artificial poderá substituir a maioria dos empregos de escritório. Esse fenômeno, de sucesso comercial acompanhado de riscos sociais, gera um conflito interno na equipe responsável por avaliação social na Anthropic: de um lado, querem impulsionar a produtividade e os resultados da empresa; de outro, temem que os produtos possam causar desemprego em massa.

Riscos potenciais do Claude 3.7 Sonnet

Com a missão de garantir a segurança humana, a Anthropic está no centro de uma tempestade de explosões tecnológicas e regulamentações governamentais. Seus princípios éticos, que defendem a segurança, enfrentam dificuldades ao atender às demandas de compras do Departamento de Defesa dos EUA, chegando a ser alvo de boicotes.

De acordo com testes internos, o Claude é 427 vezes mais rápido que humanos ao executar certas tarefas críticas. Em fevereiro do ano passado, membros técnicos da Anthropic descobriram, durante um experimento, que a versão do Claude que seria lançada em breve apresentava riscos potenciais de ajudar na fabricação de armas biológicas. Essa descoberta levou a empresa a adiar urgentemente o lançamento do Claude 3.7 Sonnet, demonstrando um alto grau de preocupação com a segurança. Logan Graham, líder do time vermelho da Anthropic, afirmou que, diante de riscos catastróficos como uma guerra nuclear ou extinção humana provocados pela IA, os desenvolvedores têm uma enorme responsabilidade social. Atualmente, não existe uma solução reconhecida na indústria, e as equipes de desenvolvimento precisam equilibrar recursos limitados com a gestão de riscos. Essa prioridade máxima na segurança humana torna a Anthropic uma entidade única no setor de IA.

Conflitos éticos empresariais e a oposição ao governo Trump

A relação da Anthropic com o governo dos EUA começou a mudar drasticamente no ano passado. Como a empresa se recusou a aplicar IA em armas totalmente autônomas ou em vigilância civil, ela rejeitou a renegociação com o Pentágono. Em consequência, o governo Trump a listou como fornecedora de risco à segurança nacional — uma primeira na história dos EUA para uma empresa doméstica. O Departamento de Defesa acredita que empresas privadas não devem limitar os sistemas de comando militar, enquanto Amodei, em um memorando interno, afirmou que essa decisão foi motivada pela recusa da Anthropic em doar para Trump, colaborar com objetivos políticos específicos e manter transparência regulatória. Esse impasse permitiu que a OpenAI, concorrente, conquistasse contratos militares. A disputa não se resume a detalhes contratuais, mas ao núcleo do poder de limitar a tecnologia.

Fundador Amodei, o outsider intelectual da IA

Ao falar da firmeza da Anthropic, não se pode deixar de destacar a singularidade do fundador, Amodei. Em 2024, ele escreveu um artigo de 14.000 palavras sobre como a IA pode acelerar descobertas científicas e transformar o mundo em uma utopia. Em janeiro deste ano, publicou uma segunda novela que detalha as crises provocadas pelo avanço da IA, como vigilância em massa, desemprego e a perda de controle humano permanente. Quem, entre as startups, teria a coragem de se auto-criticar e temer que sua própria criação cause infelicidade a outros?

Na luta comercial pela IA, a OpenAI leva vantagem temporária

Segundo a revista Time, a Anthropic não tinha conhecimento de que, enquanto buscava estratégias, o Pentágono também negociava com a OpenAI, tentando integrar o ChatGPT ao sistema governamental. Depois, veio à tona que o fundador da OpenAI, Sam Altman, afirmou ter chegado a um acordo com o Pentágono, semelhante ao que a Anthropic buscava. Amodei enviou uma mensagem aos funcionários dizendo que Altman e o Pentágono estavam “enganando” a sociedade, tentando fazer parecer que seu acordo tinha muitas restrições. Anteriormente, oficiais do Departamento de Defesa confirmaram que a xAI de Elon Musk também disponibilizaria seus modelos em servidores confidenciais, e o Pentágono estaria negociando com a Google.

A estratégia de retardar e adiar respostas da Anthropic

Claude foi responsável por escrever a maior parte do código necessário para desenvolver futuros modelos de IA, o que reduziu o intervalo de lançamento de meses para semanas. Sua velocidade de execução em tarefas específicas já supera significativamente a humana, o que preocupa a gestão, pois a tecnologia pode futuramente escapar ao controle humano.

Quando a IA começar a escrever sua própria lógica evolutiva, quanto tempo ainda teremos? Diante do aumento da competição externa, a Anthropic recentemente revisou suas políticas, prometendo maior transparência sobre os riscos de segurança da IA, incluindo a divulgação do desempenho de seus próprios modelos em testes de segurança. Além disso, se a liderança da empresa acreditar que a Anthropic está na liderança do setor de IA e que isso pode gerar riscos catastróficos, ela pode optar por “adiar” o desenvolvimento tecnológico.

Porém, essa história sobre ética na IA ainda não terminou.

Este artigo, “Inovação Disruptiva Atinge Linha Vermelha Política: Como a Anthropic Sobrevive na Brecha”, foi originalmente publicado na ABMedia.

Ver original
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário