Musk xAI apresenta queixa contra o estado do Colorado, alegando que as regras de IA obrigam a restringir a liberdade de expressão, violando…

xAI訴訟

A empresa de inteligência artificial xAI, da tutela de Musk, apresentou na quinta-feira uma ação judicial junto do Tribunal Distrital dos EUA no estado do Colorado, pedindo que seja impedida a entrada em vigor, a 30 de junho, do projeto de lei do Senado do Colorado n.º 24-205 (SB 24-205). O diploma visa impedir que os sistemas de IA criem «discriminação algorítmica» nas áreas do emprego, habitação e serviços financeiros. A xAI sustenta que a regulamentação obriga o Grok a produzir informação com base em posições políticas, violando a liberdade de expressão.

As alegações constitucionais da xAI: a saída de IA é uma expressão protegida

xAI起訴科羅拉多州 (Fonte: CourtListener)

Nos documentos do processo, a xAI declara de forma expressa que o estado do Colorado não tem o direito de alterar à força a emissão de informação da xAI apenas porque pretende promover uma perspetiva específica em temas altamente politizados como «justiça e igualdade». A empresa salienta também que a SB 24-205 tem uma contradição lógica fundamental: por um lado, a lei defende a eliminação da discriminação histórica e o aumento da diversidade, mas, por outro lado, nas suas disposições internas, autoriza «tratamento diferenciado», apontando em direções opostas.

Isto não é a primeira vez que a xAI recorre a ação legal por questões de regulação da IA. Em dezembro de 2025, a xAI já tinha intentado um processo contra a Califórnia, relativa ao «Genеrative AI Training Data Transparency Act» [Projeto de Lei de Transparência dos Dados de Treino de IA Generativa], argumentando que as exigências de divulgação de informação do estado constituem expressão coerciva e envolvem a divulgação de segredos comerciais, violando a Primeira Emenda e a Quinta Emenda da Constituição dos EUA. O processo do Colorado é a segunda ação judicial a nível federal da xAI no domínio da regulação da IA.

Contexto legislativo e principais pontos de controvérsia da SB 24-205

A SB 24-205 do Colorado é uma das primeiras leis estaduais dos EUA contra a discriminação em IA, aprovada a nível estadual, exigindo que os programadores de sistemas de IA de elevado risco adotem medidas de conformidade para evitar que os seus sistemas produzam efeitos discriminatórios injustificados sobre grupos protegidos. Importa notar que, antes de o Colorado e a Califórnia impulsionarem sucessivamente legislação de IA, existiram acusações de que o Grok teria, no passado, divulgado declarações associadas ao racismo, à discriminação em função do género e ao antissemitismo; alguns legisladores consideraram isso como uma das bases para impulsionar normas de combate à discriminação algorítmica.

Quatro principais alegações jurídicas apresentadas no processo da xAI

Violação da liberdade de expressão: a saída da IA é uma expressão protegida pela Primeira Emenda; o governo estadual não pode impor de forma coerciva o conteúdo da expressão

Inserção de opiniões políticas: a regulamentação exige que o Grok ajuste a saída com base na posição política do Colorado, constituindo uma interferência no conteúdo liderada pelo governo

Contradição lógica: a lei defende simultaneamente a eliminação da discriminação e a autorização de tratamento diferenciado; as disposições internas entram em conflito entre si

Interferência nos objetivos do produto: a obrigação de alterar a saída irá impedir o desenho do Grok de «procurar a verdade ao máximo»

Posição da Casa Branca: promover um quadro federal unificado em vez de um mosaico entre estados

O consultor de políticas de IA da Casa Branca, David Sacks, tem estado empenhado em promover que os estados abdquem de criarem regras próprias de supervisão da IA, defendendo a criação de um padrão único federal de IA. Em março, afirmou publicamente: «50 estados diferentes regulam a IA de 50 formas diferentes, criando confusão no sistema de regulação; torna-se difícil para os inovadores cumprir.» Sacks é atualmente copresidente do conselho consultivo de tecnologia do Presidente recém-criado, responsável por coordenar o avanço de um quadro de supervisão da IA unificado a nível nacional.

A ação que a xAI move contra o Colorado, alinhada em direção com a posição que Sacks defende de prioridade federal, intensifica ainda mais a controvérsia sobre se a soberania da supervisão da IA nos EUA deve ser da esfera federal ou das esferas estaduais.

Perguntas frequentes

Que comportamentos concretos de IA são regulados pela SB 24-205 do Colorado?

A SB 24-205 exige que, para sistemas de IA de elevado risco implantados em domínios como triagem para emprego, candidaturas a habitação e serviços financeiros, sejam tomadas medidas para evitar impactos discriminatórios injustificados sobre grupos protegidos; os programadores devem fornecer a documentação de conformidade correspondente; a regulamentação prevê-se que entre em vigor a 30 de junho de 2026.

Como evoluiu o processo que a xAI tinha intentado contra a Califórnia?

A xAI intentou em dezembro de 2025 um processo contra a Califórnia relativo ao «Genеrative AI Training Data Transparency Act» [Projeto de Lei de Transparência dos Dados de Treino de IA Generativa], argumentando que as exigências de divulgação da informação constituem expressão coerciva e envolvem a divulgação de segredos comerciais, violando a Primeira e a Quinta Emendas da Constituição. Até ao momento, o caso continua em tramitação nos tribunais federais dos EUA.

Que impacto de longo prazo poderá esta ação ter no panorama da supervisão da IA nos EUA?

Se o tribunal apoiar as alegações da xAI em matéria de Primeira Emenda, poderá enfraquecer a base jurídica das leis estaduais de combate à discriminação em IA e abrir caminho a um quadro unificado de supervisão da IA a nível federal. O rumo deste caso irá afetar diretamente as decisões legislativas de dezenas de estados que estão a considerar criar legislação semelhante.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.

Related Articles

IEA: Os gastos com infraestrutura de IA já ultrapassaram os investimentos na produção de petróleo e gás; em 2026, espera-se que aumentem mais 75%

De acordo com a análise e os dados de mercado divulgados pela Agência Internacional de Energia (IEA) em 26 de abril, o investimento total em despesas de capital das cinco maiores empresas de tecnologia em 2025 ultrapassou US$ 400 bilhões, com foco principalmente na construção de infraestrutura de IA; o tamanho já superou o volume anual de investimentos globais em produção de petróleo e gás natural. A IEA estima que, em 2026, as despesas de capital relacionadas poderão crescer ainda mais 75%.

MarketWhisper15m atrás

O senador Bernie Sanders emite um alerta sobre a ameaça existencial da IA

Sanders enfatizou que, mesmo que a maioria dos cientistas de IA reconheça a possibilidade de a IA escapar do controle e se tornar um perigo para a nossa existência, nenhuma medida importante foi tomada para evitá-la. “Devemos garantir que a IA beneficie a humanidade, e não nos prejudique”, afirmou. Principais conclusões: Bernie Sanders

Coinpedia24m atrás

Responsável pelo grande modelo de IA da Xiaomi: a competição em IA está mudando para a era dos Agentes; a autoevolução é o evento-chave para a AGI

A responsável pela equipe do grande modelo da Xiaomi, Luo Fuli, concedeu uma entrevista em profundidade (número do vídeo: BV1iVoVBgERD) na plataforma Bilibili em 24 de abril, com duração de 3,5 horas. Esta foi sua primeira vez, em sua função como responsável técnico, a expor de forma sistemática suas perspectivas técnicas em público. Luo Fuli afirmou que a corrida pela competição de grandes modelos passou da era do Chat para a era dos Agentes e apontou que “autoevolução” será o principal evento para a AGI no próximo ano.

MarketWhisper25m atrás

A voz do Grok da xAI assume a linha de atendimento ao cliente da Starlink, 70% das ligações são encerradas automaticamente

De acordo com o anúncio oficial da xAI em 23 de abril, a xAI lançou o agente de IA de voz Grok Voice Think Fast 1.0 e já foi implantado na linha de atendimento ao cliente do Starlink +1 (888) GO STARLINK. De acordo com os dados de testes divulgados no anúncio, 70% das ligações são encerradas automaticamente por IA, sem necessidade de intervenção de um humano.

MarketWhisper36m atrás

GPT-5.5 Volta ao Topo em Codificação, mas a OpenAI Troca os Benchmarks Depois de Perder para o Opus 4.7

Mensagem do Gate News, 27 de abril — A SemiAnalysis, uma empresa de análise de semicondutores e IA, divulgou um benchmark comparativo de assistentes de codificação, incluindo GPT-5.5, Claude Opus 4.7 e DeepSeek V4. A principal descoberta: GPT-5.5 marca o primeiro retorno da OpenAI ao limite do que há de mais avançado em modelos de codificação em seis meses, com engenheiros da SemiAnalysis agora alternando entre Codex e Claude Code depois de anteriormente dependerem quase exclusivamente de Claude. O GPT-5.5 é baseado em uma nova abordagem de pré-treinamento codificada como "Spud" e representa a primeira expansão do OpenAI na escala de pré-treinamento desde o GPT-4.5. Em testes práticos, surgiu uma divisão clara de funções. Claude fica com o planejamento de projetos novos e a configuração inicial, enquanto Codex se destaca em correções de bugs que exigem raciocínio intensivo. O Codex demonstra uma compreensão mais forte de estruturas de dados e raciocínio lógico, mas tem dificuldades para inferir a intenção ambígua do usuário. Em uma tarefa única no painel, o Claude replicou automaticamente o layout da página de referência, mas fabricou grandes quantidades de dados, enquanto o Codex pulou o layout, mas entregou dados significativamente mais precisos. A análise revela um detalhe de manipulação de benchmark: o post do blog da OpenAI de fevereiro incentivou a indústria a adotar o SWE-bench Pro como o novo padrão para benchmarks de codificação. No entanto, o anúncio do GPT-5.5 mudou para um novo benchmark chamado "Expert-SWE." O motivo, escondido nas letras miúdas, é que o GPT-5.5 foi superado pelo Opus 4.7 no SWE-bench Pro e ficou muito aquém do não lançado Mythos da Anthropic 77.8%. Em relação ao Opus 4.7, a Anthropic publicou uma análise pós-mortem uma semana após o lançamento, reconhecendo três bugs no Claude Code que persistiram por várias semanas de março a abril, afetando quase todos os usuários. Vários engenheiros já haviam relatado degradação de desempenho na versão 4.6, mas foram dispensados como observações subjetivas. Além disso, o novo tokenizador do Opus 4.7 aumenta o uso de tokens em até 35%, algo que a Anthropic admitiu abertamente—o que, efetivamente, constitui um aumento de preço oculto. O DeepSeek V4 foi avaliado como "acompanhando o ritmo da fronteira, mas não liderando," posicionando-se como a alternativa de menor custo entre modelos de código fechado. A análise também observou que "Claude continua a superar o DeepSeek V4 Pro em tarefas de escrita em chinês de alta dificuldade," comentando que "Claude venceu o modelo chinês na própria língua. O artigo apresenta um conceito-chave: a precificação dos modelos deve ser avaliada por "custo por tarefa" em vez de "custo por token." A precificação do GPT-5.5 é o dobro da do GPT-5.4 input $5, output por um milhão de tokens, mas ele conclui as mesmas tarefas usando menos tokens, tornando o custo real não necessariamente mais alto. Os dados iniciais da SemiAnalysis mostram que a proporção input-to-output do Codex é de 80:1, menor do que a do Claude Code, de 100:1.

GateNews41m atrás

Executivo da Google DeepMind: Toda Empresa de Produtos de IA Deve Criar Benchmarks Personalizados

Mensagem do Gate News, 27 de abril — Logan Kilpatrick, gerente sênior de produto na Google DeepMind e líder de produto do Google AI Studio, declarou no X que toda empresa que desenvolve produtos baseados em IA deve criar seus próprios benchmarks personalizados para medir o desempenho dos modelos de IA. Ele descreveu isso como um método para

GateNews1h atrás
Comentário
0/400
Sem comentários