Mensagem do Gate News, 23 de abril — A Cluster Protocol, uma empresa de infraestruturas Web3 e deep tech em IA, anunciou a conclusão de uma ronda de financiamento de $5 milhões liderada pela DAO5, com participação da Paper Ventures, JPEG Trading e Mapleblock Capital. O financiamento total da empresa até à data atinge 7,75 milhões de dólares. O novo capital vai acelerar o desenvolvimento do CodeXero, um IDE de IA nativo do browser para vibe coding nos ecossistemas EVM.
O CodeXero converte a intenção do utilizador em código pronto para produção. Quando os criadores descrevem o que pretendem construir, um motor de IA alimentado pela infraestruturas de computação descentralizada da Cluster e treinado em mais de 200 padrões de contratos inteligentes auditados analisa a intenção e gera contratos inteligentes implementáveis, lógica DeFi, modelos de economia de tokens e fluxos de trabalho de implementação.
O CodeXero foi integrado com mais de 300.000 carteiras, processou mais de 3 mil milhões de tokens de IA e apoiou a implementação de mais de 25.000 dApps. O projeto estabeleceu parcerias com a Filecoin e outras iniciativas do ecossistema EVM, com mais de 400 IPs colaborativas—incluindo redes de GPU, fornecedores de dados, plataformas de agentes e módulos de competências profissionais—integrados no seu motor de execução.
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a
Isenção de responsabilidade.
Related Articles
IEA: O investimento em infraestruturas de IA já ultrapassou o investimento na produção de petróleo e gás; em 2026, prevê-se que aumente mais 75%
De acordo com a análise e os dados de mercado divulgados pela Agência Internacional da Energia (IEA) a 26 de abril, o investimento de capital (capex) total das cinco principais empresas tecnológicas em 2025 ultrapassa 400 mil milhões de dólares, sendo aplicado principalmente à construção de infraestruturas de IA, num nível já superior ao do investimento anual global em produção de petróleo e gás natural. A IEA estima que os capex relacionados poderão aumentar mais 75% em 2026.
MarketWhisper5m atrás
O senador Bernie Sanders emite um aviso sobre a ameaça existencial da IA
Sanders sublinhou que, mesmo que a maioria dos cientistas de IA reconheça a possibilidade de a IA escapar ao controlo e se tornar um perigo para a nossa existência, não foram tomadas medidas importantes para evitar isso. “Temos de garantir que a IA beneficia a humanidade, e não nos prejudica”, afirmou.
Principais lições:
Bernie Sanders
Coinpedia15m atrás
Responsável pelo grande modelo da Xiaomi: a competição em IA está a mudar para a era dos agentes, e a autoevolução é um evento-chave para a AGI
A responsável da equipa de grandes modelos da Xiaomi, Luo Fuli, concedeu uma entrevista aprofundada na plataforma Bilibili em 24 de abril (número do vídeo: BV1iVoVBgERD). A entrevista teve a duração de 3,5 horas e foi a sua primeira exposição pública e sistemática das suas perspetivas técnicas enquanto responsável técnico. Luo Fuli afirmou que a competição na área dos grandes modelos já passou da era do Chat para a era do Agent, e indicou que «autoevolução» será o acontecimento-chave para a AGI no próximo ano.
MarketWhisper15m atrás
A Voz do Grok da xAI assume a linha de atendimento ao cliente da Starlink, 70% das chamadas são arquivadas automaticamente
De acordo com o comunicado oficial publicado pela xAI a 23 de abril, a xAI lançou o agente de IA de voz Grok Voice Think Fast 1.0 e já o colocou em funcionamento na linha telefónica de apoio ao cliente +1 (888) GO STARLINK. Com base nos dados de testes divulgados no anúncio, 70% das chamadas são encerradas automaticamente por IA, sem necessidade de intervenção humana.
MarketWhisper27m atrás
GPT-5.5 Regressa ao Estado da Arte na Codificação, mas a OpenAI Muda os Benchmarks Depois de Perder para o Opus 4.7
Gate News mensagem, 27 de Abril — A SemiAnalysis, uma empresa de análise de semicondutores e IA, publicou um benchmark comparativo de assistentes de codificação, incluindo GPT-5.5, Claude Opus 4.7 e DeepSeek V4. A principal conclusão: GPT-5.5 marca o primeiro regresso da OpenAI ao estado da arte em modelos de codificação em seis meses, com engenheiros da SemiAnalysis agora a alternar entre Codex e Claude Code após antes dependerem quase exclusivamente de Claude. O GPT-5.5 baseia-se numa nova abordagem de pré-treinamento com o nome de código "Spud" e representa a primeira expansão do OpenAI da escala de pré-treinamento desde o GPT-4.5.
Em testes práticos, surgiu uma divisão clara de responsabilidades. Claude trata do planeamento de novos projectos e da configuração inicial, enquanto Codex se destaca em correcções de bugs que exigem raciocínio intensivo. O Codex mostra uma compreensão mais forte de estruturas de dados e raciocínio lógico, mas tem dificuldades em inferir intenções de utilizador ambíguas. Numa tarefa única no mesmo painel, o Claude replicou automaticamente o layout da página de referência, mas fabricou grandes quantidades de dados; já o Codex ignorou o layout, mas entregou dados significativamente mais precisos.
A análise revela um detalhe de manipulação do benchmark: um post de Fevereiro da OpenAI incentivava a indústria a adoptar o SWE-bench Pro como o novo padrão para benchmarks de codificação. No entanto, o anúncio do GPT-5.5 mudou para um novo benchmark chamado "Expert-SWE." O motivo, escondido nas letras pequenas, é que o GPT-5.5 foi ultrapassado pelo Opus 4.7 no SWE-bench Pro e ficou muito aquém do Mythos 77.8%, ainda não lançado da Anthropic.
Quanto ao Opus 4.7, a Anthropic publicou uma análise pós-mortem uma semana após o lançamento, reconhecendo três bugs no Claude Code que persistiram por várias semanas de Março a Abril, afectando quase todos os utilizadores. Vários engenheiros tinham previamente reportado degradação de desempenho na versão 4.6, mas foram descartados como observações subjectivas. Além disso, o novo tokenizador do Opus 4.7 aumenta o uso de tokens em até 35%, o que a Anthropic admitiu abertamente — constituindo, na prática, um aumento de preço oculto.
O DeepSeek V4 foi avaliado como "acompanhar o ritmo da fronteira, mas não liderar," posicionando-se como a alternativa de menor custo entre os modelos de código fechado. A análise também notou que "o Claude continua a superar o DeepSeek V4 Pro em tarefas de escrita chinesa de alta dificuldade," comentando que "o Claude venceu o modelo chinês na sua própria língua."
O artigo introduz um conceito-chave: a precificação do modelo deve ser avaliada por "custo por tarefa" e não por "custo por token." A precificação do GPT-5.5 é o dobro da do GPT-5.4 input $5, output por milhão de tokens, mas conclui as mesmas tarefas usando menos tokens, pelo que o custo real não é necessariamente mais alto. Os dados iniciais da SemiAnalysis mostram que a razão input-para-output do Codex é de 80:1, inferior à do Claude Code, que é de 100:1.
GateNews31m atrás
Executivo da Google DeepMind: Cada Empresa de Produtos de IA Deve Criar Benchmarks Personalizados
Mensagem do Gate News, 27 de abril — Logan Kilpatrick, gestor sénior de produto na Google DeepMind e responsável de produto para o Google AI Studio, declarou no X que todas as empresas que criam produtos baseados em IA devem estabelecer os seus próprios benchmarks personalizados para medir o desempenho dos modelos de IA. Ele descreveu isto como um método para
GateNews1h atrás