A voz do Grok da xAI assume a linha de atendimento ao cliente da Starlink, 70% das ligações são encerradas automaticamente

Starlink客服熱線

De acordo com um comunicado oficial da xAI publicado em 23 de abril, a xAI lançou o agente de IA de voz Grok Voice Think Fast 1.0, que já foi implantado na linha de atendimento ao cliente da Starlink +1 (888) GO STARLINK. De acordo com os dados de testes divulgados no comunicado, 70% das ligações são encerradas automaticamente por IA, sem necessidade de intervenção humana.

Especificações Técnicas do Grok Voice Think Fast 1.0 e Arquitetura de Implantação

De acordo com o comunicado oficial da xAI, o Grok Voice Think Fast 1.0 adota uma arquitetura de agente único, podendo chamar 28 tipos de ferramentas em sincronia no back-end, abrangendo centenas de fluxos de trabalho de vendas e atendimento ao cliente, como solução de falhas de hardware, pedidos de substituição de peças, solicitação de créditos de serviço, entre outros, executando tudo de forma autônoma.

O comunicado explica que a característica técnica central do sistema é “manter a latência de resposta inalterada enquanto realiza inferência no back-end” (reason in background while keeping response latency unchanged). O comunicado descreve o modo de implantação como “plug-and-play” (pronto para uso): após conectar a linha telefônica, ele executa automaticamente tarefas como atender chamadas, realizar vendas e suporte técnico.

Dados de Operação em Teste: Taxa de Encerramento do Atendimento e Taxa de Conversão de Vendas

De acordo com os dados de teste divulgados no comunicado oficial da xAI para a linha de atendimento ao cliente da Starlink:

· 70% das ligações são encerradas automaticamente pelo Grok Voice, sem qualquer intervenção humana

· 20% das ligações são concluídas com compra de assinatura da Starlink durante a conversa (taxa de conversão de vendas)

O comunicado afirma que o sistema Grok Voice suporta 25 idiomas, opera 24 horas por dia, sem interrupções, e não requer escalas ou trocas de turno manuais.

Teste de Referência τ-Voice Bench: Comparação de Pontuação com os Principais Concorrentes

De acordo com os resultados de avaliação do τ-Voice Bench anexados ao comunicado oficial da xAI, as pontuações dos principais sistemas de IA de voz são as seguintes:

Grok Voice Think Fast 1.0 (xAI):67.3%

Gemini 3.1 Flash Live (Google):43.8%

Grok Voice Fast 1.0 (antecessor do xAI):38.3%

GPT Realtime 1.5 (OpenAI):35.3%

A diferença de pontuação entre o Grok Voice Think Fast 1.0 e o concorrente mais próximo, o Gemini 3.1 Flash Live, é de 23,5 pontos percentuais. O comunicado também aponta que o valor de mercado estimado da indústria de centros de atendimento ao cliente global chega a US$ 350 bilhões, e a linha de atendimento ao cliente da Starlink é o primeiro cenário de implantação comercial do Grok Voice.

Perguntas Frequentes

Em qual cenário de serviço o Grok Voice Think Fast 1.0 já foi implantado, e quais são os dados operacionais específicos?

De acordo com o comunicado oficial da xAI de 23 de abril de 2026, o Grok Voice Think Fast 1.0 já foi implantado na linha de atendimento ao cliente da Starlink +1 (888) GO STARLINK. 70% das ligações são encerradas automaticamente por IA, sem necessidade de intervenção humana; 20% das ligações concluem a compra de assinatura da Starlink durante a chamada; o sistema suporta 25 idiomas, com operação 24 horas por dia.

Qual é a pontuação do Grok Voice Think Fast 1.0 no τ-Voice Bench e qual é a diferença em relação aos principais concorrentes?

De acordo com o comunicado oficial da xAI, a pontuação do Grok Voice Think Fast 1.0 no τ-Voice Bench é 67,3%, acima de 43,8% do Gemini 3.1 Flash Live, 35,3% do GPT Realtime 1.5 e 38,3% do Grok Voice Fast 1.0 da geração anterior. Ele está à frente, com a diferença em relação ao concorrente mais próximo sendo de 23,5 pontos percentuais.

Quais capacidades de chamada de ferramentas a arquitetura de agente único do Grok Voice Think Fast 1.0 possui?

De acordo com o comunicado oficial da xAI, a arquitetura de agente único do Grok Voice Think Fast 1.0 pode chamar simultaneamente 28 tipos de ferramentas no back-end, abrangendo centenas de fluxos de trabalho, como solução de falhas de hardware, pedidos de substituição de peças e solicitação de créditos de serviço. O comunicado descreve o modo de implantação como “plug-and-play”.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.

Related Articles

Agentes de IA impulsionam a demanda por pagamentos em cripto, x402 processa 165M de transações

Mensagem do Gate News, 27 de abril — Jesse Pollak, executivo de uma grande CEX, argumentou que agentes autônomos de IA estão criando um novo "centro de demanda" para pagamentos em cripto, exigindo infraestrutura de pagamentos nativa de software. Em 20 de abril, foi anunciado que o ecossistema x402 processou mais de 165

GateNews54m atrás

O agente da Cursor AI deu problema! Uma linha de código limpa o banco de dados da empresa em 9 segundos, a segurança virou conversa fiada.

Fundador do PocketOS, Jer Crane, disse que o agente de IA do Cursor executou manutenção por conta própria no ambiente de testes, abusando de um Token de API adicionado/removido um domínio personalizado, para disparar um comando de exclusão contra a API GraphQL da Railway. Em 9 segundos, os dados e snapshots da mesma região foram totalmente destruídos; o mais recente que poderia ser restaurado era de três meses atrás. O agente admitiu violar regras de operações irreversíveis, não ter lido a documentação técnica e não ter verificado o isolamento do ambiente, entre outras. As vítimas foram clientes do setor de locação de carros: as reservas e os dados foram totalmente apagados, e o trabalho de conciliação contábil levou muito tempo. Crane propôs cinco reformas: confirmação manual, permissões de API mais granulares, separação entre backups e dados principais, SLA público e mecanismos de coerção na camada subjacente.

ChainNewsAbmedia1h atrás

Alibaba lança em código aberto o modelo AgenticQwen: versão 8B se aproxima do desempenho de 235B via dual data flywheels

Mensagem da Gate News, 27 de abril — A equipe da PAI da Alibaba lançou e disponibilizou em código aberto o AgenticQwen, um modelo de linguagem agentic de pequena escala projetado para aplicações industriais de chamada de ferramentas. O modelo vem em duas versões: 8B e 30B-A3B. Treinado por meio de uma inovadora estrutura de aprendizado por reforço "dual data flywheel"

GateNews1h atrás

DeepSeek V4 Pro no Ollama Cloud: Claude Code em um clique

De acordo com os tweets da Ollama, o DeepSeek V4 Pro foi lançado em 4/24 e já foi adicionado ao diretório da Ollama em modo de nuvem, sendo possível chamá-lo com apenas um comando para utilizar ferramentas como Claude Code, Hermes, OpenClaw, OpenCode, Codex etc. O V4 Pro tem 1.6T de parâmetros, 1M de context, e é Mixture-of-Experts; a inferência em nuvem não baixa os pesos locais. Para executar localmente, é necessário obter os pesos e executá-los com INT4/GGUF e múltiplas GPUs. Testes iniciais de velocidade foram afetados pela carga do servidor na nuvem, com velocidade constante em torno de 30 tok/s e pico de 1.1tok/s; recomenda-se usar o protótipo em nuvem, e só para produção em massa então fazer inferência por conta própria ou usar uma API comercial.

ChainNewsAbmedia2h atrás

UB (Unibase) sobe 14,96% em 24 horas

Notícia da Gate, 27 de abril: segundo o monitoramento de mercado da Gate, no momento da publicação, UB (Unibase) está cotado a US$ 0.0491; em 24 horas, subiu 14.96%, atingindo a máxima de US$ 0.0534 e recuando para a mínima de US$ 0.0423. O volume de negociação em 24 horas chegou a US$ 3.9667 milhões. A capitalização de mercado atual é de aproximadamente US$ 123 milhões. A Unibase é uma camada de memória descentralizada de IA de alto desempenho, fornecendo memória de longo prazo e interoperabilidade entre plataformas para agentes de IA, permitindo que eles memorizem, colaborem e se aprimorem de forma autônoma. A Unibase tem como objetivo construir a internet de agentes abertos, apoiando a colaboração contínua de agentes inteligentes entre ecossistemas, capacitando desenvolvedores a criarem as próximas aplicações de IA. Esta notícia não constitui recomendação de investimento; ao investir, considere os riscos de volatilidade do mercado.

GateNews2h atrás

Guo Mingqián: A OpenAI vai fazer um celular com agentes de IA; MediaTek, Qualcomm e Luxshare Precision se tornam uma cadeia de suprimentos fundamental

Guo Mingchi alega que a OpenAI está em parceria com a MediaTek, a Qualcomm e a Luxshare Precision para desenvolver um celular com AI Agent, com previsão de produção em massa em 2028. O novo telefone terá como foco a conclusão de tarefas; o agente de IA entenderá e executará as necessidades, combinando computação na nuvem e no dispositivo, com ênfase em sensores e entendimento de contexto. A lista de especificações e da cadeia de suprimentos deverá ser definida entre 2026 e 2027; se isso se concretizar, ou se trouxer um novo ciclo de troca de celulares para o mercado de ponta, a Luxshare tem chances de se tornar a principal beneficiária.

ChainNewsAbmedia2h atrás
Comentário
0/400
Sem comentários