Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Centro de Património VIP
Aumento de património premium
Gestão de património privado
Alocação de ativos premium
Fundo Quant
Estratégias quant de topo
Staking
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos RWA
O Google lança o seu primeiro modelo de incorporação multimodal nativa, Gemini Embedding 2
10 de março, o Google DeepMind lançou o Gemini Embedding 2, o seu primeiro modelo nativo de embeddings multimodais, que unifica texto, imagens, vídeos, áudio e documentos num único espaço de embedding, marcando uma nova fase de fusão de múltiplos modos na tecnologia de IA.
O Gemini Embedding 2 suporta compreensão semântica em mais de 100 línguas e supera os modelos principais existentes em testes de referência de tarefas de texto, imagem e vídeo, além de introduzir capacidades de processamento de voz que anteriormente faltavam nos modelos de embedding.
Este modelo já está disponível para pré-visualização pública através da API Gemini e do Vertex AI, permitindo acesso imediato aos desenvolvedores.
Para os utilizadores empresariais, o lançamento deste modelo reduz diretamente a barreira técnica para construir sistemas de recuperação multimodal aprimorados por geração (RAG), pesquisa semântica e classificação de dados, podendo simplificar pipelines de dados anteriormente complexos, que exigiam processamento separado por modo.
Unificação multimodal: de texto a cinco tipos de mídia
O Gemini Embedding 2 é baseado na arquitetura Gemini, expandindo a capacidade de embedding de texto puro para cinco tipos de entrada:
Diferente do método tradicional de tratar cada modo de forma isolada, este modelo suporta entrada intercalada, ou seja, enviar simultaneamente imagens, textos e outros modos numa única solicitação, permitindo que o modelo capture relações semânticas complexas e sutis entre diferentes tipos de mídia.
O Gemini Embedding 2 continua a utilizar a técnica de aprendizagem de representação Matryoshka (MRL) adotada nos modelos de embedding anteriores do Google. Esta técnica comprime dinamicamente a dimensão do vetor através de uma estrutura “aninhada”, permitindo reduzir a dimensão de saída a partir do padrão de 3072, ajudando os desenvolvedores a equilibrar desempenho do modelo e custos de armazenamento.
Testes de referência mostram liderança, com destaque para capacidades de voz
O Google afirma que o Gemini Embedding 2 supera modelos concorrentes atuais em tarefas de texto, imagem e vídeo, estabelecendo um novo padrão de desempenho na área de embeddings multimodais.
O Google recomenda que os desenvolvedores escolham entre dimensões de 3072, 1536 ou 768 para obter embeddings de alta qualidade, de acordo com o cenário de aplicação. Este design é especialmente importante para empresas que necessitam de implantação em larga escala de vetores de embedding, permitindo controlar custos de infraestrutura sem comprometer significativamente a precisão.
No que diz respeito às capacidades, o modelo introduz uma funcionalidade de embedding de voz nativa, que anteriormente era ausente em modelos similares, permitindo o processamento direto de áudio sem necessidade de transcrição para texto.
O Google destaca que a tecnologia de embedding já é amplamente utilizada em vários produtos, incluindo cenários de engenharia de contexto em RAG, gestão de grandes volumes de dados e buscas tradicionais e análises.
Alguns parceiros de acesso antecipado já estão construindo aplicações multimodais com base no Gemini Embedding 2, e o Google afirma que esses casos de uso estão demonstrando o potencial real do modelo em cenários de alto valor.
Aviso de risco e isenção de responsabilidade