Modelo mapeia texto, imagens, vídeo, áudio e documentos em espaço unificado com redução de latência de até 70%.
O Google lançou o Gemini Embedding 2 em preview público, seu primeiro modelo de embedding nativamente multimodal. O modelo mapeia texto, imagens, vídeo, áudio e documentos em um espaço de embedding unificado, habilitando busca e classificação cross-modal em mais de 100 idiomas.
Para clientes enterprise, o modelo promete redução de latência de até 70% e menor custo total para sistemas de IA baseados em RAG. Está disponível via Gemini API no Google AI Studio e Vertex AI.
6 mar, 09:00
5 mar, 09:00
1 mar, 13:19
26 fev, 18:39
26 fev, 14:57