Modelo mapeia texto, imagens, vídeo, áudio e documentos em espaço unificado com redução de latência de até 70%.
O Google lançou o Gemini Embedding 2 em preview público, seu primeiro modelo de embedding nativamente multimodal. O modelo mapeia texto, imagens, vídeo, áudio e documentos em um espaço de embedding unificado, habilitando busca e classificação cross-modal em mais de 100 idiomas.
Para clientes enterprise, o modelo promete redução de latência de até 70% e menor custo total para sistemas de IA baseados em RAG. Está disponível via Gemini API no Google AI Studio e Vertex AI.
27 mar, 09:00
25 mar, 09:00
25 mar, 09:00
17 mar, 09:00
26 fev, 14:57