Google tiene desvelado una serie de actualizaciones a sus ofertas de IA, incluida la introducción de Gemini 1.5 Flash, mejoras a Gemini 1.5 Pro y avances en el Proyecto Astra, su visión para el futuro de los asistentes de IA.
Gemini 1.5 Flash es una nueva incorporación a la familia de modelos de Google, diseñada para ser más rápida y eficiente para brindar servicio a escala. Si bien es más liviano que el 1.5 Pro, conserva la capacidad de razonamiento multimodal a través de grandes cantidades de información y presenta la revolucionaria ventana de contexto largo de un millón de tokens.
«1.5 Flash destaca en resúmenes, aplicaciones de chat, subtítulos de imágenes y vídeos, extracción de datos de documentos y tablas extensos, y más», explicó Demis Hassabis, director ejecutivo de Google DeepMind. «Esto se debe a que 1.5 Pro lo entrenó a través de un proceso llamado ‘destilación’, donde los conocimientos y habilidades más esenciales de un modelo más grande se transfieren a un modelo más pequeño y más eficiente».
Mientras tanto, Google ha mejorado significativamente las capacidades de su modelo Gemini 1.5 Pro, ampliando su ventana contextual a la innovadora cifra de dos millones de tokens. Se han realizado mejoras en sus capacidades de generación de código, razonamiento lógico, conversación multiturno y comprensión de audio e imágenes.
La compañía también ha integrado Gemini 1.5 Pro en los productos de Google, incluidas las aplicaciones Gemini Advanced y Workspace. Además, Gemini Nano ahora comprende entradas multimodales y se expande más allá del texto para incluir imágenes.
Google anunció su próxima generación de modelos abiertos, Gemma 2, diseñados para ofrecer un rendimiento y una eficiencia innovadores. La familia Gemma también se está expandiendo con PaliGemma, el primer modelo de lenguaje visual de la compañía inspirado en PaLI-3.
Finalmente, Google compartió el progreso del Proyecto Astra (agente avanzado con capacidad de ver y hablar), su visión para el futuro de los asistentes de IA. La empresa ha desarrollado agentes prototipo que pueden procesar información más rápido, comprender mejor el contexto y responder rápidamente en una conversación.
“Siempre hemos querido crear un agente universal que sea útil en la vida cotidiana. El Proyecto Astra muestra comprensión multimodal y capacidades de conversación en tiempo real”, explicó el director ejecutivo de Google, Sundar Pichai.
«Con tecnología como esta, es fácil imaginar un futuro en el que las personas puedan tener un asistente experto en IA a su lado, a través de un teléfono o gafas».
Google dice que algunas de estas capacidades llegarán a sus productos a finales de este año. Los desarrolladores pueden encontrar todos los anuncios relacionados con Gemini que necesitan aquí.
Ver también: GPT-4o ofrece interacción de IA similar a la humana con integración de texto, audio y visión
¿Quiere aprender más sobre IA y big data de la mano de los líderes de la industria? Verificar Exposición de IA y Big Data que tendrá lugar en Amsterdam, California y Londres. El evento integral comparte ubicación con otros eventos importantes, incluidos Conferencia de automatización inteligente, bloquex, Semana de la Transformación Digitaly Exposición de seguridad cibernética y nube.
Explore otros próximos eventos y seminarios web de tecnología empresarial impulsados por TechForge aquí.
Fuente: Google marca el comienzo de la «era Géminis» con avances en inteligencia artificial