Google aprovechó un evento en París para presentar algunos de los últimos avances de inteligencia artificial en sus productos de Búsqueda y Mapas.
El evento de última hora se consideró en gran medida como una respuesta a la integración de Microsoft de los modelos de OpenAI en sus productos. Justo ayer, Microsoft realizó un evento aún más improvisado en el que anunció que una nueva versión del chatbot ChatGPT de OpenAI, basado en GPT-4, se integrará en el navegador Edge y el motor de búsqueda Bing.
Se esperaba que Google hiciera una gran cantidad de anuncios de IA en su conferencia de desarrolladores de E/S en mayo. El evento de esta semana se sintió como un intento apresurado y sin pulir de Google para recordarle al mundo (o, más probablemente, a los inversores) que también es un líder en inteligencia artificial y que no se ha quedado atrás.
Según los informes, OpenAI hizo sonar las alarmas en Google con ChatGPT. Por invitación del CEO de Google, Sundar Pichai, los fundadores de la compañía, Larry Page y Sergey Brin, regresaron para una serie de reuniones para revisar la estrategia de productos de IA de Google.
A raíz de esas reuniones, supuestamente se decidió que Google acelerará su proceso de revisión de IA para poder implementar soluciones más rápidamente. En medio de esos informes, y el despido de investigadores de ética de alto perfil por parte de Google, a muchos les preocupa que la compañía se apresure a lanzar productos inseguros al mercado.
Prabhakar Raghavan, vicepresidente sénior de Google, dirigió los procedimientos. En su discurso de apertura, afirmó que el objetivo de Google es «mejorar significativamente la vida de tantas personas como sea posible». A lo largo del evento, varios oradores parecían realmente querer impulsar la narrativa de que Google no se arriesgará.
“Cuando se trata de IA, es fundamental que traigamos modelos al mundo de manera responsable”, dijo Raghavan.
Búsqueda de Google
La búsqueda es el pan y la mantequilla de Google. La amenaza que podría representar para Google un Bing mejorado con ChatGPT parece haber sido lo que causó tanta alarma dentro de la empresa.
“La búsqueda sigue siendo nuestro mayor logro”, dijo Raghavan. Agregando, «la luna sigue moviéndose».
Google usó esta sección para resaltar algunos de los avances que ha estado haciendo en segundo plano y que la mayoría no conocerá. Esto ha incluido el uso de traducción automática de disparo cero para agregar dos docenas de nuevos idiomas a Google Translate durante el año pasado.
Otro producto que continúa siendo mejorado por AI es Google Lens, que ahora se usa más de 10 mil millones de veces por mes.
“La cámara es el próximo teclado”, explica Raghavan. “La era de la búsqueda visual está aquí”.
Liz Reid, vicepresidenta de ingeniería de Google, subió al escenario para brindar una actualización sobre lo que la empresa está haciendo en esta área.
Google Lens se está ampliando para admitir contenido de video. Un usuario puede activar Lens, tocar algo sobre lo que quiera obtener más información en un videoclip (como un punto de referencia) y Google mostrará más información al respecto.
“Si puede verlo, puede buscarlo”, dice Reid.
La búsqueda múltiple es otra mejora de búsqueda visual impresionante que mostró Google. La función permite a los usuarios buscar tanto con una imagen como con texto, por lo que, por ejemplo, puede intentar encontrar una silla específica o una prenda de ropa en un color diferente.
Google iba a dar una demostración en vivo de búsqueda múltiple, pero extrañamente perdió el teléfono. Afortunadamente, la compañía dice que ahora está disponible en todo el mundo, por lo que puede intentarlo usted mismo.
Pocas empresas tienen acceso a la cantidad de información sobre el mundo y sus ciudadanos que tiene Google. Dejando a un lado los argumentos de privacidad, permite a la empresa ofrecer servicios potentes que se complementan entre sí.
Reid dice que los usuarios podrán tomar una foto de algo como un artículo de panadería y pedirle a Google que busque un lugar cercano de Google Maps donde la persona pueda tener en sus manos un equivalente. Google dice que esa característica llegará pronto a las imágenes en las páginas de resultados de búsqueda móvil.
Bardo
Prabhakar retomó el escenario para discutir la respuesta de Google a ChatGPT.
El servicio de inteligencia artificial conversacional de Google se llama Bard y funciona con LaMDA (Modelo de lenguaje para aplicaciones de diálogo).
LaMDA es un modelo que se basa en Transformadoruna arquitectura de red neuronal que Google Research inventó y abrió en 2017. En lugar de depender de respuestas predefinidas como los chatbots más antiguos, LaMDA está capacitado en diálogo para interacciones naturales más abiertas y puede brindar información actualizada de La web.
En un ejemplo de interacción, Prabhakar le preguntó a Bard qué debería considerar al comprar un auto nuevo. Luego preguntó por los pros y los contras de un coche eléctrico. Finalmente, le pidió a Bard que lo ayudara a planificar un viaje por carretera.
Bard ahora está disponible para probadores de confianza, pero Prabhakar dice que Google verificará que cumpla con la «barra alta» de seguridad de la compañía antes de una implementación más amplia.
La compañía dice que está adoptando NORA (No One Right Answer) para preguntas como: «¿Cuál es la mejor constelación para observar las estrellas?» ya que es subjetivo. La IA generativa se utilizará en tales casos para traer múltiples puntos de vista a los resultados, lo que suena bastante similar a lo que ha estado haciendo en Google News durante algún tiempo para ayudar a abordar las preocupaciones de sesgo.
Prabhakar continúa destacando que el potencial de la IA generativa va mucho más allá del texto. El SVP destaca que Google puede usar IA generativa para crear una vista de 360 grados de elementos como zapatillas de deporte a partir de solo un puñado de imágenes.
El próximo mes, Google comenzará a incorporar desarrolladores para su API de lenguaje generativo para ayudarlos a acceder a algunas capacidades poderosas. Inicialmente, la API estará impulsada por LaMDA. Prabhakar dice que seguirá “una gama de modelos”.
mapas de Google
Chris Phillips, jefe de Geo Group de Google, subió al escenario para brindar una descripción general de algunas de las mejoras de IA que la compañía está incorporando a Google Maps.
Phillips dice que la IA está «impulsando la próxima generación de Google Maps». Google está utilizando IA para fusionar miles de millones de Street View e imágenes del mundo real para convertir mapas 2D en «vistas multidimensionales» que permitirán a los usuarios volar virtualmente sobre edificios si están planeando una visita.
Sin embargo, lo más impresionante es cómo la IA le permite a Google tomar imágenes 2D de lugares interiores y convertirlas en 3D que la gente puede explorar. Un ejemplo provisto de dónde esto podría ser útil es visitar un restaurante antes de una cita para ver si la iluminación y el ambiente general son románticos:
Se están realizando mejoras adicionales en «Buscar con vista en vivo», que utiliza AR para ayudar a las personas a encontrar cosas cercanas, como cajeros automáticos.
Al buscar cosas como cafeterías, puede ver si están abiertas e incluso qué tan ocupadas suelen estar desde la vista AR.
Google dice que está haciendo su mayor expansión de visualización en vivo en interiores hoy. La visualización en vivo en interiores se está expandiendo a 1000 nuevos aeropuertos, estaciones de tren y centros comerciales.
Finalmente, Google está ayudando a los usuarios a tomar decisiones de transporte más sostenibles. Phillips dice que Google quiere «hacer la elección sostenible, la elección fácil».
Las nuevas funciones de Google Maps para propietarios de vehículos eléctricos ayudarán con la planificación de viajes al tener en cuenta el tráfico, el nivel de carga y el consumo de energía. Se mejorarán las recomendaciones de parada de carga y un filtro de carga «Muy rápido» ayudará a los propietarios de vehículos eléctricos a elegir un lugar donde puedan recargarse rápidamente y seguir su camino.
Incluso más sostenible que la conducción EV es caminar. Google está haciendo que las indicaciones para caminar sean más «vistas» a partir de la descripción general de su ruta. La compañía dice que se lanzará globalmente en Android e iOS en los próximos meses.
Prabhakar vuelve a subir al escenario para resaltar que Google tiene «25 años de búsqueda», pero se burla de que, de alguna manera, «recién comienza». Continúa diciendo que se está trabajando en más y que «lo mejor está por venir».
Google I/O 2023 ahora es mucho más emocionante.
(Foto por mitchell luo en Unsplash)
¿Quiere aprender más sobre IA y big data de los líderes de la industria? Verificar Exposición de IA y Big Data teniendo lugar en Ámsterdam, California y Londres.
Explore otros próximos eventos y seminarios web de tecnología empresarial impulsados por TechForge aquí.
Fuente: Google presenta mejoras de IA para Búsqueda y Maps