Más

    Wolfram Research: inyectando confiabilidad en la IA generativa

    - Advertisement -

    El revuelo en torno a la IA generativa y el potencial de los grandes modelos de lenguaje (LLM), encabezados por ChatGPT de OpenAI, pareció en un momento ser prácticamente insuperable. Ciertamente era ineludible. Más de uno de cada cuatro dólares se invirtió en startups estadounidenses este año fue a una empresa relacionada con la IAmientras que OpenAI reveló en su reciente conferencia de desarrolladores que ChatGPT sigue siendo uno de los servicios de más rápido crecimiento de todos los tiempos.

    Sin embargo, algo sigue andando mal. O mejor dicho, se sigue añadiendo algo que no está bien.

    Uno de los mayores problemas de los LLM es su capacidad para alucinar. En otras palabras, inventa cosas. Las cifras varían, pero una tasa que se cita con frecuencia es del 15% al ​​20%. Un sistema de Google subió un 27%. Esto no sería tan malo si no se mostrara tan asertivo al hacerlo. Jon McLoone, director de estrategia y comunicación técnica de Wolfram Research, lo compara con el «sabelotodo bocazas que te encuentras en el pub». «Dirá cualquier cosa que lo haga parecer inteligente», dice McLoone. Noticias de IA. «No tiene por qué ser correcto».

    Sin embargo, la verdad es que este tipo de alucinaciones son inevitables cuando se trata de estudiantes de maestría en Derecho. Como explica McLoone, todo es una cuestión de propósito. «Creo que una de las cosas que la gente olvida, en esta idea de la ‘máquina pensante’, es que todas estas herramientas están diseñadas con un propósito en mente, y la maquinaria se ejecuta con ese propósito», dice McLoone. “Y el propósito no era conocer los hechos.

    “El propósito que impulsó su creación fue ser fluido; decir el tipo de cosas que uno esperaría que dijera un ser humano; parece plausible”, añade McLoone. “Decir la respuesta correcta, decir la verdad, es algo muy plausible, pero no es un requisito de plausibilidad.

    «Así que obtienes estas cosas divertidas en las que puedes decir ‘explica por qué a las cebras les gusta comer cactus’, y eso está haciendo su trabajo de plausibilidad», dice McLoone. «Dice el tipo de cosas que pueden parecer correctas, pero, por supuesto, todo es una tontería, porque simplemente se pide que suene plausible».

    Por lo tanto, lo que se necesita es una especie de intermediario que sea capaz de inyectar un poco de objetividad en los procedimientos, y aquí es donde entra en juego Wolfram. En marzo, la empresa lanzó un complemento ChatGPTcuyo objetivo es «hacer que ChatGPT sea más inteligente dándole acceso a cálculos potentes y matemáticas precisas».[s], conocimiento curado, datos en tiempo real y visualización’. Además de ser una extensión general de ChatGPT, el complemento Wolfram también puede sintetizar código.

    «Le enseña al LLM a reconocer los tipos de cosas que Wolfram|Alpha podría saber: nuestro motor de conocimiento», explica McLoone. “Nuestro enfoque al respecto es completamente diferente. No raspamos la web. Contamos con curadores humanos que dan significado y estructura a los datos, y aplicamos cálculos sobre ellos para sintetizar nuevos conocimientos, de modo que usted pueda hacer preguntas sobre los datos. Tenemos unos cuantos miles de conjuntos de datos integrados en eso”.

    Wolfram siempre ha estado del lado de la tecnología computacional, y McLoone, quien se describe a sí mismo como una «persona de computación de toda la vida», ha estado en la compañía durante casi 32 de sus 36 años de historia. Por lo tanto, cuando se trata de IA, Wolfram se ubica en el lado simbólico de la valla, que se adapta a los casos de uso de razonamiento lógico, en lugar de la IA estadística, que se adapta al reconocimiento de patrones y la clasificación de objetos.

    Los dos sistemas parecen directamente opuestos, pero tienen más puntos en común de lo que piensas. “Donde lo veo, [approaches to AI] Todos tienen algo en común: utilizar la maquinaria informática para automatizar el conocimiento”, afirma McLoone. “Lo que ha cambiado durante ese tiempo es el concepto de en qué nivel se está automatizando el conocimiento.

    “En el antiguo mundo de la computación de la IA, los humanos crean reglas de comportamiento y luego la máquina automatiza la ejecución de esas reglas”, agrega McLoone. “De la misma manera que el palo amplía el alcance del cavernícola, la computadora amplía la capacidad del cerebro para hacer estas cosas, pero todavía estamos resolviendo el problema de antemano.

    “Con la IA generativa, ya no se trata de decir ‘centrémonos en un problema y descubramos las reglas del problema’. Ahora estamos empezando a decir: ‘descubramos las reglas del mundo’, y entonces tenemos un modelo que podemos intentar aplicar a diferentes problemas en lugar de a problemas específicos.

    «Así que a medida que la automatización ha ido avanzando en el espectro intelectual, las cosas se han vuelto más generales, pero al final, todo se trata simplemente de ejecutar reglas», dice McLoone.

    Es más, así como los diferentes enfoques de la IA comparten un objetivo común, también lo comparten las empresas de ambos lados. Mientras OpenAI desarrollaba su arquitectura de complementos, se le pidió a Wolfram que fuera uno de los primeros proveedores. «Cuando comenzó la revolución del LLM, comenzamos a hacer muchos análisis sobre lo que realmente eran capaces de hacer», explica McLoone. “Y luego, cuando llegamos a comprender cuáles eran las fortalezas y debilidades, fue en ese momento que OpenAI comenzó a trabajar en su arquitectura de complementos.

    «Se acercaron a nosotros desde el principio, porque tenían un poco más de tiempo para pensar en esto que nosotros, ya que lo habían visto venir durante dos años», añade McLoone. «Ellos mismos ya entendieron exactamente este problema».

    McLoone demostrará el complemento con ejemplos en la próxima Exposición mundial de inteligencia artificial y big data evento en Londres del 30 de noviembre al 1 de diciembre, donde hablará. Sin embargo, desea enfatizar que existen casos de uso más variados que pueden beneficiarse de la combinación del dominio del lenguaje no estructurado de ChatGPT y el dominio de las matemáticas computacionales de Wolfram.

    Un ejemplo de ello es la realización de ciencia de datos en registros médicos de médicos de cabecera no estructurados. Esto abarca desde corregir transcripciones peculiares en el lado de LLM (reemplazando ‘pacificador’ por ‘marcapasos’ como un ejemplo) hasta usar cálculos anticuados y buscar correlaciones dentro de los datos. “Estamos centrados en el chat, porque es lo más sorprendente en este momento que podemos hablar con una computadora. Pero el LLM no se trata sólo de chatear”, afirma McLoone. «Son realmente geniales con datos no estructurados».

    ¿Cómo ve McLoone el desarrollo de los LLM en los próximos años? Habrá varias mejoras incrementales y las mejores prácticas de capacitación obtendrán mejores resultados, sin mencionar una velocidad potencialmente mayor con la aceleración de hardware. «Donde va el gran dinero, van las arquitecturas», señala McLoone. Sin embargo, es probable que se pueda descartar un cambio radical de la magnitud de los últimos 12 meses. En parte debido a los abrumadores costos de computación, pero también porque es posible que hayamos alcanzado su punto máximo en términos de conjuntos de entrenamiento. Si las sentencias de derechos de autor van en contra de los proveedores de LLM, los conjuntos de capacitación se reducirán en el futuro.

    Sin embargo, el problema de confiabilidad de los LLM estará al frente de la presentación de McLoone. «Las cosas computacionales son donde es absolutamente más débil, no puede seguir reglas más allá de cosas realmente básicas», explica. «Para cualquier cosa en la que estés sintetizando nuevos conocimientos, o computando con cosas orientadas a datos en lugar de cosas orientadas a historias, la computación es realmente la manera de hacerlo».

    Todavía aunque las respuestas pueden variar – Después de todo, hay que tener en cuenta el grado de aleatoriedad de ChatGPT: la combinación parece estar funcionando, siempre y cuando le des instrucciones estrictas al LLM. “No sé si alguna vez he visto [an LLM] De hecho, anula un hecho que he proporcionado”, dice McLoone. “Cuando lo pones a cargo del complemento, a menudo piensa: ‘No creo que me moleste en llamar a Wolfram para esto, sé la respuesta’, e inventará algo.

    «Así que, si está a cargo, hay que ofrecer una ingeniería rápida y realmente sólida», añade. “Diga ‘siempre use la herramienta si tiene algo que ver con esto, no intente hacerlo solo’. Pero cuando es al revés –cuando la computación genera el conocimiento y lo inyecta en el LLM– nunca he visto que se ignoren los hechos.

    «Es como el tipo charlatán del pub: si le susurras los hechos al oído, felizmente se atribuirá el mérito».

    📷 Google amplia su asociacion con Anthropic para mejorar la seguridad

    Wolfram estará en AI & Big Data Expo Global. ¿Quiere aprender más sobre IA y big data de la mano de los líderes de la industria? Verificar Exposición de IA y Big Data que tendrá lugar en Amsterdam, California y Londres. El evento integral comparte ubicación con Exposición de seguridad cibernética y nube y Semana de la Transformación Digital.

    Explore otros próximos eventos y seminarios web de tecnología empresarial impulsados ​​por TechForge aquí.

    Etiquetas: IA, inteligencia artificial, IA generativa, LLM, wolfram alpha

    Fuente: Wolfram Research: inyectando confiabilidad en la IA generativa

    Populares

    Más de esta categoría

    DEJA UNA RESPUESTA

    Por favor ingrese su comentario!
    Por favor ingrese su nombre aquí

    Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.