M谩s

    Cerrar la brecha entre los LLM y el razonamiento simb贸lico

    - Advertisement -

    Los investigadores tienen introducido un enfoque novedoso llamado programas integrados en lenguaje natural (NLEP) para mejorar las capacidades de razonamiento num茅rico y simb贸lico de grandes modelos de lenguaje (LLM). La t茅cnica implica solicitar a los LLM que generen y ejecuten programas Python para resolver las consultas de los usuarios y luego generar soluciones en lenguaje natural.

    Si bien los LLM como ChatGPT han demostrado un desempe帽o impresionante en diversas tareas, a menudo tienen problemas con problemas que requieren razonamiento num茅rico o simb贸lico.

    Los NLEP siguen una plantilla de resoluci贸n de problemas de cuatro pasos: llamar a los paquetes necesarios, importar representaciones en lenguaje natural del conocimiento requerido, implementar una funci贸n de c谩lculo de soluciones y generar resultados como lenguaje natural con visualizaci贸n de datos opcional.

    Este enfoque ofrece varias ventajas, incluida una mayor precisi贸n, transparencia y eficiencia. Los usuarios pueden investigar los programas generados y corregir errores directamente, evitando la necesidad de volver a ejecutar modelos completos para solucionar problemas. Adem谩s, un 煤nico NLEP se puede reutilizar para m煤ltiples tareas reemplazando ciertas variables.

    Los investigadores descubrieron que los NLEP permitieron a GPT-4 lograr m谩s del 90% de precisi贸n en varias tareas de razonamiento simb贸lico, superando a los m茅todos de indicaciones espec铆ficas de tareas en un 30%.

    鉂 Tambi茅n te interesa:La legislaci贸n de la UE sobre IA genera controversia sobre la transparencia de los datosLa legislaci贸n de la UE sobre IA genera controversia sobre la transparencia de los datos

    M谩s all谩 de las mejoras en la precisi贸n, los NLEP podr铆an mejorar la privacidad de los datos al ejecutar programas localmente, eliminando la necesidad de enviar datos confidenciales de los usuarios a empresas externas para su procesamiento. La t茅cnica tambi茅n puede mejorar el rendimiento de modelos de lenguaje m谩s peque帽os sin un costoso reentrenamiento.

    Sin embargo, los NLEP dependen de la capacidad de generaci贸n de programas de un modelo y es posible que no funcionen tan bien con modelos m谩s peque帽os entrenados en conjuntos de datos limitados. Las investigaciones futuras explorar谩n m茅todos para hacer que los LLM m谩s peque帽os generen NLEP m谩s efectivos e investigar谩n el impacto de las variaciones r谩pidas en la solidez del razonamiento.

    La investigaci贸n, financiada en parte por el Centro de Inteligencia Perceptiva e Interactiva de Hong Kong, se presentar谩 en la Conferencia Anual del Cap铆tulo Norteamericano de la Asociaci贸n de Ling眉铆stica Computacional a finales de este mes.

    (Foto por Alex Azabache)

    Ver tambi茅n: Seg煤n se informa, Apple obtendr谩 acceso gratuito a ChatGPT

    鉂 Tambi茅n te interesa:Un mundo completamente nuevo esperando ser abordadoUn mundo completamente nuevo esperando ser abordado

    驴Quiere aprender m谩s sobre IA y big data de la mano de los l铆deres de la industria? Verificar Exposici贸n de IA y Big Data que tendr谩 lugar en Amsterdam, California y Londres. El evento integral comparte ubicaci贸n con otros eventos importantes, incluidos Conferencia de automatizaci贸n inteligente, bloquex, Semana de la Transformaci贸n Digitaly Exposici贸n de seguridad cibern茅tica y nube.

    Explore otros pr贸ximos eventos y seminarios web de tecnolog铆a empresarial impulsados 鈥嬧媝or TechForge aqu铆.

    Etiquetas: ai, inteligencia artificial, desarrollo, grandes modelos de lenguaje, llm, lenguaje natural, nlep

    Fuente: Cerrar la brecha entre los LLM y el razonamiento simb贸lico

    鉂 Tambi茅n te interesa:NVIDIA presenta los 煤ltimos avances en IA visualNVIDIA presenta los 煤ltimos avances en IA visual

    Populares

    M谩s de esta categor铆a

    DEJA UNA RESPUESTA

    Por favor ingrese su comentario!
    Por favor ingrese su nombre aqu铆

    Este sitio usa Akismet para reducir el spam. Aprende c贸mo se procesan los datos de tus comentarios.