M谩s

    El marco DeepMind ofrece un gran avance en el razonamiento de los LLM

    - Advertisement -

    Investigadores de Google DeepMind y el Universidad del Sur de California.

    Su nuevo marco de est铆mulo ‘AUTODESCUBRIMIENTO’, publicado esta semana en arXiV y abrazando la cara 鈥 representa un salto significativo m谩s all谩 de las t茅cnicas existentes, revolucionando potencialmente el rendimiento de modelos l铆deres como OpenAI. GPT-4 y de google Palma 2.

    El marco promete mejoras sustanciales al abordar tareas de razonamiento desafiantes. Demuestra mejoras notables, con un aumento de rendimiento de hasta un 32 % en comparaci贸n con m茅todos tradicionales como Chain of Thought (CoT). Este novedoso enfoque gira en torno a que los LLM descubran de forma aut贸noma estructuras de razonamiento intr铆nsecas a las tareas para afrontar problemas complejos.

    En esencia, el marco permite a los LLM autodescubrir y utilizar varios m贸dulos de razonamiento at贸mico, como el pensamiento cr铆tico y el an谩lisis paso a paso, para construir estructuras de razonamiento expl铆cito.

    Al imitar las estrategias humanas de resoluci贸n de problemas, el marco opera en dos etapas:

    鉂 Tambi茅n te interesa:Google lanza Gemini para reemplazar al chatbot BardGoogle lanza Gemini para reemplazar al chatbot Bard
    • La primera etapa implica componer una estructura de razonamiento coherente intr铆nseca a la tarea, aprovechando un conjunto de m贸dulos de razonamiento at贸mico y ejemplos de tareas.
    • Durante la decodificaci贸n, los LLM siguen esta estructura autodescubierta para llegar a la soluci贸n final.

    En pruebas exhaustivas de varias tareas de razonamiento (entre ellas Big-Bench Hard, Thinking for Doing y Math), el enfoque de autodescubrimiento super贸 consistentemente a los m茅todos tradicionales. En particular, logr贸 una precisi贸n del 81 %, 85 % y 73 % en las tres tareas con GPT-4, superando las t茅cnicas de cadena de pensamiento y de planificaci贸n y resoluci贸n.

    Sin embargo, las implicaciones de esta investigaci贸n van mucho m谩s all谩 de las meras mejoras en el rendimiento.

    Al equipar a los LLM con capacidades de razonamiento mejoradas, el marco allana el camino para abordar problemas m谩s desafiantes y acerca la IA al logro de la inteligencia general. Los estudios de transferibilidad realizados por los investigadores resaltan a煤n m谩s la aplicabilidad universal de las estructuras de razonamiento compuestas, aline谩ndose con los patrones de razonamiento humano.

    A medida que el panorama evoluciona, avances como el marco de est铆mulo SELF-DISCOVER representan hitos cruciales en el avance de las capacidades de los modelos de lenguaje y ofrecen una visi贸n del futuro de la IA.

    (Foto por V铆ctor en desempaquetar)

    鉂 Tambi茅n te interesa:El Reino Unido anuncia m谩s de 拢100 millones para apoyar una regulaci贸n 芦谩gil禄 de la IAEl Reino Unido anuncia m谩s de 拢100 millones para apoyar una regulaci贸n 芦谩gil禄 de la IA

    Ver tambi茅n: El Reino Unido est谩 superando a los EE. UU. en contrataci贸n de IA

    驴Quiere aprender m谩s sobre IA y big data de la mano de los l铆deres de la industria? Verificar Exposici贸n de IA y Big Data que tendr谩 lugar en Amsterdam, California y Londres. El evento integral comparte ubicaci贸n con Semana de la Transformaci贸n Digital y Exposici贸n de seguridad cibern茅tica y nube.

    Explore otros pr贸ximos eventos y seminarios web de tecnolog铆a empresarial impulsados 鈥嬧媝or TechForge aqu铆.

    Etiquetas: agi, ai, cara abrazada, inteligencia artificial general, inteligencia artificial, arxiv, punto de referencia, mente profunda, google, investigar, llm, marco, mente profunda, modelos de lenguaje grandes, papel, universidad del sur de california

    鉂 Tambi茅n te interesa:Fetch.ai y Deutsche Telekom se asocian para converger IA y blockchainFetch.ai y Deutsche Telekom se asocian para converger IA y blockchain

    Fuente: El marco DeepMind ofrece un gran avance en el razonamiento de los LLM

    Populares

    M谩s de esta categor铆a

    DEJA UNA RESPUESTA

    Por favor ingrese su comentario!
    Por favor ingrese su nombre aqu铆

    Este sitio usa Akismet para reducir el spam. Aprende c贸mo se procesan los datos de tus comentarios.