Más

    Mixtral 8x22B establece un nuevo punto de referencia para los modelos abiertos

    - Advertisement -

    Mistral AI ha lanzado Mixtral 8x22B, que establece un nuevo punto de referencia para los modelos de código abierto en cuanto a rendimiento y eficiencia. El modelo cuenta con sólidas capacidades multilingües y una destreza matemática y de codificación superior.

    Mixtral 8x22B opera como un modelo Sparse Mixture-of-Experts (SMoE), utilizando solo 39 mil millones de sus 141 mil millones de parámetros cuando está activo.

    Más allá de su eficiencia, el Mixtral 8x22B domina varios idiomas principales, incluidos inglés, francés, italiano, alemán y español. Su habilidad se extiende a dominios técnicos con sólidas capacidades matemáticas y de codificación. En particular, el modelo admite llamadas a funciones nativas junto con un «modo de salida restringido», lo que facilita el desarrollo de aplicaciones a gran escala y actualizaciones tecnológicas.

    La instrucción Mixtral 8x22B ya está disponible. Supera significativamente a los modelos abiertos existentes y solo utiliza parámetros activos 39B (lo que lo hace significativamente más rápido que los modelos 70B durante la inferencia). 1/n pic.twitter.com/EbDLMHcBOq

    – Guillaume Lample (@GuillaumeLample) 17 de abril de 2024

    Con una importante ventana de contexto de 64.000 tokens, Mixtral 8x22B garantiza una recuperación precisa de información de documentos voluminosos, lo que resulta aún más atractivo para la utilización a nivel empresarial donde el manejo de grandes conjuntos de datos es una rutina.

    En línea con el fomento de un entorno de investigación de IA colaborativo e innovador, Mistral AI ha lanzado Mixtral 8x22B bajo la licencia Apache 2.0. Esta licencia de código abierto altamente permisiva garantiza un uso sin restricciones y permite una adopción generalizada.

    Estadísticamente, Mixtral 8x22B supera a muchos modelos existentes. En comparaciones directas sobre puntos de referencia estándar de la industria, que van desde el sentido común, el razonamiento hasta el conocimiento de un tema específico, la nueva innovación de Mistral sobresale. Las cifras publicadas por Mistral AI ilustran que Mixtral 8x22B supera significativamente al modelo LLaMA 2 70B en diversos contextos lingüísticos en términos de razonamiento crítico y puntos de referencia de conocimiento:

    Además, en los ámbitos de la codificación y las matemáticas, Mixtral continúa dominando entre los modelos abiertos. Los resultados actualizados muestran una impresionante mejora del rendimiento en los puntos de referencia matemáticos, tras el lanzamiento de una versión instruida del modelo:

    📷 1713453972 11 Mixtral 8x22B establece un nuevo punto de referencia para los

    Se insta a los posibles usuarios y desarrolladores a explorar Mixtral 8x22B en La Plateforme, la plataforma interactiva de Mistral AI. Aquí pueden interactuar directamente con el modelo.

    En una era en la que el papel de la IA está en constante expansión, la combinación de alto rendimiento, eficiencia y accesibilidad abierta de Mixtral 8x22B marca un hito importante en la democratización de las herramientas avanzadas de IA.

    (Foto por josue golde)

    Ver también: SAS tiene como objetivo hacer que la IA sea accesible independientemente del conjunto de habilidades con modelos de IA empaquetados

    📷 1713453972 919 Mixtral 8x22B establece un nuevo punto de referencia para los

    ¿Quiere aprender más sobre IA y big data de la mano de los líderes de la industria? Verificar Exposición de IA y Big Data que tendrá lugar en Ámsterdam, California y Londres. El evento integral comparte ubicación con otros eventos importantes, incluidos bloquex, Semana de la Transformación Digitaly Exposición de seguridad cibernética y nube.

    Explore otros próximos eventos y seminarios web de tecnología empresarial impulsados ​​por TechForge aquí.

    Etiquetas: 8x22b, ai, inteligencia artificial, desarrollo, mistral ai, mixtral, modelo, código abierto


    Fuente: Mixtral 8x22B establece un nuevo punto de referencia para los modelos abiertos

    Populares

    Más de esta categoría

    DEJA UNA RESPUESTA

    Por favor ingrese su comentario!
    Por favor ingrese su nombre aquí

    This site uses Akismet to reduce spam. Learn how your comment data is processed.