M谩s

    Los 煤ltimos modelos de MosaicML superan a GPT-3 con solo 30B de par谩metros

    - Advertisement -

    Proveedor LLM de c贸digo abierto MosaicML ha anunciado el lanzamiento de sus modelos m谩s avanzados hasta la fecha, el MPT-30B Base, instruir y chatear.

    Estos modelos de 煤ltima generaci贸n se entrenaron en la plataforma MosaicML con los aceleradores H100 de 煤ltima generaci贸n de NVIDIA y afirman ofrecer una calidad superior en comparaci贸n con el modelo GPT-3 original.

    Con MPT-30B, las empresas pueden aprovechar el poder de la IA generativa mientras mantienen la privacidad y seguridad de los datos.

    Desde su lanzamiento en mayo de 2023, los modelos MPT-7B han ganado una gran popularidad, con m谩s de 3,3 millones de descargas. Los modelos MPT-30B recientemente lanzados brindan una calidad a煤n mayor y abren nuevas posibilidades para diversas aplicaciones.

    Los modelos MPT de MosaicML est谩n optimizados para un entrenamiento e inferencia eficientes, lo que permite a los desarrolladores crear e implementar modelos de nivel empresarial con facilidad.

    Un logro notable de MPT-30B es su capacidad para superar la calidad de GPT-3 utilizando solo 30聽000 millones de par谩metros en comparaci贸n con los 175聽000 millones de GPT-3. Esto hace que MPT-30B sea m谩s accesible para ejecutarse en hardware local y significativamente m谩s barato de implementar para inferencia.

    El costo de entrenar modelos personalizados basados 鈥嬧媏n MPT-30B tambi茅n es considerablemente m谩s bajo que las estimaciones para entrenar el GPT-3 original, lo que lo convierte en una opci贸n atractiva para las empresas.

    Adem谩s, el MPT-30B se capacit贸 en secuencias m谩s largas de hasta 8000 tokens, lo que le permiti贸 manejar aplicaciones empresariales con gran cantidad de datos. Su rendimiento est谩 respaldado por el uso de las GPU H100 de NVIDIA, que brindan un mayor rendimiento y tiempos de capacitaci贸n m谩s r谩pidos.

    鉂 Tambi茅n te interesa:馃摲 Las universidades quieren asegurarse de que el personal y losLas universidades quieren asegurarse de que el personal y los estudiantes est茅n ‘alfabetizados en IA’

    Varias empresas ya han adoptado los modelos MPT de MosaicML para sus aplicaciones de IA.

    Repetirun IDE basado en la web, cre贸 con 茅xito un modelo de generaci贸n de c贸digo utilizando sus datos patentados y la plataforma de capacitaci贸n de MosaicML, lo que result贸 en una mejora de la calidad, la velocidad y la rentabilidad del c贸digo.

    Laboratorio de dispersi贸nuna startup de IA que se especializa en el desarrollo de chatbots, entren贸 su propio modelo MPT para crear un modelo de IA generativo multiling眉e capaz de comprender ingl茅s y coreano, mejorando las experiencias de chat para su base de usuarios.

    Navanuna empresa global de software de gesti贸n de gastos y viajes, est谩 aprovechando la base MPT para desarrollar LLM personalizados para aplicaciones como agentes de viajes virtuales y agentes de inteligencia empresarial conversacionales.

    Ilan Twig, cofundador y director de tecnolog铆a de Navan, dijo:

    鈥淓n Navan, utilizamos IA generativa en nuestros productos y servicios, impulsando experiencias como nuestro agente de viajes virtual y nuestro agente de inteligencia comercial conversacional.

    Los modelos b谩sicos de MosaicML ofrecen capacidades de lenguaje de 煤ltima generaci贸n a la vez que son extremadamente eficientes para ajustar y ofrecer inferencias a escala鈥.

    Los desarrolladores pueden acceder a MPT-30B a trav茅s del AbrazandoCara Hub como un modelo de c贸digo abierto. Tienen la flexibilidad para ajustar el modelo en sus datos e implementarlo para la inferencia en su infraestructura.

    Como alternativa, los desarrolladores pueden utilizar el punto final administrado de MosaicML, MPT-30B-Instruct, que ofrece una inferencia de modelo sin problemas a una fracci贸n del costo en comparaci贸n con puntos finales similares. A $0,005 por cada 1000 tokens, MPT-30B-Instruct proporciona una soluci贸n rentable para los desarrolladores.

    鉂 Tambi茅n te interesa:馃摲 El informe de Google destaca el impacto de la IAEl informe de Google destaca el impacto de la IA en la econom铆a del Reino Unido

    El lanzamiento de los modelos MPT-30B de MosaicML marca un avance significativo en el campo de los modelos de lenguaje grande, lo que permite a las empresas aprovechar las capacidades de la IA generativa mientras optimiza los costos y mantiene el control sobre sus datos.

    (Foto por Josu茅 Golde en Unsplash)

    馃摲 1688228601 468 Los ultimos modelos de MosaicML superan a GPT 3 con solo

    驴Quiere aprender m谩s sobre IA y big data de los l铆deres de la industria? Verificar Exposici贸n de IA y Big Data teniendo lugar en 脕msterdam, California y Londres. El evento es co-ubicado con Semana de la Transformaci贸n Digital.

    • ryan daws

      Ryan es editor senior en TechForge Media con m谩s de una d茅cada de experiencia cubriendo la 煤ltima tecnolog铆a y entrevistando a figuras l铆deres de la industria. A menudo se lo puede ver en conferencias tecnol贸gicas con un caf茅 fuerte en una mano y una computadora port谩til en la otra. Si es geek, probablemente le guste. Encu茅ntralo en Twitter (@Gadget_Ry) o Mastodon (@[email protected])

      Ver todas las publicaciones

    Etiquetas: ai, inteligencia artificial, gpt-3, cara de abrazo, modelo de lenguaje grande, llm, mosaicml, mpt-30b

    Fuente: Los 煤ltimos modelos de MosaicML superan a GPT-3 con solo 30B de par谩metros

    Populares

    M谩s de esta categor铆a

    DEJA UNA RESPUESTA

    Por favor ingrese su comentario!
    Por favor ingrese su nombre aqu铆

    Este sitio usa Akismet para reducir el spam. Aprende c贸mo se procesan los datos de tus comentarios.