Startup de IA con sede en San Francisco antrópico ha presentado Claude 2.1, una actualización de su modelo de lenguaje que cuenta con una ventana de contexto de 200.000 tokens, superando ampliamente al modelo GPT-4 de 120.000 tokens lanzado recientemente por OpenAI.
El lanzamiento llega inmediatamente después de una asociación ampliada con Google que proporciona a Anthropic acceso a hardware de procesamiento avanzado, lo que permite una expansión sustancial de las capacidades de manejo de contexto de Claude.
Nuestro nuevo modelo Claude 2.1 ofrece una ventana de contexto de 200.000 tokens líder en la industria, una disminución del doble en las tasas de alucinaciones, indicaciones del sistema, uso de herramientas y precios actualizados.
Claude 2.1 está disponible a través de API en nuestra consola y está impulsando nuestro https://t.co/uLbS2JNczH experiencia de chat. pic.twitter.com/T1XdQreluH
– Antrópico (@AnthropicAI) 21 de noviembre de 2023
Con la capacidad de procesar documentos extensos, como bases de código completas o novelas, Claude 2.1 está posicionado para desbloquear un nuevo potencial en aplicaciones que van desde el análisis de contratos hasta el estudio literario.
La ventana de token de 200K representa más que una simple mejora incremental: las primeras pruebas indican que Claude 2.1 puede captar con precisión información de indicaciones durante más de un 50 por ciento más que GPT-4 antes de que el rendimiento comience a degradarse.
Claude 2.1 (200.000 tokens): recuperación de contexto largo de prueba de presión
A todos nos encanta aumentar la duración del contexto, pero ¿cómo es el rendimiento?
Anthropic se acercó con acceso temprano a Claude 2.1, así que repetí el análisis de «aguja en un pajar» que hice en GPT-4.
Esto es lo que encontré:… pic.twitter.com/B36KnjtJmE
—Greg Kamradt (@GregKamradt) 21 de noviembre de 2023
Anthropic también promocionó una reducción del 50 por ciento en las tasas de alucinaciones para Claude 2.1 con respecto a la versión 2.0. Una mayor precisión podría hacer que el modelo compita más estrechamente con GPT-4 a la hora de responder con precisión a consultas fácticas complejas.
Las nuevas características adicionales incluyen una herramienta API para la integración avanzada del flujo de trabajo y «mensajes del sistema» que permiten a los usuarios definir el tono, los objetivos y las reglas de Claude desde el principio para interacciones más personalizadas y contextualmente relevantes. Por ejemplo, un analista financiero podría indicarle a Claude que adopte terminología de la industria al resumir informes.
Sin embargo, la capacidad total de 200.000 tokens sigue siendo exclusiva para los suscriptores de pago de Claude Pro por ahora. Los usuarios gratuitos seguirán estando limitados a los 100.000 tokens de Claude 2.0.
A medida que cambia el panorama de la IA, la precisión y adaptabilidad mejoradas de Claude 2.1 prometen cambiar las reglas del juego, presentando nuevas opciones para las empresas que exploran cómo aprovechar estratégicamente las capacidades de la IA.
Con su sustancial expansión del contexto y rigurosas mejoras en la precisión, la última oferta de Anthropic indica su determinación de competir cara a cara con modelos líderes como GPT-4.
(Credito de imagen: antrópico)
Ver también: Paul O’Sullivan, Salesforce: Transformando el trabajo en la era GenAI
¿Quiere aprender más sobre IA y big data de la mano de los líderes de la industria? Verificar Exposición de IA y Big Data que tendrá lugar en Amsterdam, California y Londres. El evento integral comparte ubicación con Semana de la Transformación Digital.
Explore otros próximos eventos y seminarios web de tecnología empresarial impulsados por TechForge aquí.
Fuente: Anthropic aumenta el tamaño de Claude 2.1 a 200.000 tokens, casi duplicando GPT-4