ChatGPT se presentó hace tan solo siete semanas, pero la IA ya ha ganado toda una vida de entusiasmo. Cualquiera puede adivinar si esta tecnología en particular abre el kimono de IA para siempre o es solo un problema antes de que comience el próximo invierno de IA, pero una cosa es cierta: inició una conversación importante sobre IA, incluido el nivel de transparencia que debemos esperar cuando trabajamos. con IA y cómo saber cuándo está mintiendo.
Desde su lanzamiento el 30 de noviembre, el modelo de lenguaje más nuevo de OpenAI, que se entrenó en un corpus muy grande de conocimiento humano, ha demostrado una asombrosa capacidad para generar respuestas convincentes a indicaciones basadas en texto. no solo rapea como Snoop Dogg y rimas como Nick Cave (a gusto del compositor) gran disgusto), pero también resuelve problemas matemáticos complejos y escribe código de computadora.
Ahora que ChatGPT puede producir una escritura mediocre y (en su mayoría) correcta, la era del ensayo de los estudiantes se ha declarado oficialmente terminada. “Nadie está preparado para saber cómo la IA transformará la academia”, escribe Stephen Marche en «El ensayo universitario ha muerto» publicado el mes pasado. Marche escribe: “Según mi experiencia como exprofesor de Shakespeare, calculo que la academia tardará 10 años en enfrentar esta nueva realidad: dos años para que los estudiantes descubran la tecnología, tres años más para que los profesores reconozcan que los estudiantes están usando la tecnología, y luego cinco años para que los administradores universitarios decidan qué hacer al respecto, si es que hay algo. Los maestros ya son algunas de las personas con más exceso de trabajo y mal pagadas del mundo. Ya están lidiando con unas humanidades en crisis. Y ahora esto. Lo siento por ellos”.
Es posible que Marche se haya equivocado un poco en su tiempo. Para empezar, las escuelas ya han comenzado a responder a la amenaza de plagio planteada por ChatGPT, con prohibiciones vigentes en los distritos escolares públicos de Seattle, Washington y la ciudad de Nueva York. Y gracias a la misma marcha incesante de la tecnología que nos dio ChatGPT, estamos adquiriendo la capacidad de detectar cuándo se usa la IA generativa.
Durante el fin de semana, comenzaron a filtrarse noticias sobre una herramienta que puede detectar cuándo se usó ChatGPT para generar un fragmento de texto determinado. Apodada GPTZero, la herramienta fue escrita por Edward Tian, quien se especializa en informática en la Universidad de Princeton en Nueva Jersey.
“Pasé el Año Nuevo creando GPTZero, una aplicación que puede detectar rápida y eficientemente si un ensayo es ChatGPT o escrito por humanos”, Tian escribió en Twitter. “[T]La motivación aquí es aumentar el plagio de la IA. [T]¿Piensas que los profesores de secundaria van a querer que los estudiantes usen ChatGPT para escribir sus ensayos de historia? [L]Probablemente no.
La herramienta funciona analizando dos características del texto: el nivel de “perplejidad” y el nivel de “ráfaga”, según un artículo sobre NPR. Tian determinó que ChatGPT tiende a generar texto que tiene un nivel de complejidad más bajo que el texto generado por humanos. También descubrió que ChatGPT genera constantemente oraciones que son más consistentes en longitud y menos «explosivas» que las de los humanos.
GPTZero no es perfecto (ninguna IA lo es), pero en las demostraciones parece funcionar. El domingo, Tian anunció en su subpila que está en conversaciones con juntas escolares y fondos de becas para proporcionar una nueva versión de la herramienta, llamada GPTZeroX, a 300 000 escuelas y fondos de becas. “Si su organización pudiera estar interesada, háganoslo saber”, escribe.
Rastreando alucinaciones
Mientras tanto, otros desarrolladores están creando herramientas adicionales para ayudar con otro problema que ha salido a la luz con el meteórico ascenso a la fama de ChatGPT: las alucinaciones.
“Cualquier modelo de lenguaje grande al que se le proporcione una entrada o una indicación, no es una opción, va a alucinar”, dice Peter Relan, cofundador y presidente de Lo tengo IAuna empresa de Silicon Valley que desarrolla soluciones de inteligencia artificial conversacional personalizadas para los clientes.
En términos generales, la tasa de alucinaciones de ChatGPT es del 15% al 20%, dice Relan. “Entonces, el 80 % de las veces, funciona bien, y el 20 % de las veces, inventa cosas”, dice. datanami. “La clave aquí es averiguar cuándo es [hallucinating]y asegúrese de tener una respuesta alternativa o una respuesta que entregue al usuario, frente a su alucinación”.
Got It AI anunció la semana pasada una vista previa privada de un nuevo componente de verificación de la verdad de Autonomous Articlebot, uno de los dos productos de la empresa. Al igual que ChatGPT, el verificador de la verdad de la compañía también se basa en un modelo de lenguaje extenso que está capacitado para detectar cuándo ChatGPT (u otros modelos de lenguaje extenso) están diciendo una mentira.
El nuevo verificador de la verdad tiene una precisión del 90% en este momento, según Relan. Entonces, si se usa ChatGPT u otro modelo de lenguaje grande para generar una respuesta 100 veces y 20 de ellas son incorrectas, el verificador de la verdad podrá detectar 18 de esas fabricaciones antes de enviar la respuesta al usuario. Eso aumenta efectivamente la tasa de precisión de ChatGPT al 98%, dice Relan.
“Ahora estás en el rango de lo aceptable. A continuación, apuntamos al 95 %”, dice. “Si puede detectar el 95% de esas alucinaciones, tiene una respuesta de cada 100 que sigue siendo inexacta. Ahora estás en un verdadero sistema de clase empresarial”.
OpenAI, el creador de ChatGPT, aún tiene que lanzar una API para el gran modelo de lenguaje que ha captado la atención del mundo. Sin embargo, se sabe que el modelo subyacente utilizado por ChatGPT es GPT-3, que tiene una API disponible. El verificador de verdad de Got It AI se puede usar ahora con la última versión de GPT-3, denominada davinci-003, que se lanzó el 28 de noviembre.
“El modelo más cercano que hemos encontrado en una API es GPT-3 davinci”, dice Relan. «Eso es lo que creemos que está cerca de lo que ChatGPT está usando detrás de escena».
El problema de las alucinaciones nunca desaparecerá por completo con los sistemas de IA conversacionales, dice Relan, pero se puede minimizar y OpenAI está progresando en ese frente. Por ejemplo, la tasa de error para GPT-3.5 es cercana al 30 %, por lo que la tasa del 20 % con ChatGPT, que Relan atribuye a la adopción de OpenAI del bucle de retroalimentación humana (RLHF) de aprendizaje reforzado, ya es una gran mejora.
“Creo que OpenAI… resolverá parte de la tendencia de la plataforma principal a alucinar”, dice Relan. “Pero es un modelo estocástico. Hará coincidir patrones y obtendrá algo, y ocasionalmente inventará cosas. Ese no es nuestro desafío. Ese es el desafío de OpenAI: cómo reducir su tasa de alucinaciones del 20 % al 10 % al 5 % a muy poco con el tiempo”.
(Nota del editor: este artículo está asociado con Datanami)
Fuente: Alucinaciones, plagio y ChatGPT