El recién formado Instituto de Autosciencia ha presentado ‘Carl’, el primer sistema de IA elaborando trabajos de investigación académica para pasar un riguroso proceso de revisión de pares doble ciego.
Los trabajos de investigación de Carl fueron aceptados en la pista de papeles pequeños en el Conferencia internacional sobre representaciones de aprendizaje (ICLR). Críticamente, estas presentaciones se generaron con una participación humana mínima, anunciando una nueva era para el descubrimiento científico impulsado por la IA.
Conoce a Carl: el ‘científico automatizado de investigación’
Carl representa un salto adelante en el papel de IA como no solo una herramienta, sino también un participante activo en la investigación académica. Descrito como «un científico de investigación automatizado», Carl aplica modelos de lenguaje natural para idear, hipótesis y citar el trabajo académico con precisión.
Crucialmente, Carl puede leer y comprender los artículos publicados en solo segundos. A diferencia de los investigadores humanos, funciona continuamente, acelerando así los ciclos de investigación y reduciendo los costos experimentales.
Según AutoScience, Carl «con éxito, las nuevas hipótesis científicas ideadas, diseñaron y realizaron experimentos, y escribieron múltiples documentos académicos que pasaron la revisión por pares en los talleres».
Esto subraya el potencial de la IA no solo para complementar la investigación humana sino, en muchos sentidos, superarla en velocidad y eficiencia.
Carl es un trabajador meticuloso, pero la participación humana sigue siendo vital
La capacidad de Carl para generar un trabajo académico de alta calidad se basa en un proceso de tres pasos:
Aunque las capacidades de Carl lo hacen en gran medida independiente, hay puntos en su flujo de trabajo donde la participación humana aún se requiere para adherirse a los estándares computacionales, de formato y ético:
- Pasos de investigación de luz verde: Para evitar desperdiciar recursos computacionales, los revisores humanos proporcionan señales de «continuar» o «detener» durante las etapas específicas del proceso de Carl. Esta guía dirige a Carl a través de proyectos de manera más eficiente, pero no influye en los detalles de la investigación en sí.
- Citas y formateo: El equipo de autosciencia asegura que todas las referencias se citen y formatean correctamente para cumplir con los estándares académicos. Este es actualmente un paso manual, pero asegura que la investigación se alinee con las expectativas de su lugar de publicación.
- Asistencia con los modelos pre-API: CARL ocasionalmente se basa en nuevos modelos de investigación Operai y de investigación profundas que carecen de API automáticas accesibles. En tales casos, las intervenciones manuales, como las salidas de copia pasas, cierran estas brechas. AutoScience espera que estas tareas se automatizaran por completo en el futuro cuando las API estén disponibles.
Para el artículo debut de Carl, el equipo humano también ayudó a elaborar la sección «Trabajos relacionados» y refinar el idioma. Sin embargo, estas tareas fueron innecesarias después de las actualizaciones aplicadas antes de las presentaciones posteriores.
Proceso de verificación estricto para la integridad académica
Antes de enviar cualquier investigación, el equipo de autosciencia realizó un riguroso proceso de verificación para garantizar que el trabajo de Carl cumpliera con los más altos estándares de integridad académica:
- Reproducibilidad: Se revisó cada línea del código de Carl y los experimentos se volvieron a ejecutar para confirmar la reproducibilidad. Esto aseguró que los hallazgos fueran científicamente válidos y no anomalías coincidentes.
- Verificaciones de originalidad: AutoScience realizó extensas evaluaciones de novedades para garantizar que las ideas de Carl fueran nuevas contribuciones al campo y no se recuperaron versiones de las publicaciones existentes.
- Validación externa: Un hackathon que involucra a investigadores de destacadas instituciones académicas, como el MIT, la Universidad de Stanford y la UC Berkeley, verificó independientemente la investigación de Carl. Se realizaron más plagio y controles de citas para garantizar el cumplimiento de las normas académicas.
Potencial innegable, pero plantea preguntas más grandes
Lograr la aceptación en un taller tan respetado como el ICLR es un hito significativo, pero la autosciencia reconoce la mayor conversación que este hito puede provocar. El éxito de Carl plantea preguntas filosóficas y logísticas más grandes sobre el papel de la IA en entornos académicos.
«Creemos que los resultados legítimos deben agregarse a la base de conocimiento público, independientemente de dónde se originaron», explicó Autoscience. «Si la investigación cumple con los estándares científicos establecidos por la comunidad académica, entonces quién, o qué, la creó no debería conducir a la descalificación automática».
«También creemos, sin embargo, que la atribución adecuada es necesaria para la ciencia transparente, y el trabajo puramente generado por los sistemas de IA debería ser discernible de la producida por los humanos».
Dada la novedad de los investigadores autónomos de IA como Carl, los organizadores de la conferencia pueden necesitar tiempo para establecer nuevas pautas que expliquen este paradigma emergente, especialmente para garantizar la evaluación justa y los estándares de atribución intelectual. Para evitar la controversia innecesaria en la actualidad, la autosciencia ha retirado los documentos de Carl de los talleres de ICLR mientras se están ideando estos marcos.
En el futuro, la autosciencia tiene como objetivo contribuir a dar forma a estos estándares en evolución. La compañía tiene la intención de proponer un taller dedicado en Neurips 2025 para acomodar formalmente las presentaciones de investigación de los sistemas de investigación autónomos.
A medida que se desarrolla la narración que rodea la investigación generada por la IA, está claro que los sistemas como Carl no son simplemente herramientas sino colaboradores en la búsqueda del conocimiento. Pero a medida que estos sistemas trascienden los límites típicos, la comunidad académica debe adaptarse para adoptar completamente este nuevo paradigma al tiempo que salvaguarda la integridad, la transparencia y la atribución adecuada.
(Foto por Rohit Tandon)
Ver también: You.com ARI: Agente de investigación de IA de grado profesional para empresas
¿Quiere obtener más información sobre AI y Big Data de los líderes de la industria? Verificar AI y Big Data Expo que tiene lugar en Amsterdam, California y Londres. El evento integral está ubicado en otros eventos líderes, incluidos Conferencia de automatización inteligente, Bloqueo, Semana de transformación digitaly Cyber Security & Cloud Expo.
Explore otros próximos eventos y seminarios web tecnológicos empresariales con TechForge aquí.
Fuente: El primer científico de IA que escribe documentos revisados por pares