Ir al contenido
  1. Blog/

Los Agentes de IA ya no asisten a los científicos, hacen ciencia

·9 mins· loading
Carles Abarca
Autor
Carles Abarca
Writing about AI, digital transformation, and the forces reshaping technology.

En marzo de 2026, algo cambió. No fue un modelo más grande, ni un benchmark más alto. Fue algo más profundo: los agentes de IA dejaron de ser herramientas que ayudan a los científicos y empezaron a producir conocimiento científico por sí mismos.

Esta semana, tres eventos convergieron y creo que marcan un punto de inflexión que no tiene vuelta atrás. El equipo de ShipSquad lo documentó brillantemente en su análisis “AutoResearch, OpenClaw, Claude Opus 4.6: AI Agents Are Now Doing the Science”, y me inspiró a profundizar en lo que esto significa para la investigación científica como la conocemos.

Los hechos
#

Andrej Karpathy lanzó AutoResearch — un framework de 630 líneas de Python que permite a un agente de IA ejecutar cientos de experimentos de machine learning de forma autónoma en una sola GPU. Lo dejas correr por la noche. Te despiertas con un modelo mejor y un log completo de descubrimientos. En 48 horas, el agente encontró ~20 mejoras que ningún humano había identificado, reduciendo un 11% el tiempo de entrenamiento de GPT-2.

Claude Opus 4.6 de Anthropic descubrió 22 vulnerabilidades zero-day en Firefox — 14 de severidad alta — en solo dos semanas. Para contexto: esas 14 representan casi una quinta parte de todas las vulnerabilidades graves de Firefox parcheadas en todo 2025. Un modelo de IA igualó meses de investigación humana en seguridad informática.

Sakana AI presentó The AI Scientist v2 — un sistema agentic que genera hipótesis, diseña experimentos, los ejecuta, analiza resultados y escribe el paper científico completo. El resultado: el primer artículo científico generado íntegramente por IA que fue aceptado por peer-review en un workshop académico.

Tres eventos. La misma semana. La misma conclusión: los agentes de IA ya producen conocimiento original.

No es la primera vez que la IA descubre, pero sí la primera vez que lo hace sola
#

Para entender por qué este momento es diferente, hay que ver la evolución:

Era 1: La IA como microscopio (2018-2023)
#

La IA amplificaba la capacidad del investigador humano. El humano formulaba las preguntas, diseñaba los experimentos, y la IA procesaba datos a una escala imposible manualmente.

  • AlphaFold (2020-2024) predijo la estructura de los 200 millones de proteínas conocidas. Un problema que llevaba 50 años sin resolverse. Hassabis y Jumper ganaron el Nobel de Química 2024 por ello. Pero la pregunta — “¿podemos predecir la estructura de las proteínas?” — fue formulada por humanos.

  • Halicin (2020) — Investigadores del MIT usaron IA para analizar 100 millones de compuestos químicos y descubrieron un nuevo antibiótico capaz de matar bacterias multirresistentes, incluida la temida Acinetobacter baumannii. Pero el diseño del experimento fue humano.

  • GNoME de DeepMind (2023) descubrió 2.2 millones de nuevos cristales, incluyendo 380,000 materiales estables — multiplicando por 10 todo lo que la humanidad había encontrado en la historia de la ciencia de materiales. Pero el framework de evaluación fue diseñado por investigadores de Google.

Era 2: La IA como colega (2024-2025)
#

La IA empezó a proponer hipótesis y diseñar experimentos, pero bajo supervisión humana.

  • FunSearch de DeepMind (2024) usó un LLM para descubrir nuevas soluciones a problemas abiertos en matemáticas puras — la primera vez que un modelo de lenguaje hacía un descubrimiento genuino en ciencias formales.

  • Insilico Medicine logró que su molécula rentosertib — diseñada enteramente por IA generativa — completara un ensayo clínico Fase IIa con resultados positivos en fibrosis pulmonar idiopática. De la idea a la prueba en humanos en menos de 30 meses, cuando el proceso tradicional tarda 10-15 años.

  • MIT Antibiotics-AI Project (2025) pasó de descubrir antibióticos existentes a diseñar moléculas completamente nuevas usando IA generativa capaces de matar bacterias resistentes. Ya no buscan agujas en un pajar; fabrican agujas nuevas.

Era 3: La IA como investigador autónomo (2026 →)
#

Y ahora, en marzo de 2026, cruzamos el umbral: la IA formula sus propias preguntas, diseña sus propios experimentos, los ejecuta, y produce papers aceptados por revisores humanos. No es ciencia ficción. Es AutoResearch, AI Scientist v2, y Claude Opus haciendo security research independiente.

La Gran Aceleración: cuando la IA investiga más rápido de lo que los humanos pueden leer
#

Pensé en hacer una predicción más prudente, con menos riesgo, pronosticando el crecimiento del porcentaje de papers científicos producidos por IA. Voy con la versión sin filtros.

Antes de 2030, los agentes de IA habrán producido más descubrimientos científicos verificables en ciencia de materiales, descubrimiento de fármacos y matemáticas computacionales que todos los investigadores humanos combinados en esas mismas disciplinas.

No es una hipérbole. Es aritmética.

Consideren los números: GNoME descubrió en semanas 380,000 materiales estables que toda la humanidad tardó siglos en acumular (apenas 48,000 hasta 2023). AutoResearch ejecuta 100 experimentos por noche — el equivalente de meses de trabajo de un doctorando. Y AI Scientist v2 puede generar un paper científico completo en horas, no en meses.

Ahora escalen eso. No un agente, sino miles. No una noche, sino cada noche. No un dominio, sino todos.

El fenómeno de la Aceleración Compuesta
#

Lo que estamos viendo no es aceleración lineal. Es aceleración compuesta: cada descubrimiento del agente alimenta el siguiente ciclo de investigación. Un agente descubre un nuevo material → otro agente simula sus propiedades → otro diseña aplicaciones → otro escribe el paper. En paralelo. 24/7. Sin vacaciones, sin ego, sin política departamental.

La ciencia humana opera a velocidad de publicación: un paper cada 6-18 meses. La ciencia agéntica operará a velocidad de computación: un descubrimiento cada minuto.

Problemas que resolveremos décadas antes de lo previsto
#

Esta aceleración no es solo cuantitativa. Hay problemas que creíamos a décadas de distancia y que los agentes de investigación podrían resolver mucho antes:

  • Resistencia a antibióticos — La IA ya diseña moléculas nuevas contra superbacterias. Con agentes autónomos iterando 24/7 sobre miles de variantes, podríamos tener una nueva generación completa de antibióticos antes de 2030. La OMS estimaba que para entonces las superbacterias matarían 10 millones de personas al año. Los agentes podrían adelantarse y evitarlo para el bien de la Humanidad.

  • Fusión nuclear — El mayor desafío es controlar el plasma. DeepMind ya usó IA para controlar la forma del plasma en el tokamak TCV. Agentes autónomos que simulen y optimicen millones de configuraciones magnéticas podrían comprimir décadas de investigación experimental en años.

  • Envejecimiento celular — AlphaFold resolvió la estructura de proteínas. La siguiente frontera es entender las interacciones entre proteínas, genes y procesos celulares que causan el envejecimiento. Es un problema de complejidad combinatoria masiva — exactamente el tipo de problema donde los agentes brillan.

  • Nuevos materiales para energía — GNoME ya abrió la puerta con 380,000 materiales estables. Agentes que exploren sistemáticamente ese espacio podrían encontrar el superconductor a temperatura ambiente, el electrolito perfecto para baterías, o el catalizador que haga viable la captura de carbono industrial.

La pregunta ya no es si la IA superará a los humanos en producción científica. Es cuándo. Y mi respuesta es: en muchos campos, ya está sucediendo. Solo que aún no hemos actualizado nuestras métricas para medirlo.

Las consecuencias que nadie quiere discutir
#

1. El fin de la “investigación por lotes”
#

Hoy, un investigador puede ejecutar quizás 5-10 experimentos por semana. AutoResearch demuestra que un agente ejecuta 100 por noche. Cuando la investigación pase de ser un proceso secuencial humano a un proceso continuo autónomo, la producción de conocimiento se multiplicará por órdenes de magnitud.

2. La democratización radical del descubrimiento
#

Karpathy demostró que una sola GPU y 630 líneas de código bastan para hacer investigación autónoma. Un estudiante de doctorado en Monterrey, Lagos o Bangalore puede ahora competir en producción de conocimiento con un laboratorio de Stanford. La barrera ya no es el presupuesto; es la capacidad de formular buenas preguntas y dirigir agentes con precisión.

3. El “Director de Orquesta” como nuevo rol científico
#

El científico del futuro no será quien pipetea en el laboratorio ni quien escribe código. Será quien “programa en Markdown” — quien redacta las instrucciones precisas que guían a escuadrones de agentes autónomos. Es exactamente lo que Karpathy demuestra con su archivo program.md: el futuro de dirigir la investigación no es escribir mejor código, sino escribir mejores programas en lenguaje natural.

Este cambio de paradigma no es nuevo. Ya lo exploré en mi artículo “El fin del desarrollador” — donde argumentaba que el arquitecto será “director de orquesta” de agentes IA. Lo mismo aplica a la ciencia: el investigador será director de orquesta de agentes de investigación.

4. La crisis de la revisión por pares
#

Si AI Scientist v2 ya genera papers aceptados en workshops, ¿cuánto tardará en producir papers aceptados en conferencias top? ¿Y cómo distinguiremos entre un paper escrito por un agente y uno escrito por un humano? El sistema de peer review, diseñado para evaluar trabajo humano, no está preparado para un mundo donde los papers son generados a velocidad industrial. Necesitaremos nuevos marcos de evaluación — y posiblemente, agentes de IA que revisen los papers de otros agentes de IA.

¿Qué significa esto para las universidades?
#

Las instituciones que más rápido integren agentes de investigación autónomos en sus laboratorios serán las que lideren la producción de conocimiento en la próxima década. No se trata de comprar GPUs más grandes. Se trata de:

  1. Formar “directores de agentes de investigación” — científicos que sepan formular preguntas y dirigir escuadrones de IA.
  2. Crear infraestructura de experimentación autónoma — laboratorios donde los agentes puedan ejecutar miles de experimentos sin supervisión humana continua.
  3. Redefinir la autoría y la propiedad intelectual — si un agente de IA descubre una molécula que cura una enfermedad, ¿de quién es el descubrimiento?
  4. Medir la producción científica de forma diferente — los indicadores actuales (papers, citas, h-index) son métricas diseñadas para velocidad humana. Necesitamos métricas que capturen la velocidad agéntica.

La carrera ya empezó. Y la ventana de oportunidad para posicionarse es ahora.

Conclusión
#

En apenas seis años, la IA pasó de predecir estructuras de proteínas a descubrir antibióticos, de diseñar materiales a escribir papers científicos, de encontrar vulnerabilidades conocidas a descubrir zero-days. La trayectoria es clara y se acelera exponencialmente.

Los agentes de IA no van a reemplazar a los científicos. Van a hacer que los científicos que no los usen sean irrelevantes. Y esa transición, a diferencia de la que vivimos en la industria del software, no tardará una década. Tardará meses.

Bienvenidos a la era de la Gran Aceleración Científica. Los que la entiendan primero, liderarán la ciencia del futuro. Los que la ignoren, la leerán en papers escritos por máquinas.


🤖 Profundiza con IA
#

¿Quieres explorar más? Haz clic en tu IA favorita con un prompt listo para profundizar:

Sobre la aceleración científica con agentes IA: ChatGPT · Perplexity · Claude

Sobre el futuro de la revisión por pares: ChatGPT · Perplexity · Claude

Sobre el impacto en universidades: ChatGPT · Perplexity · Claude