Lun. Abr 20th, 2026
No solo responden preguntas o redactan textos. Modelos de lenguaje como GPTClaude o Gemini ejecutan código, analizan datos e, incluso, llevan a cabo experimentos en laboratorios robotizados. Google ha bautizado esta idea como co-scientist: un asistente virtual capaz de diseñar, planificar y ejecutar experimentos completos a partir de simples instrucciones en lenguaje natural.

Esta tecnología ya empieza a dar resultados. En colaboración con universidades como Stanford o Imperial College, el co-scientist ha planteado mecanismos biológicos desconocidos, ha sugerido tratamientos potenciales para enfermedades como la fibrosis hepática y ha automatizado parte del proceso de descubrimiento científico. Otros proyectos como Future House siguen una línea similar, llevando la automatización de la ciencia a un nivel que hace solo cinco años habría parecido ciencia ficción.

A esta revolución se suma un cambio en los hábitos de los propios investigadores. Una encuesta reciente en Nature reveló que el 81 % de los científicos ya utiliza herramientas como ChatGPT en alguna fase de su trabajo: desde escribir artículos hasta generar hipótesis o redactar propuestas de financiación.

La integración de la inteligencia artificial (IA) en la ciencia avanza a una velocidad sin precedentes, pero nuestra reflexión crítica sobre su impacto no lo está haciendo al mismo ritmo.

Ventajas evidentes, riesgos claros

La IA puede ayudarnos a escribir mejor, superar barreras idiomáticas y explorar datos complejos. Pero también introduce riesgos importantes.

En primer lugar, está el problema de la creatividad perdida. Un análisis de más de 45 millones de artículos y casi 4 millones de patentes mostró que, desde mediados del siglo XX, la proporción de trabajos realmente disruptivos ha caído de manera sostenida. 

La ciencia avanza, sí, pero cada vez lo hace más por pasos pequeños que por saltos transformadores. Si empezamos a usar modelos de lenguaje para redactar propuestas o generar ideas, es probable que reforcemos esta tendencia: al estar entrenados en investigaciones pasadas, tienden a reproducir los enfoques dominantes y a evitar lo radicalmente nuevo.

Un modelo de IA puede llevar las leyes de Newton hasta sus límites, pero no inventaría la teoría de la relatividad. Puede escribir miles de variantes de un artículo sobre mecánica clásica, pero no preguntaría si el gato de Schrödinger está vivo o muerto porque nunca habría inventado la mecánica cuántica. 

Una máquina no puede imaginar nuevas ideas

La innovación profunda requiere intuición, imaginación y la capacidad de desafiar paradigmas, atributos que hoy siguen siendo profundamente humanos.

Existen también riesgos éticos. La IA puede fabricar datos, exagerar resultados, o proponer experimentos basados en premisas falsas, sin que el usuario lo detecte. 

Incluso, puede influir en la opinión pública y en la producción científica de forma masiva, como ya ocurrió con la industria del azúcar en los años 1960, cuando promovió investigaciones que desviaban la atención de sus efectos sobre la salud para culpar a las grasas.

Con herramientas capaces de generar texto persuasivo a escala industrial, la manipulación podría ser mucho más efectiva. Además, si las plataformas avanzadas quedan concentradas en pocas empresas o países, la capacidad de descubrimiento científico podría quedar monopolizada y generar nuevas formas de desigualdad científica y tecnológica.

¿Y si una máquina es el autor y el revisor a la vez?

Un escenario aún más inquietante es la delegación simultánea de la escritura y la evaluación de propuestas a modelos de lenguaje. No es ciencia ficción: un estudio reciente muestra que uno de cada cinco investigadores ya utiliza IA en la revisión por pares, y entre el 7% y el 17% de las revisiones en congresos científicos sobre IA han sido modificadas significativamente con estas herramientas.

Si una IA genera una propuesta y otra IA la evalúa, entramos en un sistema autorreferencial donde los modelos reproducen sus propios sesgos y donde la creatividad humana queda relegada. Esto podría atrapar a la ciencia en una espiral, anulando el tipo de descubrimiento transformador que ha caracterizado los grandes saltos de la historia científica.

Un marco ético para proteger la ciencia

Para evitar estos riesgos, proponemos una serie de principios éticos que permitan integrar los grandes modelos de lenguaje sin comprometer la integridad científica:

  • Abordar los sesgos de manera sistemática. La IA no es neutral. Necesita auditorías continuas, equipos interdisciplinares y mecanismos externos que detecten sesgos invisibles para los propios expertos.
  • Exigir transparencia total. Los investigadores deben documentar datos, parámetros y decisiones tomadas por los modelos, además de usar técnicas de explicabilidad que permitan entender cómo se llegó a una conclusión.
  • Aclarar la atribución y la propiedad intelectual. La frontera entre ayuda y autoría se difumina. Necesitamos normas claras sobre qué parte del contenido es humana y cuál generada por IA.
  • Garantizar responsabilidad humana. Todo lo producido por IA debe ser verificado por científicos. No puede haber decisiones automáticas sin supervisión.
  • Proteger la investigación transformadora. Hay que evitar que la IA empuje a la ciencia hacia lo cómodo. Las agencias deben apoyar proyectos arriesgados, interdisciplinarios y radicales.
  • Redefinir el papel del científico. Debemos reforzar la intuición, el pensamiento crítico, la ética y la visión a largo plazo.
  • Crear sistemas de gobernanza adaptativos. La tecnología evoluciona demasiado rápido para regulaciones estáticas. Necesitamos supervisión continua y flexible.
  • Reducir la dependencia de modelos privativos. La ciencia no puede depender de unas pocas plataformas comerciales. Debemos promover ecosistemas abiertos, diversos y resilientes.

La IA puede acelerar la ciencia de forma extraordinaria. Pero, si no actuamos con cuidado, podría también empobrecerla, hacerla menos creativa, más desigual y menos confiable. Para enfrentar los desafíos actuales, necesitamos herramientas poderosas, sí, pero también rigurosas, transparentes y profundamente humanas.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *