Reflexiones sobre el uso de la inteligencia artificial generativa en artículos científicos
A partir de un interesante debate desarrollado en la lista de correos CRECS (CRECS@listserv.rediris.es), creada y coordinada por Tomàs Baiget, tuve oportunidad de presentar algunas reflexiones sobre el uso de la IA en artículos científicos y las posibles políticas editoriales de las revistas científicas al respecto. En este post, presento una síntesis de mis propias propuestas por si son de interés para alguien.
Posible adaptación del modelo IMRyD para reflejar el uso de la IA en artículos científicos
Creo que el modelo IMRyD tiene que ampliarse y añadir un apartado para la IA, de modo que tendrá que ser el modelo IMIARyD. En breve va a pasar que un artículo que no declare nada en relación a la IA será sospechoso de ocultación. Tendrá el riesgo de no ser creíble.
Pero hay que tener en cuenta qué sucede si se la IA se usa mal. Por eso, junto a la casi obligación de utilizarlo debería ir de la mano la obligación de explicar cómo se ha usado.
Mal usada la IA, esto es, «por copiar y pegar», además de destruir la cadena de atribución, premia a quien no ha hecho nada, lo que va en contra del concepto de autoría y del sentido académico de mérito. Asignaría recursos a quien no los merece. Aumenta la probabilidad de errores conceptuales y factuales, pues la IA no tiene conciencia. Por otro lado, la mera reproducción, reduce la innovación pues la IA se limita a sintetizar una parte de lo que ya se ha publicado, y no sabemos (no lo sabe nadie) cómo ha elegido esa parte ni si la ha sintetizado bien.
Así pues, uso de IA sí, sin duda, hasta el punto de que en poco tiempo va a ser casi obligatoria, pero igual de obligatoria debe ser la transparencia. Las operaciones de «copiar y pegar» deben seguir siendo rechazadas como hasta ahora. No importa que el copiar y pegar venga de un artículo de la Wikipedia, de un trabajo ajeno o de una IA. Es inadmisible por igual por los motivos indicados y por la ética del mérito, que es inherente a la academia, de lo contrario daremos recursos a quienes no los merezcan.
Otra cosa será si algún día llega la singularidad y la IA adquiere conciencia. Ese día habrá que reescribir todas las reglas. Pero de momento, ni está ni se la espera.
Para seguir con esta línea tan fecunda iniciada por Tomàs Baiget, a quien siempre debemos su mirada pionera en tantas cosas, quisiera añadir un efecto que tiene el uso de las IA en trabajos académicos y que temo que no se suele tener en cuenta, o tal vez para ser más equitativo, justo ahora se empieza a tener en cuenta.
Me refiero a lo que se denomina deuda cognitiva y que puede generar la siguiente paradoja: hasta ahora, cuando un investigador desarrolla una investigación, el investigador se vuelve más sabio. Con la IA es posible que el investigador siga estando en el mismo sitio e incluso que se vuelva más tonto, pues justo es lo que provoca la deuda cognitiva.
¿Como es esto posible? Fácil. Porque quién ha avanzado en el conocimiento, si es que se puede decir así, es la IA, pero el investigador humano no ha avanzado nada. Voy a plantear un caso especialmente claro: las revisiones sistemáticas como las scoping review u otras. Estos trabajos de revisión se consideran investigaciones en sí mismas dado el exigente protocolo que plantean y dada la metodología utilizada que implica un proceso de extracción de datos sistemático seguido a su vez por otros procesos de interpretación crítica y de síntesis final de la evidencia.
El efecto de una scoping review o de una revisión sistemática es doble: aportan una síntesis de la evidencia que hace avanzar el conocimiento en un ámbito determinado al detectar patrones, identificar regularidades y tendencias, detectar oportunidades de investigación e incluso al ayudar a confirmar o desmentir teorías.
El segundo efecto es que el autor de la scoping se ha vuelto una persona distinta de la que empezó la scoping. Al final del proceso, el autor de la revisión ha adquirido un conocimiento experto en su campo. Ha pasado de ser un principiante con un discurso superficial, a tener un conocimiento sólido que le dota de un discurso sofisticado y con capacidad de diseñar investigaciones originales y productivas. De paso, el investigador ha desarrollado su pensamiento crítico pues se ha visto obligado a analizar, interpretar y categorizar las investigaciones que ha examinado. Ha desarrollado así una habilidad compleja que pone en juego mecanismos cognitivos muy exigentes.
Pues bien, actualmente, hay una oferta en el mercado de sistemas de IA que pueden desarrollar perfectamente, de inicio a fin, una revisión de la literatura de tipo sistemático, incluyendo revisiones del tipo scoping review literalmente apretando un botón. ¿Qué sucede con el investigador que utiliza una IA para su trabajo de revisión si utiliza el contenido así generado por la IA mediante copiar y pegar, en lugar de hacer él la revisión? Pues que no ha aprendido nada. No solo no ha aprendido nada, tampoco ha fortalecido su pensamiento crítico ni ha desarrollado sus habilidades cognitivas. Puede que la IA haya «aprendido» algo, pero el investigador, desde luego que no. Es posible además que su capacidad cognitiva general se haya degradado, por la misma razón que nuestra salud general se degrada si en lugar de tener una vida activa nos pasamos el día en el sofá.
Es como si una persona que necesita hacer ejercicio se dedica a mirar videos de gente haciendo ejercicio. ¿De qué le sirve para su salud física? Utilizar un contenido por copiar y pegar es lo mismo, no aporta nada al progreso intelectual y cognitivo del investigador, y además se hace cómplice de la destrucción de la cadena de atribución y del riesgo de propagar errores al no verificar nada.
Debemos usar la IA, esto está claro. Pero solo podemos hacerlo en el contexto académico si evitamos el «copiar y pegar» y en su lugar incorporamos protocolos exigentes de verificación, evaluación, atribución y edición. Es por esto que los editores de revistas harían bien en incorporar una sección de IA en la estructura esperada en los manuscritos que reciben, donde los autores deberán explicar qué IA han utilizado, cómo la han utilizado y qué acciones han aplicado para hacerse totalmente responsables del contenido de su artículo.
Con esto, la ciencia aprovecha las ventajas de la IA sin pagar un precio inasumible en el corto y el medio plazo y evitando así una acumulación de problemas en el largo plazo que pueden convertir la publicación académica en una ciénaga. Cosa que espero nunca sucederá, pero para que no suceda, tenemos que prevenir a tiempo.
Síntesis del uso de la IA y posibles consecuencias
¿Es conveniente usar la IA en la academia? SÍ. Es la recomendación casi unánime que hacen los expertos y los principales organismos, incluyendo la UE y la Unesco por mencionar a dos de los grandes. Usar la IA en la academia significa usarla tanto en la docencia como en la investigación, por tanto, debe tener su reflejo en los reportes de investigación, que son los artículos científicos.
¿Debe declararse el uso de la IA en la investigación y por tanto en artículos científicos? Depende. Si se ha usado para generar resúmenes, obtener ideas iniciales, traducir textos, mejorar la redacción, resumir informes, etc. no es necesario. Son usos auxiliares que no necesitan ser declarados. Si los autores lo desean, pueden hacerlo, no obstante. Y en caso de duda, se explica y listo.
¿Debe declararse el uso de la IA en aportes sustanciales o significativos? SÍ. Es imprescindible que los autores expliquen el uso de la IA como parte de la metodología si el uso es significativo. Si tienen dudas, mejor explicarlo. ¿Qué forma parte de la explicación? Depende de cada caso, pero podría ser la IA utilizada, la fecha y el prompt, y si hace al caso, en el dataset, la respuesta original de la IA. Todo ello, por la trazabilidad y la replicabilidad que esperamos de todo artículo científico.
¿Se puede usar contenidos generados por una IA «por copiar y pegar» como si fuera nuestro? NO. La IA se puede usar de muchas formas en las que no se genera un texto. Aquí, cero conflictos (se debe declarar igualmente si es un uso significativo). Pero en muchos usos, la IA genera un contenido textual que los autores pueden desear utilizar, pero en tal caso, no pueden hacerlo por «copiar y pegar» como si fuera nuestro. La razón es la misma por la que no se puede hacer tal cosa con textos tomados de la wikipedia o de terceros en general. Hacerlo, esto es, tomar un contenido textual generado por una IA y pegarlo tal cual como si fuera nuestro equivale a plagio.
¿Se puede incorporar contenido generado por una IA en nuestros trabajos? SÍ. Pero antes debemos verificar las fuentes, evaluar las ideas, atribuir las ideas tomadas de terceros a los autores originales y editar el contenido a fin de que sea total responsabilidad de los autores, salvo cita literal o parafraseo.
¿Disponemos de protocolos sobre cómo incorporar contenido textual generado por una IA en nuestros trabajos?. SÍ. Tenemos la normativa habitual, por ejemplo, APA según la cual podemos citar fragmentos literales, siempre que hagamos la atribución correspondiente al autor original (no a la IA) y marquemos con claridad el inicio y el fin de la cita literal. También podemos parafrasear ideas, conceptos, teorías, etc., obtenidas gracias a la IA por el procedimiento habitual de atribución (p.e. normas APA), pero no a la IA, sino al autor original para no destruir la cadena de atribución.
¿Podemos usar texto generado por sistemas de IA de los que NO aportan fuentes? NO. Si pensamos usar los contenidos textuales generados por una IA en trabajos académicos debemos usar sistemas de IA de tipo RAG que consultan bases de datos y hacen búsquedas en Internet y proporcionan las fuentes que han utilizado para generar sus síntesis narrativas. Ejemplos de sistemas RAG son Google Gemini (en el modo Deep Research) o Perplexity. En general, cualquier IA especializada en usos académicos, como Scispace, Epsilon, Scite o Elicit. Sin fuentes no podemos verificar ni evaluar, ni mantener la cadena de atribución.
¿Será lo normal usar la IA en artículos científicos en el futuro? SÍ. Tan normal, que seguramente no usarla será lo que necesitará explicación o levantará sospechas de ocultación. Hace poco, en un seminario sobre este tema expliqué que imagino que dentro de cinco años (o antes) esta pregunta del miembro de un tribunal de tesis podrá tener lugar: «usted no menciona ningún uso de la IA en su tesis doctoral, ¿cómo es esto posible?»
¿El modelo IMRyD necesita ampliarse? SÍ. La estructura de un artículo científico en el futuro (ya, en realidad) podría incorporar un nuevo apartado denominado IA. O sea, el futuro (que es ya) IMRyD podría ser IMIARyD. Este apartado se activará si los autores han hecho un uso significativo, en cuyo caso deberán explicar en qué ha consistido, por transparencia, pero también para aportar ideas a otros investigadores. Algunas revistas podrán decidir (pero estoy especulando) que solo aceptarán manuscritos con el apartado IA incluido, por razones de calidad y transparencia.
Dos temas, más especulativos:
Si en algún momento tiene lugar la singularidad, esto es, si en algún momento aparece una IA con conciencia todo lo anterior tendrá que reescribirse. Hay expertos que niegan que pueda aparecer en el futuro porque dicen que sin saber qué es la conciencia es imposible programarla. Pero otros, están trabajando ya con esa posibilidad y están intentando concebir unos derechos humanos para las IA. Se llamarán tal vez derechos de seres con conciencia, o algo así, pero hay investigadores serios trabajando en ello. Entonces, habrá dos especies inteligentes sobre la Tierra y lo lógico (ya que están ambos dotados de razón) será que colaboren y no haya diferencia entre autores humanos y autores IA. Bueno, sí, tal vez habrá una, que los autores IA serán tal vez más fiables.
La deuda cognitiva hay que tomarla en serio, como la humanidad se tomó en serio el momento en que una parte de los trabajos dejaron de usar la fuerza física y se inventaron los gimnasios. Determinadas investigaciones, aunque las pueda hacer la IA es aconsejable que las hagan también los investigadores humanos, el ejemplo perfecto con las revisiones de la literatura. Luego, si hace falta, se comparan los resultados con la que haya hecho la IA y se hace una meta síntesis. Y seguro que hay otros casos en los cuales, incluso con una IA con prestaciones iguales o superiores, a los investigadores humanos les interesará hacer ellos su propia investigación y, como digo, luego se pueden comparar y las discrepancias se resuelven por consenso.
Como he señalado en la presentación, estas son mis aportaciones de un debate más amplio, que a los interesados en el tema seguramente les interesará conocer. Por tanto, mi recomendación a los interesados es que consulten los archivos de la lista de distribución CRECS en el servidor de la misma, para lo cual pueden solicitar la inscripción gratuita: https://listserv.rediris.es/cgi-bin/wa?A0=CRECS .

Lluís Codina. Profesor honorario e investigador de la Universitat Pompeu Fabra de Barcelona