¿Hacia una era en la que la IA escribe artículos y la IA los revisa? ¿Es la publicación científica una "evolución" o un "colapso"? ¿Cómo cambiará la "confianza en la ciencia"?

¿Hacia una era en la que la IA escribe artículos y la IA los revisa? ¿Es la publicación científica una "evolución" o un "colapso"? ¿Cómo cambiará la "confianza en la ciencia"?

1. La entrada de la IA en la "puerta" de la investigación

El tema de la IA generativa tiende a centrarse en la investigación en sí misma (generación de hipótesis y diseño experimental). Sin embargo, el impacto de la IA en la "puerta" que sostiene la confianza en la ciencia, es decir, la redacción, revisión, edición y publicación de artículos, es más sutil pero significativo.


El artículo de Undark describe este cambio desde las perspectivas de la "redacción" y la "revisión". Mohamad Hosseini, investigador en ética de la IA que ha manejado manuscritos como editor, ha visto un número considerable de manuscritos claramente generados por IA, con uso excesivo de guiones, saltos lógicos y desorganización en el texto. Sin embargo, la calidad de la IA sigue mejorando, y algún día esa capacidad de detección podría dejar de ser efectiva, lo que es el punto de partida del artículo.


2. Aumentar el número de "personas que pueden escribir": IA como apoyo a la redacción

El primer valor que la IA generativa ofrece es en tareas de "trabajo textual", como resúmenes de literatura, redacción de borradores, traducción y revisión de textos en inglés. Especialmente para los hablantes no nativos de inglés, la barrera del idioma puede ser una desventaja en la difusión de los resultados de la investigación. El artículo menciona que la IA puede reducir esta brecha y ayudar a más investigadores a participar en revistas internacionales.


De hecho, el uso por parte de los investigadores ya se refleja en las estadísticas. Una encuesta realizada por Nature a unos 5,000 investigadores internacionales muestra que un cierto porcentaje utiliza IA para la redacción de borradores, traducción, resumen y edición. Otro análisis a gran escala estima que, para 2024, un número considerable de resúmenes en el campo biomédico podrían haber sido procesados por modelos de lenguaje, basándose en el aumento de frases sospechosas de ser derivadas de IA.


Lo importante aquí no es tanto que "la IA escriba artículos", sino que la reducción del "costo del trabajo textual" aumente la producción de investigación. A medida que la velocidad de escritura aumenta, también lo hace el número de envíos, y los manuscritos que llegan a las editoriales se vuelven abrumadores. El equilibrio entre calidad y cantidad se vuelve cada vez más difícil.


3. Alucinaciones, plagio y fabricación: los peligros amplificados detrás de la conveniencia

Las debilidades de la IA son bien conocidas: alucinaciones (mentiras plausibles), citas incorrectas y presentación de fundamentos inexistentes. El artículo también enfatiza problemas graves específicos de la publicación académica, como el plagio y la proliferación de "fábricas de artículos". La IA puede generar rápidamente texto bien estructurado desde cero, reduciendo el umbral para el fraude. La fabricación de datos existía antes de la IA, pero la IA proporciona "producción en masa" y "velocidad".


Y lo preocupante es que el fraude no siempre ocurre con mala intención. Los investigadores pueden usar la IA como "ruedas de entrenamiento convenientes" y, como resultado, mezclar inadvertidamente información errónea o plagio. Cuanto más natural sea el texto generado, más fácil es que tanto los lectores como los escritores se dejen llevar por su "apariencia verosímil".


4. La tentación de incluir IA en la revisión por pares: la escasez de personal y las expectativas de equidad

El siguiente tema de debate es la revisión por pares. Se señala que la escasez de revisores ha empeorado desde la pandemia, y los editores enfrentan dificultades como rechazos o falta de respuesta a sus solicitudes. Esto genera la expectativa de que "el uso de IA podría ampliar la base de revisores". El artículo menciona que Roy Perlis, editor de JAMA+AI, sugiere que la IA podría aliviar la carga de los investigadores y aumentar el número de personas que participan en las revisiones.


Además, existe la ilusión de que la revisión por IA es "neutral". Si puede distanciarse de escuelas de pensamiento específicas, redes de contactos o prejuicios hacia hipótesis, podría aumentar la equidad. Sin embargo, el artículo advierte rápidamente que, dado que la IA aprende de datos de publicaciones pasadas, puede reproducir sesgos históricos (ventaja de investigadores famosos, instituciones destacadas y países centrales). De hecho, varios estudios han mostrado que la IA tiende a favorecer evaluaciones positivas hacia instituciones de alto estatus y autores prominentes.


Lo que emerge aquí es el hecho de que "la IA no es neutral", sino que "la IA es el pasado promedio". Si la cultura de publicación pasada estaba sesgada, la revisión por IA corre el riesgo de "automatizar" ese sesgo.


5. Establecimiento de reglas: una ruta realista de permisos, prohibiciones y divulgación

Entonces, ¿cómo están respondiendo las editoriales y revistas académicas? Según el artículo, muchas revistas principales están proporcionando guías sobre el uso de la IA generativa, prohibiendo su uso para prácticas que podrían llevar a fraude, pero permitiendo la edición de lenguaje y asistencia en análisis bajo ciertas condiciones. PLOS requiere que se especifique el nombre de las herramientas utilizadas, el método de uso, la evaluación de la validez de los resultados y el alcance del impacto.


En cuanto a la revisión por pares, la confidencialidad es el principal punto de discusión. Si se ingresan manuscritos no publicados en servicios externos de IA, surge la preocupación de filtración de información. Por lo tanto, algunas editoriales importantes piden a los revisores que no suban manuscritos no publicados a IA generativa, según el artículo.


Además, se está extendiendo la línea de no reconocer a la IA como coautor ni permitir imágenes generadas por IA o alteraciones de imágenes por IA. Al final, si no se fija la responsabilidad en los "humanos", la verificabilidad de la ciencia se tambalea. El artículo también establece un principio fuerte: "En última instancia, los autores humanos son responsables de cada palabra y número en el artículo".


6. La detección no es infalible: comienza el juego del gato y el ratón

La idea de que "basta con detectar lo generado por IA" es atractiva, pero el artículo es realista al respecto. Las herramientas de detección tienen límites, y tanto los usuarios como los detectores evolucionan. A medida que los estilos se suavizan, la lógica se afina y las citas se vuelven "aparentemente correctas", la distinción se vuelve más difícil. Además, confiar demasiado en la detección puede generar otro tipo de injusticia, como sospechar de los hablantes no nativos de inglés que usan IA solo para revisar.


Por lo tanto, la publicación académica no puede inclinarse hacia una "prohibición total" ni hacia una "aceptación completa" del uso de IA. La solución práctica será una "operación" que combine (1) transparencia (divulgación), (2) confidencialidad (restricción de entrada), (3) supervisión humana (fijación de responsabilidad) y (4) medidas contra el fraude (fortalecimiento del proceso de edición y revisión).


7. Reacciones en redes sociales: el optimismo y el pesimismo se aceleran simultáneamente

 

No solo se menciona el artículo en sí, sino que en las redes sociales se destaca la polarización de las reacciones hacia "IA × publicación académica" en general.


El argumento del lado pesimista es simple: "La publicación no está preparada", "El fraude aumentará", "La confianza se romperá". En las comunidades que siguen las retractaciones y el fraude en la investigación, hay una fuerte advertencia sobre la "inundación de artículos basura" generados por IA, y se repite el tono de que la infraestructura de publicación no puede mantenerse al día.


El argumento del lado optimista es: "Podemos crear nuevos flujos de trabajo", "Hay espacio para rediseñar la revisión y publicación". Por ejemplo, hay comunicaciones de personas relacionadas con arXiv que hablan sobre la posibilidad de que la publicación científica incorpore nuevas herramientas y métodos en la era de la IA generativa, y el debate avanza asumiendo el cambio.


Y como una ruta realista, es común el debate sobre "qué es aceptable y qué debe divulgarse". En una publicación que presenta la encuesta de Nature, se visualizan las diferencias de opinión y condiciones en la comunidad investigadora sobre el uso de la IA, sugiriendo que se necesita una "operación gris" en lugar de una solución en blanco y negro.


Así es como se resume el ambiente en las redes sociales.

  • No se niega la conveniencia (especialmente en redacción, resumen y traducción)

  • Pero hay una fuerte preocupación por el fraude, la fabricación y la proliferación de basura

  • La solución es "reglas + supervisión + transparencia" en lugar de "prohibición"
    Tal como los puntos del artículo de Undark se repiten con otras palabras.

8. El enfoque futuro: "¿Quién es responsable de qué?"

La idea de que la IA cambiará la publicación científica ya es un camino establecido. La cuestión es "cómo" cambiará.


Si la IA acelera la producción en masa de artículos y el fraude, y desvirtúa la revisión por pares, la confianza en la ciencia se erosionará. Por el contrario, si la IA reduce la brecha lingüística, complementa la escasez de revisores y hace más eficiente el proceso editorial, la ciencia se volverá más accesible.


Ese punto de inflexión no es la tecnología, sino la gobernanza. Divulgación, confidencialidad, fijación de responsabilidad y supervisión humana. Como muestra el artículo al final, la IA está ejerciendo presión para revisar cada etapa del proceso de publicación. Por eso, deberíamos debatir no sobre "si introducir o no la IA", sino sobre "si el diseño permite que los humanos asuman la responsabilidad".



URL de la fuente