Saltar al contenido principal
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Logo
  • Todos los artículos
  • 🗒️ Registrarse
  • 🔑 Iniciar sesión
    • 日本語
    • English
    • 中文
    • Français
    • 한국어
    • Deutsch
    • ภาษาไทย
    • हिंदी
cookie_banner_title

cookie_banner_message Política de privacidad cookie_banner_and Política de cookies cookie_banner_more_info

Configuración de cookies

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

Hacia una era en la que los artículos académicos son "producidos en masa" por la IA: ¿Ha aumentado la productividad, pero se puede discernir la calidad?

Hacia una era en la que los artículos académicos son "producidos en masa" por la IA: ¿Ha aumentado la productividad, pero se puede discernir la calidad?

2025年12月23日 12:47

¿Es una buena noticia que "la IA aumente la cantidad de artículos"?

En diciembre de 2025, un estudio que capturó a gran escala los cambios que la IA generativa (modelos de lenguaje a gran escala: LLM) está trayendo al mundo académico se volvió un tema de discusión. Según informó Phys.org, los científicos que utilizan LLM (ejemplo: ChatGPT) están produciendo visiblemente más artículos que aquellos que no lo hacen. Además, este aumento varía según el campo y la región, siendo un fuerte impulso especialmente para los investigadores "cuyo idioma nativo no es el inglés".Phys.org


Esta noticia resalta porque revela simultáneamente el "atasco estructural" que ya existía en las publicaciones académicas y el "nuevo atasco" generado por la IA generativa. Para los investigadores, tener menos tiempo dedicado a escribir es una buena noticia. Sin embargo, para los revisores, editores y la sociedad que utiliza los resultados de la investigación, la carga de "leer/detectar" aumenta considerablemente. Aquí se presenta un esquema donde los beneficios de la eficiencia se convierten en costos en otras áreas.


¿Cómo se midió el "uso de IA" en la investigación?

La base del análisis fue los preprints (artículos publicados antes de la revisión por pares). Investigadores de la Universidad de Cornell y UC Berkeley analizaron más de 2 millones de resúmenes publicados en grandes servidores de preprints como arXiv, bioRxiv y SSRN entre enero de 2018 y junio de 2024.Phys.org


Lo importante aquí es cómo se estimó "quién usó LLM". Según Phys.org, el equipo de investigación utilizó GPT-3.5 (GPT-3.5 Turbo-0125) para generar resúmenes "parecidos a los de IA" basados en resúmenes anteriores a 2023, aprendiendo las diferencias (expresiones y patrones estadísticos) con los textos humanos, y desarrollaron un algoritmo para detectar si esa "huella digital" aparece en resúmenes posteriores.Phys.org


Además, según la presentación de EurekAlert!, se utilizó un enfoque de diferencias en diferencias para rastrear los cambios antes y después de la introducción de LLM, comparando cómo cambió la productividad tras su adopción.EurekAlert!


En otras palabras, no se basaron en "la declaración del propio usuario sobre el uso de IA", sino que lo estimaron "a partir de las características del texto". Esto tiene sus limitaciones (por ejemplo, podría mezclarse con la estandarización del estilo o el uso de herramientas de revisión). Sin embargo, debido a la gran escala, es más fácil captar "tendencias generales" que son difíciles de ver en casos individuales.


Resultado 1: La "productividad" de los artículos realmente ha aumentado

Los números son bastante contundentes. Phys.org presenta un aumento por campo: 59.8% en ciencias sociales y humanidades, 52.9% en ciencias biológicas y de la vida, y 36.2% en física y matemáticas.Phys.org


La explicación de Cornell Chronicle coincide con esto, afirmando que en arXiv hubo un aumento de aproximadamente un tercio (≒36%), mientras que en bioRxiv y SSRN fue superior al 50%.Cornell Chronicle


Lo que es fácil de malinterpretar aquí es que el aumento no se debe tanto a que "la IA genere ideas de investigación", sino más bien al efecto de "reducir la fricción en escribir, organizar y preparar para la publicación". Incluso si se dedica el mismo tiempo a experimentos y análisis, solo con acelerar la redacción, el número de publicaciones puede aumentar. Especialmente en resúmenes, introducciones, revisión de investigaciones relacionadas y pulido de expresiones, los LLM son áreas en las que destacan.


Resultado 2: Se vislumbra una "corrección de desigualdades" para los países no angloparlantes

El aspecto más simbólico de este estudio es la diferencia regional. Phys.org informa que "hubo un aumento de hasta el 89% entre los investigadores asiáticos", y menciona la historia de cómo la cultura de las principales revistas que requieren inglés ha sido desfavorable para los países no angloparlantes.Phys.org


Cornell Chronicle va más allá, afirmando que el aumento en las presentaciones de investigadores afiliados a instituciones asiáticas alcanzó entre el 43.0% y el 89.3%, mientras que en instituciones angloparlantes y autores con nombres "caucásicos" fue más modesto, entre el 23.7% y el 46.2%.Cornell Chronicle


EurekAlert! también resume que el aumento en productividad varía entre el 23.7% y el 89.3%, siendo mayor el beneficio para aquellos con mayores barreras lingüísticas.EurekAlert!


Esto sugiere la posibilidad de que la "prima de fluidez en inglés" que ha existido durante mucho tiempo en el ámbito académico se esté desvaneciendo. Si la capacidad de "organizar en inglés" ha sido sobrevalorada en comparación con el contenido de la investigación, ciertamente hay un aspecto de corrección de esa distorsión.


Por otro lado, esto también representa un "cambio en las reglas de competencia". Aquellos que antes ganaban por su habilidad en inglés ven reducida su ventaja, y existe el riesgo de que la evaluación se desplace hacia otras señales (afiliación, mentor, marca). Phys.org advierte que, si la evaluación basada en el texto se desmorona, "podríamos depender de indicadores de estatus como la trayectoria del autor o la afiliación".Phys.org


Resultado 3: Aunque los textos se vuelven "más sofisticados", el criterio de calidad se invierte

Este es el punto más inquietante de este estudio. Tradicionalmente, escribir un texto que sea fácil de leer y al mismo tiempo coherente y especializado se correlacionaba con la calidad de la investigación. Tanto los revisores como los editores, en medio de su carga de trabajo, confiaban en la calidad del texto como una "guía rápida".


Sin embargo, según Cornell Chronicle, mientras que en los artículos escritos por humanos "cuanto más complejo es el texto, más probable es que sea aceptado", en los artículos donde es probable que haya intervenido un LLM, esta relación se invierte, mostrando una tendencia de "cuanto más complejo es el texto, menos probable es que sea aceptado".Cornell Chronicle


TechXplore (republicado de The Conversation) también resume que, bajo el apoyo de la IA, el "lenguaje complejo" podría utilizarse para encubrir un contenido débil.TechXplore


En términos sencillos, el atajo de "un buen texto = buena investigación" se ha roto. O, más precisamente, "escribir bien se ha vuelto más accesible que antes". Por lo tanto, la probabilidad de encontrar un "acierto" solo mirando el texto ha disminuido.


Resultado 4: Una inesperada ventaja en la "diversificación" de citas y exploración

No todo son malas noticias. Cornell Chronicle menciona que el uso de IA también influye en la exploración de investigaciones relacionadas, y que la búsqueda con IA (ejemplo: Bing Chat) facilita el acceso a nuevas publicaciones y libros, debilitando relativamente el sesgo hacia los "clásicos antiguos y frecuentemente citados" que las búsquedas tradicionales suelen recoger.Cornell Chronicle


EurekAlert! también concluye que los usuarios de LLM tienden a leer y citar una variedad más amplia de literatura (libros, investigaciones más recientes, documentos menos citados).EurekAlert!


Esto sugiere que podría ampliarse el "rango de ideas" en la investigación, aunque también genera otras preocupaciones. Cuanto más aumenten y se diversifiquen las citas, mayor será la carga de verificar la precisión de las referencias. Si se mezclan las alucinaciones de la IA generativa (errores plausibles), podría convertirse en un caldo de cultivo para cadenas de citas incorrectas.


"Inundación de artículos" y el futuro de la revisión por pares: ¿qué se atasca?

Así se vería todo esto en un esquema.

  • Investigadores: El proceso de escritura se acorta → Aumenta el número de envíos

  • Revistas/revisores: Aumenta el número de lecturas + Se dificulta "filtrar" por la calidad del texto

  • Evaluación de la investigación (contratación, promoción, subvenciones): Se distorsiona aún más el indicador de cantidad (el volumen aumenta demasiado)

  • Sociedad: Aumenta el costo de identificar conocimientos confiables


Phys.org propone como medidas "revisiones más profundas" y "agentes de apoyo a la revisión basados en IA".Phys.org


TechXplore (The Conversation) sugiere que, considerando el aumento en el número de envíos y la carga editorial, podría llegar el momento en que no quede más opción que usar el apoyo de revisión por IA, "fuego contra fuego".TechXplore


Sin embargo, el esquema de IA juzgando a IA también conlleva nuevos riesgos. Sesgos en los detectores, falsos positivos, competencia de herramientas (optimización del texto para evitar la detección), etc., podrían dar lugar a un "juego del gato y el ratón". Lo importante es cambiar el eje de evaluación hacia "verificar la solidez de la investigación" en lugar de "controlar la apariencia de IA".


Reacciones en redes sociales (tendencias): Puntos de división en opiniones

※ A continuación, se presenta un resumen de los puntos de discusión que aparecen repetidamente en artículos, re-publicaciones y debates (es decir, "tipos de reacción" que se propagan fácilmente en redes sociales), no una recopilación exhaustiva de publicaciones individuales.


1) Grupo "Esperanza para los países no angloparlantes": Expectativa de democratización de la investigación

El aumento del 43.0% al 89.3% entre los investigadores asiáticos es un dato impactante, fácil de conectar con la percepción de que la barrera del inglés ha distorsionado la competencia en la investigación.##HTML_TAG_348

← Volver a la lista de artículos

Contacto |  Términos de servicio |  Política de privacidad |  Política de cookies |  Configuración de cookies

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Todos los derechos reservados.