¿Desaparece la individualidad en los escritos de los estudiantes? El aprendizaje y la identidad transformados por la IA generativa

¿Desaparece la individualidad en los escritos de los estudiantes? El aprendizaje y la identidad transformados por la IA generativa

La escritura mejora con la IA, pero ¿a dónde desaparece "mi propia voz"?

En las aulas de universidades y escuelas técnicas, la IA generativa ya no es una presencia especial. Los estudiantes organizan los temas de sus tareas, piensan en la estructura de sus informes, corrigen la gramática y refinan las expresiones. Lo que hace unos años requería la ayuda de amigos, tutores o revisiones exhaustivas, ahora aparece en la pantalla en cuestión de segundos.

Sin duda, los textos se vuelven más fáciles de leer. El flujo lógico se ordena. El vocabulario se vuelve un poco más especializado, el estilo se calma y la presentación es lo suficientemente decente como para no avergonzarse al entregarlo a los profesores. Sin embargo, detrás de esta conveniencia, los estudiantes comienzan a sentir una nueva incomodidad.

"Está bien escrito, pero siento que no es mi propio texto".

El punto de discusión aquí no es simplemente si los informes generados con IA son deshonestos. El problema más profundo es que, en el proceso de mejorar los textos de los estudiantes, la IA podría estar eliminando suavemente la voz propia de los estudiantes, sus dudas, peculiaridades, imperfecciones y las huellas de su aprendizaje.

El artículo original menciona que, a medida que el uso de la IA generativa se expande entre los estudiantes canadienses, estos sienten una disonancia entre sus propios textos y los mejorados por la IA. Según una encuesta, muchos estudiantes canadienses utilizan la IA para sus tareas escolares, y no son pocos los que recurren a ella como "primera reacción" al recibir una tarea.

Esto no es simplemente una cuestión de estudiantes perezosos. Más bien, los estudiantes se debaten entre la conveniencia y la ansiedad al usar la IA. Quieren obtener mejores calificaciones. No tienen confianza en su inglés o habilidades de escritura. Quieren aprender expresiones especializadas. Quieren mejorar un poco sus entregas. Sin embargo, al mismo tiempo, sienten que los textos corregidos por la IA son tan suaves que se alejan de ellos mismos.

Escribir no es solo un acto de transmitir información. Especialmente en la educación universitaria o técnica, escribir es un proceso para confirmar "qué he entendido" y para formar "cómo pienso en este campo".

En los campos STEM, es decir, ciencia, tecnología, ingeniería y matemáticas, la escritura a menudo se trata como una habilidad secundaria. Lo importante son las fórmulas, los datos, los experimentos y los diseños, y la escritura se ve como un mero recipiente para explicarlos. Sin embargo, en realidad, incluso en el ámbito de la ciencia y la ingeniería, la capacidad de explicar ideas con precisión, conectar hipótesis con evidencias y expresar incertidumbres es indispensable.

Cuando los estudiantes escriben informes, no solo se refleja la profundidad de su comprensión, sino también cómo intentan adentrarse en su campo de especialización. Cómo usan la terminología. Cómo escriben sobre las partes en las que no tienen confianza. Cómo conectan sus experiencias e intereses. La acumulación de estas pequeñas elecciones se convierte en su "voz".

Sin embargo, la IA generativa arregla esta voz en un instante. Las irregularidades gramaticales desaparecen, las expresiones torpes se vuelven naturales y las conexiones lógicas se refuerzan. Como resultado, el texto se parece a un "buen informe de estudiante". Pero al mismo tiempo, es fácil que se convierta en un texto que podría haber sido escrito por cualquiera.

Esto no significa que la IA empeore la escritura. De hecho, es lo contrario. La IA mejora la escritura. El problema es que esta "mejora" es tan homogénea, segura y se acerca a un texto promedio de estudiante modelo.

Para los estudiantes, esta es una experiencia compleja. Los textos mejorados con IA pueden ser más fáciles de leer para los profesores. Las calificaciones pueden mejorar. Pero si se desvanece la sensación de haber luchado con sus propias palabras, se vuelve ambiguo si la entrega es su propio logro o el de una herramienta.

Lo importante aquí es que un "texto propio" no es necesariamente un texto perfecto. Expresiones inmaduras, explicaciones un poco indirectas, preguntas aún no resueltas, intereses personales que se filtran. Estas cosas pueden ser penalizadas en la evaluación, pero son huellas muy valiosas en el proceso de aprendizaje.

La IA es experta en borrar esas huellas.

Por ejemplo, si un estudiante escribe "Me pareció interesante este fenómeno porque está relacionado con mi experiencia práctica", la IA podría transformarlo en "Este fenómeno tiene implicaciones importantes en un contexto práctico". La segunda expresión parece más académica, pero se pierde la sorpresa e interés personal del estudiante.

Por supuesto, no es que el apoyo de la IA sea malo. Para los estudiantes que tienen dificultades con la escritura, que estudian en un segundo idioma o que no están familiarizados con la terminología especializada, la IA puede ser de gran ayuda. Para aquellos que tienen ideas pero no pueden plasmarlas en palabras, la IA puede ser una herramienta que les abra la puerta. Reducir la ansiedad sobre la gramática o la estructura permite concentrarse en el contenido real.

Por eso, no se debe simplificar el debate a "los estudiantes que usan IA están haciendo trampa". El problema no es si se usa o no la IA, sino en qué etapa, con qué propósito y en qué medida se utiliza.

Incluso al observar las reacciones en las redes sociales, las opiniones sobre este problema están divididas.

Algunos ven la revisión de textos por IA como una evolución natural. La revisión gramatical, el resumen, las propuestas de estructura, la reformulación y el ajuste de tono ya se realizan en muchos lugares de trabajo. Dado que se usará IA en el mundo laboral, opinan que los estudiantes deberían aprender a usarla desde sus años de estudio. Estas personas creen que la IA debería usarse como "editor" o "tutor" en lugar de "autor".

Por otro lado, hay voces que expresan una fuerte preocupación. Al delegar la creación de informes a la IA, ¿no estarán los estudiantes recibiendo respuestas antes de pensar por sí mismos? Al evitar el esfuerzo de construir textos, ¿no se desarrollarán el pensamiento crítico y las habilidades de expresión? En las redes sociales y foros, se pueden encontrar comentarios como "Los textos corregidos por IA son fáciles de leer, pero todos parecen iguales" y "Los textos de los estudiantes se están volviendo más como el estilo seguro de LinkedIn generado por IA".

Además, la desconfianza hacia las herramientas de detección de IA también está creciendo. Las herramientas que determinan si un texto fue escrito por IA enfrentan problemas de falsos positivos. Existe el temor de que solo por estar bien escrito, un texto sea considerado como generado por IA, lo que lleva a algunos estudiantes a escribir mal deliberadamente para evitar ser marcados. Esta es una situación irónica. La educación debería estar destinada a mejorar las habilidades de escritura de los estudiantes, pero ahora existe la posibilidad de que los estudiantes hagan sus textos intencionalmente poco naturales para evitar sospechas de IA.

Aquí hay una doble presión a la que se enfrenta la educación en la era de la IA.

Por un lado, los estudiantes sienten que están en desventaja si no usan la IA. Si a su alrededor los demás mejoran sus textos con IA y entregan informes de alta calidad en menos tiempo, no usarla se convierte en una desventaja competitiva. Por otro lado, existe la preocupación de que usar la IA pueda ser visto como deshonesto, o que se piense que no es su propio esfuerzo.

En otras palabras, los estudiantes están atrapados entre "quedarse atrás si no la usan" y "ser sospechosos si la usan".

En esta situación, las instituciones educativas tienen un límite si solo se basan en prohibiciones o detecciones. Por supuesto, es problemático presentar un informe completamente hecho por IA como propio. También es peligroso entregar textos que contengan citas inexistentes o errores fácticos. Pero tratar el uso de la IA como algo completamente invisible y presionar a los estudiantes a responder solo si "la usaron o no" no se ajusta a la realidad.

Lo necesario es no solo controlar la presencia o ausencia del uso de la IA, sino diseñar un sistema que haga visible cómo los estudiantes piensan, en qué partes usan la IA y dónde toman sus propias decisiones.

Por ejemplo, además de la versión final del informe, se podría pedir a los estudiantes que entreguen el borrador inicial, las instrucciones dadas a la IA, las sugerencias de la IA, las razones para adoptarlas o no adoptarlas. O comparar el texto creado por la IA con su propio texto y explicar "qué parte dejó de ser propia" o "qué expresión se acerca más a su pensamiento". Estas tareas no prohíben la IA, sino que enseñan a manejar la distancia con ella.

Lo importante es enseñar a los estudiantes la "técnica de proteger su propia voz".

En la educación de escritura en la era de la IA, no basta con enseñar solo gramática correcta o estructuras legibles. Más bien, se necesita la habilidad de "recuperar el texto aparentemente plausible generado por la IA hacia su propio pensamiento". No se trata de aceptar las sugerencias de la IA tal cual, sino de reescribirlas a la luz de su propia experiencia, dudas, posición y juicio profesional.

Esto puede ser un trabajo más avanzado que la educación de escritura anterior. Porque los estudiantes no solo deben corregir sus textos inmaduros, sino también cuestionar los textos aparentemente bien hechos por la IA.

Los textos de la IA a menudo parecen muy seguros. Están lógicamente estructurados y el tono es calmado. Sin embargo, esa confianza no siempre está respaldada por la comprensión. Si los estudiantes no pueden ver esto, los textos pueden ser bonitos, pero la comprensión seguirá siendo superficial.

Este problema no solo plantea preguntas a los estudiantes, sino también a los profesores. Si una tarea puede completarse fácilmente con IA, ¿realmente está midiendo el aprendizaje? En lugar de evaluar solo el informe final como producto terminado, ¿cómo se evalúa el proceso de pensamiento, la formulación de preguntas, los errores y las correcciones? La aparición de la IA está forzando una reestructuración de la evaluación educativa en sí misma.

Además, la "estandarización" de los textos podría afectar el sentido de pertenencia de los estudiantes. En los campos STEM, ya se ha señalado que las oportunidades de participación y el sentido de pertenencia varían según el género, la raza, el origen migratorio y la situación económica. En tal entorno, si los textos fluidos y estándar creados por IA se convierten en el criterio implícito de "buen texto", los estudiantes podrían perder aún más confianza en sus propias palabras.

Mi texto es torpe. El texto de la IA parece más inteligente. Entonces, ¿no es necesaria mi propia voz?

Esta sensación no es solo un problema de expresión escrita. Es un problema fundamental del aprendizaje, sobre si uno pertenece a este campo y si sus ideas tienen valor.

 

Las personas que apoyan el uso de la IA en las redes sociales tampoco ignoran necesariamente este problema. Muchos creen que la IA depende de cómo se use. Se utiliza para organizar sus ideas. Se utiliza para corregir errores gramaticales. Se utiliza para mejorar textos difíciles de leer. Sin embargo, si se delegan a la IA las afirmaciones, análisis y juicios, eso vacía el aprendizaje. Esta necesidad de trazar límites es relativamente compartida entre los partidarios y los cautelosos.

Sin embargo, ese trazado de límites no es sencillo. ¿Se permite la corrección gramatical? ¿Qué hay de la reformulación? ¿Y las propuestas de estructura de párrafos? ¿Y el borrador de la introducción? ¿Qué pasa si se investigan y utilizan los puntos de discusión sugeridos por la IA? Si las decisiones varían entre estudiantes, profesores y universidades, la confusión en el terreno continuará.

Por eso, las instituciones educativas necesitan reglas claras y, al mismo tiempo, un diálogo flexible. Simplemente escribir "prohibido el uso de IA" hará que los estudiantes la usen a escondidas. Simplemente escribir "se recomienda el uso de IA" hará que sea ambiguo hasta qué punto es su propio logro. Lo necesario es aclarar "qué se quiere enseñar en esta clase" para cada tarea y, a la luz de ese objetivo, indicar el alcance del uso de la IA.

Por ejemplo, en clases donde se aprende la expresión escrita en sí, puede ser necesario limitar el uso de la IA y asegurar tiempo para escribir luchando con sus propias palabras. Por otro lado, en clases que enfatizan la aplicación de conocimientos especializados o el análisis de datos, se podría permitir cierta organización de textos por IA, pero a cambio, exigir rigurosamente las bases del análisis y el proceso de juicio.

En cualquier caso, la IA ya no es una presencia que se pueda expulsar del aula. Los estudiantes ya la están usando. Incluso si se les dice que no la usen, los estudiantes que quieren usarla lo harán. Por lo tanto, el desafío educativo ha pasado de "no permitir el uso de IA" a "enseñar cómo no perder el pensamiento propio al usar IA".

El hecho de que los textos de los estudiantes mejoren con la IA no es en sí mismo algo malo. De hecho, para los estudiantes que han estado en desventaja debido a la diferencia en habilidades de escritura, podría ampliar el acceso al aprendizaje. Sin embargo, si la educación sigue evaluando solo la fluidez de los textos, el estilo homogéneo de estudiante modelo creado por la IA se convertirá en el estándar, y la voz propia de los estudiantes será cada vez más difícil de percibir.

Lo que realmente se debe cuestionar no es solo "¿fue este texto escrito por IA?".

"¿Quedan preguntas propias del estudiante en este texto?"
"¿Hay huellas de pensamiento en este texto?"
"¿El estudiante que escribió este texto comprendió un poco más antes de entregarlo?"
"¿Queda la voz de esa persona incluso después de que la IA lo haya mejorado?"

La IA generativa puede hacer que un texto parezca fuerte. Pero un texto que parece fuerte no significa necesariamente un pensamiento fuerte. De hecho, a veces un texto que ha sido trabajado con sus propias palabras, aunque sea un poco torpe, puede ser una prueba más rica de aprendizaje.

Lo que se necesita en la educación en la era de la IA no es asustar a los estudiantes con la IA ni dejar que la IA haga todo. Es enseñar a escribir de manera que, aunque se reciba ayuda de la IA, no se pierda el propio pensamiento.

Cómo equilibrar la mejora del texto y la preservación de la propia voz. Ese es el desafío al que deben enfrentarse estudiantes, profesores y universidades ahora.



Fuente URL

Artículo publicado en Phys.org: Problema de los estudiantes canadienses que sienten que los textos mejorados por IA carecen de "autenticidad", educación STEM, voces de estudiantes y propuestas para el diseño educativo.
https://phys.org/news/2026-05-college-students-aismoothed-strong.html

Estudio de KPMG Canadá: Tasa de uso de IA generativa entre estudiantes canadienses, uso de IA al crear tareas, preocupaciones sobre el pensamiento crítico, entre otros datos de fondo.
https://kpmg.com/ca/en/media/2025/10/generative-ai-boom-among-canadian-students-raises-dilemmas.html

UNESCO "Guía para la IA generativa en educación e investigación": Uso de IA generativa en educación e investigación, perspectiva centrada en el ser humano, cuestiones internacionales sobre la autonomía del aprendiz.
##