La personnalité disparaît-elle des écrits des étudiants ? Comment l'IA générative transforme l'apprentissage et l'identité

La personnalité disparaît-elle des écrits des étudiants ? Comment l'IA générative transforme l'apprentissage et l'identité

L'IA améliore l'écriture, mais où disparaît "sa propre voix" ?

Dans les universités et les écoles spécialisées, l'IA générative n'est plus une exception. Les étudiants organisent les thèmes de leurs devoirs, réfléchissent à la structure de leurs rapports, corrigent la grammaire et affinent leurs tournures de phrases. Ce qui, il y a quelques années, nécessitait l'aide d'amis, de tuteurs ou de longues révisions, apparaît désormais en quelques secondes à l'écran.

Les textes deviennent effectivement plus lisibles. Le flux logique est amélioré. Le vocabulaire devient légèrement plus technique, le style plus posé, et le format est suffisamment correct pour être soumis aux enseignants sans honte. Cependant, derrière cette commodité, les étudiants commencent à ressentir un nouveau malaise.

« C'est bien écrit. Mais j'ai l'impression que ce n'est pas mon texte. »

La question ici n'est pas simplement de savoir si un rapport rédigé avec l'IA est une fraude. Le problème plus profond est que, dans le processus de lissage des textes des étudiants par l'IA, leur propre voix, leurs hésitations, leurs particularités, leur inachèvement, et même les traces de leur apprentissage, pourraient être effacés.

L'article original mentionne que, alors que l'utilisation de l'IA générative se répand parmi les étudiants canadiens, ceux-ci ressentent un décalage entre leurs propres textes et ceux lissés par l'IA. Selon une enquête, de nombreux étudiants canadiens utilisent l'IA pour leurs devoirs, et certains l'utilisent même comme "première réaction" lorsqu'un devoir est assigné.

Ce n'est pas simplement une question de paresse de la part des étudiants. En réalité, ils oscillent entre commodité et anxiété en utilisant l'IA. Ils veulent obtenir de meilleures notes. Ils manquent de confiance en leur anglais ou en leurs compétences rédactionnelles. Ils veulent apprendre des tournures de phrases techniques. Ils souhaitent améliorer un peu leurs soumissions. Mais en même temps, ils ressentent que les textes corrigés par l'IA deviennent si lisses qu'ils semblent s'éloigner d'eux-mêmes.

Écrire n'est pas simplement un moyen de transmettre des informations. En particulier dans l'enseignement supérieur et spécialisé, écrire est un processus pour vérifier "ce que l'on comprend" et pour façonner "comment on pense dans ce domaine".

Dans les domaines STEM, c'est-à-dire les sciences, la technologie, l'ingénierie et les mathématiques, l'écriture est souvent considérée comme une compétence secondaire. Ce qui compte, ce sont les équations, les données, les expériences, les conceptions, et l'écriture est souvent vue comme un simple récipient pour les expliquer. Cependant, même dans les sciences et l'ingénierie, la capacité à expliquer clairement ses idées, à relier hypothèses et preuves, et à exprimer les incertitudes est indispensable.

Lorsque les étudiants rédigent des rapports, cela reflète non seulement la profondeur de leur compréhension, mais aussi comment ils tentent de s'intégrer dans leur domaine de spécialisation. Comment utilisent-ils le jargon ? Comment écrivent-ils sur les parties où ils manquent de confiance ? Comment relient-ils leurs expériences et intérêts personnels ? Ces petites décisions cumulées deviennent leur "voix".

Cependant, l'IA générative lisse cette voix en un instant. Les erreurs grammaticales disparaissent, les expressions maladroites deviennent naturelles, et les connexions logiques sont renforcées. En conséquence, le texte ressemble à un "bon rapport d'étudiant". Mais en même temps, il devient facile pour n'importe qui de produire un texte similaire.

Ce n'est pas que l'IA rend les textes mauvais. C'est plutôt le contraire. L'IA améliore les textes. Le problème est que cette "amélioration" devient trop homogène, trop sûre, et se rapproche d'un texte moyen d'un élève modèle.

Pour les étudiants, c'est une expérience complexe. Les textes lissés par l'IA peuvent être plus lisibles pour les enseignants. Les notes peuvent même s'améliorer. Cependant, si le sentiment d'avoir lutté avec ses propres mots s'estompe, il devient flou de savoir si le travail soumis est le leur ou celui de l'outil.

Ce qui est important ici, c'est que "son propre texte" n'est pas nécessairement un texte parfait. Des tournures maladroites, des explications un peu détournées, des questions pas encore entièrement résolues, des intérêts personnels qui transparaissent. Ces éléments peuvent parfois être pénalisés dans les évaluations. Mais en tant que processus d'apprentissage, ce sont des traces très précieuses.

L'IA est experte pour effacer ces traces.

Par exemple, si un étudiant écrit "Je trouve ce phénomène intéressant car il est lié à mon expérience pratique", l'IA pourrait le transformer en "Ce phénomène a des implications importantes dans un contexte pratique". Cette dernière expression semble plus académique. Cependant, elle atténue la surprise et l'intérêt personnel de l'étudiant.

Bien sûr, l'assistance de l'IA n'est pas mauvaise. Pour les étudiants qui ont des difficultés avec l'écriture, ceux qui apprennent dans une langue seconde, ou ceux qui ne sont pas familiers avec le jargon, l'IA peut être d'une grande aide. Pour ceux qui ont des idées mais qui ne peuvent pas les exprimer par écrit, l'IA peut être un outil pour ouvrir la voie. Réduire les inquiétudes concernant la grammaire ou la structure permet de se concentrer sur le contenu réel.

C'est pourquoi il ne faut pas simplifier le débat en disant que "les étudiants qui utilisent l'IA trichent". Le problème n'est pas d'utiliser ou non l'IA, mais à quel stade, pour quel objectif, et dans quelle mesure elle est utilisée.

En regardant les réactions sur les réseaux sociaux, les opinions sur cette question sont très partagées.

Certains considèrent la révision des textes par l'IA comme une évolution naturelle. La vérification grammaticale, le résumé, les propositions de structure, la reformulation, l'ajustement du ton sont déjà pratiqués dans de nombreux milieux professionnels. Puisque l'IA sera utilisée dans le monde professionnel, il est important d'apprendre à l'utiliser dès les études. Ces personnes pensent qu'il est préférable d'utiliser l'IA comme "éditeur" ou "tuteur" plutôt que comme "auteur".

D'un autre côté, il y a des voix qui expriment de fortes inquiétudes. En confiant la rédaction des rapports à l'IA, les étudiants pourraient recevoir des réponses avant même de réfléchir. En évitant la difficulté de construire un texte, la pensée critique et les compétences d'expression risquent de ne pas se développer. Sur les réseaux sociaux et les forums, on peut lire des commentaires comme "Les textes lissés par l'IA sont lisibles, mais ils se ressemblent tous" ou "Les textes des étudiants tendent vers un style IA banal à la LinkedIn".

De plus, la méfiance envers les outils de détection de l'IA se répand. Les outils qui déterminent si un texte a été écrit par l'IA posent des problèmes de fausses détections. Par peur d'être considérés comme ayant utilisé l'IA simplement parce que leur texte est bien écrit, certains étudiants choisissent délibérément d'écrire de manière maladroite. C'est une situation ironique. L'éducation est censée améliorer les compétences rédactionnelles des étudiants, mais pour éviter les soupçons d'IA, ils pourraient en venir à rendre leurs textes volontairement étranges.

Il y a ici une double pression à laquelle l'éducation à l'ère de l'IA est confrontée.

D'une part, les étudiants sentent qu'ils sont désavantagés s'ils n'utilisent pas l'IA. Si leurs pairs lissent leurs textes avec l'IA et soumettent des rapports de haute qualité en moins de temps, ne pas utiliser l'IA devient un désavantage compétitif. D'autre part, il y a l'inquiétude d'être perçu comme trichant ou de ne pas être reconnu pour ses propres capacités si l'on utilise l'IA.

En d'autres termes, les étudiants sont pris entre "être à la traîne s'ils ne l'utilisent pas" et "être soupçonnés s'ils l'utilisent".

Dans cette situation, il y a des limites à ce que les établissements d'enseignement peuvent faire en se contentant d'interdire ou de détecter. Bien sûr, soumettre un rapport entièrement rédigé par l'IA comme son propre travail est problématique. Soumettre un texte contenant des citations inexistantes ou des erreurs factuelles est également dangereux. Cependant, traiter l'utilisation de l'IA comme quelque chose d'invisible et demander simplement aux étudiants "l'avez-vous utilisé ou non" ne correspond pas à la réalité.

Ce qui est nécessaire, c'est non seulement de contrôler l'utilisation de l'IA, mais aussi de rendre visible comment les étudiants réfléchissent, à quel moment ils utilisent l'IA, et où ils ont pris leurs propres décisions.

Par exemple, demander aux étudiants de soumettre non seulement la version finale de leur rapport, mais aussi le brouillon initial, les instructions données à l'IA, les suggestions de l'IA, les raisons pour lesquelles elles ont été adoptées ou non. Ou encore, comparer le texte généré par l'IA avec leur propre texte et expliquer "où cela ne ressemble plus à eux" ou "quelle expression se rapproche le plus de leur pensée". Ces tâches n'interdisent pas l'IA, mais enseignent comment garder une distance avec elle.

L'important est d'enseigner aux étudiants la "technique pour préserver leur propre voix".

Dans l'éducation à l'écriture à l'ère de l'IA, il ne suffit plus d'enseigner simplement la grammaire correcte ou une structure lisible. Au contraire, il est nécessaire d'avoir la capacité de "ramener un texte apparemment plausible généré par l'IA à sa propre réflexion". Il s'agit de réécrire à la lumière de son expérience, de ses questions, de sa position, de ses jugements professionnels, plutôt que d'accepter les suggestions de l'IA telles quelles.

Cela pourrait être une tâche plus complexe que l'éducation à l'écriture traditionnelle. Car les étudiants doivent non seulement corriger leurs textes imparfaits, mais aussi remettre en question les textes apparemment bien faits générés par l'IA.

Les textes générés par l'IA semblent souvent très confiants. Ils sont logiquement structurés et le ton est posé. Cependant, cette confiance n'est pas nécessairement fondée sur une compréhension réelle. Si les étudiants ne peuvent pas le discerner, le texte peut être beau, mais la compréhension reste superficielle.

Ce problème interpelle non seulement les étudiants, mais aussi les enseignants. Si un devoir peut être facilement complété par l'IA, mesure-t-il vraiment l'apprentissage ? Plutôt que d'évaluer uniquement le rapport final, comment évaluer le processus de réflexion, de questionnement, d'échec et de révision ? L'arrivée de l'IA pousse à repenser l'évaluation éducative elle-même.

De plus, la "standardisation" des textes pourrait affecter le sentiment d'appartenance des étudiants. Dans les domaines STEM, il a déjà été souligné que des différences d'opportunités et de sentiment d'appartenance peuvent survenir en fonction du sexe, de la race, du statut d'immigrant, de la situation économique, etc. Dans un tel environnement, si les textes fluides et standardisés générés par l'IA deviennent la norme implicite du "bon texte", les étudiants pourraient perdre encore plus confiance en leurs propres mots.

Mon texte est maladroit. Les textes générés par l'IA semblent plus intelligents. Alors, ma voix est-elle vraiment nécessaire ?

Ce sentiment n'est pas seulement une question d'expression écrite. C'est une question fondamentale d'apprentissage : ai-je ma place dans ce domaine ? Mes idées ont-elles de la valeur ?

 

Même ceux qui approuvent l'utilisation de l'IA sur les réseaux sociaux ne négligent pas nécessairement ce problème. Beaucoup pensent que l'IA dépend de la manière dont elle est utilisée. Elle peut être utilisée pour organiser ses idées, corriger des erreurs grammaticales, améliorer des textes difficiles à lire. Cependant, si l'on confie à l'IA ses arguments, analyses ou jugements, cela vide l'apprentissage de son sens. Cette nécessité de délimitation est relativement partagée entre les partisans et les prudents.

Cependant, cette délimitation n'est pas simple. La correction grammaticale est-elle autorisée ? Qu'en est-il de la reformulation ? Des propositions de structure de paragraphe ? Des ébauches d'introduction ? Est-il acceptable de réexaminer et d'utiliser les points soulevés par l'IA ? Si les jugements diffèrent entre étudiants, enseignants et universités, la confusion persistera sur le terrain.

C'est pourquoi les établissements d'enseignement ont besoin de règles claires et, en même temps, d'un dialogue flexible. Écrire simplement "Interdiction de l'IA" incitera les étudiants à l'utiliser en cachette. Écrire simplement "Encouragement à l'utilisation de l'IA" rendra floue la question de savoir jusqu'où le travail est leur propre réalisation. Ce qui est nécessaire, c'est de clarifier "ce que l'on veut enseigner dans ce cours" pour chaque tâche et, à la lumière de cet objectif, de définir la portée de l'utilisation de l'IA.

Par exemple, dans un cours axé sur l'apprentissage de l'expression écrite elle-même, il pourrait être nécessaire de limiter l'utilisation de l'IA et de garantir du temps pour écrire laborieusement avec ses propres mots. En revanche, dans un cours axé sur l'application des connaissances spécialisées ou l'analyse de données, il pourrait être permis d'utiliser l'IA pour organiser les textes, tout en exigeant des justifications rigoureuses pour l'analyse et le processus de décision.

Quoi qu'il en soit, l'IA ne peut plus être expulsée de la salle de classe. Les étudiants l'utilisent déjà. Même si on leur dit de ne pas l'utiliser, ceux qui veulent l'utiliser le feront. Ainsi, le défi éducatif n'est plus "d'empêcher l'utilisation de l'IA", mais "d'enseigner comment ne pas perdre sa propre pensée même en utilisant l'IA".

Le fait que les textes des étudiants s'améliorent grâce à l'IA n'est pas en soi une mauvaise chose. Au contraire, pour les étudiants qui étaient désavantagés par des différences de compétences rédactionnelles, cela pourrait élargir l'accès à l'apprentissage. Cependant, si l'éducation continue d'évaluer uniquement la fluidité des textes, le style homogène des textes d'élèves modèles générés par l'IA deviendra la norme, et la voix propre des étudiants deviendra de plus en plus difficile à discerner.

La vraie question à poser n'est pas seulement "Ce texte a-t-il été écrit par l'IA ?".

"Ce texte contient-il encore les questions de l'étudiant ?"
"Y a-t-il des traces de réflexion dans ce texte ?"
"L'étudiant qui a écrit ce texte a-t-il une compréhension plus profonde qu'avant de le soumettre ?"
"Après avoir été lissé par l'IA, la voix de cette personne est-elle toujours présente ?"

L'IA générative peut donner l'impression que le texte est fort. Mais un texte qui semble fort ne signifie pas nécessairement une pensée forte. Au contraire, un texte un peu maladroit, mais dans lequel on a lutté avec ses propres mots, peut parfois être une preuve d'apprentissage plus riche.

Ce qui est nécessaire dans l'éducation à l'ère de l'IA, ce n'est ni de faire peur aux étudiants avec l'IA, ni de tout leur confier. C'est d'enseigner comment écrire sans perdre sa propre pensée, même avec l'aide de l'IA.

Comment concilier l'améli