Verschwindet die Individualität aus den Texten der Studierenden? Wie generative KI das Lernen und die Identität verändert

Verschwindet die Individualität aus den Texten der Studierenden? Wie generative KI das Lernen und die Identität verändert

AI verbessert das Schreiben, aber wohin verschwindet die "eigene Stimme"?

In den Hörsälen von Universitäten und Fachhochschulen ist generative KI längst keine Besonderheit mehr. Studierende organisieren ihre Themen, denken über die Struktur ihrer Berichte nach, korrigieren die Grammatik und verfeinern ihre Ausdrucksweise. Arbeiten, die vor einigen Jahren noch auf Freunde, Tutoren oder zeitaufwändiges Überarbeiten angewiesen waren, erscheinen nun in Sekundenschnelle auf dem Bildschirm.

Die Texte werden zweifellos lesbarer. Der logische Fluss wird verbessert. Der Wortschatz wird etwas fachlicher, der Stil ruhiger, und die Arbeit kann ohne Scham den Lehrenden vorgelegt werden. Doch hinter dieser Bequemlichkeit beginnen die Studierenden ein neues Unbehagen zu verspüren.

„Es ist gut geschrieben, aber es fühlt sich nicht wie mein eigener Text an.“

Das Thema ist nicht einfach, ob Berichte, die mit KI erstellt wurden, betrügerisch sind. Das tiefere Problem liegt darin, dass KI im Prozess der Textverbesserung die eigene Stimme der Studierenden, ihre Unsicherheiten, Eigenheiten, Unvollkommenheiten und die Spuren ihres Lernens glattbügeln könnte.

Im Originalartikel wird beschrieben, dass Studierende in Kanada, während die Nutzung von generativer KI zunimmt, eine Diskrepanz zwischen ihren eigenen Texten und den von KI verbesserten Texten empfinden. Untersuchungen zeigen, dass viele kanadische Studierende KI für ihre Schulaufgaben nutzen und dass es nicht wenige gibt, die KI als „erste Reaktion“ auf eine gestellte Aufgabe verwenden.

Es geht nicht darum, dass die Studierenden faul sind. Vielmehr schwanken sie zwischen Bequemlichkeit und Unsicherheit, während sie KI nutzen. Sie wollen bessere Bewertungen erzielen. Sie haben wenig Vertrauen in ihre Englisch- oder Schreibfähigkeiten. Sie möchten fachliche Ausdrücke lernen. Sie wollen ihre Arbeiten so gut wie möglich gestalten. Gleichzeitig haben sie das Gefühl, dass die von KI korrigierten Texte so glatt sind, dass sie sich von ihnen entfernen.

Das Schreiben ist nicht nur eine Form der Informationsübermittlung. Besonders in der Hochschulbildung ist das Schreiben ein Prozess, um zu überprüfen, was man verstanden hat, und um zu formen, wie man in diesem Bereich denkt.

In den MINT-Fächern, also Wissenschaft, Technik, Ingenieurwesen und Mathematik, wird das Schreiben oft als sekundäre Fähigkeit betrachtet. Wichtig sind die Gleichungen, Daten, Experimente und Entwürfe, und das Schreiben wird oft nur als Mittel zur Erklärung angesehen. Doch tatsächlich ist die Fähigkeit, Gedanken präzise zu erklären, Hypothesen mit Beweisen zu verbinden und Unsicherheiten in Worte zu fassen, auch in der Wissenschaft und Technik unverzichtbar.

Wenn Studierende Berichte schreiben, zeigt sich darin nicht nur die Tiefe ihres Verständnisses, sondern auch, wie sie versuchen, sich in ihr Fachgebiet einzuarbeiten. Wie sie Fachbegriffe verwenden. Wie sie unsichere Bereiche beschreiben. Wie sie ihre Erfahrungen und Interessen einbinden. Diese kleinen Entscheidungen summieren sich zu ihrer „Stimme“.

Doch generative KI glättet diese Stimme im Handumdrehen. Grammatikfehler verschwinden, unbeholfene Ausdrücke werden natürlich, und logische Verbindungen werden verstärkt. Das Ergebnis ist ein Text, der wie ein „gut gemachter Studentenbericht“ aussieht. Gleichzeitig wird es jedoch leicht zu einem Text, der von jedem ähnlich geschrieben werden könnte.

Es geht nicht darum, dass KI das Schreiben schlechter macht. Im Gegenteil, KI verbessert das Schreiben. Das Problem ist, dass diese „Verbesserung“ so homogen, unauffällig und durchschnittlich wird, dass sie einem idealen Schüleraufsatz ähnelt.

Für Studierende ist dies eine komplexe Erfahrung. Der von KI verbesserte Text mag für Lehrende lesbarer sein. Die Noten könnten steigen. Doch wenn das Gefühl schwindet, dass man sich mit seinen eigenen Worten abgemüht hat, wird unklar, ob die Arbeit das eigene Ergebnis oder das eines Tools ist.

Wichtig ist, dass ein „eigener Text“ nicht unbedingt ein perfekter Text sein muss. Unreife Ausdrucksweisen, etwas umständliche Erklärungen, noch nicht vollständig geklärte Fragen, persönliche Interessen, die durchscheinen. Diese Dinge können bei der Bewertung Abzüge bedeuten, sind aber als Lernspuren sehr wertvoll.

KI ist gut darin, diese Spuren zu beseitigen.

Wenn ein Student beispielsweise schreibt: „Ich fand dieses Phänomen interessant, weil es mit meinen praktischen Erfahrungen zusammenhängt“, könnte KI dies in einen Ausdruck wie „Dieses Phänomen hat wichtige Implikationen im praktischen Kontext“ umwandeln. Letzteres klingt sicherlich akademischer. Doch das persönliche Erstaunen und Interesse des Studenten verblasst.

Natürlich ist die Unterstützung durch KI nicht schlecht. Für Studierende, die Schwierigkeiten mit dem Schreiben haben, für diejenigen, die in einer Zweitsprache lernen, oder für diejenigen, die mit Fachbegriffen nicht vertraut sind, kann KI eine große Hilfe sein. Für Studierende, die Ideen haben, diese aber nicht in Worte fassen können, kann KI ein Werkzeug sein, das den Einstieg erleichtert. Wenn die Unsicherheit über Grammatik und Struktur abnimmt, können sie sich auf den eigentlichen Inhalt konzentrieren.

Deshalb sollte die Diskussion nicht vereinfacht werden zu „Studierende, die KI nutzen, betrügen“. Das Problem liegt nicht darin, ob KI genutzt wird oder nicht, sondern darin, in welchem Stadium, zu welchem Zweck und in welchem Umfang sie genutzt wird.

Auch die Reaktionen in den sozialen Medien zeigen, dass die Wahrnehmung dieses Problems stark variiert.

Einige sehen die Überarbeitung von Texten durch KI als natürliche Entwicklung. Grammatikprüfung, Zusammenfassung, Strukturvorschläge, Umschreibungen und Tonanpassungen werden bereits in vielen Arbeitsbereichen durchgeführt. In der Berufswelt wird KI genutzt, daher sollte man schon während des Studiums lernen, wie man sie einsetzt. Diese Menschen sehen KI nicht als „Autor“, sondern als „Editor“ oder „Tutor“.

Andererseits gibt es auch starke Bedenken. Wenn die Erstellung von Berichten KI überlassen wird, erhalten die Studierenden möglicherweise die Antworten, bevor sie selbst nachdenken. Wenn sie die Mühe des Schreibens vermeiden, könnte das kritische Denken und die Ausdrucksfähigkeit nicht ausreichend entwickelt werden. Auf sozialen Medien und Foren gibt es Stimmen, die sagen: „Die von KI verbesserten Texte sind zwar lesbar, aber sie sehen alle gleich aus“ und „Die Texte der Studierenden nähern sich dem unauffälligen KI-Stil von LinkedIn an“.

Darüber hinaus wächst das Misstrauen gegenüber KI-Erkennungstools. Diese Tools, die feststellen sollen, ob ein Text von KI geschrieben wurde, haben Probleme mit Fehlurteilen. Es gibt Diskussionen darüber, dass Studierende absichtlich schlechter schreiben, um nicht als KI-Text eingestuft zu werden. Dies ist eine ironische Situation. Eigentlich sollte Bildung dazu dienen, die Schreibfähigkeiten der Studierenden zu verbessern, doch um den Verdacht auf KI-Nutzung zu vermeiden, könnten Studierende gezwungen sein, ihre Texte absichtlich unnatürlich zu gestalten.

Hier gibt es einen doppelten Druck, dem sich die Bildung im Zeitalter der KI stellen muss.

Einerseits fühlen sich die Studierenden benachteiligt, wenn sie keine KI nutzen. Wenn andere ihre Texte mit KI verbessern und in kürzerer Zeit qualitativ hochwertige Berichte abgeben, ist es ein Wettbewerbsnachteil, selbst keine KI zu nutzen. Andererseits gibt es die Sorge, dass die Nutzung von KI als Betrug angesehen wird oder dass es nicht als ihre eigene Leistung betrachtet wird.

Das bedeutet, dass die Studierenden zwischen „Wenn ich es nicht nutze, bleibe ich zurück“ und „Wenn ich es nutze, werde ich verdächtigt“ stehen.

In dieser Situation stoßen Bildungseinrichtungen an ihre Grenzen, wenn sie sich nur auf Verbote und Erkennung verlassen. Natürlich ist es problematisch, Berichte, die vollständig von KI erstellt wurden, als eigene Leistung einzureichen. Auch das Einreichen von Texten mit nicht existierenden Zitaten oder falschen Fakten ist gefährlich. Aber die Nutzung von KI vollständig unsichtbar zu machen und die Studierenden nur zu fragen, „Haben Sie es genutzt oder nicht?“, entspricht nicht der Realität.

Es ist notwendig, nicht nur die Nutzung von KI zu kontrollieren, sondern auch sichtbar zu machen, wie die Studierenden denken, in welchen Teilen sie KI nutzen und wo sie selbst Entscheidungen getroffen haben.

Zum Beispiel könnte man nicht nur die Endfassung eines Berichts einreichen lassen, sondern auch den ersten Entwurf, die Anweisungen an die KI, die Vorschläge der KI, die Gründe für die Annahme oder Ablehnung dieser Vorschläge. Oder man könnte die von der KI erstellten Texte mit den eigenen Texten vergleichen und erklären lassen, „wo es nicht mehr nach mir klingt“ oder „welcher Ausdruck meiner Meinung am nächsten kommt“. Solche Aufgaben lehren nicht, KI zu verbieten, sondern wie man den Abstand zu KI lernt.

Wichtig ist, den Studierenden die „Technik, ihre eigene Stimme zu bewahren“ beizubringen.

In der Schreibausbildung im Zeitalter der KI reicht es nicht aus, nur korrekte Grammatik und eine lesbare Struktur zu lehren. Vielmehr wird die Fähigkeit benötigt, „den scheinbar plausiblen Text, den die KI liefert, zurück zu den eigenen Gedanken zu bringen“. Es geht darum, die Vorschläge der KI nicht einfach zu übernehmen, sondern sie im Licht der eigenen Erfahrungen, Fragen, Standpunkte und fachlichen Urteile umzuschreiben.

Dies könnte eine anspruchsvollere Aufgabe sein als die bisherige Schreibausbildung. Denn die Studierenden müssen nicht nur ihre eigenen unreifen Texte korrigieren, sondern auch die scheinbar gut gemachten Texte der KI hinterfragen.

Die Texte der KI wirken oft selbstbewusst. Sie sind logisch strukturiert und der Ton ist ruhig. Doch dieses Selbstbewusstsein ist nicht unbedingt durch Verständnis untermauert. Wenn die Studierenden das nicht erkennen, bleibt der Text zwar schön, aber das Verständnis bleibt oberflächlich.

Dieses Problem stellt nicht nur die Studierenden, sondern auch die Lehrenden vor Fragen. Wenn eine Aufgabe so einfach mit KI abgeschlossen werden kann, misst sie dann wirklich das Lernen? Wie bewertet man nicht nur das fertige Produkt des Berichts, sondern auch den Denkprozess, das Stellen von Fragen und den Prozess von Fehlern und Korrekturen? Das Aufkommen von KI zwingt zu einer Neugestaltung der Bildungsbewertung.

Zudem könnte die „Standardisierung“ der Texte auch das Zugehörigkeitsgefühl der Studierenden beeinflussen. In den MINT-Fächern wurde bereits darauf hingewiesen, dass es Unterschiede in den Teilnahmemöglichkeiten und dem Zugehörigkeitsgefühl aufgrund von Geschlecht, Rasse, Migrationshintergrund und wirtschaftlichem Status gibt. In einer solchen Umgebung, in der die flüssigen und standardisierten Texte der KI als impliziter Maßstab für „gute Texte“ gelten, könnten die Studierenden noch mehr Vertrauen in ihre eigenen Worte verlieren.

Mein Text ist unbeholfen. Der Text der KI sieht klüger aus. Brauche ich dann überhaupt meine eigene Stimme?

Dieses Gefühl ist nicht nur ein Problem des Ausdrucks. Es betrifft die grundlegende Frage des Lernens: Gehört man in dieses Fachgebiet? Haben die eigenen Gedanken Wert?

 

Auch Menschen, die die Nutzung von KI in sozialen Medien befürworten, ignorieren dieses Problem nicht unbedingt. Viele glauben, dass KI je nach Nutzung sinnvoll ist. Sie nutzen sie, um ihre Gedanken zu ordnen. Sie nutzen sie, um Grammatikfehler zu korrigieren. Sie nutzen sie, um schwer lesbare Texte zu verbessern. Doch wenn man auch Behauptungen, Analysen und Urteile der KI überlässt, wird das Lernen hohl. Die Notwendigkeit dieser Abgrenzung wird sowohl von Befürwortern als auch von Vorsichtigen relativ geteilt.

Allerdings ist diese Abgrenzung nicht einfach. Ist die Korrektur von Grammatik erlaubt? Was ist mit Umschreibungen? Was ist mit Vorschlägen zur Strukturierung von Absätzen? Was ist mit der Erstellung eines Entwurfs für die Einleitung? Was ist, wenn man die von der KI vorgeschlagenen Argumente selbst überprüft und verwendet? Wenn die Urteile von Studierenden, Lehrenden und Universitäten unterschiedlich sind, wird das Chaos vor Ort anhalten.

Deshalb benötigen Bildungseinrichtungen klare Regeln und gleichzeitig flexible Dialoge. Einfach nur „KI-Verbot“ zu schreiben, wird dazu führen, dass die Studierenden sie heimlich nutzen. Einfach nur „KI-Nutzung fördern“ zu schreiben, wird dazu führen, dass unklar bleibt, was die eigene Leistung ist. Notwendig ist, für jede Aufgabe klar zu machen, „was in diesem Kurs gelernt werden soll“ und den Umfang der KI-Nutzung im Hinblick auf dieses Ziel zu definieren.

Zum Beispiel könnte es in Kursen, die sich auf den Ausdruck selbst konzentrieren, notwendig sein, die Nutzung von KI einzuschränken und den Studierenden Zeit zu geben, sich mit ihren eigenen Worten abzumühen. Andererseits könnte man in Kursen, die sich auf die Anwendung von Fachwissen oder Datenanalyse konzentrieren, die Nutzung von KI zur Textorganisation teilweise zulassen und stattdessen die Begründung der Analyse und den Entscheidungsprozess streng hinterfragen.

In jedem Fall kann KI nicht mehr aus dem Klassenzimmer verbannt werden. Die Studierenden nutzen sie bereits. Auch wenn man ihnen sagt, sie sollen sie nicht nutzen, werden diejenigen, die sie nutzen wollen, es trotzdem tun. Daher hat sich die Bildungsaufgabe von „den Studierenden beibringen, KI nicht zu nutzen“ zu „den Studierenden beibringen, ihre eigenen Gedanken nicht zu verlieren, auch wenn sie KI nutzen“ verlagert.

Dass die Texte der Studierenden durch KI verbessert werden, ist an sich nichts Schlechtes. Im Gegenteil, für Studierende, die bisher durch ihre mangelnden Schreibfähigkeiten benachteiligt waren, könnte es den Zugang zum Lernen erweitern. Doch wenn die Bildung weiterhin nur die Glätte der Texte bewertet, wird der von KI geschaffene homogene Stil des idealen Schülers zum Standard, und die eigene Stimme der Studierenden wird immer unsichtbarer.

Die eigentliche Frage sollte nicht nur sein: „Wurde dieser Text von KI geschrieben?“

„Bleibt in diesem Text die eigene Frage des Studierenden?“
„Gibt es in diesem Text Spuren des Nachdenkens?“
„Hat der Student, der diesen Text geschrieben hat, vor der Abgabe ein tieferes Verständnis erlangt?“
„Bleibt die Stimme der Person auch nach der Bearbeitung durch KI erhalten?“

Generative KI kann Texte stark erscheinen lassen. Doch ein stark erscheinender Text bedeutet nicht unbedingt starkes Denken. Vielmehr kann ein etwas unbeholfener Text, mit dem man sich in eigenen Worten auseinandergesetzt hat, ein reichhaltigerer Beweis für das Lernen sein.

In der Bildung im Zeitalter der KI geht es nicht darum, den Studierenden Angst vor KI zu machen oder alles der KI zu überlassen. Es geht darum, ihnen beizubringen, wie sie mit Hilfe von KI schreiben können, ohne ihre eigenen Gedanken zu verlieren.

Wie kann man das Verbessern der Texte und das Bewahren der eigenen Stimme in Einklang bringen? Das ist die Herausforderung, der sich Studierende, Lehrende und Universitäten jetzt stellen müssen.



Quellen-URL

Artikel auf Phys.org: Das Problem, dass kanadische Studierende das Gefühl haben, dass ihre von KI verbesserten Texte keine „Eigenheit“ mehr haben, STEM-Bildung, die Stimme der Studierenden und Vorschläge zur Bildungsplanung.
https://phys.org/news/2026-05-college-students-aismoothed-strong.html

KPMG Canada-Studie: