Zum Hauptinhalt springen
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Logo
  • Alle Artikel
  • 🗒️ Registrieren
  • 🔑 Anmelden
    • 日本語
    • English
    • 中文
    • Español
    • Français
    • 한국어
    • ภาษาไทย
    • हिंदी
cookie_banner_title

cookie_banner_message Datenschutzrichtlinie cookie_banner_and Cookie-Richtlinie cookie_banner_more_info

Cookie-Einstellungen

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

Fallstricke des KI-Zeitalters: Die Entstehung des Copy-Paste-Gehirns? 55% Gedächtnisverlust durch langfristige Nutzung von ChatGPT

Fallstricke des KI-Zeitalters: Die Entstehung des Copy-Paste-Gehirns? 55% Gedächtnisverlust durch langfristige Nutzung von ChatGPT

2025年07月20日 14:26

Einleitung: Die "Denk-Kosten" hinter der Bequemlichkeit
Drei Jahre sind seit dem Boom der generativen KI vergangen – mit Textgenerierungsmodellen können E-Mails und Berichte erstaunlich schnell erstellt werden. Doch hinter dieser Bequemlichkeit stellt sich die Frage, ob die menschliche "Denkfähigkeit" wirklich abnimmt. Das brasilianische Medium AcheiUSA berichtete über eine neue Studie des MIT Media Lab, die darauf hinweist, dass Studenten, die ChatGPT verwenden, eine verminderte Gehirnaktivität und kritisches Denken aufweisen könnten. Der Artikel verbreitete sich schnell auf X (ehemals Twitter) und Reddit, was zu einer Flut von Kommentaren führte, die von "Das war zu erwarten" bis zu "Bremst die Einführung in Bildungseinrichtungen" reichten. Die Debatte über die Distanz zwischen KI und Bildung erhitzt sich erneut weltweit.AcheiUSA


Kapitel 1: Das Experimentdesign des MIT Media Lab
Das Forschungsteam unter der Leitung von Dr. Nataliya Kosmina, spezialisiert auf Gehirn-Computer-Schnittstellen am MIT Media Lab, führte die Studie durch. 54 Probanden im Alter von 18 bis 39 Jahren wurden in drei Gruppen eingeteilt: ① Schreiben mit ChatGPT, ② Informationssuche mit Google und handschriftliches Schreiben, ③ "Nur Gehirn"-Gruppe ohne Werkzeuge. Sie sollten jeweils drei SAT-ähnliche Aufsätze in 20 Minuten schreiben.


Während des Schreibens trugen die Probanden eine EEG-Kappe mit 32 Elektroden, um die Alpha-, Theta- und Delta-Bänder der Gehirnwellen zu messen, insbesondere im Frontal- und Parietallappen. Die fertigen Aufsätze wurden von Linguisten und Lehrern blind bewertet. Die Bewertungskriterien umfassten zehn Indikatoren wie Kreativität, Gedächtnisleistung, syntaktische Vielfalt und Kohärenz der Argumentation. Diese umfassende Gestaltung verknüpfte Verhaltensdaten mit neuronalen Daten.MIT Media LabTIME


Kapitel 2: "Kognitive Schulden" durch Gehirnwellen und Verhaltensindikatoren
Die Ergebnisse waren schockierend. In der ChatGPT-Gruppe sank die Alpha-Band-Power im präfrontalen Kortex innerhalb von fünf Minuten nach Beginn des Schreibens um durchschnittlich 47 %, und bei der dritten Aufgabe überschritt der Kopieranteil 70 %. Sprachlehrer bewerteten die Aufsätze als "alle im gleichen Template geschrieben, ohne Seele". Auch in den Verhaltensindikatoren war die Wortvielfalt weniger als halb so groß wie in der Kontrollgruppe. Die Gehirnwellen zeigten eine Unterbrechung der Synchronisation im Aufmerksamkeitsnetzwerk und eine Schwächung der Hippocampus-Verbindungen. Im Gegensatz dazu nahm die Verbindungsdichte in der "Nur Gehirn"-Gruppe mit jeder Aufgabe zu, und die Erinnerungsrate im Gedächtnistest war um 34 % höher. Die Google-Suchgruppe lag dazwischen, zeigte aber aufgrund der Informationsauswahl eine höhere Kreativitätsrate, erreichte jedoch nicht die Gedächtnisleistung der "Nur Gehirn"-Gruppe.AcheiUSATIME


Kapitel 3: Die schwer zu überwindende "Werkzeugabhängigkeit"
Das Forschungsteam führte zudem einen "Crossover-Test" durch. In der vierten Sitzung wurden die ChatGPT-Nutzer aufgefordert, die gleiche Aufgabe ohne Werkzeuge neu zu schreiben, während die "Nur Gehirn"-Gruppe erstmals ChatGPT nutzen durfte. Die ehemaligen ChatGPT-Nutzer konnten sich kaum an ihren eigenen Text erinnern, und die Aktivität in den Alpha- und Theta-Bändern blieb niedrig. Die Probanden, die erstmals KI nutzten, schrieben mehr, aber ihre Gehirnaktivität sank nur geringfügig, ohne signifikante Unterschiede in der Gedächtnisleistung. Dr. Kosmina bezeichnete dies als "Akkumulation kognitiver Schulden" und warnte vor den Problemen langfristiger Abhängigkeit. Dies deutet darauf hin, dass "einmal zur Gewohnheit geworden, schwer zu überwinden" ist, und dass sich die Risiken bei kurzfristiger Nutzung und langfristiger Abhängigkeit qualitativ unterscheiden könnten.TIME


Kapitel 4: Gründe für die beschleunigte Veröffentlichung des Preprints
Obwohl die Studie sich noch im Preprint-Stadium befindet, beschleunigte das Team die Veröffentlichung aufgrund eines "Rennens gegen die Zeit". "Wenn wir ein halbes Jahr warten und Politiker 'Kinder GPT' verpflichtend machen, wäre es zu spät", sagte die Forscherin. Derzeit ist die Stichprobengröße mit 54 begrenzt, und die Teilnehmer stammen hauptsächlich aus der Umgebung von Boston, was Zweifel an der externen Validität aufkommen lässt. Dennoch erreicht der Appell, "neuro-wissenschaftliche Beweise vor der Einführung digitaler Lehrmittel zu überprüfen", zunehmend die Ohren von Bildungspolitikern und Eltern. Das TIME-Magazin berichtete, dass "obwohl es sich um eine kleine Studie handelt, die Implikationen groß sind", und auf sozialen Medien reichten die Reaktionen von extremen Forderungen wie "Bringt sofort das handschriftliche Lernen zurück" bis zu vorsichtigen Stimmen wie "Stärkt die KI-Kompetenzbildung".AcheiUSATIME


Kapitel 5: Vergleich mit früheren Studien und "digitale Amnesie"
Tatsächlich ist der Hinweis, dass "KI-Abhängigkeit das Gehirn faul macht", nicht neu. Eine im Juni von der Queensland University of Technology in Australien veröffentlichte Studie zeigte, dass Schüler nur 40 % des Inhalts von Berichten, die mit KI-Tools erstellt wurden, in der folgenden Woche reproduzieren konnten, was zur Prägung des Begriffs "digitale Amnesie" führte. Eine Untersuchung der Harvard Business Review berichtete, dass "generative KI die Produktivität steigert, aber die intrinsische Motivation senkt". Die Stanford University stellte fest, dass "wenn man sich nur auf die Ideenfindungsphase beschränkt, die Kreativität nicht abnimmt". In der akademischen Welt sind die Schlussfolgerungen gespalten. Der Hintergrund ist die "Plastizität", dass die Effekte stark variieren können, je nach Interaktionsdesign mit KI und dem Lernstand der Benutzer.Herald Sun


Kapitel 6: Stimmen aus der Praxis – Schreie von Professoren und Lehrern
Auch aus der Bildungspraxis sind Schreie zu hören. Im Reddit-Thread "IfBooksCouldKill" äußerte ein Universitätsprofessor, dass "die kritische Denkfähigkeit der Studenten im Vergleich zu vor zehn Jahren schwächer geworden ist. Es gibt mehr 'ziemlich anständige' Berichte, die von KI geschrieben wurden, aber wenn man mündlich fragt, geraten die Studenten in Panik". Auch von Lehrern an Gymnasien kam Kritik, dass "Notenfixierung und KI zusammenarbeiten, um fantasielose 'Musterschüler' zu produzieren", und Nutzer listeten konkrete Vorschläge wie "Zurück zu handschriftlichen Prüfungen" und "KI-Erkennungstools reichen nicht aus" auf.Reddit


Kapitel 7: Positive Erfahrungsberichte und die "Es kommt auf die Nutzung an"-Theorie
Allerdings ist nicht alles pessimistisch. Auf demselben Reddit gibt es auch Erfahrungsberichte wie "KI hilft Menschen mit Behinderungen bei der Kommunikation" und "Durch die Nutzung von Tools können überschüssige Ressourcen für tiefere Recherchen genutzt werden". Im Thread "ArtificialIntelligence" erklärte ein Nutzer, dass "man mit dem richtigen Gleichgewicht das Lernen erweitern kann", und in den Kommentaren wurde eine konstruktive Diskussion geführt, dass "Technologie nicht als Feind betrachtet werden sollte, sondern die Bewertungsmethoden weiterentwickelt werden sollten". Besonders der Fall eines Nutzers mit Sprachbehinderung, der berichtete, dass "die Textkorrektur durch KI die Hürde zur Meinungsäußerung gesenkt hat", deutet darauf hin, dass KI als "Werkzeug für Chancengleichheit" fungieren kann.Reddit


Kapitel 8: Unternehmensschulungen und der "AI Last Mile"
Auch Unternehmen sind keine Ausnahme. Große Beratungsfirmen empfehlen im ersten Jahr der Schulung, dass "KI den Entwurf erstellt und der Mensch die kritische Überprüfung im 'AI Last Mile' durchführt", während einige Start-ups versuchen, den Überprüfungsprozess selbst zu automatisieren.


Dr. Kosmina erklärte in einem Interview mit dem TIME-Magazin, dass "in einer Nachfolgestudie, die sich auf Software-Engineering konzentrierte, der Rückgang der Gehirnaktivität noch deutlicher war als beim Schreiben", und warnte, dass "neue Ingenieure nicht ausgebildet werden und die technische Kompetenz mittel- bis langfristig sinken könnte".


Tatsächlich gibt es in US-Technologieunternehmen Berichte über eine Verschlechterung der Code-Review-Qualität und steigende Kosten für Bug-Ausbreitung, was darauf hindeutet, dass die Einführung von KI zwar kurzfristig den ROI steigern kann, aber auch das Risiko birgt, versteckte Kosten durch den Verfall des Humankapitals zu verursachen.TIME


Kapitel 9: Psychologische Perspektive – Die Bedeutung des "Struggle"
Auch aus klinisch-psychologischer Sicht sind die Bedenken groß. Der Kinderpsychiater Dr. Zishan Khan weist darauf hin, dass "das Gehirn in der Entwicklungsphase durch 'Struggle-Erfahrungen' Synapsen stärkt, aber wenn KI Denkkurzschlüsse bietet, diese Schaltkreise schwerer zu bilden sind". Er beobachtete in seiner Praxis viele Schüler, die sich auf KI-generierte Zusammenfassungen verlassen, und erklärte, dass "nicht nur die Fähigkeit zur Erinnerung und Reproduktion, sondern auch die Resilienz, sich von Misserfolgen zu erholen, schwächer wird". Auch aus der Neurowissenschaft ist bekannt, dass absichtliche Anstrengung den anterioren cingulären Kortex stimuliert und das Motivationsnetzwerk aktiviert, und dass eine zu bequeme Umgebung die emotionale Regulationsfähigkeit beeinträchtigen kann.TIME


Kapitel 10: Politische Entwicklungen und die Aktualisierung von Bewertungsmethoden
Vor diesem Hintergrund schlägt die Europäische Kommission im Entwurf des "AI Literacy Framework", das im nächsten Frühjahr in Kraft treten soll, die Einführung eines "AI-Abhängigkeitsmonitorings" in der K12-Bildung vor. Konkret soll das Denken bei der Verwendung von KI im Unterricht dokumentiert und ein Selbstreflexionsbericht verpflichtend sein, wobei Lehrer die Browserprotokolle einsehen und dialogisches Feedback geben können. Der Forscher für ICT-Bildung Ernst Schmidt erklärt, dass "es effektiver ist, KI zu transparentieren und Metakognition zu fördern, als sie auszuschließen".


Auch in Japan gibt es ähnliche Forderungen aus der Bildungspraxis, und das Zentrum für Hochschulzulassungen hat Berichten zufolge begonnen, neue Bewertungsmaßstäbe, einschließlich der Einreichung von Prompts, mit dem Ziel des Jahres 2027 zu prüfen. Die Umsetzung erfordert ein Gleichgewicht zwischen Datenschutz und übermäßiger Kontrolle, aber es wird als konstruktive Diskussion angesehen, die mehr Aufmerksamkeit erregt als ein einfaches Verbot.


Kapitel 11: Das "Drei-Phasen-Modell" für Pädagogen
Experten, die der Autor interviewt hat, empfehlen Pädagogen ein gemeinsames Drei-Phasen-Modell. Erstens: "Analoge Entwürfe" – die erste Ideenfindung und Strukturierung erfolgt auf Papier oder Whiteboard, um das Gehirn durch Bewegung der Hände aufzuwärmen. Zweitens: "AI-Bonding" – Unterstützung bei der Recherche oder Umschreibungsvorschläge durch ChatGPT erhalten, dabei immer Kommentare im Dialogprotokoll hinzufügen und die eigenen Entscheidungsgründe sichtbar machen.


Drittens: "Menschliches Finale" – die KI-Antworten vollständig löschen und in eigenen Worten neu formulieren, dann durch KI-Erkennungstools und Kollegen-Review gehen lassen. Dadurch kann ein optimales Gleichgewicht zwischen Bequemlichkeit und Denklast erreicht werden.

← Zurück zur Artikelliste

Kontakt |  Nutzungsbedingungen |  Datenschutzrichtlinie |  Cookie-Richtlinie |  Cookie-Einstellungen

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Alle Rechte vorbehalten.