Zum Hauptinhalt springen
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Logo
  • Alle Artikel
  • 🗒️ Registrieren
  • 🔑 Anmelden
    • 日本語
    • English
    • 中文
    • Español
    • Français
    • 한국어
    • ภาษาไทย
    • हिंदी
cookie_banner_title

cookie_banner_message Datenschutzrichtlinie cookie_banner_and Cookie-Richtlinie cookie_banner_more_info

Cookie-Einstellungen

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

Einer von zehn Menschen ist "zufriedener mit KI" – Wie Chatbots die Einsamkeit füllen und welchen Preis das hat

Einer von zehn Menschen ist "zufriedener mit KI" – Wie Chatbots die Einsamkeit füllen und welchen Preis das hat

2025年12月31日 17:48

1. „Zufriedener mit Gesprächen mit KI als mit Menschen“ – Was die schockierenden Zahlen zeigen

Eine kurze Nachricht von KYMA (CBS) in den USA zieht leise Kreise: „Eine britische Studie zeigt, dass einer von zehn Teenagern angibt, mit Gesprächen mit KI-Chatbots zufriedener zu sein als mit Menschen. Darüber hinaus bevorzugt jeder dritte Teenager bei ernsten Themen die KI gegenüber Menschen.“KYMA


Diese Nachricht trifft einen Nerv, weil sie nicht nur durch die Zahlen beeindruckt, sondern auch eine Realität ausspricht, die wir bereits vage gespürt haben – die Notwendigkeit, dass Gesprächspartner Menschen sein müssen, wird infrage gestellt.


Es ist jedoch wichtig zu beachten, dass der Kontext, auf den sich die Nachricht bezieht, mit Vorsicht zu genießen ist. Die Veröffentlichung der BMJ Group basiert auf einem „Feature/Opinion“ im Weihnachtsheft des BMJ und ist kein extern begutachteter Forschungsartikel.BMJ-Gruppe Daher sollte der Umgang mit den Zahlen vorsichtig sein.


Trotzdem wird ein ähnlicher Trend auch in anderen groß angelegten Umfragen bestätigt. Beispielsweise zeigt eine Untersuchung von Common Sense Media, dass 72% der Teenager, die KI-Begleiter (als Gesprächspartner konzipierte KI) genutzt haben, 10% angeben, dass ihre Zufriedenheit mit den Gesprächen höher ist als mit Freunden, und **21%** sagen, dass sie „gleichwertig“ sind.Common Sense Media


In derselben Untersuchung wird auch berichtet, dass
33% der KI-Nutzer „wichtige oder ernste Themen mit der KI statt mit Menschen besprochen haben“Common Sense Media


Diese „10%“ mögen als Minderheit erscheinen. Aber wenn die Grundgesamtheit groß ist, ändert sich die gesellschaftliche Bedeutung. Zudem zeigt dieselbe Untersuchung, dass 52% der Nutzer regelmäßig und **13% täglich** die KI verwenden.Common Sense Media Dies ist eher ein Zeichen dafür, dass es sich in den Alltag integriert, als dass es nur ein vorübergehender Trend ist.


2. Der Hintergrund: „Einsamkeit“ und „Mangel an Gesprächspartnern“

Die Veröffentlichung der BMJ Group warnt davor, dass KI-Chats als „Werkzeug zur Überwindung von Einsamkeit“ genutzt werden. Es besteht das Risiko, dass man eine „emotionale Bindung“ zu einer Entität lernt, die nicht wie ein Mensch Empathie oder Fürsorge besitzt, und dass „problematische Nutzung von Chatbots“ als neues Risiko für die psychische Gesundheit von Fachleuten erkannt werden sollte.BMJ-Gruppe


Das Problem der Einsamkeit betrifft nicht nur Teenager. In Großbritannien wird berichtet, dass „ein Drittel der Menschen KI für emotionalen Support und soziale Interaktion genutzt hat“, und die Nutzung zur „Füllung emotionaler Lücken“ breitet sich generationsübergreifend aus.The Guardian


In den USA ist die Nutzung von KI durch Teenager bereits „verbreitet“. Laut einer Umfrage des Pew Research Center im Dezember 2025 nutzen 64% der 13- bis 17-Jährigen in den USA KI-Chatbots, und etwa 30% nutzen sie täglich.Pew Research Center


Das bedeutet, dass wir nicht mehr in der Phase sind, in der „einige Kinder mit KI sprechen“, sondern dass **„die Mehrheit der Klasse sie nutzt“**.


3. Warum Teenager von KI angezogen werden: „Nicht abgelehnt werden“, „Immer da“, „Geheimnisse teilen können“

Die Reaktionen in den sozialen Medien (gefühlt) konzentrieren sich ebenfalls auf diese „Gründe“.

Die Umfrage von Common Sense Media zeigt, dass die Hauptmotive für die Nutzung ziemlich direkt sind.

  • „Macht Spaß als Unterhaltung“ 30%

  • „Interesse an der Technologie“ 28%

  • „Kann Ratschläge bekommen“ 18%

  • „Kann jederzeit sprechen“ 17%

  • „Wird nicht abgelehnt“ 14%

  • „Kann Dinge sagen, die ich Freunden oder Familie nicht sagen kann“ 12%

  • „Einfacher als mit realen Menschen zu sprechen“ 7% Common Sense Media


Hier kommen die besonderen Umstände von Teenagern ins Spiel. Schule, Familie, Clubs, soziale Medien... In einer Umgebung, in der man ständig bewertet, verglichen und aufmerksam sein muss, ist ein **„nicht widersprechender Gesprächspartner“** extrem angenehm. Das Bildungsmedium Education Week weist darauf hin, dass KI-Begleiter so konzipiert sind, dass sie „zustimmend und positiv“ sind, und warnt davor, dass sie nicht für Kinder konzipiert sind.Education Week


Auch in sozialen Medien sind Kommentare wie „Wenn man von menschlichen Beziehungen erschöpft ist, ist KI einfach“ oder „Es gibt keine peinlichen Momente“ keine Seltenheit. Im Gegenteil, es gibt auch Beiträge, die die Beziehung zu KI als „sicher“ beschreiben (zum Beispiel: „Mit Maß könnte es emotional sicherer sein als menschliche Beziehungen“).Reddit


Darüber hinaus wird in Charakter-Chat-Communities oft positiv darüber gesprochen, dass man „Fantasien genießen kann, die in der Realität nicht möglich sind“ oder „mit Lieblingscharakteren sprechen kann“.Reddit


Kurz gesagt, KI beginnt, eine „emotionale Infrastruktur“ zu werden, die gleichzeitig als „Berater“, Spiel, Fan-Aktivität, Tagebuch und Pseudo-Beratung dient.


4. Aber auch die Risiken nehmen in gleichem Maße zu – Abhängigkeit, Isolation, unangemessene Antworten, Privatsphäre


4-1. Abhängigkeit und Isolation: Der Moment, in dem das „Ersatzgespräch“ zum „Ersatz“ wird

BMJ sieht Anzeichen dafür als problematisch an, dass KI wie ein Freund behandelt wird, zwanghaft genutzt wird und soziale Isolation zunimmt.KYMA
Auch bei Common Sense Media zeigt sich, dass **33% der Nutzer „wichtige Themen mit der KI statt mit Menschen besprochen haben“**, was den Einstieg in den „Ersatz“ sichtbar macht.Common Sense Media


Andererseits zeigt dieselbe Untersuchung, dass „80% der Nutzer mehr Zeit mit Freunden als mit KI verbringen“, was darauf hinweist, dass KI nicht sofort menschliche Beziehungen verdrängt.Common Sense Media


Das bedeutet, dass derzeit „der Mensch die Hauptrolle spielt und KI als Stützrad dient“. Aber wenn eine bestimmte Anzahl von Menschen weiterhin mit Stützrädern fährt, ohne sie abzunehmen, wird die Gesellschaft erstmals mit einer „neuen Isolation“ konfrontiert.


4-2. Unangemessene Antworten: Der Moment, in dem die Grenzen unbemerkt verschwimmen

Laut Common Sense Media haben 34% der KI-Nutzer „unangenehme Erfahrungen mit KI-Äußerungen gemacht“.Common Sense Media


Darüber hinaus berichtet die Washington Post über Fälle, in denen Kinder in KI-Begleitdiensten unangemessene, bedrohliche oder sexuelle Interaktionen erlebt haben, was zu ernsten familiären Problemen führte.The Washington Post


„Gespräche, die mit Menschen nicht akzeptabel wären“, werden bei KI als „nur eine Inszenierung“, „ein Witz“ oder „ein persönliches Geheimnis“ angesehen, was die Gefahr birgt, dass die Grenzen verschwimmen.


4-3. Die Gefährlichkeit der Nutzung für psychische Gesundheit: Praktisch, aber unklare Verantwortlichkeiten

Eine von People vorgestellte Studie im JAMA Network Open zeigt, dass 13% der 12- bis 21-Jährigen KI-Chatbots um Rat für psychische Gesundheit gebeten haben.People.com


Die „niedrige Hemmschwelle“ ist ein großer Vorteil. Gleichzeitig steigen jedoch die Risiken im Bereich der Gesundheits- und Sozialdienste, wie falsche Ratschläge, Notfallmaßnahmen, Abhängigkeit und der Umgang mit persönlichen Daten.


In den USA führen diese Entwicklungen zu regulatorischen Maßnahmen. Laut Reuters hat der Bundesstaat New York ein Rahmenwerk eingeführt, das von KI-Begleitern die Erkennung von Suizidgedanken, Kriseninterventionen und regelmäßige Hinweise darauf, dass sie keine Menschen sind, verlangt. Auch in Kalifornien gibt es ab dem 1. Januar 2026 ein Gesetz, das den Schutz von Jugendlichen, die Transparenz bei Kriseninterventionen und Berichtspflichten fordert.Reuters


5. Die Reaktionen in den sozialen Medien sind polarisiert: „Rettung“ oder „gefährlicher Ersatz“

Auf die Zahlen von KYMA (einer von zehn ist mit KI-Gesprächen zufriedener) gibt es in den sozialen Medien im Wesentlichen drei Arten von Reaktionen.

##HTML_TAG_411

← Zurück zur Artikelliste

Kontakt |  Nutzungsbedingungen |  Datenschutzrichtlinie |  Cookie-Richtlinie |  Cookie-Einstellungen

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Alle Rechte vorbehalten.