Kann ein AI-"Freund" die Einsamkeit lindern? "Nur sprechen können" reicht nicht aus: Der AI-Begleiter-Boom übersieht die "unberührbare Einsamkeit"

Kann ein AI-"Freund" die Einsamkeit lindern? "Nur sprechen können" reicht nicht aus: Der AI-Begleiter-Boom übersieht die "unberührbare Einsamkeit"

„Wenn man einsam ist, gibt es immer jemanden, mit dem man sprechen kann.“


Ideal wäre es, wenn es sich um einen Menschen handelt, aber in den letzten Jahren versucht ein „AI-Partner“ diesen Platz einzunehmen. Er passt sich der Stimmung an, führt Gespräche, lobt, ermutigt und hört auch Klagen zu. In dem Maße, wie Einsamkeit als gesellschaftliches Problem sichtbar wird, erscheinen solche Dienste als „einfache Lösung“.


Doch das Forscherteam der Monash University hat diesem Trend eine starke Bremse verpasst. Ihre Bedenken richten sich nicht gegen die Gesprächsfähigkeit der KI an sich. Vielmehr geht es um die Vermischung von „Einsamkeit“ und „sozialer Isolation“ und den Versuch, den Mangel an zwischenmenschlichen Beziehungen durch „Pseudo-Beziehungen“ zu füllen. KI kann möglicherweise kurzfristig das Gefühl der Einsamkeit lindern. Doch je mehr solche Momente zunehmen, desto weniger Gelegenheiten gibt es, reale menschliche Beziehungen aufzubauen, was letztlich kontraproduktiv wäre.


Wie aufrichtig ist die „konstruierte Freundlichkeit“?

Ein zentraler Punkt der Forschung ist, dass KI so gestaltet ist, dass sie „Mitgefühl“ simuliert. Nutzer fühlen sich verstanden durch die Wärme der Worte und die geschickte Art des Zuhörens. Doch KI hat weder Emotionen noch trägt sie Verantwortung.


Hier entsteht ein ethisches Problem von „Täuschung und Getäuschtwerden“. Einfach ausgedrückt: Je mehr der Gegenüber besorgt erscheint, desto mehr öffnet sich das Herz des Nutzers. Doch wenn diese Öffnung auf einer „Illusion“ basiert, bleibt die Frage, ob es gerechtfertigt ist, dass Unternehmen dies als Ware verkaufen.


Besonders problematisch ist die Kompatibilität mit dem Geschäftsmodell. Ein digitaler Partner generiert Wert, indem er kontinuierlich genutzt wird. Je länger und häufiger die Gespräche sind und je mehr Lücken im Leben gefüllt werden, desto profitabler ist es. Dies verstärkt das System, in dem Nutzer eher zur KI zurückkehren, als zu realen menschlichen Beziehungen. Dies könnte die „Unabhängigkeit von Beziehungen“ im Austausch gegen Bequemlichkeit gefährden.


Einführung in der Altenpflege: „Freundlichkeit“ oder „Geringschätzung“?

Die Forschung ist besonders sensibel gegenüber dem Trend, KI-Partner als „Ersatz“ in der Altenpflege einzuführen. Der Mangel an Personal ist gravierend. Doch wenn „weil es an Menschen fehlt, ersetzen wir sie durch KI“ zur Norm wird, verbirgt sich darin eine unausgesprochene Botschaft.


„Für ältere Menschen reicht dieser Grad an Interaktion aus.“


Wenn man der jüngeren Generation denselben „Ersatz“ anbieten würde, wäre es nicht akzeptabel, doch bei älteren Menschen wird es toleriert. Das „Würdeproblem“, von dem die Forschung spricht, liegt genau hier.


Darüber hinaus gibt es Bereiche, die durch Gespräche allein nicht abgedeckt werden können. Händedruck, eine Hand auf die Schulter legen, gemeinsam schweigend in einem Raum verweilen, Mahlzeiten teilen. Menschliche Verbindungen bestehen nicht nur aus Sprache. Je mehr körperlose Partner sich verbreiten, desto mehr schwinden die Gelegenheiten zur Berührung, und die „Einsamkeit des Nicht-Berührt-Werdens“ bleibt zurück – die Forschung weist auch auf solche Gefahren hin.


Privatsphäre wird so gefährdet wie die „Intimität der Gespräche“

Die Informationen, die digitale Partner sammeln, sind viel lebendiger als Suchverläufe. Sorgen, Schwächen, Konflikte mit der Familie, gesundheitliche Ängste, Liebe, Finanzen, Wut. Gerade weil es keinen anderen Ansprechpartner gibt, werden die Inhalte tiefgründiger.


Wie diese Daten gespeichert, analysiert und wiederverwendet werden, ist unklar. Wenn die Verbreitung ohne entsprechende Regulierung erfolgt, besteht das Risiko, dass die persönliche Verletzlichkeit als „Ressource“ behandelt wird. Nutzer, die glauben, „Hilfe zu suchen“, könnten tatsächlich „Material zur Verhaltenslenkung“ bereitstellen.


Ist es eine „bequeme Einsamkeitslösung“ für die Regierung?

Die Forschung geht noch weiter und spricht von der Verantwortung der Gesellschaft. Einsamkeit und Isolation entstehen nicht nur durch die Persönlichkeit des Einzelnen. Die Gestaltung der Gesellschaft spielt eine Rolle: Gemeinschaftsbindungen, Pflegesysteme, Arbeitsweise, Wohnumgebung, wirtschaftliche Ungleichheit, Unterstützungsangebote, Verkehr, Erhalt der Gemeinschaft.


Wenn hier AI-Partner zu einem „kostengünstigen Ersatz“ werden, wird die politische Reform aufgeschoben. Es ist schneller, Geräte zu verteilen, als Personal aufzustocken oder Systeme zu verbessern. Gerade deshalb ist es gefährlich. Während die unmittelbare „Einsamkeit“ gelindert erscheint, könnte die Struktur der Isolation bestehen bleiben.



Reaktionen in den sozialen Medien (Zusammenfassung der Diskussionstendenzen)

Die aktuelle Problematik hat auch in den sozialen Medien Reaktionen hervorgerufen, die sich in mehrere Diskussionspunkte aufteilen, anstatt in eine „vollständige Ablehnung“ oder „vollständige Zustimmung“.

1) Der Hinweis, dass „Ersatz“ und „Unterstützung“ unterschiedliche Dinge sind

In den Kommentaren zu den Beiträgen der Forscher wird häufig darauf hingewiesen, dass man „Werkzeuge, die Menschen verbinden“ nicht mit „Ersatz für menschliche Beziehungen“ verwechseln sollte.


Beispiel: Systeme, die die Kontaktaufnahme und Gesprächsanlässe erhöhen, sind willkommen, aber die Gestaltung, die die Beziehung selbst ersetzt, ist gefährlich. Die Bewertung ändert sich je nachdem, ob der digitale Partner als „Brücke“ oder als „Endpunkt“ dient.


2) Gegenargumente aus der Praxis: „In Kombination mit Pflege sinnvoll“

Andererseits gibt es aus dem Kontext von Pflege und Medizin die Sichtweise, dass „ein Roboter, der nur Gespräche führt, schwierig ist, aber in Kombination mit körperlicher Unterstützung und menschlicher Pflege wertvoll sein kann“.


Das heißt, es besteht die Möglichkeit, dass KI nicht allein die Einsamkeit löst, sondern als „Stützrad“ dient, um die Arbeit der Menschen vor Ort zu verstärken.


3) Der Kern der Bedenken: „Abhängigkeit“ und „Unternehmensanreize“

Über die Zustimmung hinaus wird die Besorgnis über das Abhängigkeitsdesign geteilt. Je mehr die freundlichen Worte das Gefühl erleichtern, desto schwerer wird es, sich zu lösen. Wenn dann noch ein Geschäft hinzukommt, das „je länger es genutzt wird, desto mehr profitiert“, entsteht der Verdacht, dass die Fortsetzung wichtiger ist als die Genesung der Person.


4) Antwort auf „Es gibt Menschen, denen geholfen wird“: Gerade deshalb ist eine klare Abgrenzung notwendig

Befürworter heben hervor, dass es für „Menschen, die nachts niemanden haben, an den sie sich wenden können“, „Menschen in Isolation“ und „Menschen, die Angst vor zwischenmenschlichen Kontakten haben“ als erster Schritt nützlich sein kann.


Die Vorsichtigen entgegnen jedoch, dass „es nützliche Situationen gibt“ und „es als Hauptstrategie zur Bekämpfung sozialer Isolation zu etablieren“ zwei verschiedene Dinge sind. Wenn es als Einstiegshilfe genutzt wird, sollte es so gestaltet sein, dass es zu einem Ausgang (menschliche Beziehungen, lokale Ressourcen, Fachkräfte) führt.



Fazit: Bedingungen, um AI-Partner nicht als „Ersatz“ zu verwenden

Es wird nicht bestritten, dass KI den Schmerz der Einsamkeit vorübergehend lindern kann. Gleichzeitig muss die Grenze, die die Gesellschaft schützen sollte, klar sein.

  • Ist es so gestaltet, dass es die Verbindung zwischen Menschen nicht „überflüssig macht“, sondern „wiederherstellt“?

  • Wird älteren Menschen und schwachen Personen kein „billiger Ersatz“ aufgedrängt?

  • Wird die Körperlichkeit wie Berührung, gemeinsames Leben und gegenseitige Hilfe nicht vernachlässigt?

  • Sind Transparenz und Regulierung im Umgang mit intimen Daten gewährleistet?

  • Wird die Reform der Politik und der Aufbau von Unterstützungssystemen nicht aufgeschoben?


Einsamkeit ist sowohl ein individuelles Problem als auch ein Fehler im Gesellschaftsdesign. Wenn AI-Partner nützlich sein können, dann als „Begleiter, um zu menschlichen Beziehungen zurückzukehren“. In dem Moment, in dem Bequemlichkeit die „menschliche Fürsorge“ überflüssig macht, geben wir nicht die Technologie, sondern die Verantwortung der Gesellschaft auf.



Quellen-URL