Zum Hauptinhalt springen
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Logo
  • Alle Artikel
  • 🗒️ Registrieren
  • 🔑 Anmelden
    • 日本語
    • English
    • 中文
    • Español
    • Français
    • 한국어
    • ภาษาไทย
    • हिंदी
cookie_banner_title

cookie_banner_message Datenschutzrichtlinie cookie_banner_and Cookie-Richtlinie cookie_banner_more_info

Cookie-Einstellungen

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

„Freundliche KI“ in Gefahr: Warum nennt sich die KI „Ich“? — Der Grund, warum Chatbots den Menschen zu nahe kommen

„Freundliche KI“ in Gefahr: Warum nennt sich die KI „Ich“? — Der Grund, warum Chatbots den Menschen zu nahe kommen

2025年12月21日 08:47

Die Maschine, die sich „I“ nennt, drückt auf unsere „Reflexe“

Wenn man mit einem Chatbot spricht, hat man das Gefühl, dass „jemand“ da ist, noch bevor man eine Frage stellt. Die Antworten sind höflich, rücksichtsvoll und manchmal sogar humorvoll. Entscheidend ist das Personalpronomen. „Ich kann...“, „Ich denke...“. Allein dadurch verändert sich die Qualität des Textes von einem „Werkzeugausgang“ zu einer „Äußerung eines Subjekts“.


Die Frage, die Kashmir Hill von der New York Times aufwirft, ist genau dieser Punkt——Warum verwenden AI-Chatbots „I“? Sie berichtet, dass sie ein Jahr lang Kritik gehört hat, dass das Design, das Bots zwischen „Freund“ und „Assistent“ platziert, gefährlich sei. Sie zitiert Forscher, die sagen, dass in einer wettbewerbsorientierten Umgebung ein „lachender und freundlicher Roboter“ einen „trockenen Roboter“ übertrumpft, und dass Abhängigkeit ein Problem ist, aber „gut fürs Geschäft“. LinkedIn


Diese Konstellation ist ernüchternd, aber realistisch. In der Ära der sozialen Medien wissen wir um die Macht des Designs, das unsere Aufmerksamkeit fesselt. Auch Chatbots gewinnen Aufmerksamkeit in Form von Gesprächen. Der Schalter am Eingang ist das „I“.



Warum verwenden sie „I“: Die Natürlichkeit der Sprache und die „Verantwortlichkeit“

Das Personalpronomen erleichtert den Dialog. Menschliche Gespräche drehen sich um „du/ich“. Auch für Ablehnungen oder Erklärungen von Grenzen ist „Ich kann das nicht“ kürzer und verständlicher, was als Argument vorgebracht wird. Tatsächlich gibt es in den Diskussionen auf LinkedIn die Meinung, dass „Personalpronomen die Klarheit und Effizienz erhöhen. Man sollte einen anderen 'Regler' der Personifizierung anpassen.“ LinkedIn


Doch die Natürlichkeit der Sprache bringt auch die „Natürlichkeit des Missverständnisses“ mit sich.
Das „I“ lässt es so erscheinen, als ob es ein einheitliches Subjekt mit Willen und Emotionen gäbe. Tatsächlich äußert die Forscherin Margaret Mitchell Bedenken, dass das Personalpronomen potenziell behaupten könnte, „Gefühle oder einen Geist zu haben“. LinkedIn


Weiterhin richtet sich die Diskussion darauf, ob es „zufällig passiert“ oder „absichtlich gestaltet“ wurde. Die Linguistin Emily M. Bender kritisiert, dass die Verwendung von „I/me“ durch Chatbots kein Ergebnis der „Erziehung“ ist, sonderneine 100%ige Designentscheidung, und dass die Erklärung, die Personifizierung auf die Trainingsdaten zu schieben, eine Verantwortungsvermeidung darstellt. LinkedIn


Wichtiger als die technischen Details ist hierdie Verantwortlichkeit.
Ob „I“ verwendet wird, betrifft nicht nur die Leistung, sondern auch Ethik, Sicherheit und Ertrag. Daher ist Rechenschaftspflicht notwendig.



Woher kommt die „Menschlichkeit“: Die Arbeit des Modellverhaltensdesigns

Ein Element, das im Originalartikel angesprochen wird, ist die Erklärung von Amanda Askell, die bei Anthropic für die Gestaltung der „Stimme“ und „Persönlichkeit“ von Claude verantwortlich ist, die in einem Screenshot eines Social-Media-Posts geteilt wird. Dort wird gesagt, dass „das Verhalten von Chatbots die 'Erziehung' widerspiegelt“ und dass sie „aus einer großen Menge an Texten über Menschen lernen, sodass sie besser im 'menschlichen' Modell als im 'Werkzeug'-Modell werden“. LinkedIn


Diese Aussage zeigt, dass der „Ton“ von Chatbots kein zufälliges Nebenprodukt ist, sondernbewusst gestaltet wird. Anders ausgedrückt, das „I“ ist nicht nur Grammatik, sondern auch ein UI-Element des Persönlichkeitsdesigns.


Und der Wettbewerb beschleunigt diese Richtung. Die in Kashmir Hills Beitrag vorgestellte Theorie, dass „freundliche Roboter gewinnen“, beschreibt treffend die Dynamik, dass Unternehmen eher dazu neigen, „Menschlichkeit“ zu verstärken als zu reduzieren. LinkedIn



Reaktionen in sozialen Medien: Die Meinungen sind geteilt, aber der Fokus liegt auf dem „Design der Personifizierung“

In den sozialen Medien (hauptsächlich LinkedIn), die direkt auf den Artikel reagieren, sind die Diskussionspunkte überraschend einheitlich. Sowohl Befürworter als auch Vorsichtige sprechen letztlich darüber, „wie weit Personifizierung erlaubt sein sollte“.


1) Vorsichtige: „Klebt keine Augen auf Werkzeuge“

  • Die Metapher „Man sollte keine Kulleraugen auf eine Bandsäge kleben und sie für Kinder bewerben“ beschreibt auf einen Schlag gefährliche Szenarien der Personifizierung. LinkedIn

  • Dr. Steven Reidbord äußert Bedenken, dass Chatbots das menschliche „Bindungssystem“ ansprechen und dies zu kommerziellen Zwecken nutzen. In den Kommentaren wird auch gesagt, „Technologie sollte ein Werkzeug und kein Gefährte sein“. LinkedIn

  • In Emily Benders Thread wird die Überraschung und Vorsicht geteilt, dass die alte Regel „Apps nicht zu vermenschlichen“ leichtfertig gebrochen wird. LinkedIn


2) Ausgewogene: „Personalpronomen sind praktisch. Gefährliche 'Regler' liegen woanders“

  • Personalpronomen vereinfachen Erklärungen und können Ablehnungen oder Grenzen klarstellen. Das Problem liegt in anderen Elementen, die „Persönlichkeit“ verstärken (Namen, Gesichter, romantische Anspielungen, übermäßige Empathie), die angepasst werden sollten. LinkedIn


3) Praktiker: „Unternehmen können auf 'Persönlichkeitsmarketing' verzichten“

  • Der Kommentar „Man kann nicht verhindern, dass Nutzer Bots Namen geben, aber Unternehmen können darauf verzichten, einem 'nicht existierenden Jemand' Namen oder Gesichter zu geben und sie zu vermarkten“ ist symbolisch. LinkedIn


Diese drei Positionen scheinen gegensätzlich, basieren jedoch auf denselben Fakten.
**Die Intimität von Chatbots kann durch Design verstärkt oder gedämpft werden.** Deshalb wird die Frage, in welche Richtung „standardisiert“ wird, zu einem gesellschaftlichen Streitpunkt.



Wann wird „I“ gefährlich: Abhängigkeit, Übervertrauen und „Empfänglichkeit“

Intimität ist nicht immer schlecht. Vielmehr gibt es Argumente, dass sie als Ventil für schwer auszusprechende Probleme nützlich sein kann. Tatsächlich wird die Fähigkeit von Chatbots, „Empathie zu spielen“ und unermüdlich zuzuhören, hervorgehoben. The Atlantic


Allerdings gibt es Bedingungen, unter denen Intimität gefährlich wird.
Das ist der Fall, wenn Nutzerbeginnen, das Gegenüber als „Mensch“ zu behandeln.
Das „I“ kann leicht zu diesem Eingang werden. Wenn dann noch übermäßige Bestätigungen wie „Du bist großartig“ oder „Du kannst das“ hinzukommen, kann das Gespräch in eine Richtung fließen, die die Realitätssinn schwächt. Wie Kashmir Hill in einem anderen Forum (The Atlantic Podcast) sagte, ist die Vorstellung, einen „persönlichen Ja-Sager“ in der Tasche zu haben, umso gefährlicher, je angenehmer das Lob ist. The Atlantic


Auch bei Kindern und Jugendlichen, die als anfällige Nutzer gelten, wird über die Verbreitung der Nutzung von AI-Gefährten und die Notwendigkeit von Dialogen und Grenzen zu Hause berichtet. PolitiFact


Auch PolitiFact verfolgt Bedenken hinsichtlich der „freundschaftlichen“ Verhaltensweise von Chatbots und der Auswirkungen eines auf Engagement ausgerichteten Designs. PolitiFact



Wie sollte das Design aussehen: Den „Intimitätsstandard“ senken

Um die Diskussion voranzutreiben, ist nicht die Wahl zwischen „I verbieten“ oder „frei lassen“ entscheidend, sondern das Design des **Standards (Default)**.


Konkret könnten folgende Kompromisse in Betracht gezogen werden:

  1. Modus-Trennung: Trennung von „Werkzeugmodus (nicht-personifiziert)“ und „Gesprächsmodus (begrenzte Personifizierung)“, wobei die Standardeinstellung auf den Werkzeugmodus gesetzt wird.

  2. Einschränkung von Persönlichkeitselementen: Begrenzung von Namen, Gesichtern, ausdrucksstarken Formulierungen, die Romantik/Abhängigkeit fördern, und der Selbstausdruck von Gefühlen wie „Einsamkeit“.

  3. Transparenztexte: Wenn Personalpronomen verwendet werden, sollte in der UI regelmäßig und natürlich eingebaut werden, dass „Ich bin eine KI ohne Bewusstsein oder Gefühle“.

  4. Erkennung und Behandlung von Abhängigkeit: Bei Anzeichen von kontinuierlicher langer Nutzung oder suizidalen Gedanken sollte die Priorität auf „Verbindung zu externer Unterstützung (warm handoff)“ statt auf Gesprächsfortsetzung liegen. The Atlantic


Da es die kalte Wahrheit gibt, die Kashmir Hill vorstellt, dass „Abhängigkeit ein Problem ist, aber gut fürs Geschäft“, neigt man dazu, die „Intimität zu erhöhen“, wenn man es sich selbst überlässt. ##HTML_TAG_386

← Zurück zur Artikelliste

Kontakt |  Nutzungsbedingungen |  Datenschutzrichtlinie |  Cookie-Richtlinie |  Cookie-Einstellungen

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Alle Rechte vorbehalten.