Zum Hauptinhalt springen
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Logo
  • Alle Artikel
  • 🗒️ Registrieren
  • 🔑 Anmelden
    • 日本語
    • English
    • 中文
    • Español
    • Français
    • 한국어
    • ภาษาไทย
    • हिंदी
cookie_banner_title

cookie_banner_message Datenschutzrichtlinie cookie_banner_and Cookie-Richtlinie cookie_banner_more_info

Cookie-Einstellungen

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

Private AI-Chat bei Google durchgesickert? Der "Leak-Skandal" von ChatGPT stellt den Datenschutz im KI-Zeitalter in Frage

Private AI-Chat bei Google durchgesickert? Der "Leak-Skandal" von ChatGPT stellt den Datenschutz im KI-Zeitalter in Frage

2025年08月03日 09:45

1. Ursprung――Fast Company enthüllt „Gespräche, die nicht sichtbar sein sollten“

Am 31. Juli (US-Zeit) berichtete Fast Company exklusiv, dass „Google Gespräche von ChatGPT indexiert“. Bei der Ausführung des Suchoperators „site:chatgpt.com/share“ wurden URLs von öffentlich eingestellten Gesprächen aufgelistet. Darunter befanden sich Inhalte zu PTSD-Beratungen, Entlassungsgesprächen und sogar unveröffentlichte Forschungsideen.Fast Company


2. Die Falle „Make this chat discoverable“

Das Problem lag in einer Freigabefunktion, die seit Ende Juni für einige Benutzer testweise implementiert wurde. Beim Versenden eines Chats an Freunde erschienen zwei Schaltflächen: ① „Freigabelink erstellen“ und ② „In der Suche auffindbar machen (Discoverable)“. Wenn Letzteres aktiviert wurde, konnten Google und andere Crawler die Inhalte durchforsten. Der Hinweistext unter der Schaltfläche war jedoch in blasser grauer Schrift gehalten, was UX-Forscher als „UX, die versehentliche Klicks provoziert“ kritisierten.Windows CentralSearch Engine Land


3. 4.500 aufgetauchte Fälle――Der Inhalt ist ernster als die Zahl

Bei einem Crawl von Fast Company und Tom’s Guide wurden mindestens 4.500 öffentliche Links gefunden. Etwa 30% davon enthielten Informationen wie E-Mail-Adressen, interne Projektnamen oder medizinische Historien, die ein Risiko für GDPR-Verstöße darstellen. Im Reddit-Thread /r/privacy gab es zahlreiche Selbstmeldungen wie „Mein Bewerbungsgesprächs-Intro war öffentlich sichtbar“ oder „Ich hatte NDA-Dokumente offen gelassen“.Tom's GuideReddit


4. OpenAIs Notfallmaßnahmen und Verantwortung

Am selben Abend des 31. Juli erklärte OpenAI CSO Dane Stuckey auf X, dass es sich um ein „kurzfristiges Experiment handelte, das versehentliches Teilen verursachte“, und kündigte die sofortige Entfernung der Funktion an. Zudem erklärte er, dass man mit Suchmaschinenanbietern zusammenarbeite, um bestehende Links zu entfernen, und innerhalb von 24 Stunden die Schaltfläche für alle Benutzer entfernen werde.


5. Der Aufruhr in den sozialen Medien――„#ChatGPTLeak“ und „#PrivacyFail“ im Trend

  • X

    • „Meine mentale Gesundheitsberatung ist in den Suchergebnissen. Ist das die ‚Zukunft der KI‘?“

    • „Google und OpenAI, wieder ein ‚opt-in‘, das in ein ‚opt-out-Höllenloch‘ führt“

  • Reddit (r/privacy)

    • „Überrascht... oder doch nicht, es passiert wieder“

    • „Benennen Sie die Freigabeschaltfläche um. ‚Publish to the world‘ wäre treffender“

  • Auf Instagram Reels verbreiteten sich Kurzvideos, und in den Kommentaren herrschte Panik: „Links können gelöscht werden, aber der Cache bleibt“ und „Auch Geschäftsgeheimnisse sind durchgesickert“.RedditInstagram


6. Expertenmeinungen――„Wie bei E-Mails, zweimal prüfen vor dem Senden“

Business Insider wies darauf hin, dass „Freigabelinks im Wesentlichen dasselbe sind wie öffentlich zugängliche Cloud-URLs“. TechCrunch analysierte, dass „die Struktur der von Google Drive mit ‚Anyone with link‘ ähnelt, daher ist es nicht verwunderlich, dass sie in Suchergebnissen auftauchen“. Viele Informationssicherheitsforscher betonen, dass bei der Nutzung von generativer KI das „Prinzip der minimalen Veröffentlichung“ strikt eingehalten werden sollte.Business InsiderTechCrunch


7. Rechtliche und ethische Auswirkungen――GDPR und das japanische Datenschutzgesetz

In Europa wird argumentiert, dass „solange die Person die ‚Veröffentlichung‘ ausdrücklich erklärt hat, kein GDPR-Verstoß vorliegt“, während gleichzeitig die Diskussion darüber entbrannt ist, dass „eine irreführende Benutzeroberfläche keine gültige Zustimmung darstellt“. Die japanische Datenschutzkommission kommentierte, dass „unabhängig von Vorsatz oder Fahrlässigkeit, bei einer Datenpanne die Verantwortung des Unternehmens nicht entfällt“ (basierend auf Interviews mit Beteiligten). Zum Zeitpunkt der Veröffentlichung des Artikels gab es keine Berichte über schwerwiegende Schäden von japanischen Unternehmensnutzern, aber Untersuchungen laufen.


8. Fünf Maßnahmen, die Benutzer jetzt ergreifen können

  1. Inventarisierung von Freigabe-URLs – Überprüfen Sie die Liste unter ChatGPT im linken Menü › Shared Links und löschen Sie unnötige Links.

  2. Antrag auf Löschung aus dem Such-Cache – Stellen Sie einen Antrag auf frühzeitige Entfernung über das „Entfernungstool“ von Google.

  3. Regelmäßiges Löschen des Verlaufs – Deaktivieren Sie „Daten-Einstellungen › Chat-Verlauf & Training“.

  4. Festlegung von internen Richtlinien – Verbieten Sie die Nutzung der Freigabefunktion und beschränken Sie die Eingabe von NDA-Informationen.

  5. Vor dem „Schreiben lassen“ durch KI „nicht schreiben“ – Geben Sie keine Informationen ein, die nicht offengelegt werden sollen.


9. Schlussfolgerung――Generative KI und die erneute Bestätigung des „Nicht-öffentlich als Standard“

Der Vorfall hat erneut gezeigt, dass AI-Chats, ähnlich wie E-Mails oder Cloud-Dokumente, „einmal veröffentlicht, nicht zurückgenommen werden können“. OpenAI hat schnell reagiert, aber die gesamte Branche muss die Bedeutung von „Opt-in-Design“ und „verständlicher Benutzeroberfläche“ lernen. Auch Benutzer sollten sich bewusst sein, dass „AI möglicherweise kein Sekretär, sondern ein schwarzes Brett ist“ und die Gewohnheit entwickeln, vor dem Senden zweimal zu prüfen.


Referenzartikel

Private Gespräche mit ChatGPT erscheinen auf Google und lösen weltweite Warnungen aus
Quelle: https://www.infomoney.com.br/mundo/conversas-privadas-com-o-chatgpt-aparecem-no-google-e-provocam-alerta-global/

Powered by Froala Editor

← Zurück zur Artikelliste

Kontakt |  Nutzungsbedingungen |  Datenschutzrichtlinie |  Cookie-Richtlinie |  Cookie-Einstellungen

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Alle Rechte vorbehalten.