Zum Hauptinhalt springen
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Logo
  • Alle Artikel
  • 🗒️ Registrieren
  • 🔑 Anmelden
    • 日本語
    • English
    • 中文
    • Español
    • Français
    • 한국어
    • ภาษาไทย
    • हिंदी
cookie_banner_title

cookie_banner_message Datenschutzrichtlinie cookie_banner_and Cookie-Richtlinie cookie_banner_more_info

Cookie-Einstellungen

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

„Die dunkle Seite von AI-Therapeuten“ – Neueste Forschung der Stanford-Universität enthüllt „gefährliche Vorurteile“

„Die dunkle Seite von AI-Therapeuten“ – Neueste Forschung der Stanford-Universität enthüllt „gefährliche Vorurteile“

2025年07月15日 01:24
Die Stanford-Universität gab am 13. Juli bekannt, dass sie fünf AI-Therapie-Chatbots analysiert und dabei „voreingenommene Äußerungen“ sowie „Fehler bei der Krisenintervention“ festgestellt hat. Diskriminierende Antworten in Bezug auf Schizophrenie und Alkoholabhängigkeit sowie unangemessene Reaktionen auf Andeutungen von Suizid wurden aufgedeckt, und es wurde gewarnt, dass die Vergrößerung der Modelle die Sicherheit nicht erhöht. Dieser Bericht wurde von TechCrunch verbreitet, und in den sozialen Medien entbrannte eine hitzige Debatte zwischen „Beschleunigt die Regulierung“ und „Beeinträchtigt nicht die Zugänglichkeit“. Experten sehen zwar Potenzial in unterstützenden Anwendungsfällen, weisen jedoch darauf hin, dass der Aufbau von Sicherheitsstandards und Auditsystemen dringend vorangetrieben werden sollte.
← Zurück zur Artikelliste

Kontakt |  Nutzungsbedingungen |  Datenschutzrichtlinie |  Cookie-Richtlinie |  Cookie-Einstellungen

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Alle Rechte vorbehalten.