Saltar al contenido principal
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Logo
  • Todos los artículos
  • 🗒️ Registrarse
  • 🔑 Iniciar sesión
    • 日本語
    • English
    • 中文
    • Français
    • 한국어
    • Deutsch
    • ภาษาไทย
    • हिंदी
cookie_banner_title

cookie_banner_message Política de privacidad cookie_banner_and Política de cookies cookie_banner_more_info

Configuración de cookies

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

「La oscuridad del terapeuta de IA」 ─ La última investigación de Stanford revela los "prejuicios peligrosos"

「La oscuridad del terapeuta de IA」 ─ La última investigación de Stanford revela los "prejuicios peligrosos"

2025年07月15日 01:21
La Universidad de Stanford anunció el 13 de julio que analizó cinco chatbots de terapia de IA y confirmó la presencia de "expresiones sesgadas" y "fallos en la intervención en crisis". Se identificaron respuestas discriminatorias hacia la esquizofrenia y la dependencia del alcohol, así como respuestas inapropiadas ante insinuaciones de suicidio, advirtiendo que "el aumento del tamaño del modelo no mejora la seguridad". Este informe fue difundido por TechCrunch, y en las redes sociales surgieron opiniones divididas entre "apresurar la regulación" y "no comprometer la accesibilidad". Los expertos señalan la posibilidad de casos de uso complementarios, pero subrayan la necesidad urgente de establecer estándares de seguridad y un sistema de auditoría.
← Volver a la lista de artículos

Contacto |  Términos de servicio |  Política de privacidad |  Política de cookies |  Configuración de cookies

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Todos los derechos reservados.