Saltar al contenido principal
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Logo
  • Todos los artículos
  • 🗒️ Registrarse
  • 🔑 Iniciar sesión
    • 日本語
    • English
    • 中文
    • Français
    • 한국어
    • Deutsch
    • ภาษาไทย
    • हिंदी
cookie_banner_title

cookie_banner_message Política de privacidad cookie_banner_and Política de cookies cookie_banner_more_info

Configuración de cookies

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

Por qué hay personas que aman y odian la IA: la división que muestran la neurociencia y las redes sociales - Teoría del diseño de transparencia, elección y responsabilidad

Por qué hay personas que aman y odian la IA: la división que muestran la neurociencia y las redes sociales - Teoría del diseño de transparencia, elección y responsabilidad

2025年11月05日 00:55

1. El artículo que leí ayer puso en palabras la confusión de hoy

El artículo republicado en Phys.org el 3 de noviembre de 2025 (hora local) desentrañó por qué hay personas que "aman" la IA y otras que la "odian", a partir de la percepción de riesgo y confianza en el cerebro. El argumento es claro pero agudo: las personas confían en lo que pueden entender. Por el contrario, la "caja negra" donde no se ve el camino entre la entrada y la salida se convierte en una fuente de ansiedad. El artículo organiza de manera coherente puntos psicológicos como la severidad que las personas suelen tener hacia los fallos de los algoritmos (lo que se llama "aversión al algoritmo"), la tendencia a atribuir intenciones humanas a la IA (antropomorfismo), y la inquietud del valle inquietante. En resumen, más que un "problema de la IA", a menudo es un "problema de la mente humana". phys.org


2. ¿Por qué duele la "violación de expectativas"?——La raíz de la aversión al algoritmo

Las personas son indulgentes con los errores humanos, pero son severas con los errores de las máquinas. Desde la teoría de la violación de expectativas, esto es natural, ya que tendemos a tener expectativas implícitas de que las máquinas son "lógicas, justas y casi infalibles". Cuando fallan, sentimos que "al menos con los humanos podemos cuestionar". La aversión al algoritmo es un concepto que formaliza esta psicología, explicando que los errores de las máquinas tienden a perder confianza más fácilmente que los errores humanos. Este mismo tema se confirma en una organización enciclopédica y se ajusta extrañamente a la experiencia en el campo. ウィキペディア


3. Proyectamos "mente" en lo que no tiene "mente"

El artículo enfatiza el hecho de que la racionalidad por sí sola no tranquiliza a las personas. El tono de voz, las expresiones faciales, la mirada y el ritmo——las personas construyen confianza al leer pistas emocionales fuera de las palabras. Sin embargo, la IA tiene dificultades con esto. No se enoja, no se cansa, no duda, lo que a veces se percibe como "frío". La incomodidad creada por una existencia similar pero diferente, es decir, el valle inquietante, también está en el fondo. Este "vacío emocional" fomenta el sentimiento de inquietud hacia la IA. phys.org


4. La amenaza a la identidad——Más doloroso que "perder el trabajo"

En algunas profesiones, la sensación de ser "reemplazado" provoca una reacción más allá de la mera eficiencia. Profesores, escritores, abogados, diseñadores——en el momento en que sienten que aparece un "equivalente" a las habilidades que han perfeccionado con el tiempo, su autoimagen se tambalea. Es la amenaza a la identidad que menciona la psicología social. Aquí se entrelazan la evaluación racional de la tecnología y la ansiedad ontológica. El artículo sugiere que la reacción no es solo conservadurismo, sino también una defensa psicológica. phys.org


5. ¿Qué amplifican las redes sociales?——La "verdad" se hace visible, tanto la bienvenida como la resistencia

Entonces, ¿cómo es el ambiente en las redes sociales? Al observar X, Reddit y las secciones de comentarios de noticias, se puede ver que coexisten aquellos que valoran la eficiencia y creatividad ("pro-IA") y aquellos que enfatizan la desconfianza en el empleo, el sesgo y la gobernanza ("preocupados"), y se centran en diferentes aspectos.


  • Ejemplo de los pro-IA:
    "La velocidad inicial en la investigación y redacción es incomparable", "La IA como 'compañero' ha aliviado la soledad", compartiendo experiencias de uso. Muchos también valoran la línea que se dibuja al usarla para "prácticas" de creación y desarrollo, dejando la decisión final a los humanos.

  • Ejemplo de los preocupados:
    "Los fallos de la IA son inexplicables y dan miedo", "La desinformación y los límites de los derechos de autor son ambiguos", "No se puede confiar en las empresas ni en las autoridades reguladoras". Especialmente en Reddit, la desconfianza general de que "ni las empresas tecnológicas ni los reguladores son confiables" se revela frecuentemente. Reddit

Además, la opinión pública basada en informes también respalda la **"lucha entre expectativas y temores"**. En Estados Unidos, en el otoño de 2025, se informó que las preocupaciones sobre la IA aumentaron en comparación con 2022. Riesgos laborales y aversión a la "automatización innecesaria", escepticismo hacia los resúmenes de IA——es la coexistencia de "conveniencia" y "miedo". En el Reino Unido, también fue noticia una encuesta que mostró que más personas ven la IA como un riesgo económico que como una oportunidad. Las personas valoran más "lo que tiene sentido" que la novedad. The Washington Post


6. Resistentes a la IA pero también la usan——La realidad de la "resistencia" en 2025

Lo interesante es que muchas personas que se consideran resistentes a la IA en realidad la usan parcialmente. Entre estudiantes, desarrolladores y algunos creadores, hay un movimiento para distanciarse por razones de ética, precisión e inseguridad laboral, pero evitarla por completo es difícil y hay una realidad de "uso combinado para aplicaciones limitadas". La aceptación de la tecnología no es binaria. Psicológicamente, se puede interpretar que la sensación de pérdida de control es lo que alimenta la desconfianza. Axios


7. El camino de la difusión mediática: ¿cómo se leyó el artículo?

La republicación en Phys.org se basó en un manuscrito de The Conversation. Artículos con el mismo tema también se distribuyeron y republicaron en otros medios, aumentando la exposición. Aunque el número de enlaces directos en las redes sociales no fue explosivo, como hemos visto hasta ahora, los debates en las secciones de comentarios y en los sitios donde se republicaron giran en torno a "pros y contras". phys.org uk.news.yahoo.com


8. No basta con "mostrar el mecanismo"——Tres principios para diseñar confianza

El artículo utiliza la metáfora de "de la caja negra a la conversación". A partir de aquí, resumamos tres principios para el diseño de productos y servicios. phys.org

  1. Transparencia
    Claridad en el contacto inicial sobre "qué datos se usan, cómo se manejan y cuáles son las limitaciones". No una lista de términos técnicos, sino condiciones que pueden afectar los resultados y "patrones difíciles".

  2. Interrogabilidad
    Espacio para "cuestionar" los resultados. Resúmenes de fundamentos, alternativas, autoinforme de errores. Una interfaz de usuario que permita a los usuarios preguntar "¿por qué?" alivia el dolor de la violación de expectativas.

  3. Agencia
    Asegurar la facilidad de optar por no participar, ajustar la granularidad y retirar decisiones, en lugar de automatización por defecto. Permitir que los usuarios "deleguen a su propio ritmo" es la clave para la aceptación.


9. Notas para la implementación en el campo——Productos y políticas

  • Lado del producto

    • "Doble bloqueo" en tareas importantes: propuesta de IA→aprobación final humana.

    • Equipar de serie la visualización de la confianza del modelo yla incertidumbre.

    • Mantener registros de auditoría yreproducibilidad de explicaciones ("la misma entrada debe dar la misma explicación" como principio).

    • Dejar la "libertad de no hacer": evitar resúmenes de IA siempre activos y "sugerencias forzadas".

  • Lado organizacional y educativo

    • Enseñar a empleados y estudiantes sobre las **"secuelas de la dependencia de la IA"** (parálisis del pensamiento, aprendizaje incorrecto) como parte de la competencia digital.

    • Institucionalizar ladivulgación del origen de los productos (revelación de la participación de la IA) y laresponsabilidad humana en decisiones importantes.

    • El sector público debe hacer obligatoria laexplicabilidad y los recursos de apelación (decisiones automáticas en crédito, contratación, atención médica, etc.).


10. Más allá de la polarización——Buscar el "mínimo consenso"

No es necesario alabar la IA ni negarla por completo. Lo que necesitamos es un umbral de consenso sobre "bajo qué condiciones podemos confiar".

  • Que se muestre el origen de los datos

  • Que haya recursos disponibles en caso de error

  • Que las decisiones importantes puedan ser devueltas a los humanos

  • Que se respete la opción de "no usar"

Cuando se cumpla este mínimo, la IA se acercará a ser un **"compañero comprensible" en lugar de una "caja negra invisible"**. Las últimas noticias y el sentimiento en las redes sociales buscan precisamente eso. Enfrentar la realidad donde la conveniencia y el miedo coexisten y diseñar una relación que permita cuestionar. Esa es la única receta para superar la división entre gustos y disgustos. The Washington Post



Referencias y fuentes (mencionadas en el texto)

  • Republicación en Phys.org (3 de noviembre de 2025): Psicología que influye en las actitudes hacia la IA (caja negra, antropomorfismo, violación de expectativas, etc.). phys.org

  • Organización del concepto de aversión al algoritmo. ウィキペディア

  • Una parte de la opinión pública en redes sociales (hilos de desconfianza hacia la IA en Reddit). ##HTML_TAG_359

← Volver a la lista de artículos

Contacto |  Términos de servicio |  Política de privacidad |  Política de cookies |  Configuración de cookies

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Todos los derechos reservados.