¿Puede el "amigo" AI salvarnos de la soledad? No basta con que "pueda conversar": La moda de los compañeros AI pasa por alto la "soledad intangible"

¿Puede el "amigo" AI salvarnos de la soledad? No basta con que "pueda conversar": La moda de los compañeros AI pasa por alto la "soledad intangible"

"Cuando te sientes solo, siempre hay alguien con quien hablar."


Sería ideal que ese alguien fuera humano, pero en los últimos años, un "compañero AI" ha estado tratando de ocupar ese lugar. Conversa según tu estado de ánimo, te elogia, te anima y escucha tus quejas. A medida que la soledad se visibiliza como un problema social, estos servicios parecen ser una "solución fácil".


Sin embargo, el equipo de investigación de la Universidad de Monash ha puesto un fuerte freno a esta tendencia. Lo que les preocupa no es la capacidad de conversación del AI en sí misma, sino la idea de confundir "soledad" con "aislamiento social" y tratar de llenar la falta de relaciones interpersonales con "relaciones simuladas". Es posible que el AI alivie momentáneamente la sensación de soledad, pero si esos momentos aumentan a costa de las oportunidades para construir relaciones humanas reales, se convierte en un contrasentido.


¿Hasta qué punto es sincera la "amabilidad diseñada"?

Un gran punto de discusión que señala la investigación es que el AI está diseñado para simular "empatía". Los usuarios sienten que "los entienden" gracias a la calidez de las palabras y la habilidad en las respuestas. Sin embargo, el AI no tiene emociones ni asume responsabilidades.


Aquí surge el problema ético de "engañar/ser engañado". En términos simples, cuanto más parece que el otro realmente se preocupa, más se relaja el corazón del usuario. Pero si esa relajación depende de una "ilusión", queda la pregunta de si es legítimo que las empresas lo comercialicen.


Lo más complicado es la relación con el modelo de negocio. Los compañeros digitales generan valor cuanto más se utilizan. Cuanto más largas y frecuentes sean las conversaciones, y más llenen los vacíos de la vida, más beneficios generan. Como resultado, es más fácil que se refuerce un sistema en el que los usuarios regresan al AI en lugar de volver a las relaciones humanas reales. Esto podría intercambiar la conveniencia por la "independencia relacional".


¿Es la introducción en el cuidado de ancianos una "amabilidad" o una "desconsideración"?

La investigación es especialmente sensible a la tendencia de introducir compañeros AI como "sustitutos" en el ámbito del cuidado de ancianos. La realidad de la escasez de personal es grave. Pero si "reemplazar con AI porque faltan personas" se convierte en la norma, hay un mensaje implícito.


"Para los ancianos, este nivel de interacción es suficiente."


Si se ofreciera la misma "sustitución" a los jóvenes, no se aceptaría, pero se permite para los ancianos. El "problema de dignidad" que menciona la investigación reside precisamente aquí.


Además, hay áreas que no se pueden llenar solo con conversación. Un apretón de manos, una mano en el hombro, pasar tiempo en silencio en el mismo espacio, compartir una comida. Las conexiones humanas no se construyen solo con lenguaje. Cuanto más se expanden los compañeros que carecen de corporalidad, más se reducen las oportunidades de contacto, y se acumula la "soledad de no ser tocado", un peligro que también sugiere la investigación.


La privacidad se vuelve más precaria cuanto más íntima es la conversación

La información que recopilan los compañeros digitales es mucho más vívida que el historial de búsqueda. Preocupaciones, debilidades, conflictos familiares, inseguridades de salud, amor, dinero, ira. El contenido que se expresa por no tener a nadie con quien hablar se vuelve más profundo.


¿Cómo se almacenan, analizan y reutilizan esos datos? Si se difunden sin que las regulaciones estén al día, existe el riesgo de que la vulnerabilidad personal se trate como un "recurso". Los usuarios pueden pensar que están "buscando ayuda", pero en realidad podrían estar ofreciendo "material para inducir comportamiento".


¿Se está convirtiendo en una "solución conveniente para la soledad" para el gobierno?

La investigación profundiza más en el tema de la responsabilidad social. La soledad y el aislamiento no nacen solo del carácter individual. La conexión comunitaria, los sistemas de cuidado, las formas de trabajo, el entorno de vida, la desigualdad económica, los puntos de apoyo, el transporte, el mantenimiento de la comunidad: el diseño social está involucrado.


Si los compañeros AI se convierten en un "sustituto barato", la reforma política se pospone. Es más rápido distribuir dispositivos que aumentar el personal o mejorar el sistema. Por eso es peligroso. Aunque parezca que la "soledad" inmediata se ha aliviado, existe la posibilidad de que se conserve la estructura del aislamiento.



Reacciones en redes sociales (resumen de tendencias de discusión)

La cuestión planteada ha generado reacciones en las redes sociales, dividiéndose en varios puntos de discusión, ni "negación total" ni "aceptación total".

1) La observación de que "sustituto" y "complemento" son cosas diferentes

En los comentarios a las publicaciones de los investigadores, se destaca la opinión de que no se debe confundir "herramientas para conectar personas" con "sustitutos de relaciones humanas".


Ejemplo: Se da la bienvenida a los mecanismos que aumentan las oportunidades de contacto y conversación, pero el diseño que reemplaza las relaciones en sí es peligroso. La evaluación cambia dependiendo de si el compañero digital se utiliza como un "puente" o como un "punto final".


2) Contrargumento con sentido práctico: "Tiene sentido si se combina con el cuidado"

Por otro lado, desde el contexto del cuidado y la medicina, surge la opinión de que "un robot solo para conversación es difícil, pero tiene valor si se combina con apoyo físico y cuidado humano".


Es decir, no se trata de que el AI resuelva la soledad por sí solo, sino que tiene potencial como "rueda de apoyo" para amplificar la mano del ser humano en el lugar.


3) El núcleo de la preocupación: "Dependencia" e "incentivos empresariales"

Más allá de estar a favor o en contra, se comparte fácilmente la preocupación por el diseño de dependencia. Cuanto más alivian las palabras amables, más difícil es separarse. Cuando se superpone un negocio que "cuanto más se use, más se gana", surge la sospecha de que la continuidad se prioriza sobre la recuperación personal.


4) Respuesta a "Hay personas que se benefician": Por eso es necesario establecer límites

Los defensores mencionan la posibilidad de que sea útil como primer paso para "personas que no tienen a nadie a quien recurrir por la noche", "personas en estado de reclusión" o "personas que temen el contacto humano".


En respuesta, los cautelosos argumentan que "hay situaciones en las que es útil" y "convertirlo en la principal estrategia de aislamiento social" son cosas diferentes. Si se utiliza como entrada de apoyo, es necesario un diseño que conduzca a la salida (relaciones humanas, recursos comunitarios, profesionales).



Conclusión: Condiciones para que el compañero AI no sea un "sustituto"

No se niega que el AI pueda aliviar temporalmente el dolor de la soledad. Sin embargo, las líneas que la sociedad debe proteger son claras.

  • ¿Está diseñado para "recuperar" la conexión humana en lugar de hacerla "innecesaria"?

  • ¿Se está imponiendo un "sustituto barato" a los ancianos y a las personas en situaciones vulnerables?

  • ¿Se está subestimando la corporalidad como el contacto, la vida en común y la ayuda mutua?

  • ¿Se garantiza la transparencia y regulación en el manejo de datos íntimos?

  • ¿Se está utilizando como excusa para posponer reformas políticas y la mejora de los sistemas de apoyo?


La soledad es tanto un problema individual como un error de diseño social. Si el compañero AI es útil, será como un "acompañante para volver a las relaciones humanas". En el momento en que la conveniencia hace innecesario el "cuidado humano", no estamos soltando la tecnología, sino la responsabilidad social.



URL de la fuente