L'“ami” IA peut-il sauver de la solitude ? Pouvoir “converser” ne suffit pas : la tendance des compagnons IA ignore la “solitude intouchable”

L'“ami” IA peut-il sauver de la solitude ? Pouvoir “converser” ne suffit pas : la tendance des compagnons IA ignore la “solitude intouchable”

« Quand on se sent seul, il y a toujours quelqu'un à qui parler. »


Idéalement, ce serait un être humain, mais ces dernières années, un "compagnon AI" tente de prendre cette place. Il converse selon l'humeur, complimente, encourage et écoute les plaintes. À mesure que la solitude devient un problème social visible, ces services apparaissent comme une "solution facile".


Cependant, une équipe de recherche de l'Université Monash a fortement freiné cette tendance. Ce qui les préoccupe, ce n'est pas la capacité de conversation de l'AI elle-même, mais la confusion entre "solitude" et "isolement social" et l'idée de combler le manque de relations humaines par des "relations simulées". L'AI peut momentanément atténuer le sentiment de solitude. Mais si ces moments se multiplient au point de réduire les opportunités de créer des relations humaines réelles, cela devient contre-productif.


Jusqu'où va la sincérité de la "gentillesse conçue"

Un point majeur soulevé par la recherche est que l'AI est conçue pour simuler de la "compassion". Les utilisateurs ressentent une compréhension à travers la chaleur des mots et l'habileté des réponses. Cependant, l'AI n'éprouve pas d'émotions ni n'assume de responsabilités.


Cela soulève une question éthique de "tromperie/trompé". Pour le dire simplement, plus l'interlocuteur semble vraiment préoccupé, plus l'utilisateur se sentira à l'aise. Mais si cette aisance repose sur une "illusion", est-il juste que les entreprises en fassent un produit ?


Ce qui est encore plus problématique, c'est la compatibilité avec le modèle économique. Les compagnons numériques génèrent de la valeur en étant continuellement utilisés. Plus les conversations sont longues et fréquentes, plus elles comblent les moments de vide, plus elles sont profitables. En conséquence, il est plus facile de renforcer un système où l'utilisateur revient vers l'AI plutôt que de retourner aux relations humaines réelles. Cela pourrait échanger la commodité contre la "perte d'autonomie relationnelle".


L'introduction dans les soins aux personnes âgées : "gentillesse" ou "négligence" ?

La recherche est particulièrement sensible à la tendance d'introduire des compagnons AI comme "substituts" dans le domaine des soins aux personnes âgées. La réalité du manque de personnel est lourde. Mais si "nous comblons le manque de personnel par l'AI" devient la norme, un message implicite se cache là.


« Pour les personnes âgées, ce niveau d'interaction est suffisant. »


Si le même "substitut" était proposé aux jeunes générations, il ne serait pas accepté, mais il est permis pour les personnes âgées. Le "problème de dignité" soulevé par la recherche réside précisément ici.


De plus, il existe des domaines que la conversation seule ne peut combler. Une poignée de main, une main sur l'épaule, passer du temps en silence dans le même espace, partager un repas. Les liens humains ne se construisent pas uniquement par le langage. Plus les compagnons dépourvus de corporalité se répandent, plus les occasions de contact s'amenuisent, et la "solitude de ne pas être touché" s'accumule - la recherche suggère également ce danger.


La confidentialité devient aussi fragile que "l'intimité des conversations"

Les informations recueillies par les compagnons numériques sont bien plus intimes que l'historique de recherche. Problèmes, faiblesses, conflits familiaux, inquiétudes pour la santé, amour, finances, colère. C'est précisément parce qu'il n'y a personne à qui se confier que le contenu devient plus profond.


Comment ces données sont-elles stockées, analysées, réutilisées ? Si elles se répandent sans que la réglementation ne suive, il y a un risque que la vulnérabilité personnelle soit traitée comme une "ressource". Les utilisateurs, pensant "demander de l'aide", pourraient en réalité offrir des "matériaux pour influencer leur comportement".


Est-ce que cela devient une "solution de solitude" commode pour le gouvernement ?

La recherche va plus loin en abordant la responsabilité sociale. La solitude et l'isolement ne naissent pas seulement du caractère individuel. Les liens communautaires, les systèmes de soins, les modes de travail, l'environnement de vie, les disparités économiques, les points d'accès à l'aide, les transports, le maintien des communautés - la conception sociale est impliquée.


Si le compagnon AI devient une "alternative bon marché", la réforme des politiques est retardée. Distribuer des appareils est plus rapide qu'augmenter le personnel ou structurer le système. C'est précisément pour cela que c'est dangereux. Tandis que la "solitude" immédiate semble atténuée, la structure de l'isolement pourrait être préservée.



Réactions sur les réseaux sociaux (synthèse des tendances de discussion)

Cette problématique a également suscité des réactions sur les réseaux sociaux, se divisant en plusieurs points de vue, ni "rejet total" ni "approbation totale".

1) La distinction entre "substitut" et "complément"

Les commentaires sur les publications des chercheurs soulignent qu'il ne faut pas confondre "outil pour connecter les gens" et "substitut aux relations humaines".


Exemple : un système qui augmente les occasions de contact ou de conversation est bienvenu, mais une conception qui remplace les relations elles-mêmes est dangereuse. L'évaluation change selon que le compagnon numérique est un "pont" ou un "point final".


2) Réponse du terrain : "Cela a du sens lorsqu'il est combiné avec des soins"

D'un autre côté, dans le contexte des soins et de la médecine, certains estiment qu'un robot uniquement conversationnel est difficile, mais qu'il a de la valeur s'il est combiné avec un soutien physique ou des soins humains.


En d'autres termes, plutôt que de résoudre la solitude avec l'AI seule, il y a une possibilité si elle sert de "roue de secours" pour amplifier le travail des humains sur le terrain.


3) Le cœur des préoccupations : "dépendance" et "incitations des entreprises"

Au-delà des opinions pour ou contre, l'inquiétude face à la conception de la dépendance est largement partagée. Plus les mots de gentillesse allègent l'esprit, plus il devient difficile de s'en détacher. Si cela s'accompagne d'un modèle économique où "plus on utilise, plus on gagne", on craint que la continuité ne soit priorisée sur le rétablissement personnel.


4) Réponse à "Il y a des gens qui en bénéficient" : c'est pourquoi une délimitation est nécessaire

Les partisans soulignent la possibilité d'aider ceux qui "n'ont personne à qui se tourner la nuit", "sont en situation de réclusion", ou "ont peur des interactions humaines" comme premier pas.


Les prudents répondent que "l'utilité dans certaines situations" et "en faire le pilier de la lutte contre l'isolement social" sont deux choses différentes. Si c'est utilisé comme porte d'entrée à l'aide, il faut une conception qui oriente vers une sortie (relations humaines, ressources communautaires, professionnels).



Conclusion : Conditions pour que le compagnon AI ne devienne pas un "remplacement"

On ne nie pas que l'AI peut temporairement atténuer la douleur de la solitude. Cependant, la ligne que la société doit protéger est claire.

  • Est-ce conçu pour "récupérer" plutôt que "rendre inutile" les liens humains ?

  • Ne pousse-t-on pas un "substitut bon marché" sur les personnes âgées ou vulnérables ?

  • Ne néglige-t-on pas la corporalité comme le contact, la vie commune, l'entraide ?

  • La transparence et la régulation du traitement des données intimes sont-elles en place ?

  • Ne devient-il pas un prétexte pour retarder la réforme des politiques et l'amélioration des systèmes de soutien ?


La solitude est à la fois un problème individuel et une erreur de conception sociale. Si le compagnon AI est utile, ce serait comme "accompagnateur pour revenir aux relations humaines". Au moment où la commodité rend "les soins humains" inutiles, nous abandonnons la responsabilité sociale, pas la technologie.



URL de la source