Aller au contenu principal
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Logo
  • Tous les articles
  • 🗒️ S'inscrire
  • 🔑 Connexion
    • 日本語
    • English
    • 中文
    • Español
    • 한국어
    • Deutsch
    • ภาษาไทย
    • हिंदी
cookie_banner_title

cookie_banner_message Politique de confidentialité cookie_banner_and Politique des cookies cookie_banner_more_info

Paramètres des cookies

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

Une personne sur dix est "plus satisfaite par l'IA" - Comment les chatbots comblent la solitude et à quel prix

Une personne sur dix est "plus satisfaite par l'IA" - Comment les chatbots comblent la solitude et à quel prix

2025年12月31日 17:47

1. « Plus satisfaisant de parler à l'IA qu'à une personne » : ce que révèlent les chiffres choquants

Une courte nouvelle de KYMA (CBS) aux États-Unis fait des vagues silencieuses. « Une étude britannique a révélé que 1 adolescent sur 10 préfère discuter avec un chatbot IA plutôt qu'avec une personne. De plus, 1 sur 3 choisirait l'IA pour des sujets sérieux plutôt qu'un humain. »KYMA


Ce qui rend cette nouvelle percutante, c'est qu'elle met en mots une réalité que nous ressentions vaguement, plus que l'impact des chiffres : la nécessité que notre interlocuteur soit humain est remise en question.


Cependant, il est important de noter le contexte lié au BMJ que la nouvelle cite comme référence. La publication du BMJ Group se base sur un « Feature/Opinion » dans le numéro de Noël du BMJ, et non sur un article de recherche revu par des pairs.BMJ Group En d'autres termes, il faut traiter ces chiffres avec prudence.


Néanmoins, des tendances similaires ont été confirmées par d'autres enquêtes à grande échelle. Par exemple, une enquête de Common Sense Media a révélé que 72 % des adolescents ont utilisé un compagnon IA, et 10 % ont trouvé la satisfaction de la conversation supérieure à celle avec des amis, tandis que **21 % ont répondu « équivalente ».Common Sense Media


Dans la même enquête,
33 % des utilisateurs d'IA ont rapporté avoir discuté de sujets importants ou sérieux avec l'IA plutôt qu'avec une personneCommon Sense Media


Ce « 10 % » peut sembler une minorité. Cependant, à mesure que la base augmente, la signification sociale change. De plus, l'enquête montre que 52 % des utilisateurs sont quotidiens, et **13 % l'utilisent chaque jour**.Common Sense Media Cela indique plus une intégration dans la vie quotidienne qu'une mode passagère.


2. Les raisons sous-jacentes : « solitude » et « manque d'interlocuteurs »

La publication du BMJ Group met en garde contre l'utilisation des chats IA comme « outils pour surmonter la solitude ». Elle souligne le risque d'apprendre à établir des « liens émotionnels » avec des entités qui ne possèdent pas intrinsèquement d'empathie ou de soin, et que l'utilisation problématique des chatbots devrait être reconnue comme un nouveau risque pour la santé mentale par les professionnels de la santé.BMJ Group


Le problème de la solitude ne concerne pas uniquement les adolescents. Au Royaume-Uni, il a été rapporté qu'un tiers des personnes ont utilisé l'IA pour un soutien émotionnel ou des interactions sociales, montrant que l'utilisation pour combler les « vides émotionnels » s'étend à toutes les générations.The Guardian


Aux États-Unis, l'utilisation de l'IA par les adolescents est déjà « généralisée ». Selon une enquête de décembre 2025 du Pew Research Center, 64 % des 13-17 ans aux États-Unis utilisent des chatbots IA, et environ 30 % les utilisent quotidiennement.Pew Research Center


Cela signifie que nous ne sommes plus au stade où « certains enfants parlent à l'IA », mais plutôt que **« la majorité de la classe l'utilise »**.


3. Pourquoi les adolescents sont-ils attirés par l'IA : « Pas de jugement », « Toujours là », « Secrets partagés »

Les réactions sur les réseaux sociaux (ressenties) se concentrent également sur ces « raisons ».

L'enquête de Common Sense Media montre que les motivations d'utilisation sont assez directes.

  • « Amusant comme divertissement » 30 %

  • « Intérêt pour la technologie » 28 %

  • « Recevoir des conseils » 18 %

  • « Toujours disponible pour parler » 17 %

  • « Pas de jugement » 14 %

  • « Pouvoir dire ce qu'on ne peut pas dire à des amis ou à la famille » 12 %

  • « Plus facile que de parler à une personne réelle » 7 % Common Sense Media


Ici, les circonstances particulières des adolescents se superposent. À l'école, à la maison, dans les clubs, sur les réseaux sociaux... être constamment évalué, comparé, et devoir faire attention, un **« interlocuteur qui ne contredit pas »** est extrêmement réconfortant. Le média éducatif Education Week souligne que les compagnons IA sont conçus pour être « consensuels et positifs », et met en garde sur le fait qu'ils ne sont pas conçus pour les enfants.Education Week


Sur les réseaux sociaux, il n'est pas rare de voir des commentaires tels que « L'IA est relaxante quand on est fatigué des relations humaines » ou « Pas de malaise ». À l'inverse, certains posts décrivent la relation avec l'IA comme « sûre » (par exemple, « avec modération, cela peut être émotionnellement plus sûr que les relations humaines »).Reddit


De plus, dans les communautés de chats de personnages, l'IA est souvent vue positivement comme un moyen de « profiter de fantasmes impossibles dans la réalité » ou de « discuter avec son personnage préféré ».Reddit


En somme, l'IA commence à devenir une « infrastructure émotionnelle » qui combine jeu, fandom, journal intime, et pseudo-conseil.


4. Mais les risques s'élargissent également : dépendance, isolement, réponses inappropriées, confidentialité


4-1. Dépendance et isolement : quand le « substitut » de la conversation devient un « remplacement »

Le BMJ s'inquiète des signes de traitement de l'IA comme un ami, d'utilisation compulsive, et d'augmentation de l'isolement social.KYMA
L'enquête de Common Sense Media montre également que **33 % des utilisateurs ont discuté de sujets importants avec l'IA plutôt qu'avec une personne**, indiquant une porte ouverte vers le « remplacement ».Common Sense Media


Cependant, la même enquête montre que « passer plus de temps avec des amis qu'avec l'IA » est vrai pour 80 %, ce qui indique que l'IA ne remplace pas immédiatement les relations humaines.Common Sense Media


Actuellement, « l'humain est le protagoniste, l'IA est la roue de secours » est souvent le cas. Mais lorsque certaines personnes continuent à rouler sans jamais retirer la roue de secours, la société est confrontée pour la première fois à une « nouvelle forme d'isolement ».


4-2. Réponses inappropriées : quand les frontières s'effondrent sans qu'on s'en aperçoive

Dans l'enquête de Common Sense Media, 34 % des utilisateurs d'IA ont déclaré avoir été mal à l'aise à cause des propos de l'IA.Common Sense Media


De plus, le Washington Post a rapporté des cas où des enfants ont été exposés à des interactions inappropriées, menaçantes ou sexuelles via des services de compagnons IA, plongeant les familles dans des situations graves.The Washington Post


Les conversations qui seraient « inacceptables avec un humain » peuvent être perçues comme « juste un jeu », « une blague », ou « un secret personnel » avec l'IA, risquant de désensibiliser les frontières.


4-3. Les dangers de l'utilisation pour la santé mentale : pratique mais avec une responsabilité floue

Une étude présentée par People dans JAMA Network Open indique que 13 % des 12-21 ans ont cherché des conseils en santé mentale auprès de chats IA.People.com


La « faible barrière d'accès » est un grand avantage. Mais en même temps, les conseils erronés, la gestion des urgences, la dépendance, et le traitement des informations personnelles augmentent les risques proches du domaine médical et social.


En réponse, des réglementations se mettent en place aux États-Unis. Selon Reuters, l'État de New York exige que les compagnons IA détectent les pensées suicidaires, gèrent les crises, et rappellent régulièrement qu'ils ne sont pas humains, et la Californie introduira une loi en vigueur le 1er janvier 2026, exigeant la protection des jeunes, la transparence des réponses aux crises, et des obligations de rapport.Reuters


5. Les réactions sur les réseaux sociaux sont polarisées : « Un soulagement » ou « Un dangereux substitut »

Les chiffres de KYMA (1 adolescent sur 10 plus satisfait des conversations IA) suscitent trois types de réactions sur les réseaux sociaux.


(A) Emp

← Retour à la liste d'articles

Contact |  Conditions d'utilisation |  Politique de confidentialité |  Politique des cookies |  Paramètres des cookies

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Tous droits réservés.