Aller au contenu principal
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Logo
  • Tous les articles
  • 🗒️ S'inscrire
  • 🔑 Connexion
    • 日本語
    • English
    • 中文
    • Español
    • 한국어
    • Deutsch
    • ภาษาไทย
    • हिंदी
cookie_banner_title

cookie_banner_message Politique de confidentialité cookie_banner_and Politique des cookies cookie_banner_more_info

Paramètres des cookies

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

Les raisons pour lesquelles on ne confie pas les investissements à l'IA ne sont pas liées à ses capacités ─ La clé réside dans la "confiance par attachement".

Les raisons pour lesquelles on ne confie pas les investissements à l'IA ne sont pas liées à ses capacités ─ La clé réside dans la "confiance par attachement".

2026年01月08日 00:18

La décision d'investissement finale n'est pas poussée par l'« IA », mais par un « partenaire amoureux »

L'IA devient de plus en plus accessible en tant que conseiller pour les finances personnelles et les investissements. C'est une époque où un simple clic peut fournir des réponses « plausibles » pour résumer des textes, classer des comptes de ménage ou proposer des portefeuilles. Cependant, lorsqu'il s'agit de grandes décisions financières comme « prendre des risques » ou « choisir la sécurité », les gens ont tendance à suivre les conseils de leur partenaire romantique (conjoint ou partenaire) plutôt que ceux de l'IA. Une nouvelle étude présentée par Phys.org démontre cette réalité intuitive mais cruciale à travers des données. Phys.org


L'étude a été menée par Erik Hermann et ses collègues de l'European University Viadrina en Allemagne. Le point central n'est pas de savoir si l'IA est intelligente, mais d'examiner d'où provient la confiance, en la comparant à celle envers le partenaire amoureux, l'« autre le plus proche ». Phys.org



Quatre expériences : partenaire amoureux, robo-advisor, IA anthropomorphisée, et « partenaire amoureux × IA »

Les expériences ont été menées auprès de plus de 1 400 participants américains en couple. Les participants devaient d'abord choisir entre un fonds à faible risque et faible rendement et un fonds à haut risque et haut rendement. Ensuite, des conseils pour changer de choix étaient proposés par plusieurs « conseillers ». Les conseillers variaient entre le partenaire amoureux, un robo-advisor (IA), une IA anthropomorphisée avec un nom humain (appelée « Alex » dans l'article), et des conseils donnés par le partenaire amoureux utilisant l'IA. Phys.org


Les résultats sont simples.Les participants avaient une tendance significativement plus forte à suivre les conseils de leur partenaire amoureux plutôt que ceux de l'ordinateur (IA). L'article de Phys.org identifie deux facteurs principaux à l'origine de cette différence. Le premier est l'« aversion pour l'algorithme » — une résistance psychologique à déléguer des décisions importantes à l'IA. Le second est la « confiance affective » envers le partenaire amoureux. En d'autres termes, les gens accordent du poids aux conseils non pas en fonction de l'expertise financière du partenaire, mais en fonction de la perception que celui-ci se soucie réellement de leur bonheur. Phys.org


Ce qui est encore plus intéressant, c'est que l'« effort du côté de l'IA » peut réduire cet écart. Selon le résumé de l'étude,l'anthropomorphisation de l'IA diminue l'aversion envers l'IA, et les conseils d'un robo-advisor anthropomorphisé sont acceptés au même niveau que ceux du partenaire amoureux. De plus,les conseils donnés par un partenaire amoureux avec l'aide de l'IA ont également un taux d'acceptation aussi élevé que ceux donnés par le partenaire seul, et sont nettement plus forts que ceux de l'IA seule. ScienceDirect



Pourquoi une « parole du partenaire » plutôt qu'une « IA apparemment correcte » ?

L'élément clé ici est la « double structure de la confiance » que révèle l'étude. La confiance se compose d'une attente envers la compétence et la précision (confiance cognitive) et d'une attente envers la bienveillance et la sollicitude (confiance affective). Dans des situations ayant un impact significatif sur la vie, comme la finance, la seconde est particulièrement influente. Phys.org explique que « nous faisons confiance à notre partenaire parce que nous sentons qu'il se soucie vraiment de notre bonheur ». Phys.org


L'IA peut démontrer son « intelligence » par les données d'apprentissage et la performance des modèles, mais il est difficile de créer un circuit de confiance affective où l'utilisateur ressent que « ce conseil est pour moi ». C'est pourquoi la conception par anthropomorphisation ou collaboration est efficace. L'étude suggère que les entreprises financières devraient concevoir l'IA non pas comme un substitut humain, maiscomme une IA qui « réfléchit avec les gens » plutôt que de « remplacer les gens ». Phys.org



Points de discussion futurs : l'anthropomorphisation est « pratique » mais peut aussi être « risquée »

L'anthropomorphisation augmente la confiance — ce résultat est attrayant du point de vue de la création de produits. Cependant, en même temps, la « ressemblance humaine » peut également induire en erreur. Il existe un risque de surestimer les conseils en croyant à tort que l'IA possède des émotions ou des intérêts.


En réalité, dans les discussions en ligne sur l'IA, il est souvent noté que « les gens anthropomorphisent tout ». Dans les discussions sur Hacker News, on trouve des commentaires soulignant que « les gens parlent même aux voitures, aux bateaux et aux plantes. C'est ainsi que nous sommes ». Hacker News


Si l'anthropomorphisation peut rendre l'expérience utilisateur plus fluide, elle peut aussi obscurcir la responsabilité des décisions et la compréhension des risques. La finance est un domaine où il est dangereux de se fier uniquement au « confort ».



Réactions sur les réseaux sociaux (dans la mesure où elles sont visibles sur les pages publiques)

※ Sur X (anciennement Twitter), il peut être difficile de suivre le contenu des publications et des réponses en raison de restrictions de visualisation,nous résumons donc les tendances des réactions en nous concentrant sur les discussions publiques accessibles sans connexion.


Réaction 1 : Empathie « Bien sûr que je fais confiance à mon partenaire. Après tout, c'est une gestion conjointe de la vie »

Le post officiel de Phys.org sur LinkedIn résume les points clés de l'étude en soulignant que « la confiance affective envers le partenaire est plus forte que celle envers l'IA » et que « la conception collaborative est la clé plutôt que le remplacement par l'IA », ce qui est également perçu dans un contexte commercial comme l'importance de la prise de décision conjointe avec le partenaire (ou la famille). LinkedIn


Réaction 2 : Pragmatisme « L'IA n'est pas pour la « décision finale », mais un outil pour structurer la pensée »

Dans un contexte différent, sur Hacker News, des expériences sont partagées sur l'utilisation de l'IA pour « structurer la pensée » dans les décisions financières comme les investissements, l'immobilier et les pensions, tandis que d'autres réagissent en gardant leurs distances en se demandant « n'est-ce pas exagéré ? ». Hacker News


Cette différence de perception reflète la « résistance à l'IA seule » mentionnée dans l'étude, ainsi que la tendance à accepter plus facilement une IA qui assiste la prise de décision humaine.


Réaction 3 : Prudence « Faire confiance à l'anthropomorphisation est particulièrement dangereux en finance »

Dans le débat sur l'anthropomorphisation, le point de vue selon lequel « l'anthropomorphisation est un raccourci pratique mais amplifie les malentendus » est également bien ancré. Sur Hacker News, il est discuté que l'utilisation de l'anthropomorphisation comme une « abstraction pratique » et l'incitation excessive des attentes par les entreprises par une humanisation excessive doivent être distinguées. Hacker News


Dans le domaine financier, une erreur ici pourrait conduire à un raccourci où « une IA humaine = une IA fiable », laissant de côté les discussions sur la responsabilité et la divulgation des risques.



Conclusion : le défi est dans la « conception relationnelle » plutôt que dans la « précision »

Cette étude met en lumière le « fossé de confiance » qui ne peut être comblé par la seule compétition de performance de l'IA. Dans les grandes décisions financières, les gens ne se fient pas uniquement à la justesse. Ils sont attirés par la confiance affective développée dans une relation où l'autre se soucie de leur bonheur. Phys.org


L'IA va-t-elle continuer à perdre ? — Pas nécessairement. L'anthropomorphisation peut atténuer l'aversion pour l'IA, et la collaboration « partenaire × IA » montre un avenir prometteur pour l'IA financière. ScienceDirect


Lorsque l'IA devient un « partenaire pour vous aider à prendre des décisions en toute confiance » plutôt qu'un « décideur à votre place », elle pourrait se tenir sur le même terrain que la parole d'un partenaire amoureux.



Articles de référence

Pourquoi faisons-nous confiance à un partenaire romantique plutôt qu'à l'IA pour les grandes décisions financières
Source : https://phys.org/news/2026-01-romantic-partners-ai-big-financial.html

Propulsé par Froala Editor

← Retour à la liste d'articles

Contact |  Conditions d'utilisation |  Politique de confidentialité |  Politique des cookies |  Paramètres des cookies

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Tous droits réservés.