Aller au contenu principal
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Logo
  • Tous les articles
  • 🗒️ S'inscrire
  • 🔑 Connexion
    • 日本語
    • English
    • 中文
    • Español
    • 한국어
    • Deutsch
    • ภาษาไทย
    • हिंदी
cookie_banner_title

cookie_banner_message Politique de confidentialité cookie_banner_and Politique des cookies cookie_banner_more_info

Paramètres des cookies

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

Pourquoi certaines personnes aiment-elles l'IA tandis que d'autres la détestent : la division révélée par les neurosciences et les réseaux sociaux - Théorie de la conception de la transparence, du choix et de la responsabilité

Pourquoi certaines personnes aiment-elles l'IA tandis que d'autres la détestent : la division révélée par les neurosciences et les réseaux sociaux - Théorie de la conception de la transparence, du choix et de la responsabilité

2025年11月05日 00:56

1. L'article que j'ai lu hier a mis en mots la confusion d'aujourd'hui

L'article republié sur Phys.org le 3 novembre 2025 (heure locale) a démystifié pourquoi certaines personnes "aiment" l'IA tandis que d'autres la "détestent", en se basant sur la perception du risque et de la confiance dans le cerveau. Le point de vue est clair mais incisif : les gens font confiance à ce qu'ils peuvent comprendre. À l'inverse, une "boîte noire" dont le chemin entre l'entrée et la sortie est invisible devient une source d'anxiété. L'article organise de manière cohérente des points de vue psychologiques tels que la sévérité souvent ressentie envers les échecs des algorithmes (appelée "aversion pour les algorithmes"), la tendance à attribuer des intentions humaines à l'IA (anthropomorphisme), et le malaise de la vallée de l'étrange. En somme, il s'agit souvent plus d'un "problème de l'esprit humain" que d'un "problème de l'IA". phys.org


2. Pourquoi la "violation des attentes" est-elle douloureuse ?——La racine de l'aversion pour les algorithmes

Les gens sont indulgents envers les erreurs humaines mais deviennent sévères envers celles des machines. Selon la théorie de la violation des attentes, c'est naturel, car nous avons tendance à placer des attentes implicites sur les machines pour qu'elles soient "logiques, justes et presque infaillibles". Lorsqu'elles échouent, nous avons l'impression que "les humains peuvent encore poser des questions". L'aversion pour les algorithmes est un concept qui formalise cette psychologie, expliquant que, pour des erreurs équivalentes, les machines perdent plus facilement la confiance. Même une organisation encyclopédique confirme ce point de vue, qui correspond étrangement à l'expérience sur le terrain. Wikipédia


3. Nous projetons un "esprit" sur ce qui n'en a pas

L'article souligne le fait que la rationalité seule ne rassure pas les gens. Le ton de la voix, les expressions faciales, le regard et le rythme——les gens construisent la confiance en lisant des indices émotionnels au-delà des mots. Cependant, l'IA est faible dans ce domaine. Ne pas se mettre en colère, ne pas se fatiguer, ne pas hésiter est parfois perçu comme "froid". Le malaise créé par une existence similaire mais différente, c'est-à-dire la vallée de l'étrange, est également en arrière-plan. Ce "vide émotionnel" renforce le sentiment de malaise envers l'IA. phys.org


4. La menace pour l'identité——Une douleur au-delà de "la perte d'emploi"

Dans certaines professions, le sentiment d'être "remplacé" suscite une opposition au-delà de la simple efficacité. Enseignants, écrivains, avocats, designers——le moment où un "équivalent" apparaît pour des compétences affinées au fil du temps, l'image de soi vacille. C'est ce que la psychologie sociale appelle une menace pour l'identité. Ici, l'évaluation rationnelle de la technologie s'entrelace avec une anxiété ontologique. L'article suggère que l'opposition n'est pas simplement une question de conservatisme, mais aussi de défense psychologique. phys.org


5. Que renforce les réseaux sociaux——La "vérité" visible dans l'accueil et l'opposition

Alors, quelle est l'atmosphère sur les réseaux sociaux ? En regardant X, Reddit et les sections de commentaires des actualités, on voit coexister ceux qui apprécient l'efficacité et la créativité ("pro-accueil") et ceux qui soulignent les préoccupations concernant l'emploi, les biais et la méfiance envers la gouvernance ("pro-préoccupation"), avec des points d'attention différents.


  • Exemple typique des pro-accueil :
    Partage de l'expérience d'une "vitesse initiale de recherche et de rédaction sans précédent" et d'une réduction de la solitude grâce à l'IA en tant que "partenaire". De nombreuses voix apprécient également la démarcation où l'IA est utilisée pour les "exercices" de création et de développement, mais la décision finale revient à l'humain.

  • Exemple typique des pro-préoccupation :
    "Les échecs de l'IA sont inexplicables et effrayants", "Les frontières de la désinformation et des droits d'auteur sont floues", "On ne peut pas faire confiance aux entreprises et aux régulateurs". En particulier sur Reddit, une méfiance générale envers les entreprises technologiques et les régulations est souvent exposée. Reddit

De plus, l'opinion publique basée sur les médias confirme également le **"tiraillement entre attentes et inquiétudes"**. Aux États-Unis, à l'automne 2025, les rapports ont continué d'indiquer que les préoccupations concernant l'IA avaient augmenté par rapport à 2022. Risques d'emploi, aversion pour l'automatisation inutile, scepticisme envers les résumés par IA——la coexistence du "pratique" et du "terrifiant". Au Royaume-Uni, une enquête montrant que plus de gens considèrent l'IA comme un risque économique plutôt qu'une opportunité a également fait sensation. Les gens accordent plus d'importance à ce qui "fait sens" qu'à la nouveauté. The Washington Post


6. Contre l'IA mais l'utilisant quand même——La réalité de la "résistance" en 2025

Ce qui est intéressant, c'est que beaucoup de ceux qui se définissent comme résistants à l'IA l'utilisent en fait partiellement. Parmi les étudiants, développeurs et créateurs, il existe un mouvement pour prendre ses distances en raison de préoccupations éthiques, de précision et d'insécurité de l'emploi, mais une évitement total est difficile, et la réalité est qu'ils l'utilisent pour des "usages limités". L'acceptation de la technologie n'est pas binaire. Psychologiquement, on peut interpréter que le sentiment de perte de choix alimente la méfiance. Axios


7. La diffusion médiatique : comment l'article a-t-il été lu ?

Cette republication sur Phys.org est basée sur un article de The Conversation. Des articles similaires ont été diffusés et reproduits par d'autres médias, augmentant leur visibilité. Bien que le nombre de liens directs sur les réseaux sociaux ne soit pas explosif, les discussions dans les sections de commentaires et sur les sites de reproduction tournent autour des "deux côtés de la médaille", comme nous l'avons vu jusqu'à présent. phys.org uk.news.yahoo.com


8. "Montrer le fonctionnement" ne suffit pas——Les trois principes de la conception de la confiance

L'article utilise la métaphore "de la boîte noire à la conversation". À partir de là, concentrons-nous sur trois principes de conception de produits et services. phys.org

  1. Transparence
    Clarifiez dès le premier contact "quoi, avec quelles données, comment c'est traité et quelles sont les limites". Plutôt qu'une liste de termes techniques, précédez les conditions qui font varier les résultats et les "modèles difficiles".

  2. Interrogabilité
    Laissez de la place pour "questionner" les résultats. Résumé des raisons, alternatives, auto-déclaration des erreurs. Une interface utilisateur où l'on peut poser "pourquoi ?" atténue la douleur des attentes violées.

  3. Autonomie
    Assurez-vous que l'automatisation par défaut n'est pas imposée,optez pour l'adhésion, la configuration de la granularité et la facilité de retrait. La capacité de l'utilisateur à "s'engager à son propre rythme" est la clé de l'acceptation.


9. Notes sur la mise en œuvre sur le terrain——Les deux roues des produits et des politiques

  • Côté produit

    • Pour les tâches importantes, "double verrouillage" : proposition de l'IA→approbation finale par l'humain.

    • Intégrez la visualisation de la confiance et de l'incertitude du modèle comme norme.

    • Conservez les journaux d'audit et la reproductibilité des explications (le principe est "la même entrée donne la même explication").

    • Laissez la "liberté de ne pas faire" : évitez les résumés IA toujours activés et les "suggestions imposées".

  • Côté organisation et éducation

    • Enseignez aux employés et aux apprenants les **"effets secondaires de la dépendance à l'IA"** (arrêt de la réflexion, apprentissage incorrect) dans le cadre des compétences numériques.

    • Institutionnalisez l'indication de la source des produits (divulgation de l'implication de l'IA) et la responsabilité humaine pour les décisions importantes.

    • Dans le secteur public, faites de l'explicabilité et des recours des exigences essentielles (décisions automatiques pour le crédit, l'embauche, la santé, etc.).


10. Au-delà de la polarisation——Chercher le "minimum d'accord possible"

Il n'est pas nécessaire de louer l'IA ni de la rejeter complètement. Ce dont nous avons besoin, c'est d'un seuil d'accord sur "dans quelles conditions pouvons-nous faire confiance".

  • Que la source des données soit indiquée

  • Que des recours soient disponibles en cas d'erreur

  • Que les décisions importantes puissent être renvoyées à l'humain

  • Que le choix de "ne pas utiliser" soit respecté

Lorsque ce minimum est satisfait, l'IA se rapproche d'un **"partenaire compréhensible"** plutôt que d'une **"boîte noire invisible"**. Les dernières nouvelles et la température sur les réseaux sociaux recherchent précisément cela. Face à la réalité où la commodité et l'anxiété coexistent, concevoir une relation où l'on peut poser des questions est la seule prescription pour dépasser la division entre ceux qui aiment et ceux qui détestent. The Washington Post



Références et sources (mentionnées dans le texte)

  • Republication sur Phys.org (3 novembre 2025) : La psychologie qui influence l'amour ou la haine de l'IA (boîte noire, anthropomorphisme, violation des attentes, etc.). phys

← Retour à la liste d'articles

Contact |  Conditions d'utilisation |  Politique de confidentialité |  Politique des cookies |  Paramètres des cookies

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Tous droits réservés.