Dix fois plus rapide, dix fois moins cher : l'ère où l'IA prend le pouls de l'opinion publique

Dix fois plus rapide, dix fois moins cher : l'ère où l'IA prend le pouls de l'opinion publique

L'IA peut-elle écouter "l'opinion publique" ? Une révolution silencieuse commence sur le terrain des enquêtes

"Quelle est la première image ou émotion qui vous vient à l'esprit lorsque vous entendez le mot 'politicien' ?"

Une voix de jeune femme se fait entendre à l'autre bout du fil. Elle est calme, professionnelle, et le rythme de la conversation est presque naturel. Cependant, cette voix n'appartient pas à un être humain. C'est un agent IA, un interlocuteur programmé.

Pendant que le répondant exprime sa méfiance ou son cynisme envers les politiciens, plusieurs autres IA fonctionnent en arrière-plan. Une IA vérifie si la réponse est conforme à la question, une autre encourage à approfondir si le contenu est superficiel, et une autre encore tente de détecter si l'interlocuteur est un fraudeur ou un bot. Ce n'est pas une scène de laboratoire futuriste. C'est une scène réelle d'une enquête politique menée par Naratis, une entreprise française spécialisée dans les sondages d'opinion basés sur l'IA.

Les sondages d'opinion ont longtemps été un outil essentiel pour visualiser la voix de la société. Les taux de soutien avant les élections, les opinions sur les politiques, l'évaluation des produits par les entreprises, les attitudes envers les problèmes sociaux. Les chiffres présentés dans les journaux et à la télévision ont influencé les décisions des politiciens, des entreprises, des médias, et même des électeurs eux-mêmes.

Cependant, cette base est maintenant ébranlée. Moins de gens répondent au téléphone, et encore moins participent aux enquêtes. Beaucoup ignorent les numéros inconnus et ne s'engagent pas dans de longs questionnaires. Avec moins de répondants, les enquêtes deviennent coûteuses et biaisées. C'est là qu'intervient l'automatisation des sondages d'opinion par l'IA.

Pierre Fontaine, fondateur de Naratis, explique que la force de son entreprise réside dans le fait de "faire converser les gens avec l'IA plutôt que de les faire cocher des cases". Les enquêtes quantitatives traditionnelles collectent massivement des choix tels que pour, contre, ou neutre. En revanche, Naratis vise le domaine des enquêtes qualitatives, plus coûteux et chronophage, qui explore non seulement "ce que les gens pensent" mais aussi "pourquoi ils le pensent" à travers des interviews individuelles ou des discussions de groupe.

Ce domaine est extrêmement précieux pour les campagnes politiques et les études de marque des entreprises. Par exemple, pourquoi une personne qui entend le slogan d'un candidat l'apprécie-t-elle ? Pourquoi une personne s'oppose-t-elle à une proposition politique ? Est-ce à cause du contenu de la politique ou de la manière dont elle est présentée ? Les véritables indices peuvent se cacher dans les émotions, les associations et les hésitations que les chiffres seuls ne peuvent capturer.

L'IA a le potentiel de faire évoluer ces enquêtes qualitatives à grande échelle. Si un intervieweur humain interroge une personne à la fois, cela prend du temps et coûte cher. Mais avec l'IA, de nombreuses conversations peuvent être menées simultanément. Naratis affirme que ses enquêtes sont "10 fois plus rapides, 10 fois moins chères, avec une précision de 90 %" par rapport aux enquêtes humaines. Une enquête qui prenait autrefois des semaines et des dizaines de milliers d'euros pourrait être réalisée en un jour ou deux.

Cette rapidité a une grande signification sur le terrain politique. Pendant la période électorale, l'opinion publique peut changer rapidement avec une déclaration, une gaffe ou un événement international. Avec les enquêtes traditionnelles, il n'est pas rare que la situation ait changé au moment où les résultats sont publiés. Si l'IA peut recueillir des réactions en moins de 24 heures, les équipes de campagne peuvent presque en temps réel comprendre les émotions des électeurs et ajuster leur message.

Cependant, c'est là que réside le premier danger. Comprendre l'opinion publique plus rapidement signifie aussi pouvoir y réagir plus rapidement. Si l'IA indique "cette expression évitera la colère" ou "ces mots mobiliseront votre base", les politiciens et leurs équipes peuvent lancer des mots plus précisément adaptés aux mécontentements et aux inquiétudes des électeurs. Pour la démocratie, est-ce un progrès dans le dialogue ou une sophistication de la manipulation des émotions ?

Dans le débat sur les sondages d'opinion basés sur l'IA, il est important de distinguer deux technologies. La première est la méthode où l'IA remplace l'interview d'un être humain réel. La seconde est la méthode où l'IA crée des "répondants synthétiques" ou des "jumeaux numériques" pour répondre à la place des humains réels.

La première méthode automatise l'interlocuteur et l'analyste de l'enquête. Ce sont toujours des humains qui répondent. La seconde méthode repose sur les données passées et les informations d'attributs pour que l'IA devine "comment une telle personne répondrait". Cela peut être utile pour les tests de concept ou la formulation d'hypothèses dans les études de marché, mais cela pose des problèmes beaucoup plus lourds dans les enquêtes politiques.

Car les sondages d'opinion en politique ne sont pas de simples documents commerciaux. Les taux de soutien publiés sont rapportés, influencent les dons et les comportements de vote, et mettent en scène l'élan des candidats. Si les réponses générées par l'IA sont traitées de la même manière que celles recueillies auprès d'humains, il est possible que ce ne soit pas "l'opinion publique" qui ait été mesurée, mais simplement quelque chose qui ressemble à l'opinion publique qui a été synthétisé.

À cet égard, les entreprises d'enquête existantes sont prudentes. Ipsos, un grand nom des études de marché, utilise l'IA mais se méfie fortement de l'utilisation de répondants générés par l'IA dans des enquêtes politiquement sensibles. Bruno Jeanbart, PDG d'OpinionWay, a également déclaré qu'il ne publierait jamais de sondages basés sur des données générées par l'IA. La raison est claire : pour l'industrie des enquêtes, le plus grand atout est la "confiance".

Sur les réseaux sociaux, les réactions aux sondages d'opinion basés sur l'IA penchent plus vers la méfiance que l'attente. En particulier dans les communautés technologiques anglophones, l'expression "les sondages d'opinion basés sur l'IA sont de faux sondages" s'est répandue, et sur Reddit, les critiques soulignent que "ce ne sont pas de vraies personnes mais des modèles de langage à grande échelle qui réagissent selon des règles". Un autre utilisateur a soutenu qu'il est essentiel de montrer de manière claire que les réponses sont générées par l'IA, car beaucoup de gens ne lisent pas les petites lignes de la méthodologie.

Cependant, toutes les réactions ne sont pas totalement négatives. Sur LinkedIn, il y a aussi des discussions sur le fait que les audiences synthétiques créées par l'IA devraient être considérées comme un "modèle de prévision" plutôt qu'un "véritable sondage d'opinion". En d'autres termes, il y a un point de vue selon lequel l'IA ne devrait pas remplacer les humains, mais être utilisée pour la vérification d'hypothèses, la détection de biais, et les tests initiaux de messages. Le problème n'est pas l'utilisation de l'IA en soi, mais de présenter la simulation comme si elle était des données mesurées.

Cette différence de réaction reflète bien la nature des sondages d'opinion basés sur l'IA. Si on les considère comme un outil pratique, l'IA élargit les possibilités des enquêtes. Même sur des thèmes difficiles à aborder pour les humains, certaines personnes peuvent être plus enclines à parler honnêtement à une machine. Ceux qui se vantent ou donnent des réponses socialement désirables à un interlocuteur humain peuvent être plus francs avec une IA. En France, il est dit que le soutien à l'extrême droite a souvent été sous-estimé dans les sondages d'opinion, mais si l'IA peut capter ces "vérités difficiles à dire", les entretiens avec l'IA présentent certains avantages.

De plus, l'IA est également adaptée pour approfondir les réponses. Dans un questionnaire traditionnel, il est souvent difficile d'explorer pleinement les raisons d'une réponse "contre". Cependant, avec une IA conversationnelle, il est possible de demander "pourquoi pensez-vous cela ?", "quand votre opinion a-t-elle changé ?", "quels événements vous ont marqué ?". Classer un grand nombre de réponses libres et organiser les émotions et les points de vue est également un domaine où l'IA excelle.

Néanmoins, l'IA a des faiblesses fatales. Premièrement, l'IA peut produire des erreurs plausibles, ce qu'on appelle des hallucinations. Dans le monde des enquêtes, une légère distorsion peut conduire à de grandes incompréhensions. Deuxièmement, l'IA dépend fortement des données passées. Elle peut traiter les opinions souvent exprimées dans le passé, les discours largement présents sur Internet, et les valeurs des pays anglophones ou des zones urbaines comme plus générales qu'elles ne le sont réellement.

Troisièmement, l'IA a tendance à se rapprocher d'une "plausibilité moyenne". Les opinions humaines sont contradictoires, émotionnelles et varient selon les situations. On peut être en faveur d'une politique mais détester le politicien qui la propose. L'anxiété économique et la conscience environnementale peuvent entrer en conflit. Si l'IA génère des réponses trop bien ordonnées, ces fluctuations humaines peuvent être éliminées. En conséquence, une opinion publique trop parfaite peut émerger.

En réalité, les revues de recherche sur les répondants synthétiques indiquent que bien que les moyennes élevées puissent se rapprocher des réponses humaines, des problèmes apparaissent dans les détails tels que les différences par attribut, les variations, les corrélations et les coefficients de régression. Dans le domaine politique, ce sont précisément ces détails qui comptent. Même si la moyenne générale est correcte, si les réactions des électeurs indépendants dans une région spécifique, des jeunes, des électeurs issus de l'immigration ou des personnes âgées en milieu rural sont mal interprétées, les stratégies électorales et les décisions politiques peuvent être erronées.

Plus grave encore est la question de la responsabilité. Les sondages d'opinion traditionnels avaient aussi leurs limites. Les biais dans le choix des cibles, les questions suggestives, les refus de répondre, les méthodes de pondération, aucune enquête n'est parfaite. Cependant, au moins, il était possible de vérifier de l'extérieur en montrant à qui, quand, combien de personnes ont été interrogées et quelles étaient les questions.

Avec l'IA, cette vérification devient complexe. Quel modèle a été utilisé ? Avec quelles données a-t-il été formé ? Comment la profondeur des réponses a-t-elle été évaluée ? Comment les réponses frauduleuses ont-elles été détectées ? Si des répondants synthétiques ont été utilisés, sur quoi repose leur profil ? Si ces informations restent opaques et que seuls les chiffres sont publiés, cela devient une légitimation de la boîte noire plutôt qu'une enquête.

Si les sondages d'opinion basés sur l'IA se généralisent, le débat sur la réglementation sera inévitable. En particulier dans le domaine politique, si des enquêtes basées sur des données générées par l'IA sont publiées, des obligations de transparence claires ou des règles d'interdiction pourraient être nécessaires. Dans des pays comme la France, où la réglementation des sondages d'opinion est relativement stricte, la publication d'enquêtes politiques utilisant des données synthétiques pourrait être restreinte.

Alors, l'IA rendra-t-elle les sondages d'opinion plus précis ?

La réponse n'est pas simple. L'IA est forte là où les enquêtes traditionnelles sont faibles : rapidité, coût, analyse des réponses libres, et approfondissement conversationnel. Pour une industrie confrontée à une pénurie d'intervieweurs humains et à une baisse des taux de réponse, c'est une solution attrayante. Si l'on interroge de vrais humains et que l'IA assiste et analyse ces conversations, il y a un potentiel pour améliorer la qualité des sondages d'opinion.

Cependant, dès que l'IA commence à "répondre" à la place des humains, la situation change. Ce n'est plus une mesure de l'opinion publique, mais une supposition, une simulation, une sortie de modèle. Cela peut être utile. Mais il faut être prudent avant de l'appeler opinion publique.

L'avenir dominant sera probablement un modèle hybride plutôt qu'une automatisation complète. L'IA posera des questions, organisera les réponses, détectera les valeurs aberrantes et formulera des hypothèses. Les enquêteurs humains superviseront la conception, vérifieront les résultats et assumeront la responsabilité politique et éthique. L'IA augmentera les oreilles, mais c'est l'humain qui décidera finalement de ce qui est entendu. Cette démarcation sera cruciale.

Les sondages d'opinion basés sur l'IA pourraient rendre la démocratie plus pratique. Ils pourraient capter des voix qui n'étaient pas entendues, visualiser des émotions complexes et rapprocher les politiques et les reportages de la réalité. Mais en même temps, il y a un danger de synthétiser, manipuler et donner l'illusion de comprendre l'opinion publique.

L'essence des sondages d'opinion n'est pas de fabriquer des chiffres. C'est de savoir ce que les gens vivant dans la société craignent, ce qui les met en colère, ce qu'ils souhaitent et où ils hésitent. Si l'IA aide dans cette tâche, ce sera un progrès bienvenu. Mais si l'IA commence à parler à la place des humains, cela deviendra un outil trop pratique et dangereux pour la démocratie.

En fin de compte, ce qui est le plus important dans les sondages d'opinion à l'ère de l'IA, ce n'est pas à quel point l'IA est intelligente. C'est à quel point ceux qui mènent les enquêtes peuvent expliquer honnêtement ce qu'ils ont confié à l'IA et ce qu'ils ont entendu des humains. L'IA sauvera-t-elle les sondages d'opinion qui ont perdu la confiance, ou les rendra-t-elle encore plus douteux ? La réponse dépend de la transparence de l'utilisation, et non de la technologie.


Résumé des réactions sur les réseaux sociaux

 

Sur les réseaux sociaux et dans les sections de commentaires, les réactions aux sondages d'opinion basés sur l'IA se divisent en trois grandes catégories.

La première catégorie est celle de la forte méfiance. Dans les communautés technologiques de Reddit, les réactions sur la méthode de simulation des répondants par l'IA soulignent que "si ce n'est pas demandé à de vraies personnes, ce n'est pas un sondage d'opinion". En particulier, il y a une forte inquiétude que les enquêtes utilisant des réponses générées par l'IA soient diffusées uniquement avec des titres ou des graphiques, ce qui pourrait amener les lecteurs à les confondre avec des enquêtes réelles.

La deuxième catégorie est une vision réaliste selon laquelle "cela peut être utile si l'utilisation est limitée". Sur LinkedIn, certains estiment que les audiences synthétiques créées par l'IA devraient être utilisées comme modèles de prévision ou outils de vérification d'hypothèses, et non comme mesure de l'opinion publique. Elles peuvent être utiles pour les tests initiaux de messages ou la vérification des biais des modèles, mais ne remplacent pas la voix réelle des humains.

La troisième catégorie est la méfiance envers les sondages d'opinion existants eux-mêmes. Sur les réseaux sociaux, certains disent que "les enquêtes auprès des humains sont également pleines de biais", ce qui montre que ce n'est pas seulement l'IA qui pose problème, mais que la confiance dans les sondages d'opinion dans leur ensemble est ébranlée. Les critiques des sondages d'opinion basés sur l'IA reflètent également une insatisfaction à l'égard des enquêtes traditionnelles.


URL de la source

BBC "Will AI