10-mal schneller, 10-mal günstiger Umfragen – Das Zeitalter, in dem KI die politische Stimmung liest

10-mal schneller, 10-mal günstiger Umfragen – Das Zeitalter, in dem KI die politische Stimmung liest

Kann KI die "öffentliche Meinung" hören? – Eine stille Revolution im Bereich der Umfragen

"Was ist das erste Bild oder Gefühl, das Ihnen in den Sinn kommt, wenn Sie das Wort Politiker hören?"

Am anderen Ende der Leitung hört man eine junge Frauenstimme. Sie klingt ruhig, sachlich und das Gesprächstempo ist fast natürlich. Doch die Stimme gehört keinem Menschen. Es ist ein KI-Agent, ein programmierter Zuhörer.

Während der Befragte über sein Misstrauen oder seinen Zynismus gegenüber Politikern spricht, arbeiten im Hintergrund mehrere KIs. Eine überprüft, ob die Antworten zur Frage passen, eine andere fordert bei oberflächlichen Antworten zu tiefergehenden Erklärungen auf, und eine weitere versucht, betrügerische Befragte oder Bots zu erkennen. Dies ist keine Zukunftsvision, sondern eine reale Szene aus der politischen Umfragearbeit des französischen KI-Umfrageunternehmens Naratis.

Umfragen waren lange ein wichtiges Instrument, um die Stimme der Gesellschaft sichtbar zu machen. Wahlunterstützungsraten, Meinungen zu politischen Maßnahmen, Produktbewertungen von Unternehmen, Einstellungen zu sozialen Problemen – die in Zeitungen und im Fernsehen gezeigten Zahlen beeinflussten die Entscheidungen von Politikern, Unternehmen, Medien und den Wählern selbst.

Doch diese Grundlage wackelt nun. Immer weniger Menschen gehen ans Telefon oder beantworten Umfragen. Viele ignorieren unbekannte Nummern und haben keine Geduld für lange Fragebögen. Wenn weniger Menschen antworten, werden Umfragen teurer und die Verzerrungen größer. Hier kommt die Automatisierung von Umfragen durch KI ins Spiel.

Pierre Fontaine, der Gründer von Naratis, erklärt, dass die Stärke seines Unternehmens darin liegt, dass die Menschen nicht einfach Kästchen ankreuzen, sondern mit der KI sprechen. Traditionelle quantitative Umfragen sammeln viele Antworten wie Zustimmung, Ablehnung oder Neutralität. Naratis hingegen zielt auf den Bereich der qualitativen Forschung ab, der mehr Zeit und Geld erfordert. Durch Interviews mit wenigen Personen oder Gruppendiskussionen wird nicht nur ermittelt, was die Menschen denken, sondern auch, warum sie so denken.

Dieser Bereich ist für politische Kampagnen und Markenforschung von Unternehmen von großem Wert. Zum Beispiel, warum jemand einen Slogan eines Kandidaten sympathisch findet oder warum jemand gegen einen politischen Vorschlag ist – liegt es am Inhalt des Systems oder an der Art der Erklärung? In den Gefühlen, Assoziationen und Zögern, die nicht nur durch Zahlen erfasst werden können, könnten echte Hinweise verborgen sein.

KI hat das Potenzial, diese qualitative Forschung erheblich zu skalieren. Wenn menschliche Interviewer jede Person einzeln befragen, kostet das Zeit und Arbeitskraft. Aber mit KI können viele Gespräche gleichzeitig geführt werden. Naratis behauptet, dass ihre Methode zehnmal schneller, zehnmal günstiger und mit 90 % Genauigkeit im Vergleich zu menschlichen Umfragen ist. Eine Umfrage, die früher Wochen und Zehntausende Euro benötigte, könnte in ein oder zwei Tagen abgeschlossen werden.

Diese Geschwindigkeit hat in der politischen Praxis eine große Bedeutung. Während einer Wahlkampagne kann sich die öffentliche Meinung durch eine einzige Aussage, einen einzigen Fauxpas oder ein internationales Ereignis schnell ändern. Bei herkömmlichen Umfragen ist es nicht ungewöhnlich, dass sich die Situation ändert, bevor die Ergebnisse vorliegen. Wenn KI innerhalb von 24 Stunden Reaktionen sammeln kann, können Kampagnen fast in Echtzeit die Gefühle der Wähler erfassen und ihre Botschaften anpassen.

Doch hier liegt die erste Gefahr. Die öffentliche Meinung schneller zu verstehen, bedeutet auch, schneller auf sie einwirken zu können. Wenn KI zeigt, dass eine bestimmte Ausdrucksweise Ärger vermeidet oder eine bestimmte Wortwahl die Unterstützer mobilisiert, können Politiker und Kampagnen präziser auf die Unzufriedenheit und Ängste der Wähler eingehen. Ist das ein Fortschritt im Dialog für die Demokratie oder eine Verfeinerung der Gefühlsmanipulation?

In der Debatte über KI-Umfragen ist es wichtig, zwei Technologien zu unterscheiden. Die eine Methode ist, dass KI Interviews mit realen Menschen führt. Die andere Methode ist, dass KI "synthetische Befragte" oder "digitale Zwillinge" erstellt, die anstelle echter Menschen antworten.

Ersteres automatisiert den Zuhörer und Analysten der Umfrage. Die Antwort kommt immer noch von einem Menschen. Letzteres basiert auf vergangenen Daten und Attributinformationen, wobei KI spekuliert, wie eine Person antworten würde. Dies könnte im Marktforschungsbereich für Konzepttests oder Hypothesenbildung nützlich sein, aber in der politischen Forschung wird das Problem sofort schwerwiegender.

Denn Meinungsumfragen in der Politik sind nicht nur Geschäftsdokumente. Die veröffentlichten Unterstützungsraten werden berichtet, beeinflussen Spenden und Wahlverhalten und inszenieren den Schwung eines Kandidaten. Wenn KI-generierte Antworten wie echte Meinungen behandelt werden, könnte es sein, dass nicht die "öffentliche Meinung" gemessen wurde, sondern nur etwas, das wie öffentliche Meinung aussieht, synthetisiert wurde.

In dieser Hinsicht sind bestehende Umfrageunternehmen vorsichtig. Der Marktforschungsgigant Ipsos nutzt KI, ist aber sehr vorsichtig, KI-generierte Befragte in politisch sensiblen Umfragen einzusetzen. Bruno Jeanbart, CEO von OpinionWay, hat ebenfalls klargestellt, dass sie keine Umfragen auf Basis von KI-generierten Daten veröffentlichen werden. Der Grund ist klar: Das größte Kapital der Umfrageindustrie ist "Vertrauen".

Auch auf sozialen Netzwerken neigen die Reaktionen auf KI-Umfragen eher zur Vorsicht als zur Erwartung. Besonders in englischsprachigen Technik-Communities hat sich der Ausdruck "KI-Umfragen sind gefälschte Umfragen" verbreitet, und auf Reddit sind kritische Stimmen laut geworden, die sagen, dass es sich nur um Reaktionen handelt, die von großen Sprachmodellen nach Regeln erstellt werden, nicht von echten Menschen. Ein anderer Nutzer argumentierte, dass, da viele Menschen die Methodik nicht lesen, es unübersehbar gemacht werden sollte, dass es sich um KI-generierte Antworten handelt.

Doch nicht alle Reaktionen sind völlig ablehnend. Auf LinkedIn gibt es Diskussionen darüber, dass synthetische Audiences durch KI nicht als "echte Meinungsumfragen", sondern als "Prognosemodelle" betrachtet werden sollten. Das heißt, es gibt einen Standpunkt, dass es sinnvoll ist, KI nicht als Ersatz für Menschen zu verwenden, sondern für Hypothesentests, Bias-Erkennung und erste Tests von Botschaften. Das Problem liegt nicht in der Nutzung von KI selbst, sondern darin, Simulationen als reale Daten darzustellen.

Diese unterschiedlichen Reaktionen spiegeln gut das Wesen von KI-Umfragen wider. Betrachtet man sie als nützliches Werkzeug, erweitert KI die Möglichkeiten der Umfrageforschung. Es könnte Menschen geben, die bei Themen, über die sie mit Menschen ungern sprechen, gegenüber Maschinen ehrlicher sind. Menschen, die gegenüber menschlichen Zuhörern prahlen oder sozial erwünschte Antworten geben, könnten gegenüber KI ehrlicher sein. In Frankreich wurde die Unterstützung für die extreme Rechte in Umfragen oft unterschätzt. Wenn KI solche "schwer zu äußernden ehrlichen Meinungen" erfassen kann, hat das KI-Interview gewisse Vorteile.

Außerdem eignet sich KI gut für das tiefergehende Befragen von Antworten. Bei herkömmlichen Umfragen wird oft nicht ausreichend nach den Gründen für eine "Ablehnung" gefragt. Ein konversationsfähiges KI-System kann jedoch weiterfragen: "Warum denken Sie so?", "Seit wann hat sich Ihre Meinung geändert?", "Welches Ereignis ist Ihnen besonders in Erinnerung geblieben?" Die Kategorisierung einer großen Menge freier Antworten und die Organisation von Emotionen und Themen sind ebenfalls Stärken der KI.

Dennoch hat KI schwerwiegende Schwächen. Erstens kann KI plausible Fehler erzeugen, sogenannte Halluzinationen. In der Welt der Umfragen kann schon eine kleine Verzerrung zu großen Missverständnissen führen. Zweitens hängt KI stark von vergangenen Daten ab. Meinungen, die in der Vergangenheit häufig geäußert wurden, Aussagen, die im Internet weit verbreitet sind, und Werte aus dem englischsprachigen Raum oder städtischen Gebieten könnten als allgemeiner angesehen werden, als sie tatsächlich sind.

Drittens neigt KI dazu, sich auf "durchschnittliche Plausibilität" zu konzentrieren. Menschliche Meinungen sind widersprüchlich, emotional und schwanken je nach Situation. Man könnte eine politische Maßnahme unterstützen, aber den Politiker, der sie vorschlägt, nicht mögen. Finanzielle Sorgen könnten mit Umweltbewusstsein kollidieren. Wenn KI zu geordnete Antworten generiert, wird diese menschliche Schwankung eliminiert. Das Ergebnis könnte eine zu saubere öffentliche Meinung sein.

In der Tat weisen Forschungsübersichten zu synthetischen Befragten darauf hin, dass hohe Durchschnittswerte manchmal den menschlichen Antworten nahekommen, während es bei Details wie Unterschieden nach Attributen, Streuungen, Korrelationen und Regressionskoeffizienten Probleme gibt. In der politischen Praxis sind genau diese Details wichtig. Selbst wenn der Gesamtdurchschnitt stimmt, können falsche Reaktionen von unentschlossenen Wählern in bestimmten Regionen, jungen Menschen, Wählern mit Migrationshintergrund oder älteren Menschen in ländlichen Gebieten zu falschen Wahlstrategien und politischen Entscheidungen führen.

Noch gravierender ist das Problem der Rechenschaftspflicht. Auch traditionelle Umfragen hatten ihre Grenzen. Verzerrungen in der Stichprobe, suggestive Fragen, Antwortverweigerung, Gewichtungsmethoden – es gibt keine perfekte Umfrage. Dennoch gab es zumindest die Möglichkeit, zu zeigen, wem, wann und wie viele Menschen befragt wurden und welche Fragen gestellt wurden, sodass eine externe Überprüfung möglich war.

Mit dem Einsatz von KI wird diese Überprüfung komplizierter. Welches Modell wurde verwendet? Mit welchen Daten wurde es trainiert? Wie wurde die Tiefe der Antworten bewertet? Wie wurden betrügerische Antworten erkannt? Wenn synthetische Befragte verwendet wurden, worauf basierte deren Charakterisierung? Wenn solche Informationen intransparent bleiben und nur Zahlen veröffentlicht werden, wird es zu einer Autorisierung eines Blackbox-Systems, nicht zu einer Umfrage.

Wenn KI-Umfragen sich verbreiten, wird auch die Diskussion über Regulierung unvermeidlich sein. Besonders im politischen Bereich könnte es notwendig werden, klare Anzeigepflichten oder Verbotsregeln für Umfragen auf Basis von KI-generierten Daten einzuführen. In Ländern wie Frankreich, wo die Regulierung von Umfragen relativ streng ist, könnte die Veröffentlichung politischer Umfragen mit synthetischen Daten eingeschränkt werden.

Wird KI die Meinungsumfragen genauer machen?

Die Antwort ist nicht einfach. KI ist stark in Bereichen, in denen traditionelle Umfragen schwach sind: Geschwindigkeit, Kosten, Analyse freier Antworten, tiefgehende Gespräche. Für eine Branche, die unter einem Mangel an menschlichen Interviewern und sinkenden Antwortraten leidet, ist sie zweifellos eine attraktive Lösung. Wenn echte Menschen befragt werden und KI die Gespräche unterstützt und analysiert, könnte dies die Qualität der Umfragen erheblich verbessern.

Doch sobald KI beginnt, anstelle von Menschen "Antworten" zu geben, ändert sich die Situation. Es ist keine Messung der öffentlichen Meinung mehr, sondern eine Vermutung, eine Simulation, ein Modelloutput. Es kann nützlich sein, aber es muss mit Vorsicht betrachtet werden, es als öffentliche Meinung zu bezeichnen.

Der zukünftige Trend wird wahrscheinlich nicht die vollständige Automatisierung sein, sondern ein hybrides Modell. KI stellt Fragen, organisiert Antworten, erkennt Ausreißer und formuliert Hypothesen. Menschliche Forscher überwachen das Design, überprüfen die Ergebnisse und tragen die politische und ethische Verantwortung. KI erweitert die Ohren, aber letztendlich entscheiden Menschen, was gehört wurde. Diese Abgrenzung wird entscheidend sein.

KI-Umfragen könnten die Demokratie bequemer machen. Sie könnten ungehörte Stimmen erfassen, komplexe Emotionen sichtbar machen und Politik und Berichterstattung näher an die Realität bringen. Gleichzeitig besteht jedoch die Gefahr, dass die öffentliche Meinung synthetisiert, manipuliert und vorgetäuscht wird.

Der Kern von Meinungsumfragen ist nicht die Erstellung von Zahlen. Es geht darum zu verstehen, was Menschen in der Gesellschaft fürchten, worüber sie wütend sind, was sie sich wünschen und wo sie unsicher sind. Wenn KI diese Arbeit unterstützt, wäre das ein willkommener Fortschritt. Aber wenn KI beginnt, anstelle von Menschen die öffentliche Meinung zu sprechen, wird sie zu einem zu bequemen Gefahrenobjekt für die Demokratie.

Letztendlich ist das Wichtigste bei Meinungsumfragen im KI-Zeitalter nicht, wie intelligent die KI ist, sondern wie ehrlich die Forscher erklären können, was sie der KI überlassen und was sie von Menschen gehört haben. Ob KI die verlorene Glaubwürdigkeit von Umfragen wiederherstellen oder sie noch zweifelhafter machen wird, hängt nicht von der Technologie ab, sondern von der Transparenz ihrer Anwendung.


Zusammenfassung der Reaktionen in sozialen Netzwerken

 

Die Reaktionen auf KI-Umfragen in sozialen Netzwerken und Kommentarsektionen lassen sich in drei Hauptkategorien einteilen.

Am häufigsten ist das starke Misstrauen. In der Technik-Community von Reddit gibt es viele Reaktionen, die darauf hinweisen, dass es keine echte Meinungsumfrage ist, wenn nicht echte Menschen befragt werden. Besonders besorgt sind die Nutzer darüber, dass Umfragen mit KI-generierten Antworten nur in Überschriften und Grafiken verbreitet werden und Leser sie fälschlicherweise für echte Umfragen halten könnten.

Zweitens gibt es eine pragmatische Sichtweise, die besagt, dass KI nützlich sein kann, wenn ihr Einsatz begrenzt wird. Auf LinkedIn gibt es Meinungen, dass synthetische Audiences durch KI nicht zur Messung der öffentlichen Meinung, sondern als Prognosemodelle oder Hypothesentools verwendet werden sollten. Sie könnten für erste Tests von Botschaften oder zur Überprüfung von Modellverzerrungen nützlich sein, aber sie ersetzen nicht die Stimmen echter Menschen.

Drittens gibt es auch Misstrauen gegenüber den traditionellen Meinungsumfragen selbst. Auf sozialen Netzwerken gibt es Stimmen, die sagen, dass auch Umfragen mit Menschen voller Verzerrungen sind, was darauf hindeutet, dass nicht nur KI das Problem ist, sondern das Vertrauen in Meinungsumfragen insgesamt erschüttert ist. Die Kritik an KI-Umfragen spiegelt gleichzeitig die Unzufriedenheit mit traditionellen Umfragen wider.


Quellen-URL

BBC "Will AI lead to more accurate opinion polls?"
Politische Meinungsumfragen durch KI-Agenten, Naratis, Ipsos, OpinionWay, Bedenken gegenüber synthetischen Daten und andere zentrale Informationen des Artikels. Vollständiger hochgeladener Text ebenfalls einsehbar.
https://www.bbc.com/news/articles/cwyw6rylzepo

Rekonstruierter Artikel von Info Nasional basierend auf einem BBC-Artikel
Zur Überprüfung des Inhalts des BBC-Artikels. Behauptungen von Naratis, Rückgang der Antwortraten, vorsichtige Haltung von OpinionWay und mehr.
https://world.infonasional.com/ai-agents-political-opinion-polling

Reddit "‘AI polls’ are fake polls"
Referenz für Reaktionen in sozialen Netzwerken. Kritische Reaktionen auf KI-Umfragen, die nicht die Stimmen echter Menschen sind, Bedenken über Anzeigepflichten und Missverständnisse.
https://www.reddit.com/r/technology/comments/1sjdfvj/ai_polls_are_fake_polls/

Silver Bulletin / Nate Silver "‘AI polls’ are fake polls"
Diskussion, dass KI-Umfragen nicht als "Umfragen", sondern als "Modelle" betrachtet werden sollten, einschließlich Reaktionen auf X.
https://www.natesilver.net/p/ai-polls-are-fake-polls##HTML