„Für Sie teuer, für den Nachbarn günstig“ – Sind Preisalgorithmen wirklich „böse“? – Die Ökonomie der Unterscheidung zwischen „guten Daten“ und „schlechten Daten“

„Für Sie teuer, für den Nachbarn günstig“ – Sind Preisalgorithmen wirklich „böse“? – Die Ökonomie der Unterscheidung zwischen „guten Daten“ und „schlechten Daten“

„Teurer als gestern“ – solche Erfahrungen könnten in der heutigen Zeit nicht nur Einbildung, sondern „konstruiert“ sein. Online-Handel, Fahrdienste, Reisen, Abonnements. Wir glauben, dass wir das gleiche Produkt oder die gleiche Dienstleistung kaufen, aber möglicherweise sehen wir nicht den „gleichen Preis“. Unternehmen nutzen Standortdaten, Browserverläufe, Geräteinformationen, frühere Käufe, Verweildauer und andere Hinweise, um abzuschätzen, wie viel wir bereit sind zu zahlen (Zahlungsbereitschaft), und passen die Preise entsprechend an. Dies wird als „Preisdiskriminierung“ oder „personalisierte Preisgestaltung“ bezeichnet.


Diese Praxis wirkt auf den ersten Blick beunruhigend. Diejenigen, die die Informationen besitzen, durchschauen unsere finanzielle Situation und unser Kaufinteresse und versuchen, den Preis so hoch wie möglich anzusetzen – so könnte man sich das vorstellen. Tatsächlich gibt es viele Fälle, in denen dies aus Sicht des Verbraucherschutzes und des fairen Handels problematisch ist. In der Wirtschaftswissenschaft gibt es jedoch seit langem die Diskussion, dass Preisdiskriminierung nicht immer schlecht sein muss. Durch Preissenkungen können neue Käufergruppen erschlossen werden, was letztendlich das Angebot erweitern oder die Aufrechterhaltung von Dienstleistungen ermöglichen kann.


In der heutigen Zeit, in der Daten und Algorithmen die Grundlage bilden, stellt sich die Frage, ob Preisdiskriminierung letztendlich der Gesellschaft nützt oder schadet. Diese Frage wird im NBER-Arbeitspapier „Good Data and Bad Data: The Welfare Effects of Price Discrimination“ untersucht. Der Artikel, der am 4. März 2026 auf Phys.org veröffentlicht wurde, stellt die Kernpunkte der Forschung vor und verbindet sie mit der praktischen Frage, wie Regulierungsbehörden die „komplexe algorithmische Preisgestaltung“ überwachen können.



„Auch mit Big Data kann man nicht alles vorhersagen“ als Prämisse

Ein wichtiger Ausgangspunkt dieser Forschung ist die Erkenntnis, dass Unternehmen, selbst wenn sie über große Datenmengen verfügen, nicht in der Lage sind, die Zahlungsbereitschaft einzelner Verbraucher vollständig vorherzusagen. Daten sind nicht allmächtig und es bleibt immer eine „Restunsicherheit“. Daher erstellen Unternehmen eher „Segmente“ von Personen mit ähnlichen Merkmalen und legen für jedes Segment einen optimalen Preis fest, anstatt individuelle Preise zu bestimmen.


Anders ausgedrückt, das Problem liegt nicht in der „vollständigen individuellen Preisgestaltung“, sondern darin, „wie sich Preise und Wohlfahrt (der gesellschaftliche Nutzen) ändern, wenn sich die Marktsegmentierung durch Informationen verändert“. Die Zusammenfassung des NBER beschreibt, dass die Nutzung von Daten die Wohlfahrt in einigen Fällen erhöhen, in anderen senken oder unbestimmt lassen kann, basierend auf „Marktsegmentierung“ und „Restunsicherheit“.



Drei Wege, die die Wohlfahrt beeinflussen: Warum die Intuition täuscht

Phys.org (und ein Artikel der CMU Tepper School mit ähnlichem Inhalt) stellt drei Wege vor, wie Informationen die Verbraucherwohlfahrt beeinflussen können.
Hier liegt der Grund, warum diese Forschung die einfache Dichotomie „Preisdiskriminierung = schlecht“ und „Preisdiskriminierung = effizient“ vermeidet.

① Preisschwankungen innerhalb eines Typs (within-type price change)

Selbst innerhalb desselben Typs (Menschen mit ähnlicher Nachfrage) können sich die Preise mit zunehmenden Informationen „streuen“. Für einige Menschen wird es billiger, für andere teurer. Die Unheimlichkeit personalisierter Preise rührt zunächst von diesem Effekt her.


Wenn man jedoch die Gesellschaft insgesamt betrachtet, kann es sein, dass das Handelsvolumen steigt und der Gesamtnutzen zunimmt, wenn mehr Menschen niedrigere Preise zahlen. Umgekehrt kann der Konsumentenüberschuss schrumpfen, wenn die Preiserhöhungen überwiegen.


② Asymmetrische Preissenkungen zwischen Typen (cross-types price change)

Mit zunehmenden Informationen kann es vorkommen, dass Preissenkungen „auf bestimmte Gruppen konzentriert“ auftreten. Zum Beispiel könnten große Preissenkungen für preissensible Gruppen (hohe Preiselastizität) vorgenommen werden, um die Menge zu steigern, während für weniger preissensible Gruppen die Preise erhöht werden.


In diesem Fall hängt der gesellschaftliche Nutzen davon ab, „wie viele Preissenkungen für wen zunehmen“.


③ Die Größenordnung von Preissenkungen und -erhöhungen stimmt nicht überein (price curvature)

Intuitiv könnte man denken: „Es gibt Menschen, deren Preise steigen, und solche, deren Preise sinken, also gleicht sich das aus, oder?“ Aber die Realität ist nicht so einfach. Die Breite der Preiserhöhungen und -senkungen ist nicht unbedingt gleich, und die Auswirkungen der gleichen Informationsmenge können sich je nach Krümmung der Nachfrage- oder Ertragskurve unterscheiden.


Die Forschung zeigt, dass gerade dieses „Krümmungselement“ die Schlussfolgerungen erschwert und gleichzeitig darauf hinweist, dass „quantitative Maßstäbe notwendig sind“.



„Daten sind nicht immer gut/schlecht“ – der Schlüssel liegt in der „Nachfrageform“

Die NBER-Seite fasst zusammen, dass es Bedingungen gibt, unter denen die Nutzung von Daten die Wohlfahrt „monoton erhöht (monotonically good)“, „monoton verringert (monotonically bad)“ oder in „nicht-monotonen“ Fällen beeinflusst. In nicht-monotonen Fällen werden enge obere und untere Grenzen für die Wohlfahrtsauswirkungen gesetzt, und es wird diskutiert, in welche Richtung zusätzliche Informationen am besten gegeben werden sollten (best local direction).


Interessant ist, dass gezeigt wird, dass es Marktbedingungen gibt, bei denen allein die „Tatsache, dass Unternehmen Daten sammeln“, über gut oder schlecht entscheidet (wie im Phys.org-Artikel zitiert). Das bedeutet, dass es in einigen Fällen möglich ist, „gefährliche Märkte“ basierend auf der Nachfrage zu identifizieren, ohne sich mit der Frage „welche Daten“ zu befassen.



Regulierungsdiskussion wird realer: „Grenzziehung wie bei Fusionsprüfungen“ für Preisalgorithmen

Die politische Diskussion über den Einsatz von Daten neigt oft zu Extremen.

„Vollständige Regulierung wegen Datenschutzverletzungen“ oder „Freie Hand lassen, um Innovationen nicht zu behindern“.


In der Realität kämpfen die Regulierungsbehörden jedoch mit einem Mittelweg. Denn Algorithmen sind komplex und von außen schwer zu durchschauen. Außerdem sehen Unternehmen dies als „Preisoptimierung“, während Verbraucher es als „Ausbeutung“ empfinden, was zu unterschiedlichen Werturteilen führt. Der Phys.org-Artikel betont, dass die Forschung versucht, diesen Konflikt nicht durch „theoretische Siege“ zu lösen, sondern durch ein „quantitatives Rahmenwerk mit Schwellenwerten“ zu überbrücken. Ähnlich wie bei den Leitlinien für Fusionsprüfungen wird der potenzielle Schaden und Nutzen abgewogen, und riskante Methoden werden streng geprüft oder verboten, während solche mit großem Nutzen und geringem Schaden erlaubt werden.


Dieser „Grenzziehungsansatz“ ist auch als Technologiepolitik wichtig. Ein vollständiges Verbot ist zwar einfach zu verstehen, kann aber Umgehungen und Schlupflöcher schaffen. Andererseits kann man bei völliger Freiheit erst nach Auftreten von Schäden reagieren. Mit einer quantitativen „Warnlinie“ könnten Unternehmen bereits in der Planungsphase Risiken minimieren, und die Behörden könnten ihre Überwachung gezielt einsetzen.



Beispiele zur Veranschaulichung: Unterschiedliche Ergebnisse bei derselben „Diskriminierung“

Hier sind einige typische Szenarien, die auf der Grundlage der Forschung erklärt werden, um die Intuition der Verbraucher anzusprechen (dies sind keine spezifischen Beispiele für einzelne Unternehmen).


Szenario A: Preissenkungen erreichen „nicht kaufende Gruppen“

Ähnlich wie bei Studentenrabatten werden Gruppen mit geringer Zahlungsfähigkeit günstigere Angebote gemacht, was das Handelsvolumen erhöht. Der Gesamtnutzen steigt tendenziell und wird gesellschaftlich eher positiv bewertet. Wenn Daten zur „Erweiterung des Zugangs“ genutzt werden, ist dies auch aus regulatorischer Sicht eher akzeptabel.


Szenario B: Höhere Preise für weniger abwanderungsgefährdete Personen

Personen, die einen hohen Bedarf haben, wenige Alternativen haben oder bei denen die Kündigung umständlich ist, werden mit höheren Preisen konfrontiert, was zu starkem Verbraucherunmut führen kann. Auch aus wohlfahrtsökonomischer Sicht kann dies negativ sein, wenn die Verluste der Preiserhöhung überwiegen. Dies ist ein Bereich, in dem die Behörden besonders wachsam sein müssen.


Szenario C: Größere Preiserhöhungen und kleinere Preissenkungen

Oberflächlich betrachtet gibt es „Menschen, deren Preise steigen, und solche, deren Preise sinken“, aber durch den Krümmungseffekt kann es insgesamt zu Verlusten kommen. Gerade hier treten „schwer erkennbare Verluste“ auf, weshalb quantitative Bewertungen wichtig sind.



Reaktionen in sozialen Medien: Wenig Verbreitung, aber starke Themen

Der Phys.org-Artikel selbst zeigt auf der öffentlichen Seite eine „0“ bei der Anzahl der Shares, was darauf hindeutet, dass er nicht viel Aufmerksamkeit erregt hat.

 
Allerdings ist das Thema an sich (Preisdiskriminierung durch persönliche Daten) ein „Zündstoff“, der in sozialen Medien immer wieder aufflammt.


Tatsächlich spaltet sich die Diskussion in sozialen Medien (nicht spezifisch für diesen Artikel, sondern bei ähnlichen Themen) in der Regel in die folgenden drei Muster.

  1. „Ist das nicht Ausbeutung?“ Gruppe
    Die intuitive Ablehnung, dass personalisierte Preise benachteiligte Positionen noch weiter benachteiligen. Wenn das Thema mit unterschiedlichen Preisen je nach Gerät oder Region verbunden wird, verstärkt sich die Wut oft.

  2. „Wenn es mehr Rabatte gibt, ist es ein Vorteil“ Gruppe
    Die Ansicht, dass es als Erweiterung von Gutscheinen oder dynamischen Preisen gesehen wird, und die Haltung „Man muss es nicht kaufen“ oder „Man kann vergleichen“. Der Nutzen von Preissenkungen wird betont.

  3. „Das Problem ist die fehlende Transparenz“ Gruppe
    Die Besorgnis über die Blackbox-Natur der Preisgestaltung und das Fehlen von Rechenschaftspflicht. Hier können sich die Meinungen über Pro und Contra hinweg vereinen und es wird oft nach „zumindest Benachrichtigung“ oder „zumindest Prüfung“ verlangt.


Interessant an dieser Forschung ist, dass sie diese „emotional gespaltenen Themen“ direkt anerkennt, dass sie „je nach Situation gut oder schlecht sein können“, und Werkzeuge (Schätzung von Schaden und Nutzen, Festlegung von Gefahrenlinien) bietet, um die Diskussion voranzutreiben.

 
In den sozialen Medien könnte man sagen, dass die Diskussion nicht auf „völlige Ablehnung“ oder „völlige Unterstützung“ hinausläuft, sondern auf „Ab wann ist es problematisch?“ verlagert wird.



Im japanischen Kontext: Der Fokus liegt mehr auf „Anwendung“ als auf „Regulierung“

Auch in Japan werden dynamische Preisgestaltung und Empfehlungsoptimierung schnell alltäglich. Hier ist es wichtiger, sich auf das Design der Anwendung zu konzentrieren, als auf die bloße Zustimmung oder Ablehnung als Prinzip.

  • Unternehmensseite: Wenn Algorithmen nur zur Maximierung kurzfristiger Gewinne eingesetzt werden, könnten langfristige Verluste durch Skandale oder verstärkte Regulierung entstehen. Daher sind Schutzmaßnahmen erforderlich, die sicherstellen, dass Verbraucher nicht einseitig benachteiligt werden.

  • Behördenseite: Es ist unmöglich, alle Algorithmen manuell zu prüfen. Daher ist es sinnvoll, sich auf risikoreiche Bereiche (lebensnotwendige Güter, Märkte mit wenigen Alternativen, Märkte mit hohen Kündigungskosten usw.) zu konzentrieren und die Überwachung mit Schwellenwerten zu fokussieren.


Letztendlich entsteht das Misstrauen der Gesellschaft gegenüber Datenpreisdiskriminierung nicht nur aus der Frage „Schaden oder Nutzen“, sondern auch aus der Unsicherheit darüber, „auf welcher Seite man steht“. Das von der Forschung vorgeschlagene „Messrahmenwerk“ bietet zumindest eine gemeinsame Sprache für die Diskussion dieser Unsicherheit.


Die Zukunft der Preisgestaltung erfordert mehr als nur Intelligenz. Die Frage ist, ob diese Intelligenz zu „guten Daten“ oder „schlechten Daten“ für die Gesellschaft wird. Gefragt ist möglicherweise nicht das Design des Algorithmus selbst, sondern die Gestaltung der Regeln, die ihn zulassen.



Quellen