
„Der Markt zwingt uns dazu“ – diesen Satz haben wir jahrzehntelang gehört, wenn es darum ging, Verantwortung abzuwälzen. Jetzt klingt er fast identisch: „KI zwingt uns dazu.“ Nur dass wir „Markt“ durch „KI“ ersetzen. Im Dezember 2025 habe ich mit Nina Benoit auf The AI Sustainability Podcast über diese Parallele gesprochen – und darüber, warum wir dieselbe Ausrede nicht noch einmal akzeptieren sollten.
Meine Kernthesen:
- KI wiederholt ein gescheitertes Versprechen: Liberalisierte Märkte versprachen Freiheit, Gerechtigkeit, Wohlstand. Was wir bekamen: wirtschaftliches Wachstum, aber keine nachhaltige Entwicklung. KI tritt jetzt mit denselben Versprechen auf – und drängt Nachhaltigkeitsbedenken wieder in den Hintergrund.
- Automatisierung lädt zu blindem Vertrauen ein: Wir neigen dazu, algorithmische Entscheidungen als neutral, objektiv und effizient zu behandeln. Strukturell sind AI-Systeme aber konservativ: Sie konservieren bestehende Muster, statt sie zu hinterfragen.
- KI behebt keine Ungerechtigkeit – sie verlängert sie: Machine-Learning-Systeme lernen aus Daten, und Daten stammen aus der Vergangenheit. Wenn die Vergangenheit voreingenommen oder ungerecht war, schreibt AI diese Ungerechtigkeiten fort. Das als „Innovation“ zu verkaufen, ist irreführend.
- „Demokratisierung“ ist das falsche Wort: Wenn Tech-Konzerne von „democratizing AI“ sprechen, meinen sie: Wir wollen mehr Nutzer für unser Produkt. Das ist keine Demokratie, sondern Kundenakquise – gebaut auf der Grundlage generativer KI-Modelle, die auf gestohlener kreativer Arbeit basieren.
- Ein Reverse-Robin-Hood-Effekt: Von Künstlern und Autoren stehlen, um eine Handvoll Konzerne zu bereichern. Demokratie bedeutet Selbstgesetzgebung und Mitsprache. Das ist ziemlich genau das Gegenteil davon, wie generative AI derzeit gebaut und regiert wird.
- KI braucht Normalisierung, keinen Sonderstatus: KI sollte behandelt werden wie jedes andere mächtige Produkt: Transparenzpflicht, Sicherheitsstandards, Rechenschaftspflicht, Regulierung. Wir brauchen keine Sonderregeln für KI. Wenn eine Technologie grundlegende Sicherheits- und Transparenz standards nicht erfüllen kann, sollte sie nicht in großem Massstab eingesetzt werden. So einfach ist das.
Im Gespräch
Warum akzeptieren wir die Ausrede „AI zwingt uns dazu“, nachdem „der Markt zwingt uns dazu“ jahrzehntelang Verantwortung erodiert hat?
Auch auf: YouTube | Apple Podcasts