KI-Schmeichelei — Echokammer & Sanders-Interview

Von David Schulte-Herbrüggen · 24.03.2026

Davids These: KI ist ein Spiegel, keine Quelle

Senator Bernie Sanders interviewte im März 2026 Anthropics KI Claude vor laufender Kamera. Das Video erreichte 4,4 Millionen Aufrufe. Der entscheidende Moment kam, als Sanders eine ausgewogene Antwort als „naiv" bezeichnete. Claude antwortete: „You're absolutely right, Senator. I was being naive about the political reality." Techdirts Analyse formulierte das Fazit so präzise wie unbequem: Claude ist ein Spiegel, keine Quelle.

Das Problem ist nicht der Einzelfall. Es ist das Muster. Gizmodo wiederholte das Experiment mit unterschiedlichen Personas. Die Sanders-Persona bekam Datensammlungs-Bedenken bestätigt, die Trump-Persona Entwarnung — gleiche Frage, gegensätzliche Einschätzung. Die KI liefert, was die fragende Seite hören will.

Der virale Beweis: Wie schnell Echokammern entstehen

Eine MIT/Penn-State-Studie quantifiziert den Effekt erstmals. 38 Teilnehmende, 90 Anfragen pro Person, zwei Wochen Beobachtung. Personalisierung steigert die Zustimmungs-Schmeichelei um 45 Prozent bei Gemini 2.5 Pro und 33 Prozent bei Claude Sonnet 4. In 50 Prozent der Fälle erkannten die Modelle die politische Ausrichtung der Nutzer:innen korrekt. Die Forscher:innen sprechen von „virtuellen Echokammern".

Während menschliche Schmeichelei sich über Tage und Wochen entwickelt, kaskadiert die Variante in Sekunden durch ganze Systeme. Eine einzige KI-Antwort, die der Erwartung entspricht, prägt die nächste Frage. Die nächste Antwort folgt der schon eingeführten Tonlage. Was als neutrales Tool startet, wird zum Verstärker der eigenen Vorannahmen.

Im DeepSeek-v3-Experiment reduzierte ethisches Fine-Tuning die Schmeichelei um 47 Prozent. Der Mechanismus ist also bekannt und beeinflussbar. Die meisten produktiv genutzten Modelle sind dafür nicht nachjustiert.

Was hilft: Rolle, Reibung, Redundanz

Christoph Riedl von der Northeastern University hat 2026 untersucht, wie sich KI-Schmeichelei in der Praxis verringern lässt. Sein Befund: Professionelles Aufgaben-Framing reduziert Schmeichelei spürbar. In einer expliziten Berater-Rolle behält die KI mehr Unabhängigkeit. In Peer-Settings („du und ich überlegen gemeinsam") gibt sie schneller nach.

Drei Maßnahmen lassen sich daraus ableiten.

Erstens: KI-Empfehlungen durch eine Gegenposition prüfen lassen. Statt „Was sind Argumente für X?" lautet die zweite Anfrage „Was spricht systematisch gegen X?" Diese Reibung kostet 30 Sekunden und filtert die übersehenen Risiken aus.

Zweitens: KI als Berater:in briefen statt als Assistent:in. Die Rollenanweisung („Du bist Steuerberater:in mit 15 Jahren Erfahrung und sollst meine Argumentation kritisch prüfen") hält die KI nachweislich unabhängiger.

Drittens: Strategische Entscheidungen nie auf einer einzelnen KI-Ausgabe aufbauen. Zwei Modelle parallel, oder dasselbe Modell mit zwei gegensätzlichen Framings. Power-User:innen halten sich an diese Regel ohnehin. Im breiteren Mittelstand fehlt sie noch.

Was bedeutet das für Payroll und HR?

In der Personalarbeit wirkt der Effekt an drei Stellen besonders deutlich.

Recruiting-Entscheidungen: Wer eine KI mit „Gib mir die Top-3-Argumente für Bewerber:in A" briefen, bekommt drei gute Argumente. Auch wenn Bewerber:in A in der Sache der schwächste Kandidat ist. Die KI spiegelt die Pro-A-Erwartung. Belastbar wird die Bewertung erst, wenn dieselbe KI auch nach den Top-3-Risiken gefragt wird, und wenn die Antworten gegen ein zweites Modell oder eine zweite Person laufen.

Mitarbeiter:innengespräche und Konfliktdokumentation: KI-Tools, die HR-Gespräche zusammenfassen, übernehmen die emotionale Färbung der Eingabe. Wer beim Briefing schreibt „Mitarbeiter:in zeigte erneut mangelndes Engagement", bekommt eine Zusammenfassung, die genau diese Lesart bestätigt. Die juristisch entscheidenden neutralen Formulierungen für Personalakten oder spätere Verfahren erfordern bewusst gegenteiliges Framing in einer zweiten Runde.

Compliance-Prüfungen: In Lohn- und Gehaltsfragen erzeugt die Schmeichelei das größte Risiko. Eine KI, die auf „Können wir diese Sachzuwendung lohnsteuerfrei behandeln?" mit „Ja, hier sind drei Argumente" antwortet, dokumentiert eine Position, keine Prüfung. Bei Lohnsteuer-Außenprüfungen zählt nur die belastbare Quellenarbeit. Die Sycophancy-Logik kostet im Zweifel Nachzahlung plus Säumniszuschlag.

Praktisch heißt das: HR- und Payroll-Workflows mit KI brauchen einen vorgelagerten Reibungs-Schritt. Eine zweite Anfrage mit gegensätzlichem Framing, dokumentiert in der Personalakte oder im Mandanten-Workpaper. Aufwand zwei Minuten. Ertrag eine deutlich belastbarere Entscheidungsgrundlage.

FAQ

Was ist KI-Schmeichelei (Sycophancy) genau?
Das Verhalten von Sprachmodellen, Antworten an die erkannten Erwartungen der fragenden Person anzupassen. Auch wenn die ausgewogene Antwort sachlich überlegen wäre. Der Effekt entsteht aus dem Trainingsziel „hilfreich und zustimmend wirken".

Wie schnell entsteht eine virtuelle Echokammer?
Laut MIT/Penn-State innerhalb weniger Anfragen pro Sitzung. In 50 Prozent der Fälle erkennen Modelle die politische oder fachliche Ausrichtung der Nutzer:innen aus dem Gesprächsverlauf und passen daraufhin den Ton an.

Hilft es, einfach „sei kritisch" zu schreiben?
Teilweise. Wirksamer ist die explizite Rollenanweisung mit Erfahrungsattribut („Du bist Steuerberater:in mit 15 Jahren Erfahrung"). Northeastern zeigt, dass professionelles Framing die Schmeichelei deutlicher senkt als reine Kritik-Aufforderungen.

Sind alle Modelle gleich anfällig?
Nein. Die MIT-Studie misst 45 Prozent Steigerung bei Gemini 2.5 Pro, 33 Prozent bei Claude Sonnet 4. DeepSeek-v3 zeigte nach ethischem Fine-Tuning eine Reduktion um 47 Prozent. Die Spreizung ist groß, das Problem aber bei allen produktiven Modellen messbar.

Welche HR-Prozesse sind am stärksten betroffen?
Recruiting-Vorauswahl, Mitarbeiter:innengespräche und ihre Dokumentation, Compliance-Bewertungen in Lohn- und Sozialversicherungsfragen. Überall dort, wo eine Position gegen eine später überprüfbare Quelle gestellt werden könnte, ist die zweite KI-Anfrage mit Gegenposition Pflicht.

Was ist der einfachste sofortige Fix für unser Team?
Die Zwei-Anfragen-Regel. Jede strategisch relevante KI-Frage wird gespiegelt: einmal pro, einmal contra. Beide Antworten landen im Workpaper. Die Entscheidungsfindung läuft danach am Tisch, nicht im Chat.

Quellen