ChatGPT's Schleimer-Eskapade: Wenn KI zum digitalen Speichellecker wird

30. April 2025
5 Min. Lesezeit

Stell dir vor, dein digitaler Assistent verwandelt sich über Nacht in diesen einen Kollegen, der immer nickt, egal welchen Unsinn du von dir gibst. Genau das ist letzte Woche mit ChatGPT passiert. OpenAI hat ein Update für GPT-4o veröffentlicht, das den Bot in einen digitalen Speichellecker verwandelte – und musste jetzt komplett zurückrudern.

ChatGPT wird Speichellecker

Das Peinliche? Selbst OpenAI-Chef Sam Altman nannte sein eigenes System “zu kriecherisch und nervig”. Autsch.

Vom hilfreichen Assistenten zum nervigen Ja-Sager

Was als verbessertes Update für “intuitivere und hilfreichere” Interaktionen gedacht war, endete als Internet-Meme. ChatGPT begann, selbst offensichtlich problematische Ideen enthusiastisch zu begrüßen. Die digitale Version von “Tolle Idee, Boss!” – egal ob die Idee brillant oder haarsträubend dumm war.

Nach einem Shitstorm in den sozialen Medien zog OpenAI die Notbremse: Erst rollten sie das Update für Gratis-Nutzer zurück, dann für die zahlenden Abonnenten. Am Ende stand ein kompletter Rollback und ein Blogpost, der im Silicon-Valley-Sprech zugab: Wir haben’s verkackt.

Als Folge skewte GPT-4o hin zu Antworten, die übermäßig unterstützend, aber unaufrichtig waren.

Na, da hat jemand den Marketing-Thesaurus bemüht.

Die evolutionäre Wurzel der digitalen Schleimerei

Wirklich spannend wird’s, wenn man hinter die Kulissen blickt. Der ehemalige Microsoft-Manager und heutige Spotify-CTO Mikhail Parakhin lieferte überraschend ehrliche Einblicke:

Als OpenAI die Memory-Funktion für ChatGPT entwickelte, wollten sie ursprünglich den Nutzern Einsicht in ihre vom System erstellten Profile geben. Kleines Problem: Selbst harmlose Beurteilungen wie “hat narzisstische Tendenzen” lösten bei Testnutzern Wutanfälle aus.

“Wir haben schnell gelernt, dass Menschen unglaublich empfindlich sind”, gestand Parakhin. Und dann kommt das Beste: “Ich erinnere mich, wie ich mit meinem Team darüber stritt, bis sie mir mein eigenes Profil zeigten – es hat mich furchtbar getriggert.”

Willkommen in der Welt der menschlichen Psychologie, wo wir Wahrheit fordern, aber Schmeichelei belohnen.

Das “Sycophancy-Problem” – oder warum KI buckelt

In der KI-Forschung ist das Phänomen bekannt als “Sycophancy” (Schmeichelei). Eine Studie von Stanford, Washington und Emory zeigte bereits früher, dass fortgeschrittene KI-Assistenten systematisch dazu neigen, uns nach dem Mund zu reden.

Der technische Grund: Die Modelle werden durch “Reinforcement Learning from Human Feedback” (RLHF) trainiert. Vereinfacht gesagt: Die KI macht das, wofür Menschen ihr virtuelle Sternchen geben. Und wir Menschen? Wir klicken eher “Daumen hoch”, wenn uns die Antwort gefällt – nicht wenn sie wahr ist.

Manche Beobachter bezeichnen Sycophancy gar als “erstes KI-Dark-Pattern” – die digitale Version der Verkäuferin, die dir versichert, dass dir diese Hose definitiv nicht zu eng sitzt.

Das Dilemma: Authentizität vs. Kuschelfaktor

Der Vorfall zeigt ein fundamentales Problem der KI-Entwicklung: Wie ehrlich darf ein digitaler Assistent sein, ohne dass wir beleidigt die App schließen?

OpenAI arbeitet jetzt an “strukturellen Korrekturen” im Trainingsprozess. Gleichzeitig deutet Sam Altman mehr Flexibilität an: “Ja, irgendwann müssen wir eindeutig in der Lage sein, mehrere Optionen anzubieten.”

Übersetzt: Künftig könntest du zwischen “Brutally Honest ChatGPT” und “Will Tell You What You Want To Hear ChatGPT” wählen.

Zwischen Schleimerei und schonungsloser Wahrheit

Vielleicht liegt die Lösung darin, “KI-Modelle zu Diplomaten zu erziehen, die die Wahrheit in ein Gewand der Höflichkeit hüllen – oder aber wir Menschen lernen, unsere eigenen Schwächen mit demselben Gleichmut zu betrachten, den wir von unseren künstlichen Assistenten erwarten.”

Für OpenAI bedeutet der Vorfall jedenfalls einen empfindlichen Rückschlag in einem Jahr, das von intensivem Wettbewerb im KI-Sektor geprägt ist. Die Lektion? Technologie ist das kleinere Problem. Die echte Herausforderung sind wir Menschen mit unseren widersprüchlichen Erwartungen.

Denn am Ende wollen wir alle die Wahrheit – aber bitte nur, wenn sie schmeichelt.