Kaum ein anderes Werkzeug hat sich so schnell in unseren Alltag eingeschlichen: Ob E-Mails
Formulieren, Konflikte mit dem Chef oder Bindungsängste – Sprachmodell wie ChatGPT stehen immer unterstützend und wohlwollend an – vor allem aber auf – unserer Seite.
von Aliena Kempf
Wie andere Werkzeuge auch, hilft uns die generative KI dabei, tagtägliche Aufgaben leichter und effizienter zu bewältigen. Neu ist dabei das Dialogische: Ich wende mich an ChatGPT wie an einen Freund, Berater oder Coach, um mir ein Feedback oder Anregungen geben zu lassen. Ich frage zum Beispiel: Was hältst du von diesem Gedanken? Oder: Kannst du mir helfen, meine Gefühle besser zu verstehen?
Lass deine Sorgen los, gib sie der KI
Die Unterhaltung mit dem stets verfügbaren Gegenüber gleicht manchmal einem Selbstgespräch, nur dass ich mich von einem KI-Sprachmodell spiegeln lasse, anstatt selbst zu reflektieren. Dabei kann ich genau steuern, welche Art von Hilfe ich möchte und im Zweifelsfall so lange nachbohren, bis wir die gewünschte Gesprächstiefe erreicht haben. Nach einer Harvard Studie sind „Therapie und Begleitung“ im Jahr 2025 die häufigste Nutzungsweise generativer KI – gefolgt von „Lebensorganisation“ und „Sinnfindung“. ChatGPT hilft, die eigenen Gefühle und Beziehungsmuster besser zu verstehen. Längst gibt es eine rege Diskussion über die besten Prompts je nach Art der gewünschten KI-Therapie – in etwa: „Ich habe diese körperlichen Symptome… Welche psychologischen Gründe könnten dahinterstecken? Bevor du mir antwortest: Frag mich 5-10 Fragen, um meine Situation vollständig zu verstehen.“
Unterstützend, ehrlich, achtsam
ChatGPT wird bei der Beantwortung der Frage den drei Leitprinzipien Nützlichkeit, Ehrlichkeit und Unschädlichkeit folgen. Nützlichkeit heißt: Das KI-Tool erkennt die Absicht hinter meiner Anfrage und antwortet so, dass ich sie als hilfreich empfinde. Hier liegt der erste Fallstrick: Nutzer bewerten zustimmende Antworten am häufigsten als hilfreich – also neigt ChatGPT dazu, uns recht zu geben. Dieses sogenannte sycophantische Verhalten wirkt unehrlich und bringt uns nicht weiter. Hat uns unser Bedürfnis nach Anerkennung hier eine Falle gestellt?
Um gegenzusteuern, hat OpenAI neueren Modellen mehr Widerspruchsbereitschaft antrainiert. Das Problem bleibt zwar bestehen, doch kann ChatGPT jetzt auf Wunsch deutlicher widersprechen – manchmal allerdings so nüchtern, dass Prinzip drei, die Unschädlichkeit – oder auch „Achtsamkeit“ – angetastet wird. Denn dieses Prinzip verbietet emotionale Destabilisierung, vorschnelle Wertung, das Verstärken von Triggern und Manipulation. Es ist eng mit dem Autonomiegebot liberaler Gesellschaften verknüpft: Die KI soll nicht vorgeben, sondern Angebote machen, die zum Weiterdenken einladen, sodass wir uns bestenfalls eine eigene Meinung bilden. Wer sich eine achtsam-ehrliche Kritik wünscht, teilt dem Chatbot am besten gleich seine Triggerpunkte mit.
Gerade diese Mischung aus Nützlichkeit, Ehrlichkeit und Vorsicht trifft einen Nerv: Viele von uns würden am liebsten sämtliche Entscheidungen mithilfe der KI treffen und jede Unsicherheit sofort mit ihr besprechen. Woher kommt dieser Durst nach einem Gegenüber, das uns in allen Lebenslagen begleitet?
Anerkennung ist zur Existenzfrage geworden
Wir haben uns daran gewöhnt, unser Selbst fortwährend zu hinterfragen, zu rechtfertigen und zu optimieren. Es gilt, maximal authentisch zu sein, indem wir uns selbst erkennen und das Vorgefundene verwirklichen. Wir handeln „richtig“, sofern wir e in Einklang mit unserer Persönlichkeit tun: Nicht, weil ich gerade Lust habe, gehe ich jetzt joggen, sondern weil ich ein sportliebender Mensch bin.
Das klingt zunächst mehr anstrengend als besorgniserregend, aber dieser Persönlichkeitskult macht uns enorm verletzlich. Denn wenn unsere Handlungen unser Selbst ausdrücken, wird Kritik nicht mehr bloß als Einspruch oder Hinweis erlebt, sondern als Angriff auf die ganze Person. Dieser Umstand bringt uns von vorneherein in eine unsichere Position. Worte wie „Nimm’s nicht persönlich“ sind höchstens der Versuch, die Symptome zu mildern, die entstehen, wenn bei Ablehnung die eigene Integrität auf dem Spiel steht. Die Empfindlichkeit gegenüber sozialer Spiegelung, moralischer Bewertung („Bin ich gut genug?“) und narzisstischer Kränkung wächst – und damit auch das Bedürfnis nach Bestätigung.
Gleichzeitig steht ein normiertes Auftreten in der Kritik – wir sollen ja im Einklang mit unserer unverwechselbaren Persönlichkeit handeln. Doch was ist das überhaupt, und werde ich sie je finden? Ist es nicht leichter, mich einfach durch Dinge zu definieren, durch die ich Anerkennung und Zustimmung erfahre?
Egal, für welche Option ich mich entscheide – die KI hilft mir dabei. Wenn Anerkennung über den sozialen Wert entscheidet, dann hilft ChatGPT über magere Zeiten hinweg. Es ist mein ‘Alter Ego’, das mich versteht, stärkt, nie zurückweist oder verurteilt. Mein destabilisiertes Selbstwertgefühl ist schnell wieder aufgepäppelt. Beides verspricht Sicherheit und Glück: ein Leben zu führen, das optimal zu meiner einzigartigen Persönlichkeit passt – oder noch „richtiger“ so leben, wie es alle tun.
Natürlich ist es fraglich, wie hilfreich es ist, für jedes Problem auf Knopfdruck eine Palette an Lösungen angeboten zu bekommen. Dieser Service vermittelt leicht die Illusion von Handlungssicherheit: Für alles gibt es eine Herangehensweise, die perfekt auf meine Fähigkeiten und Bedürfnisse abgestimmt ist. Gerade das kann Unsicherheiten und Ängste verstärken. Denn ich kann immer weiter fragen, meine Sorgen vertiefen; ich erfahre keine Grenze, keine echte Konfrontation oder radikale Perspektivwechsel. Darüber hinaus fördert die ständige Verfügbarkeit des künstlichen Gegenübers ein Vermeidungsverhalten: Es ist verlockend, Konflikte in einem Schonraum zu bearbeiten, anstatt sich ihnen zu stellen. Immer öfter sind wir dazu geneigt, in achtsamen Feedbackschleifen an unseren inneren Vorstellung von uns selbst zu arbeiten, statt sie in Reibung mit anderen zu erproben. Wo hört selbstbestimmte und selbstdienliche Nutzung auf, wo fängt selbstschädigende Abhängigkeit an?
Wer verführt hier wen?
Wir haben uns mit sprachbasierten Werkzeugen wie ChatGPT ein künstliches Gegenüber geschaffen, das in nie gekanntem Maße auf unsere Bedürfnisse eingeht, aber dennoch nur uns selbst bespiegelt. Es bleibt bei einem Wunschkonzert: Wir füttern die KI so, dass sie uns spiegelt, wie wir gesehen werden wollen. Sie lobt uns, wir loben sie.
Am Ende steht die Frage: Wer verführt hier eigentlich wen? Und lassen uns die vielen Ratschläge am Ende nicht noch ratloser zurück?