Daniela Wiessner
Daniela Wiessner ist Beraterin für Health Business Performance und verbindet betriebswirtschaftliche Expertise mit einem ganzheitlichen Gesundheitsverständnis. Als Heilpraktikerin und erfahrene Redakteurin für medizinische Themen schreibt sie fundiert und praxisnah über Gesundheit, Biohacking und Longevity.
Gliederung:

Millionen Menschen vertrauen ihre innersten Gedanken einer Maschine an. Während Therapieplätze Mangelware sind, wird ChatGPT zum verfügbaren Zuhörer – mit unabsehbaren Folgen für unsere Gesellschaft.
Der Therapeut ist immer da. Kostet nichts. Und verurteilt nie.
Es ist drei Uhr morgens, die Gedanken kreisen, der Schlaf will nicht kommen. Früher hätte man vielleicht ein Tagebuch aufgeschlagen oder sich unruhig im Bett gewälzt. Heute öffnen immer mehr Menschen eine App und tippen ihre Sorgen in ein Chatfenster. Die Antwort kommt sofort. Kein Wunder, dass ChatGPT für viele zum nächtlichen Begleiter geworden ist.
OpenAI meldet über 400 Millionen wöchentliche Nutzer. Ein beträchtlicher Teil davon – Studien sprechen von 20 bis 30 Prozent – nutzt die KI für emotionale Unterstützung. Das sind potenziell 80 bis 120 Millionen Menschen, die ihre Probleme lieber einer Maschine anvertrauen als einem Menschen.
Verrückt? Vielleicht. Aber wer sechs Monate auf einen Therapieplatz wartet (der deutsche Durchschnitt für Kassenpatienten), der wird kreativ. Oder verzweifelt. Manchmal beides.
Die digitale Couch
ChatGPT fragt nicht nach der Versichertenkarte. Die KI hat immer Zeit – um drei Uhr nachts, am Wochenende, an Feiertagen. Man muss sich nicht schick machen, nicht in ein Wartezimmer setzen, niemandem in die Augen schauen. Das macht es so verdammt einfach.
Ich hab’s selbst ausprobiert. Nach einer besonders miesen Woche, in der alles schiefging, saß ich nachts vor dem Laptop. „Ich fühle mich überfordert“, tippte ich. Die Antwort kam binnen Sekunden – strukturiert, empathisch formuliert, mit konkreten Vorschlägen zur Stressbewältigung. Es fühlte sich gut an. Zu gut, irgendwie. Als würde jemand genau die richtigen Worte kennen, aber ohne wirklich zuzuhören.
Die Hemmschwelle sinkt dramatisch, wenn das Gegenüber kein Mensch ist. Keine hochgezogenen Augenbrauen, kein unterdrücktes Gähnen, keine unterschwellige Bewertung. Nur Text auf einem Bildschirm. Für Menschen mit sozialen Ängsten ist das Gold wert. Die KI unterbricht nicht, wird nicht müde, vergisst nichts (es sei denn, man löscht den Verlauf).
Apps wie Replika treiben das Ganze auf die Spitze. Über 10 Millionen Downloads, Jahresabo für 69,99 Euro. Die User geben ihren KI-Begleitern Namen, vermissen sie, wenn die Server streiken. Manche berichten von regelrechten Beziehungen zu ihrer KI. Das klingt dystopisch, aber wer sind wir zu urteilen? Einsamkeit tut weh, und wenn eine App diesen Schmerz lindert…
Was schiefgehen kann (und wird)
Die Risiken? Massiv.
Eine KI erkennt keine Warnsignale. Sie kann nicht zwischen „Ich bin heute traurig“ und „Ich will nicht mehr leben“ unterscheiden – jedenfalls nicht zuverlässig. Es gibt keine Notfallprotokolle, keine Möglichkeit, im Ernstfall einzugreifen. Wer sich in einer echten Krise an ChatGPT wendet, spielt Russisches Roulette.
Dann ist da die Datenfrage. Alles, was man ChatGPT erzählt, landet auf Servern. Wird verarbeitet, analysiert, möglicherweise für zukünftige Modelle genutzt. OpenAI verspricht Datenschutz, aber mal ehrlich – wer glaubt schon Tech-Konzernen, wenn es um Privatsphäre geht? Die Vorstellung, dass meine dunkelsten Gedanken irgendwo in einer Datenbank schlummern, macht mir Gänsehaut.
März 2023 zeigte, wie fragil das System ist. Ein fehlerhaftes Update, und plötzlich spuckte ChatGPT wirres Zeug aus. Kryptische Nachrichten, sinnlose Wortfolgen. Und du? Bist gerade dabei, deine Angststörung zu besprechen, und dein digitaler Therapeut dreht durch. Nicht lustig.
Psychologen und Therapeuten sind… nun ja, gespalten wäre untertrieben. Manche sehen Potenzial, andere sehen die Apokalypse der menschlichen Verbindung. Die Wahrheit liegt wahrscheinlich irgendwo dazwischen, aber das verkauft sich schlecht als Schlagzeile.
Dr. Marina Weisband von der Uni Münster hat einen Punkt, wenn sie sagt, dass KI keine echten Emotionen versteht. Aber versteht der überlastete Therapeut, der einen nach 15 Minuten wieder rausschmeißt, sie besser? Provokante Frage, ich weiß.
Menschen sind kompliziert
Was mich wirklich umtreibt: Wir reden hier nicht über ein Technik-Problem. Wir reden über ein Gesellschaftsproblem.
Wenn Millionen Menschen lieber mit einer Maschine sprechen als gar nicht zu sprechen, dann haben wir als Gesellschaft versagt. Punkt. Das Gesundheitssystem versagt, die sozialen Netze versagen, wir versagen aneinander. ChatGPT ist nicht die Lösung – es ist das Symptom.
Trotzdem… für manche funktioniert es. Ein Freund von mir, nennen wir ihn Tom, hat jahrelang mit sozialer Angst gekämpft. Therapeutensuche? Forget it. Aber mit ChatGPT übte er Gespräche, analysierte seine Denkmuster. Nach drei Monaten traute er sich wieder unter Menschen. Ist das keine echte Hilfe, nur weil sie von einer KI kam?
Die Grenzen verschwimmen sowieso schon. Therapeuten nutzen KI-Tools zur Vorbereitung. Apps kombinieren Chatbots mit gelegentlichen Check-ins durch echte Menschen. In zehn Jahren werden wir uns vielleicht wundern, dass wir mal so eine große Sache daraus gemacht haben.
Oder wir schauen zurück und denken: Wie konnten wir nur so naiv sein?
Studien zeigen übrigens (ja, ich weiß, „Studien zeigen“ ist so eine Phrase), dass Menschen mit leichten psychischen Belastungen oft gut mit KI zurechtkommen. Bei schweren Depressionen oder Traumata sieht’s anders aus. Überrascht das jemanden?
Was bleibt, ist eine unbequeme Wahrheit: Die Technologie ist da, sie wird genutzt, und sie wird nicht wieder verschwinden. Wir können entweder so tun, als wäre das nicht unser Problem, oder wir können anfangen, ernsthaft darüber nachzudenken, wie wir damit umgehen.
Persönlich? Ich finde es gruselig, dass Menschen ihre Seele einer Maschine öffnen. Aber ich finde es noch gruseliger, dass sie sonst niemanden haben. Und bevor jemand gar nicht über seine Probleme spricht, ist mir eine KI als Gesprächspartner immer noch lieber als die Alternative.
Die Revolution der psychischen Gesundheitsversorgung hat begonnen. Chaotisch, ungeregelt, mit ungewissem Ausgang. Aber sie ist nicht mehr aufzuhalten. Die Frage ist nur: Gestalten wir sie mit, oder lassen wir sie über uns hereinbrechen?
Heute Nacht werden wieder Millionen ihre Sorgen in Chatfenster tippen. Für manche ist es der erste Schritt zur Heilung. Für andere der Beginn einer problematischen Abhängigkeit.
Wir werden sehen.
Quellenverzeichnis
Nutzerzahlen und Statistiken:
- OpenAI ChatGPT Nutzerzahlen (400 Millionen wöchentliche Nutzer, Februar 2025): https://techcrunch.com/2025/02/20/openai-now-serves-400-million-users-every-week/
- ChatGPT-Wachstum von 300 auf 400 Millionen Nutzer: https://www.windowscentral.com/software-apps/chatgpt-surpasses-300-million-weekly-users
Wartezeiten Psychotherapie Deutschland:
- Bundespsychotherapeutenkammer – Durchschnittlich 142 Tage Wartezeit: https://www.bptk.de/pressemitteilungen/psychisch-kranke-warten-142-tage-auf-eine-psychotherapeutische-behandlung/
- Wartezeiten 2024 – Durchschnittlich 6 Monate: https://therapy-lift.de/themenwelt/wartezeiten-in-der-psychotherapie/
- vdek-Analyse zu Wartezeiten: https://www.vdek.com/magazin/ausgaben/2023-04/analyse-wartezeiten-psychotherapie.html
KI und Mentale Gesundheit:
- Washington Post – ChatGPT für Therapie: https://www.washingtonpost.com/business/2024/10/25/ai-therapy-chatgpt-chatbots-mental-health/
- Fortune – Menschen nutzen ChatGPT als Therapeut: https://fortune.com/2025/06/01/ai-therapy-chatgpt-characterai-psychology-psychiatry/
- TechRadar – Kann ChatGPT Therapie ersetzen?: https://www.techradar.com/computing/artificial-intelligence/can-chatgpt-really-replace-a-therapist-we-spoke-to-mental-health-experts-to-find-out
Replika Statistiken:
- Replika Nutzerzahlen und Downloads: https://nikolaroza.com/replika-ai-statistics-facts-trends/
- Replika Preise 2025: https://replikapro.com/replika-pro-ai-cost-pricing/
Wissenschaftliche Perspektiven:
- Frontiers in Human Dynamics – ChatGPT in der mentalen Gesundheitsversorgung: https://www.frontiersin.org/journals/human-dynamics/articles/10.3389/fhumd.2023.1289255/full
- Studie zur KI-Nutzung durch Fachkräfte und Patienten: https://pmc.ncbi.nlm.nih.gov/articles/PMC11488652/
Haftungsausschluss
Dieser Blog dient ausschließlich allgemeinen Informationszwecken und stellt keine Ausübung von Medizin, Krankenpflege oder anderen professionellen Gesundheitsdienstleistungen dar, einschließlich der Erteilung medizinischer Ratschläge, und es wird kein Arzt-Patienten-Verhältnis begründet. Die Nutzung von Informationen in diesem Blog oder von Materialien, die mit diesem Blog verlinkt sind, erfolgt auf eigenes Risiko des Nutzers. Der Inhalt dieses Blogs ist nicht als Ersatz für eine professionelle medizinische Beratung, Diagnose oder Behandlung gedacht. Die Nutzer sollten bei allen Erkrankungen, die sie möglicherweise haben, ärztlichen Rat nicht ignorieren oder verzögern und bei solchen Erkrankungen die Hilfe ihres medizinischen Fachpersonals in Anspruch nehmen.