Zum Hauptinhalt springen
05.02.2024

Chatbot erleichtert Überweisung bei psychischen Problemen

     

  • Chatbot „Limbic“ agiert auf Internetseiten des NHS als Informationssammler und Unterstützer
  •  

  • Ergebnis: 15 Prozent mehr Selbstüberweisungen zu Gesprächstherapien; vor allem Minderheiten profitierten
  •  

  • gerade für eine bessere Versorgungsgerechtigkeit sehen unabhängige Forschende Potenzial des Chatbot-Einsatzes, dieses muss aber noch in weiteren, unabhängigen Studien bestätigt werden
  •  

Die Versorgung von Personen mit psychischen Erkrankungen steht in Deutschland wie auch in anderen Ländern vor erheblichen Herausforderungen. Der Mangel an Therapieplätzen, die langen Wartelisten und die immer noch bestehende Stigmatisierung sowie Scham im Umgang mit psychischen Erkrankungen belasten die Betroffenen. Ein Startup aus Großbritannien hat deshalb versucht, mithilfe eines Chatbots die Überweisung von Menschen mit psychischen Problemen an Gesprächstherapien zu vereinfachen. Wie erfolgreich dieser Ansatz ist, zeigen die Ergebnisse einer Studie, die im Fachjournal „Nature Medicine“ veröffentlicht wurde (siehe Primärquelle).

Mitglieder des Startups „Limbic“ erforschten, inwiefern das Einführen des von ihnen entwickelten Chatbots in die Online-Dienste des „National Health Systems“ (NHS) in Großbritannien die Selbstüberweisung zu Gesprächstherapien steigern kann. Mit dem „Talking Therapies National Program“ des NHS können Betroffene sich selbst an unterschiedliche Arten der Gesprächstherapie überweisen. Damit umgehen sie das strenge „Gatekeeping-System“, bei dem die Hausärztinnen und -ärzte (General Practitioner, GP) die Überweisung an Fachärztinnen und -ärzte ausstellen müssen. Der Chatbot soll das ganze vereinfachen: Er wird durch künstliche Intelligenz gestützt, sodass er auf Anfragen empathisch eingehen soll, die Anfragenden je nach Antworten durch verschiedene Fragebögen führt und bei dem Vorgang der Selbstüberweisung hilft. Insgesamt wurden Daten von rund 129.400 Personen untersucht, die 28 verschiedenen NHS-Gesprächstherapie-Dienstleistungen in Anspruch nahmen. 14 der Dienstleistungen verwendeten den Chatbot, die anderen 14 nutzen ähnliche NHS-Dienste wie Web-Formulare. Die Ergebnisse der Studie zeigen, dass die NHS-Dienste 15 Prozent mehr Selbstüberweisungen verzeichneten, wenn der Chatbot eingesetzt wurde. Wenn die Kontrolldienste verwendet wurden, waren es nur 6 Prozent. Vor allem folgende Minderheiten profitierten von dem Chatbot: Bei Personen mit nicht-binärer Geschlechtsidentität zeigte sich ein Anstieg von 179 Prozent, bei Personen, die sich ethnischen Minderheiten zugehörig fühlen, von 29 Prozent. Die Forschenden weisen zudem darauf hin, dass der Anstieg an Überweisungen nicht zu längeren Wartezeiten für eine Behandlung oder weniger klinischen Beurteilungen führen würde.

Wie es zu dem Erfolg des Chatbots kommt, was bei seiner Funktionsweise beachtet werden muss und inwiefern eine solche Unterstützung im deutschen Gesundheitssystem realisierbar wäre, schätzen unabhängige Forschende ein.

Übersicht

  • Prof. Dr. Eva-Lotta Brakemeier, Professorin für Klinische Psychologie und Psychotherapie sowie Direktorin des Zentrums für Psychologische Psychotherapie (ZPP), Universität Greifswald
  • Prof. Dr. Georg Schomerus, Direktor der Klinik und Poliklinik für Psychiatrie und Psychotherapie, Universitätsklinikum Leipzig
  • Prof. Dr. Harald Baumeister, Leiter der Abteilung für Klinische Psychologie und Psychotherapie, Institut für Psychologie und Pädagogik, Universität Ulm

Statements

Prof. Dr. Eva-Lotta Brakemeier

Professorin für Klinische Psychologie und Psychotherapie sowie Direktorin des Zentrums für Psychologische Psychotherapie (ZPP), Universität Greifswald

Methodik und Ergebnisse

„Die Studie mit einer Stichprobengröße von 129.400 Patient*innen in 28 verschiedenen britischen NHS Online-Anlaufstellen für psychische Erkrankungen ist aufgrund des Stichprobenumfangs gewonnen im naturalistischen Setting beeindruckend. Der Einsatz des Chatbots, der eine emotionale Nutzerinteraktion über verschiedene Themenbereiche ermöglicht, wurde mit herkömmlichen Selbstüberweisungsmethoden als Kontrollgruppe verglichen. Die statistischen Berechnungen erscheinen korrekt und stützen die Aussagen der Autor*innen.“

„Allerdings gibt es methodische Einschränkungen, welche die Interpretierbarkeit der Daten einschränken: Die Autorenschaft ist mit dem Unternehmen ,Limbic‘ affiliiert, was potenzielle Interessenkonflikte aufwirft (,allegiance bias‘), auch wenn dies im Artikel transparent gemacht wurden. Eine wichtige und zentrale Limitation, auf die die Forschenden in ihrer Diskussion nicht verweisen, ist zudem das Design der Beobachtungsstudie, das keine direkten kausalen Schlüsse zulässt [1]. Es fehlt eine Randomisierung, um Stichprobenverzerrungen zu vermeiden. Daher wäre es ideal, eine prospektive, längsschnittliche, doppelblinde, Placebo-kontrollierte RCT-Studie durchzuführen, insbesondere für inferenzstatistische Auswertungen in Minderheitengruppen.“

„Die Studie liefert dennoch wichtige Einsichten, jedoch sollte man vorsichtig sein, daraus voreilige Schlussfolgerungen über die Effektivität des Chatbots zu ziehen. Die Annahme, dass der Chatbot den Zugang zu Behandlungsmethoden für psychische Erkrankungen nachweislich verbessert, sollte daher mit Vorsicht betrachtet werden.“

Chatbot „Limbic“

„Der KI-gestützte Chatbot ,Limbic‘ erscheint als eine innovative Ergänzung traditioneller Methoden zur Erfassung klinisch relevanter Symptome psychischer Erkrankungen. Er bietet eine niederschwellige, adaptiv-personalisierte und empathische Interaktion, die über die Möglichkeiten klassischer Fragebögen hinausgeht. Während Fragebögen sich als Goldstandard in der (klinischen) Psychologie etabliert haben, sind sie statisch und können durch Selbstverfälschungstendenzen wie soziale Erwünschtheit, beeinflusst werden. In diesem Kontext spielen sicherlich auch Scham und Stigmatisierungsängste eine Rolle. Chatbots hingegen bieten eine dynamischere, personalisierte Interaktion, die es ermöglicht, nuancierter auf den Einzelfall einzugehen und möglicherweise relevante Informationen zu erfassen, die Fragebögen übersehen könnten.“

„Eine kombinierte Methodik, die KI-gestützte Chatbots, validierte Fragebögen und menschlich durchgeführte standardisierte Interviews umfasst, könnte zu valideren und zuverlässigeren Daten führen. Eine 2023 veröffentlichte Studie von Rollwage et al. [2] legt nahe, dass der Einsatz von Chatbots wie ,Limbic‘ die Effizienz im Diagnoseprozess steigern und klinisches Personal zeitlich entlasten könnte.“

„Es ist jedoch anzumerken, dass diese Studie von fast derselben Autorengruppe stammt, die mit dem Unternehmen ‚Limbic‘ affiliiert ist. Dies könnte zu einem potenziellen Interessenkonflikt führen und sollte bei der Bewertung der Ergebnisse berücksichtigt werden.“

Erfolg bei Minderheiten

„Der Erfolg von Chatbots wie ,Limbic‘ bei Minderheiten kann durch die besonderen psychologischen Barrieren erklärt werden, mit denen diese Gruppen häufig konfrontiert sind. Studien zeigen, dass Minderheiten - unter anderem in Bezug auf Ethnien und Geschlechtsidentitäten - nicht selten kognitive Barrieren, Schamgefühl, negative Glaubensätze und Stigmatisierungsängste im Zusammenhang mit psychischen Erkrankungen erleben [3] [4] [5]. Deshalb ist auch möglicherweise die Dunkelziffer bei solchen Minderheiten oder bei Personen mit niedrigerem sozioökonomischen Status weitaus höher als statistisch erfasst. Daher bieten gerade Chatbots, wie ,Limbic‘ und andere [6], idealerweise eine niederschwellige und anonyme Nutzung als Erstanlaufstelle, damit mögliche Hemmschwellen, Stigma und negative Glaubensätze überwunden und Selbstüberweisungen initiiert werden können. Die hohe Nutzung und die gesteigerten Selbstüberweisungen durch den Einsatz von Chatbots wie ,Limbic‘ bestätigen die Akzeptanz und Wirksamkeit solcher digitalen Hilfsmittel in diesen Gruppen.“

Wartezeiten

„Das Ergebnis, dass trotz einer Zunahme der Selbstüberweisungen um 15 Prozent keine längeren Wartezeiten entstanden sind, ist bemerkenswert und wirft Fragen auf, die leider von den Autor*innen in der Diskussion nicht thematisiert werden. Eine mögliche Erklärung könnte sein, dass der KI-gestützte Chatbot im diagnostischen Prozess eine Vorselektion vornimmt, wodurch Patient:innen nach Dringlichkeit priorisiert werden. Dies könnte dazu führen, dass Personen mit akutem Bedarf schneller identifiziert und anderen Behandlungsoptionen zugeführt werden, während Fälle mit geringerem Schweregrad alternative Behandlungswege wie psychologische Beratung empfohlen bekommen.“

„Eine weitere Möglichkeit ist, dass die Selbstüberweisungen über den Zeitraum hinweg gleichmäßig verteilt waren, wodurch Spitzen in der Nachfrage vermieden und Wartezeiten konstant gehalten wurden. Diese und andere Hypothesen bedürfen weiterer Untersuchungen, um zuverlässige Schlüsse ziehen zu können.“

Potenzial in Deutschland

„Bezüglich der Einführung eines Chatbots wie ,Limbic‘ in Deutschland stehen wir vor spezifischen Herausforderungen. Aktuell ist der Einsatz von KI-gestützten Chatbots in der Regelversorgung der Krankenkassen in Deutschland noch nicht etabliert. Es bedarf weiterer empirischer Studien, wie beispielsweise im Rahmen des iCAN-Projekts, um die Wirksamkeit und Akzeptanz solcher Systeme zu belegen.“

„Darüber hinaus erfordert die Implementierung eines Chatbots in Deutschland die Berücksichtigung zusätzlicher Faktoren. Dazu gehören die Einhaltung strenger Datenschutzrichtlinien, insbesondere der DSGVO (Datenschutz-Grundverordnung; Anm. d. Red.), die Entwicklung von Abrechnungskonzepten mit den Krankenkassen und die Anpassung an kulturelle und sprachliche Gegebenheiten. Auch die Barrierefreiheit ist ein wesentlicher Aspekt, der für eine erfolgreiche Einführung und Nutzung solcher Systeme entscheidend ist.“

„Insgesamt ist die Einführung von KI-gestützten Chatbots in der deutschen Gesundheitsversorgung ein vielversprechender, aber auch komplexer Prozess, der abgesehen von Forschung eine sorgfältige Planung und Abstimmung mit den bestehenden gesundheitspolitischen und rechtlichen Rahmenbedingungen erfordert.“

Prof. Dr. Georg Schomerus

Direktor der Klinik und Poliklinik für Psychiatrie und Psychotherapie, Universitätsklinikum Leipzig

Methodik und Ergebnisse

„Es handelt sich um eine methodisch sehr gut gemachte Studie unter ‚real world‘ Bedingungen. Aufgrund der einheitlichen Struktur des NHS in England können die Autoren sehr genau zeigen, wie sich die Implementierung eines Chatbots als initialer Zugang zur psychotherapeutischen Behandlung auf die Inanspruchnahme dieser Behandlung auswirkt. Die Unterschiede in der Inanspruchnahme gerade bei Minderheiten sind bedeutsam, weil es tatsächlich ein Problem in der psychotherapeutischen Versorgung ist, dass bestimmte Gruppen seltener in psychotherapeutische Behandlung finden als andere. Was die Studie allerdings nicht adressiert, sind sozialer Status oder Unterschiede hinsichtlich der Bildung. Menschen mit geringerer Bildung kommen zum Beispiel seltener in die Psychotherapie, und es ist nicht klar, wie sich die Einführung des Chatbots auf dieses Ungleichgewicht auswirkt.“

Chatbot „Limbic“

„Es handelt sich bei ‚Limbic‘ um einen Assistenten, der Informationen vor dem ersten Behandlungskontakt sammelt, um diese dann an einen klinischen Therapeuten weiterzuleiten. Erst der klinische Therapeut trifft eine Behandlungsentscheidung in einem persönlichen Gespräch. Der Chatbot stellt also vor allem eine Möglichkeit dar, leichter Zugang zu diesem Erstgespräch zu erlangen und das Gespräch möglichst gut vorzubereiten. Die ausdrücklich maschinelle und nicht menschliche Interaktion mit dem Chatbot wurde dabei gerade von Menschen mit nicht-binärer Geschlechtsidentität als vorteilhaft bewertet, was vermutlich daran liegt, dass ein Chatbot als neutral und nicht als stigmatisierend erlebt wird.“

Erfolg bei Minderheiten

„Ein naheliegender Vorteil ist die vorurteilsfreie Herangehensweise eines Chatbots. Man muss als Nutzer keine Angst haben, aufgrund einer bestimmten Gruppenzugehörigkeit nicht ernst genommen zu werden. Hier kann das Bewusstsein, mit einer Maschine und nicht mit einem Menschen zu kommunizieren, tatsächlich entlastend sein. Wichtig ist dabei, dass hier keine Therapie an den Chatbot delegiert wurde, sondern nur der Zugang zum Erstgespräch mit einem menschlichen Therapeuten über den Chatbot vermittelt wurde.“

Prof. Dr. Harald Baumeister

Leiter der Abteilung für Klinische Psychologie und Psychotherapie, Institut für Psychologie und Pädagogik, Universität Ulm

Methodik und Ergebnisse

„Die Studie ist methodisch hochwertig durchgeführt im Sinne einer naturalistischen, retrospektiven Versorgungsstudie. Sofern ich nichts übersehen habe, überrascht das Fehlen der Studienregistrierung und eines a-priori Studienprotokolls. Entsprechend kann und sollte diese Studie als explorative Studie verstanden werden, die untersucht, inwiefern ein Chatbot wie ‚Limbic‘ die (Selbst-)Überweisung von Menschen mit Versorgungsbedarf im Bereich psychischer Störungen verbessern kann. Die Ergebnisse sind vielversprechend. Vielversprechend im Sinne, dass dies nun methodisch hochwertig experimentell untersucht und konfirmatorisch bestätigt werden sollte.“

Chatbot „Limbic“

„Die verwendeten Fragebögen stellen etablierte Fragebögen zum Screening auf psychische Erkrankungen dar. Wichtig ist, stets vor Augen zu haben, dass derartige Fragebögen nur Hinweise auf mögliche Störungen bieten, aber keine umfassende Diagnostik ersetzen können. Zudem eignen sich diese Kurz- und teils Ultrakurzfragebögen nur für eine erste grobe Erfassung, nicht jedoch für eine präzise Psychodiagnostik und Schweregradeinschätzung auf individueller Ebene. Die Beschreibung des adaptiven KI-Algorithmus verwundert beziehungsweise lässt psychometrisch viele Fragen offen. Die Entwicklung von messpräzisen und testfairen Fragebögen ist ein sehr aufwändiger Prozess, der umfassende Forschung erfordert. An dieser Stelle würde ich Referenzen zur Testtheorie und den psychometrischen Kennwerten des eingesetzten KI-Algorithmus erwarten, die verdeutlichen, dass dieser alle notwendigen psychometrischen Anforderungen bestmöglich erfüllt. Diese Referenzen fehlen beziehungsweise existieren gegebenenfalls nicht, so dass an dieser Stelle gegebenenfalls ein psychometrisch nicht validiertes Testsystem in der klinischen Routine eingesetzt wurde, was ein wissenschaftlich sehr fragliches Vorgehen wäre. Aufgrund der geringen Detailtiefe des Methodenabschnittes hierzu, lässt sich die psychometrische Güte des Chatbots nicht beurteilen.“

Erfolg bei Minderheiten

„Der potenzielle Erfolg des Chatbots gerade bei Minderheiten ist das zentrale Ergebnis dieser Studie. Unsere Forschungs- und klinischen Bemühungen der vergangenen Jahrzehnte hatten immer wieder das Ziel, Menschen mit Versorgungsbedarf zu erreichen, die bislang nicht oder zu wenig erreicht werden. Sollten Chatbots wie ‚Limbic‘ tatsächlich in der Lage sein, diese Versorgungsungerechtigkeit zu verbessern, dann wäre dies ein sehr großer Schritt in die richtige Versorgungsrichtung. Bevor wir spekulieren, wieso ‚Limbic‘ in der Lage ist, mehr Menschen in Versorgungsangebote zu leiten, bedarf es einer Replikation dieser Ergebnisse. Dies setzt ein experimentelles Design voraus und die Studie sollte von unabhängigen Forschenden durchgeführt werden, die nicht das Produkt selbst entwickelt haben und Anteilseigner an der Firma sind. Ideen, wieso ein Chatbot möglicherweise eine Brücke darstellt zum Erreichen von Menschen, die wir bislang weniger erreichten, sind vielfältig und nicht in ein bis zwei Sätzen sinnvoll beschreibbar. Zudem kann es sein, dass was heute funktioniert, morgen bereits nicht mehr funktioniert. Auch hier sehe ich also den Beginn und nicht das Ende von Forschungsaktivität, um final einen gegebenenfalls neuen Versorgungsansatz zu erhalten, der tatsächlich einen Mehrwert aufweist. An dieser Stelle gilt es zwischen dem Potenzial zu differenzieren, welches mit Digitalisierung und KI auch für die Gesundheitsforschung einhergeht und etablierter, gesicherter und übertragbarer Evidenz. Die vorliegende Studie verstehe ich hierbei als Impuls, dass Chatbot-gestützte Zuweisungswege zu evidenzbasierten Versorgungsangeboten bei vorliegenden psychischen Störungen einen Versorgungsmehrwert haben könnten.“

Potenzial in Deutschland

„Im deutschen Versorgungssystem ist die Implementierung eines derartigen Chatbots durchaus ebenfalls denkbar. Natürlich bedarf es substanzieller Adaption, da sich Versorgungssysteme und Zugangswege zur Versorgung von Land zu Land unterscheiden. Zudem unterscheiden sich regulatorische Anforderungen, die in Deutschland zumindest anders sind als in Großbritannien und im internationalen Vergleich eher hohe Anforderungen an digitale Gesundheitsversorgungsprodukte stellen. Bedeutsamer erachte ich allerdings die Hürden der ganz konkreten Implementierung in das bestehende Versorgungssystem. Digitale Tools können die Versorgung verbessern, allerdings kommt es stets darauf an, wie genau diese genutzt und implementiert werden. Dies erfordert Planung und wissenschaftliche Begleitung, um das Potenzial derartiger neuer Ansätze auszuschöpfen, ohne dabei neue Gefahren und Versorgungsungerechtigkeiten für Patientinnen und Patienten mit einzuführen.“

Angaben zu möglichen Interessenkonflikten

Prof. Dr. Eva-Lotta Brakemeier: „Ich bin Principal Investigator der Studie iCAN.“

Prof. Dr. Georg Schomerus: „Ich habe keinen Interessenkonflikt.”

Prof. Dr. Harald Baumeister: „Es besteht kein Interessenskonflikt.“

Primärquelle

Habicht J et al. (2024): Closing the accessibility gap to mental health treatment with a personalized self-referral chatbot. Nature Medicine. DOI: 10.1038/s41591-023-02766-x.

Literaturstellen, die von den Expertinnen und Experten zitiert wurden

[1] Pearl J (2009): Causal inference in statistics: An overview. Statististics Surveys. DOI: 10.1214/09-SS057.

[2] Rollwage M et al. (2023): Using Conversational AI to Facilitate Mental Health Assessments and Improve Clinical Efficiency Within Psychotherapy Services: Real-World Observational Study. Journal of Medical Internet Research AI. DOI: 10.2196/44358.

[3] Yu Y et al. (2022): Double stigma and help-seeking barriers among Blacks with a behavioral health disorder. Psychiatric Rehabilitation Journal. DOI: 10.1037/prj0000507.

[4] Kim SB et al. (2022): Factors associated with mental health help-seeking among Asian Americans: a systematic review. Journal of Racial and Ethnic Health Disparities. DOI: 10.1007/s40615-021-01068-7.

[5] Reynish T et al. (2023): Barriers and enablers to mental health help seeking of sexual, gender, and erotic minorities: A systematic literature review. Journal of Gay & Lesbian Mental Health. DOI: 10.1080/19359705.2022.2036666.

[6] Johnson JA et al. (2022): Technology-based interventions to improve help-seeking for mental health concerns: a systematic review. Indian Journal of Psychological Medicine. DOI: 10.1177/02537176211034578.