Wissenschaftler:innen um Ashish Sharma von der Universität Washington berichten in Nature Machine Intelligence über randomisierte Studie zu dem KI-Modell Hailey, das im Kontext von Chatforen zum Einsatz kommen könnte, in denen (Laien-)User:innen psychische Probleme besprechen. Das Programm überprüft Formulierungen bei Laien-Gesprächen zu Problemen bei mentaler Gesundheit und schlägt mögliche empathischere Antworten vor.
Empathie steigt um ein Fünftel
An der Studie wurde Hailey bei 300 Teilnehmer:innen getestet, im Rahmen einer App, die der Plattform TalkLife nachempfunden wurde. Bei dieser Plattform berichtet ein(e) User(in) über psychische Probleme, und andere User:innen können das beratend kommentieren. Die KI schlug bei Antworten der „beratenden“ User:innen Verbesserungs- und Ergänzungsvorschläge vor – mit dem Ziel, dass die Antworten empathischer wirken. Die User:innen konnten sich entscheiden, die Vorschläge anzunehmen oder sie zu ignorieren.
Das Ergebnis der Studie war, dass die Antwort bei Nutzung der KI im Schnitt um 20 % empathischer ausfiel. Bei User:innen, die von Problemen berichteten, sich empathisch auszudrücken, wurden die durch die KI überprüften Antworten als durchschnittlich knapp 40 % empathischer bewertet. Diese Verbesserungen in der Empathie der Nachrichten wurden von 50 Proband:innen beurteilt, die nicht an der Studie teilnahmen. Evaluiert wurde im Rahmen der Studie auch die Authentizität der Antworten. Hier schnitten die „rein menschlichen“ Antworten am besten ab, knapp gefolgt von Antworten, die mit KI-Unterstützung formuliert wurden. Reine KI-Antworten, die als Kontrollgruppe genutzt wurden, waren in dieser Dimension weit abgeschlagen.
Forscher:innen halten Ergebnis für nicht überraschend
„Die Studie hat einige Stärken. Mit 300 Teilnehmenden und 10 Posts pro Person verfügt sie über eine hinreichend große Stichprobe, um belastbare Aussagen zu treffen“, betont Prof. Dr. Sonja Utz, Leiterin der Arbeitsgruppe Alltagsmedien, Leibniz-Institut für Wissensmedien (IWM), Tübingen, die die Studie für das Science Media Center kommentierte. „„Es ist nicht erstaunlich, dass sich die Empathiewerte verbessern. Ein ähnlicher Effekt wäre vermutlich aufgetreten, wenn andere Personen, insbesondere erfahrene Therapeut:innen, Verbesserungsvorschläge gemacht hätten.“ Spannend sei unter anderem die Frage, ob Menschen durch solche Tools mit der Zeit lernen können, fehlerfreier, besser oder empathischer zu kommunizieren, insbesondere in einer Fremdsprache, betonte Utz.
Auch Prof. Dr. Nicole Krämer, Leiterin des Fachgebiets Sozialpsychologie: Medien und Kommunikation, Universität Duisburg-Essen, ist von den Studienergebnissen nicht überrascht: „Letztlich beruhen machine learning Ansätze darauf, dass auf Basis der Daten von Menschen gelernt wird. Das Ergebnis ist also erwartungsgemäß ähnlich zu dem, was entstehen würde, wenn man die Nachrichten eines nicht-empathischen Menschen durch einen empathischen Menschen redigieren lassen würde. Insbesondere, dass die Nachrichten von eher nicht-empathisch agierenden Menschen in ihrer Wirkung verbessert werden, ist also nicht besonders erstaunlich.“
Trainings-Tool für empathischeres Kommunizieren?
Krämer plädiert im Zusammenhang mit solchen Systemen für maximale Transparenz: Nutzer:innen müssten informiert werden, woher die Aussagen kommen und auch darüber, dass derjenige oder diejenige mit dem/der gesprochen wird, unter Umständen nicht alleinige Urheber:in der Nachricht ist. Die Studie sei in jedem Fall kein Durchbruch für die Behandlung psychisch kranker Menschen: „Für eine solche erfolgreiche Behandlung ist mehr erforderlich als eine Steigerung der Empathie durch Anpassung der Äußerungen. Der hier gewählte Ansatz kann eventuell geeignet sein, empathischere Sprache im Alltag zu nutzen.“Das sieht auch Dr. Tobias Rieger so, Wissenschaftlicher Mitarbeiter am Fachgebiet Handlungs- und Automationspsychologie, Technische Universität Berlin. Er findet u.a. die Untergruppe der Proband:innen spannend, de berichten, beim Formulieren empathischer Antworten Probleme zu haben: „Diese Teilnehmenden zeigten eine besonders klare Verbesserung und scheinbar kann die KI hierbei als eine Art Trainingspartner fungieren, um empathischeres Verhalten zu erlernen.“
Weitere Informationen
Ashish Sharma. Human-AI collaboration enables more empathic conversations in text-based peer-to-peer mental health support. Nature Machine Intelligence 2023; 5:46-57.
https://www.nature.com/articles/s42256-022-00593-2