Zum Hauptinhalt springen
11.02.2019

Ethische Aspekte bei Facebooks Suizid-Prävention

Welche ethischen Grundsätze gelten für ein Suizid-Präventionsprogramm von Facebook? Zwei Wissenschaftler stellen sich diese Frage in einem Kommentar, der in dem Journal „Annals of Internal Medicine“ veröffentlicht wurde (siehe Primärquelle). In ihren Augen liefert das soziale Netzwerk Facebook mit diesem Programm einen Beitrag zur öffentlichen Gesundheit (Public Health) und müsste sich folgerichtig denselben Auflagen wie klinische Forschung unterwerfen. Generell begrüßen sie jedoch innovative Ansätze wie diesen, um Tode durch Suizid zu verhindern.

Zum Hintergrund:
Seit 2017 benutzt Facebook einen Algorithmus, um Suizide zu verhindern. Er scannt Beiträge und Kommentare auf verdächtige Hinweise und meldet Personen mit erhöhtem Suizid-Risiko an einen zuständigen Mitarbeiter von Facebook. Dieser kann der betreffenden Person Hilfsangebote, wie Telefonnummern, zukommen lassen oder kann sich direkt an die örtlichen Behörden wenden und den Hinweis beispielsweise der Polizei melden [I]. Mark Zuckerberg gibt im November 2018 an, die Warnungen des Algorithmus hätten weltweit zu 3500 Einsätzen von Ersthelfern geführt [II]. Ein Artikel der New York Times zum Thema schränkt ein, die EU verbiete, Gesundheitsdaten in dieser Weise zu verarbeiten [III], damit ist die Datenschutz-Grundverordnung (DSGVO) gemeint, die am 25. Mai 2018 in Kraft getreten ist.

Wir haben die Suizidzahlen bei Jugendlichen und jungen Erwachsenen zusammengetragen, bei ihnen soll die Entwicklung der Suizidzahlen besonders problematisch sein, wie die amerikanischen Autoren des Kommentars beschreiben. Die Suizidfälle bei 15- bis 20-Jährigen in Deutschland betragen pro 100.000 Einwohner gerechnet: 2013 – 4,1 (165 Sterbefälle); 2014 – 4,8 (194 Sterbefälle); 2015 – 4,7 (196 Sterbefälle); 2016 – 4,9 (205 Sterbefälle). Sie können diese bei der Gesundheitsberichterstattung des Bundes [IV] abrufen.

 

Übersicht

  • Prof. Dr. Christiane Woopen, Direktorin des Cologne Center for Ethics, Rights, Economics, and Social Sciences of Health (Ceres), Universität zu Köln, und Vorsitzende des Europäischen Ethikrates (EGE)
  • Prof. Dr. Anne Riechert, Professorin für Datenschutzrecht und Recht in der Informationsverarbeitung, Frankfurt University of Applied Sciences, Frankfurt, und wissenschaftliche Leiterin der Stiftung Datenschutz, Leipzig
  • Prof. Dr. Tobias Matzner, Professor für Medien, Algorithmen und Gesellschaft, Universität Paderborn
  • Prof. Dr. Thomas Niederkrotenthaler, Assoziierter Professor für Public Health und Leiter der Forschungsgruppe Suizidforschung und Mental Health Promotion, Medizinische Universität Wien, Österreich
  • Dr. Tereza Hendl, wissenschaftliche Mitarbeiterin am Institut für Ethik, Geschichte und Theorie der Medizin, Ludwig-Maximilians-Universität München (LMU)

Statements

Prof. Dr. Christiane Woopen

Direktorin des Cologne Center for Ethics, Rights, Economics, and Social Sciences of Health (Ceres), Universität zu Köln, und Vorsitzende des Europäischen Ethikrates (EGE)

„Wenn Facebook ohne Einwilligung seiner Kunden ein nicht wissenschaftlich gestütztes Screening zur Aufdeckung eines erhöhten Risikos für eine Selbsttötung einsetzt und dafür die Privatsphäre der Kunden verletzt, ist das ethisch nicht vertretbar. Suizidprävention ist ein wichtiges gesellschaftliches Anliegen. Wenn Facebook dabei mit seinen technologischen Möglichkeiten und auf der Grundlage seiner riesigen Menge an Daten eine Rolle spielen kann und möchte, soll es sich an die bewährten Standards für die Einführung und Evaluation von Screeningverfahren halten. Dazu gehört vor allem, dass Facebook unter Einbeziehung unabhängiger Wissenschaftler nachweisen muss, dass das Screening mehr nutzt als schadet. Dazu müssen Daten vorliegen, die auch zu veröffentlichen sind.“

„Wir haben uns bei CERES in unserer Studie „Algorithmen in der digitalen Gesundheitsversorgung“ ausführlich mit der algorithmengestützten Vorhersage von psychischen Erkrankungen bei Nutzern sozialer Medien befasst. Hier finden Sie von Seite 37 bis 45 differenzierte Ausführungen und Empfehlungen [1].“

Prof. Dr. Anne Riechert

Professorin für Datenschutzrecht und Recht in der Informationsverarbeitung, Frankfurt University of Applied Sciences, Frankfurt, und wissenschaftliche Leiterin der Stiftung Datenschutz, Leipzig

„Bei sensiblen Daten – wie Daten zu religiösen oder weltanschaulichen Überzeugungen, Sexualleben und Gesundheitsdaten – handelt es sich um Daten mit besonderer Schutzbedürftigkeit, deren Verarbeitung untersagt ist. Dies umfasst auch Daten, die Ausdruck einer körperlichen, seelischen, sozialen, familiären Notlage sein können und deren Offenlegung den Betroffenen beschämen können [2]. Gesundheitsdaten können außerdem durch die Verknüpfung unterschiedlicher Daten entstehen, die nichts über den Gesundheitszustand aussagen [3], aber Rückschlüsse darauf zulassen.“

„Relevante Ausnahmen sind:
- Ausdrückliche Einwilligung in einen festgelegten Zweck,
- die Verarbeitung bezieht sich auf personenbezogene Daten, die die betroffene Person offensichtlich öffentlichgemacht hat.“

„Auch wenn die betroffene Person die Daten öffentlich gemacht und damit einem unbestimmten Personenkreis mitgeteilt hat, können dennoch die Erwartungen, Grundfreiheiten und Grundrechte des Betroffenen gegen eine weitere Verarbeitung durch Facebook zum Zweck der Analyse einer Suizidgefährdung sprechen. Eine (ausschließlich) automatisierte Entscheidung, die auf sensiblen Daten beruht, bedarf im Übrigen immer einer ausdrücklichen Einwilligung der betroffenen Person.“

„Da Facebook Rückschlüsse auf den Gesundheitszustand oder die psychische Gesundheit durch Anwendung eines intransparenten Verfahrens zieht, ergibt sich gerade daraus auch die besondere Schutzbedürftigkeit dieser Daten. Unklar ist hierbei insbesondere, welche Kriterien für eine Gefährdung der Person sprechen sollen, wer Zugriff auf diese Daten hat und für welchen Zeitraum diese Information gespeichert wird. Selbst wenn veröffentlichte Daten analysiert werden, müssen die Grundrechte des Betroffenen berücksichtigt werden und die Rechtmäßigkeit dieser weiteren Verarbeitung ist nicht ohne weiteres zu unterstellen. Im Falle einer Einwilligung muss diese informiert und ausdrücklich erfolgen, was in der Praxis schwierig umzusetzen sein dürfte.“

Prof. Dr. Tobias Matzner

Professor für Medien, Algorithmen und Gesellschaft, Universität Paderborn

„Facebook versucht sich hier an Forschung zu einer medizinischen Diagnose. Diese sollte den strengen methodischen Anforderungen medizinischer Verfahren standhalten. Das heißt zum Beispiel: unbedingte Einwilligung der Betroffenen, unabhängige Evaluation und öffentlich nachvollziehbare Kriterien. Nichts davon ist hier gegeben. Laut einem Artikel der New York Times zum Thema evaluiert Facebook nicht einmal, ob die Alarme zutreffend waren: ‚Facebook said that, for privacy reasons, it did not track the outcomes of its calls to the police.‘ [III]”

„Die Methodik von Facebook basiert auf Algorithmen aus dem Feld des maschinellen Lernens. Sie versuchen Gemeinsamkeiten zwischen Beiträgen von verschiedenen suizidgefährdeten Personen zu finden. Wie die Autoren darstellen, wird hier automatisch verallgemeinert, es wird eine Art allgemeines Muster für Suizidgefahr gesucht. Damit können auch diverse Beiträge in den Fokus der Algorithmen geraten, die nichts mit Suizid zu tun haben. Angesichts der Konsequenzen wie Polizeieinsätze, verunsicherte Freunde und Familie und der sozialen Stigmatisierung von Selbsttötungen, haben solche Fehlalarme schwerwiegende Folgen.“

„Der aktuelle Einsatz der Suizidpräventionsalgorithmen geht über die Köpfe der Beteiligten hinweg. Wer auf Facebook (oder anderswo) von Suizidplänen berichtet, hat dabei normalerweise ein Publikum im Kopf – Bekannte, Freunde, Familie, und so weiter. Facebooks Reaktion sollte die Handlungsmöglichkeiten der somit Angesprochenen nicht behindern. Diese haben für gewöhnlich auch viel mehr Informationen. Sie wissen beispielsweise, ob die Person schon in Behandlung ist, oder kennen den entsprechenden Arzt. Die Nutzung der Daten von Facebook ist eventuell dann sinnvoll, wenn es den Angehörigen nicht gelingt, die Person zu lokalisieren. Dieser Fall wurde ebenfalls in dem Artikel der New York Times beschrieben [III]. Das kann dann aber auch durch eine Anfrage der Polizei geschehen und braucht kein pro-aktives Handeln von Facebook.“

„Die rechtliche Lage kann ich als Medienwissenschaftler nicht einschätzen. Es handelt sich hier um hochsensible, gesellschaftlich stigmatisierte, medizinische Informationen, die zumindest aus ethischer Sicht nicht ohne Zustimmung der Betroffenen gesammelt und verarbeitet werden sollten.“

„Der Fall illustriert deutlich, welch intimes Wissen Firmen wie Facebook inzwischen über uns erlangen können. Dass hier ein hehrer Zweck verfolgt wird, sollte nicht davon ablenken, dass dies eine willkürliche Entscheidung der Firma ist, von der wir weder im Positiven noch im Negativen abhängig sein sollten. Deshalb braucht es dringend eine Regelung, welche die Sammlung und den Umgang mit solchen Daten allgemeinverbindlich und im Sinne des Gemeinwohls festschreibt.“

„Aufgrund der Sensibilität der Daten müsste auf jeden Fall genau geregelt werden, was nach einem solchen Alarm mit den Informationen geschieht: beispielsweise, ob Facebook diese speichert und für andere Zwecke nutzen kann oder an bestimmte Stellen weitergeben darf, was sehr fragwürdig wäre.“

Prof. Dr. Thomas Niederkrotenthaler

Assoziierter Professor für Public Health und Leiter der Forschungsgruppe Suizidforschung und Mental Health Promotion, Medizinische Universität Wien, Österreich

„Facebook hat bezüglich der Suizidprävention eine Vorreiterrolle innerhalb der sozialen Medien inne, die aus Sicht der Prävention grundsätzlich sicherlich begrüßenswert ist. So hat Facebook zum Beispiel im Rahmen der Erstellung von Empfehlungen zum Umgang mit Online-Technologien [4] mit internationalen FachexpertInnen – darunter auch meine ForscherInnengruppe – zusammengearbeitet. Für einen breiteren Einblick in weitere Aspekte der Zusammenarbeit empfiehlt sich auch die Stellungnahme von Facebook [5].“

„Die Autoren fokussieren in ihrem Kommentar auf den Aspekt von Algorithmen, die von Facebook zur Erkennung von potenziell Suizidgefährdeten auf Basis von Interaktionen auf der Plattform in mehreren Ländern verwendet werden. Gerade bei derart neuen und noch nicht ausreichend beforschten Ansätzen, die in unterschiedlichen kulturellen Settings angewandt werden, ist dabei ein offener Diskurs in der internationalen Forschungscommunity dringend erforderlich. Hier gibt es klar Verbesserungspotenzial, da etwaig vorhandene (interne) Evaluationsergebnisse und Details zu den verwendeten Algorithmen nicht wissenschaftlich publiziert und somit bekannt sind.“

„Ein populationsbezogenes Vorgehen, wie von Facebook versucht, steht dabei keineswegs zwangsläufig im Widerspruch zu einer effektiven Suizidprävention auf individueller Ebene. Wie richtigerweise von den Autoren des Kommentars ausgeführt, ist der Ansatz nicht für ein individuelles Risikoassessment ausreichend, relevante Hinweise über mögliche Suizidgefährdung sind jedoch durchaus denkbar. Um festzustellen, wie gut derartige Algorithmen funktionieren, und sie zu verbessern, bedarf es genau jener Analysen und Evaluationen, die breit in der wissenschaftlichen Community diskutiert werden, in diesem Fall aber nicht vorhanden oder bekannt sind. Personen haben dabei selbstverständlich ein Recht der Teilnahme an Forschung zuzustimmen oder diese zurückzuweisen. Personen ohne ihr Wissen und ihre Zustimmung in wissenschaftliche Untersuchungen zu involvieren, verstößt gegen ethische Standards und Übereinkommen der wissenschaftlichen Forschung.“

„Die praktische Umsetzung der gewonnenen Erkenntnisse bedarf darüber hinaus einer klar definierten und abgestimmten Zusammenarbeit mit Personen, die adäquat qualifiziert sind, sowie mit Hilfseinrichtungen vor Ort. Nutzungsbedingungen, denen NutzerInnen bei Verwendung von Facebook zustimmen, sollten klar beschreiben, wie das Vorgehen im Falle von möglicher Suizidalität ist. Derzeit findet sich in Facebooks Nutzungsbedingungen ein Hinweis auf Gemeinschaftsstandards, in denen Grundgedanken zu Umgang mit Suizidalität beschrieben sind [6].“

„Es gibt nun einen dringenden Aufholbedarf, effektive und verträgliche Angebote für suizidale Personen in den sozialen Medien zu entwickeln und anzubieten – und Facebook ist hier wieder in einer Vorreiterrolle. Neben nachträglichen Innovationen als Reaktion auf Suizide würde auch eine proaktive Gesundheitsfolgenabschätzung bereits vor Einführung von neuartigen Kommunikationstechnologien einen wesentlichen Beitrag liefern, um einen sicheren Umgang mit neuen Technologien zu gewährleisten. Niemand bezweifelt heute, dass es sinnvoll ist, Medikamente und diverse Gesundheitstechnologien bereits bevor sie auf den Markt kommen umfangreich in Bezug auf ihre Wirkungen zu testen. Eine umfassende Qualitätssicherung bereits vor der Einführung von Unterhaltungsprodukten, wie zum Beispiel Streamingdiensten, wäre ein wichtiger weiterer Schritt.“

Dr. Tereza Hendl

wissenschaftliche Mitarbeiterin am Institut für Ethik, Geschichte und Theorie der Medizin, Ludwig-Maximilians-Universität München (LMU)

„Facebook hat bezüglich der Suizidprävention eine Vorreiterrolle innerhalb der sozialen Medien inne, die aus Sicht der Prävention grundsätzlich sicherlich begrüßenswert ist. So hat Facebook zum Beispiel im Rahmen der Erstellung von Empfehlungen zum Umgang mit Online-Technologien [4] mit internationalen FachexpertInnen – darunter auch meine ForscherInnengruppe – zusammengearbeitet. Für einen breiteren Einblick in weitere Aspekte der Zusammenarbeit empfiehlt sich auch die Stellungnahme von Facebook [5].“

Angaben zu möglichen Interessenkonflikten

Prof. Dr. Anne Riechert: „Es bestehen keine Interessenskonflikte.“

Alle anderen: Keine angegeben. 

Primärquelle

Barnett I et al. (2019): Ethics, Transparency, and Public Health at the Intersection of Innovation and Facebook’s Suicide Prevention Efforts. Annals of Internal Medicine. Ideas and Opinions. 

Literaturstellen, die von den Experten zitiert wurden

[1] Jannes M et al. (2018): Algorithmen in der digitalen Gesundheitsvorsorge – eine interdisziplinäre Analyse. Bertelsmann Stiftung. 

[2] Weichert T (2018): Art. 9 Verarbeitung besonderer Kategorien personenbezogener Daten; In Kühling J et al. (Hrsg.), Datenschutz-Grundverordnung, Bundesdatenschutzgesetz: DS-GVO/BDSG. C.H.Beck. 

[3] Frenzel EM (2018): DS-GVO Art. 9 Verarbeitung besonderer Kategorien personenbezogener Daten; In Paal B et al. (Hrsg.), Datenschutz-Grundverordnung Bundesdatenschutzgesetz: DS-GVO BDSG. C.H.Beck. 

[4] Best Practices for Online Technologies. 

[5] Facebook newsroom (2019): Partnering with Experts to Protect People from Self-Harm and Suicide. 

[6] Facebook Gemeinschaftsstandards: 6. Suizid und Selbstverletzung. 

Literaturstellen, die vom SMC zitiert wurden

[I] Facebook newsroom (2018, 21. September): How Facebook AI Helps Suicide Prevention. 

[II] Mark Zuckerberg bei Facebook (2018, 15. November): A Blueprint for Content Governance and Enforcement. 

[III] Singer N (2018, 31. Dezember): In Screening for Suicide Risk, Facebook Takes On Tricky Public Health Role. New York Times; A1.

[IV] Gesundheitsberichterstattung des Bundes: Sterbefälle, Sterbeziffern (je 100.000 Einwohner, altersstandardisiert) (ab 1998). Gliederungsmerkmale: Jahre, Region, Alter, Geschlecht, Nationalität, ICD-10, Art der Standardisierung. ICD-10 X60-X84 – Vorsätzliche Selbstbeschädigung. 

Weitere Recherchequellen

Pourmand A et al. (2019): Social media and suicide: a review of technology-based epidemiology and risk assessment. Telemedicine and e-Health. DOI: 10.1089/tmj.2018.0203. 

Arendt F (2019): Suicide on instagram – Content analysis of a german suicide-related hashtag.Crisis; 40 (1), 36-41. DOI: 10.1027/0227-5910/a000529. 

Witt K et al. (2019): Sentinel surveillance for self-harm. Existing challenges and opportunities for the future. Crisis; 40, 1-6. DOI: 10.1027/0227/-5910/a000583.