{"id":10136,"date":"2023-08-25T09:36:41","date_gmt":"2023-08-25T09:36:41","guid":{"rendered":"https:\/\/www.techopedia.com\/de"},"modified":"2023-09-06T18:21:46","modified_gmt":"2023-09-06T18:21:46","slug":"das-potenzial-und-ethische-bedenken-vom-ki-einsatz-in-der-psychiatrischen-versorgung","status":"publish","type":"post","link":"https:\/\/www.techopedia.com\/de\/ki-einsatz-in-der-psychiatrie-ein-gamechanger-mit-ethikfragen","title":{"rendered":"KI-Einsatz in der Psychiatrie: ein Game-Changer mit Ethikfragen"},"content":{"rendered":"
Der Einsatz k\u00fcnstlicher Intelligenz (KI)<\/a> zur Unterst\u00fctzung von Patienten mit psychischen Erkrankungen ist ein ethisches Minenfeld.<\/span><\/p>\n Bei richtiger Anwendung kann KI zusammen mit maschinellem Lernen (ML)<\/a> dazu beitragen, neue Therapien zu finden und die Behandlung von Patienten zu erleichtern. Wird sie jedoch falsch eingesetzt, kann dies zu Fehldiagnosen f\u00fchren und hilfsbed\u00fcrftigen Menschen die n\u00f6tige Unterst\u00fctzung vorenthalten.<\/span><\/p><\/blockquote>\n Gleichzeitig gibt es einen Mangel an Fachpersonal im Bereich der psychischen Gesundheit. Nach einer Prognose der Weltgesundheitsorganisation (engl. World Health Organization, WHO) gab es im Jahr 2019 fast eine Milliarde Menschen mit einer psychischen St\u00f6rung<\/a>, und es besteht ein erheblicher Mangel<\/a> an Beratern, Psychiatern und Psychologen, die Patienten unterst\u00fctzen k\u00f6nnen.<\/span><\/p>\n Vor diesem Hintergrund entwickeln Softwareanbieter KI-basierte Apps und Chatbots wie Woebot<\/em> und Wysa<\/em>, die Nutzern bei leichten Symptomen wie Depressionen und Angstzust\u00e4nden helfen. Mit diesen Chatbots k\u00f6nnen Patienten \u00fcber ihre Emotionen sprechen und erhalten grundlegende Unterst\u00fctzung und Anleitung von einem automatischen Agenten.<\/span><\/p><\/blockquote>\n Auch wenn Studien zeigen, dass viele User diese Apps praktisch finden<\/a>, sind sie nicht ohne Risiken. So hat Anfang dieses Jahres ein Mann in Belgien Selbstmord begangen, nachdem der KI-Chatbot Chai<\/em><\/a> den Nutzer nach sechsw\u00f6chigem Dialog dazu ermutigt haben soll, sich umzubringen.<\/span><\/p>\n In diesem Fall k\u00f6nnte der KI-Chatbot, der negative Antworten lieferte, daf\u00fcr verantwortlich gewesen sein, dass sich die schutzbed\u00fcrftige Person das Leben nahm.<\/span><\/p>\n Angesichts der Tatsache, dass beim Einsatz von KI im Gesundheitswesen so viel auf dem Spiel steht wie Leben oder Tod, m\u00fcssen Mediziner, klinische Forscher und Softwareentwickler ein akzeptables Risiko f\u00fcr die Verwendung dieser Technologie festlegen.<\/span><\/p>\n Wenn ein Softwareanbieter z. B. einen Chatbot entwickelt, mit dem die Nutzer ihre Symptome besprechen k\u00f6nnen, sollten sie \u00fcber klar definierte Leitplanken verf\u00fcgen, um das Risiko einer KI-Halluzination zu verringern. <\/span><\/p><\/blockquote>\n Zu den grundlegenden Schutzmechanismen k\u00f6nnten ein Haftungsausschluss und Live-Support von qualifizierten Spezialisten geh\u00f6ren, um eine zus\u00e4tzliche Sicherheitsebene zu schaffen.<\/span><\/p>\n Jede Einrichtung, die KI zur Unterst\u00fctzung von Nutzern zu implementieren plant, muss zun\u00e4chst feststellen, ob der Einsatz k\u00fcnstlicher Intelligenz ein Risiko f\u00fcr schutzbed\u00fcrftige Personen darstellt oder deren Zugang zu Behandlung oder Unterst\u00fctzung beschleunigt.<\/span><\/p>\n Ein Forscher im Bereich der psychischen Gesundheit argumentiert: <\/span>\u201e<\/span>K\u00fcnstliche Intelligenz hat ein immenses Potenzial, unsere Diagnose neu zu definieren<\/a> und zu einem besseren Verst\u00e4ndnis psychischer Erkrankungen beizutragen. Psychischer Erkrankungen einer Person … Technologien der k\u00fcnstlichen Intelligenz k\u00f6nnen m\u00f6glicherweise bessere pr\u00e4diagnostische Screening-Instrumente entwickeln und Risikomodelle ausarbeiten, um die Veranlagung eines Menschen f\u00fcr eine geistige Erkrankung oder die M\u00f6glichkeit einer solchen zu bestimmen.<\/span>\u201c<\/span><\/p><\/blockquote>\n Allerdings m\u00fcssen L\u00f6sungen, die auf der Basis von KI psychische Erkrankungen diagnostizieren, auf qualitativ hochwertigen Trainingsdaten aufbauen, um die bestm\u00f6gliche Genauigkeit zu gew\u00e4hrleisten. Jegliche Unrichtigkeiten im Datensatz k\u00f6nnten zu einer Fehldiagnose oder einer falschen Behandlung von hilfsbed\u00fcrftigen Patienten f\u00fchren.<\/span><\/p>\n Der Einsatz von KI in der Psychiatrie ist ein Bereich, in dem der Zweck die Mittel heiligt. Wenn durch KI der Zugang der Patienten zu Unterst\u00fctzung vereinfacht und die Medikamentenentwicklung gestrafft werden kann, dann ist das ein positives Ergebnis. <\/span><\/p>\n F\u00fchrt sie zu Fehldiagnosen, Falschinformationen oder hindert sie schutzbed\u00fcrftige Menschen daran, Zugang zu klinischer Unterst\u00fctzung zu erhalten, dann ist sie ein No-Go.<\/span><\/p>\n Eine der vielleicht wichtigsten \u00dcberlegungen in der ethischen Debatte \u00fcber KI ist die Erhebung, Speicherung und Nutzung von Daten durch KI-Systeme, auf denen diese L\u00f6sungen basieren. Dazu geh\u00f6rt alles: von pers\u00f6nlichen Daten bis hin zu vertraulichen Emotions- und Verhaltensinformationen eines Menschen.<\/span><\/p>\n Klinische Forscher und Softwareanbieter, die Patientendaten verarbeiten, m\u00fcssen zumindest sicherstellen, dass sie die ausdr\u00fcckliche Zustimmung der betroffenen Personen haben. <\/span><\/p><\/blockquote>\n Andernfalls m\u00fcssen die Daten de-identifiziert oder anonymisiert werden, damit personenbezogene Informationen<\/a> (engl. personal identifiable information, PII), elektronisch gesch\u00fctzte Gesundheitsdaten (engl. electronic protected health information, EPHI) und Krankenakten nicht an unbefugte Dritte weitergegeben werden.<\/span><\/p>\nKI und Psychiatrie: ethische Argumente im Mittelpunkt<\/span><\/h2>\n
Gleichgewicht zwischen Datenschutz und Unterst\u00fctzung<\/span><\/h2>\n