Disclaimer for the US market

The products and information provided on this website are intended for healthcare professionals. These products are not for sale or distribution in the United States and statements made regarding these products have not been evaluated by the U.S. Food and Drug Administration (FDA). The efficacy of these products has not been confirmed by FDA-approved research and these products are therefore not intended to diagnose, treat, cure or prevent any disease. All information presented here is for general information purposes only and not meant as a substitute for or alternative to advice from healthcare practitioners. The Federal Food, Drug and Cosmetic Act requires this notice.

Neither the Company nor its representatives is providing any medical advice, and none should be inferred, from any ideas, suggestions, testimonials or other information set forth on this website or in other Company materials or provided over the phone, in the mail, in product packaging, or in email correspondence. This website may contain links to third-party websites. The Company provides these links as a convenience only and does not endorse any of these sites. The Company is not responsible for the content of, and does not make any representations regarding the materials on, such linked third-party websites. If you decide to access or rely on information at linked third-party website, you do so at our own risk. Our terms and conditions, including disclaimers, are more fully set forth in our Terms of Use, Privacy Policy and Terms of Online Sales.

Wer haftet bei KI im Gesundheitswesen?

Management & Krankenhaus, 09.06.2021

Die Thematik der digitalen Technik in der Medizin und die rechtlichen Anforderungen an diese hat in den letzten Jahren zusehends an Relevanz gewonnen.

Prof. Dr. Alexandra Jorzig, Rechtsanwältin, Fachanwältin für Medizinrecht, Professorin an der IB Hochschule für Gesundheit und Soziales Berlin, Düsseldorf

Insbesondere die Stichworte Big-Data, künstliche Intelligenz (KI) oder Blockchain haben nunmehr auch im medizinischen Alltag ihren Platz eingenommen. Mit steigender Relevanz der digitalen Technik ergeben sich neben technischen auch ethische und juristische Fragestellungen. Das Nachfolgende soll sich ausschließlich den haftungsrechtlichen Aspekten widmen. Die Möglichkeiten der digitalen Technik stellen sich auch im medizinischen Bereich als enorm vielfältig dar. Die vorliegende Abhandlung legt den Fokus auf KI, die nach und nach Einzug in den klinischen Alltag finden wird bzw. schon gefunden hat.

Haftungsrechtliche Aspekte

Die Anwendung von KI in der Medizin ist derzeit mit vielen Unwägbarkeiten behaftet. Unter anderem stellt sich die Frage, wer Haftungssubjekt bei Einsatz künstlicher Intelligenz ist, da es nach deutschem Recht nicht möglich ist, dass Objekte oder Softwarehaftungsschuldner darstellen. Anknüpfungspunkt einer Haftung können daher nur der Hersteller, das Krankenhaus und der Arzt sein. Während der Hersteller aufgrund des Inverkehrbringens bzw. der Entwicklung als Haftungsschuldner in Betracht kommen könnte, könnten das Krankenhaus aufgrund seiner Eigentümerstellung und der Arzt als Nutzer haftungsverantwortlich werden. Zu differenzieren ist zwischen schwacher und starker KI, wobei momentan nur schwache KI zur Anwendung kommt. Der Unterschied zwischen schwacher und starker KI liegt darin, dass schwache KI immer noch einen Impuls in Form eines Eingabebefehls benötigt, während starke KI aus eigenem Antrieb handelt.

Schwache KI: Wie oben bereits aufgezeigt, bedingt die Funktionsweise schwacher KI einen Eingabebefehl. Im klinischen Alltag würde dieser Eingabebefehl von einem Arzt ausgeführt werden. Der Arzt kontrolliert somit den Einsatz von schwacher KI und bleibt somit in der haftungsrechtlichen Verantwortung. Konsequenz dessen ist, dass der Arzt Haftungssubjekt bleibt und bestehende Haftungsnormen Anwendung finden.

Starke KI: Im Rahmen starker KI zeigt sich insbesondere das Problem, dass hier die Möglichkeit autonomer Entscheidungsfindung besteht, sodass sowohl das „Ob“ des Einsatzes als auch das „Wie“ dem KI-basierten System obliegen können und nicht dem Arzt. Da nach derzeitiger Rechtslage aber Objekte oder Software keine eigenständigen Haftungsschuldner darstellen können, ist es im Rahmen starker KI erforderlich, auf den Hersteller oder den Arzt als Haftungssubjekt abzustellen.

Haftung des Herstellers: Eine vertragliche Haftung des Herstellers entfällt, da keine vertragliche Beziehung zwischen dem Patienten und dem Hersteller bestehen dürfte. Auch eine deliktische Haftung des Herstellers entfällt: Grundsätzlich fällt KI fällt unter das Medizinproduktegesetz (MPG), sodass der Hersteller für Konstruktionsfehler haften würde. Da die Lernfähigkeit von KI jedoch dazu führt, dass programmierte Verfahrensweisen selbstständig abgewandelt werden können, würde sich eine fehlerhafte Handlung erst nach Inverkehrbringen entwickeln, sodass eine Haftung des Herstellers ausscheidet.

Haftung des Arztes bzw. Krankenhauses: Beim Arzt könnte sich eine vertragliche Haftung aus den §§ 630a ff. BGB ergeben. Gegenwärtig stellt KI noch keine allgemeine Therapieform dar. Der Einsatz erfordert nach derzeitigen Haftungsnormen daher eine – über den grundsätzlichen Maßstab hinaus – sorgfältige und gewissenhafte medizinische Abwägung von Vor- und Nachteilen unter Berücksichtigung aller Umstände des Einzelfalles und des Wohls des Patienten. Des Weiteren ergeben sich aus einer solchen Therapieform auch hohe Anforderungen an die Aufklärungspflicht. So muss der Patient darüber aufgeklärt werden, dass es sich um eine neuartige Methode handelt, bei der unbekannte Risiken bislang nicht auszuschließen sind.

Das Vertretenmüssen richtet sich nach den Vorschriften der §§ 276, 278 BGB. Gemäß § 276 BGB hat der Arzt Vorsatz und Fahrlässigkeit zu vertreten, wobei die Fahrlässigkeit u. a. die Vorhersehbarkeit der Schädigung vor aussetzt. Gerade die Vorhersehbarkeit dürfte beim Einsatz von KI aber aufgrund der Lernfähigkeit starker KI zweifelhaft sein, sodass § 276 BGB als Zurechnungsnorm ausscheidet.

Auch eine Zurechnung über § 278 BGB ist nicht möglich, da diese Norm eine Einsichtsfähigkeit voraussetzt des Erfüllungsgehilfen voraussetzt. Zudem kann die Vorschrift nur auf natürliche Personen angewendet werden. Zusammenfassend lässt sich erkennen, dass eine vertragliche Haftung der Schädigung eines Patienten unter Einsatz von KI zumindest auf Grundlage gesetzlicher Regelungen ausscheidet. Eine andere Bewertung dürfte sich natürlich dann ergeben, wenn individualvertragliche Regelungen zwischen Arzt und Patient getroffen werden.

Im Rahmen der deliktischen Haftung könnte als taugliche Verletzungshandlung im Sinne des § 823 BGB der Einsatz bzw. das Unterlassen der rechtzeitigen Abschaltung eines Systems unter Mitwirken von starker KI anzusehen sein. Probleme stellen sich hier im Rahmen der Kausalität, also ob das Fehlverhalten von KI dem Arzt zugerechnet werden kann.

Juristisch wird ein ursächlicher Zusammenhang über mehrere Stufen bestimmt. Auf der ersten Stufe wird jede Bedingung als ursächlich angesehen, die nicht hinweggedacht werden kann, ohne dass der Erfolg entfiele. Da der Arzt durch seinen Einsatz von KI zum Eintritt der Verletzung beigetragen hätte, wäre auf dieser Stufe die Zurechnung gegeben. Jedoch würde ein solcher bereits auf der zweiten Stufe entfallen. Die Adäquanztheorie begrenzt die erste Stufe und schließt gänzliche unwahrscheinliche Kausalverläufe aus. Die Lernfähigkeit von KI könnte als eine solche Unberechenbarkeit angesehen werden.

Unter der Prämisse, dass der Zurechnungszusammenhang aufgrund der Adäquanztheorie durchbrochen ist, bestünde allerdings Raum für eine analoge Anwendung von § 831 BGB. Gemäß § 831 BGB haftet der Geschäftsherr für Schäden, die der Verrichtungsgehilfe bei Ausübung der Verrichtung widerrechtlich verursacht hat. Da der menschliche Verrichtungsgehilfe durch die Übertragung einer Tätigkeit sowie durch Weisungsgebundenheit gekennzeichnet ist, bestehen durchaus Anknüpfungspunkte für eine analoge Anwendung. Im Gegensatz zu § 278 kommt es auf ein Verschulden des Gehilfen nicht an. Hier wird sowohl das Verschulden des Geschäftsherren bei der Auswahl und Überwachung des Gehilfen vermutet als auch die Ursächlichkeit für den Schaden. Dem Arzt obliegt somit der Entlastungsbeweis. Da der Arzt, der ein KI-System zur Hilfe nimmt, grundsätzlich eine Haftpflichtversicherung abgeschlossen haben muss, der Patient aber weder die technischen noch medizinischen Abläufe von KI-Systemen nachvollziehen kann, um somit den Beweis zu führen, dürfte eine solche Beweislastverteilung auch sachgerecht sein. Ferner trägt der Geschäftsherr auch bei menschlichen Verrichtungsgehilfen das Haftungsrisiko. Gründe, wieso sich diese Risikoverteilung beim Einsatz von KI zu Lasten des Patienten verschieben sollte, sind derzeit nicht ersichtlich. Allenfalls ein absoluter Totalausfall eines KI-Systems mit der Folge der Überschreitung aller programmierter technischer Grenzen dürfte einen Zurechnungszusammenhang zum Arzt entfallen lassen.

Die derzeitige Rechtslage ermöglicht es zwar, im Rahmen schwacher KI bestehende Haftungsnormen anzuwenden. Allerdings stellen sich bei Einsatz starker KI gegenwärtig haftungsrechtliche Probleme dar, da sowohl eine Haftung des Herstellers ausscheidet als auch eine vertragliche Haftung des Arztes. Ebenso ist eine deliktische Haftung des Arztes bzw. Krankenhauses nur über eine Analogie des § 831 BGB möglich. Zukünftig dürfte es daher erforderlich sein, ein kodifiziertes KI-Recht zu schaffen, auch weil der Einsatz von KI beständig an Bedeutung gewinnen wird. Unser derzeitiges Rechtssystem ist dem (noch) nicht gewachsen.

Pressekontakt

Resuscitec GmbH
Engesserstraße 4
D-79108 Freiburg
press@resuscitec.de


Disclaimer

Sie erhalten das Presseclipping der Resuscitec GmbH aufgrund Ihrer Beziehung zu unserem Unternehmen. Wir verarbeiten Ihre Daten auf Grundlage unseres berechtigten Interesses zum Zweck der persönlichen Ansprache und zum Versand unseres Presseclippings. Verantwortlich für die Datenverarbeitung ist die Resuscitec GmbH. Weitere Informationen zum Datenschutz finden Sie in unseren Datenschutzhinweisen. Sie können der Verarbeitung Ihrer personenbezogenen Daten für den Versand des Presseclippings jederzeit formlos widersprechen.


Nutzungshinweis

Aus urheberrechtlichen Gründen dürfen die Artikel weder in digitaler noch ausgedruckter Form an Dritte weitergegeben werden. Sie sind nur zum persönlichen Gebrauch bestimmt, der Aufbau einer Datenbank mit digitalisierten Artikeln ist nicht erlaubt.