Ein Beitrag von Dr. Conrad Waldkirch, Akademischer Rat a. Z. am Lehrstuhl für Bürgerliches Recht, Privatversicherungsrecht, Wirtschaftsrecht und Rechtsvergleichung von Prof. Dr. Oliver Brand an der Universität Mannheim
Die Einsatzmöglichkeiten von selbstlernender künstlicher Intelligenz (KI) in der Versicherungswirtschaft sind vielfältig. Aufgrund ihrer Fähigkeit, große Datenmengen zu verarbeiten sowie höchst unterschiedliche Prozesse zu automatisieren und effizienter zu machen, ist künstliche Intelligenz prädestiniert für diese datenlastige Branche. Deshalb verwundert es nicht, dass KI bereits in vielen Bereichen eingesetzt wird, etwa im Underwriting, der Ablaufsteuerung oder der Schadenregulierung. In der Leistungsprüfung werden beispielsweise eingehende, höchst unterschiedliche Schriftstücke (z. B. Rechnungen) und Bilder (z. B. Unfallfotos) automatisch erfasst und ausgewertet. KI kann zudem dafür genutzt werden, die Regulierungsanträge auf Anzeichen für Betrug zu untersuchen und begründete Begehren automatisch zu regulieren.
Quantensprung ChatGPT
Neue Anwendungsfelder haben sich zudem mit dem Auftritt des großen Sprachmodells ChatGPT aufgetan. Dieses kann Versicherern und Vermittlern nicht nur beim Abfassen von Dokumenten helfen. Die Kommunikationsfähigkeiten der KI, die einen Quantensprung gegenüber den bisherigen regelbasierten Systemen darstellen, legen zudem einen Einsatz in der Online-Beratung nahe. Dazu gibt es auch bereits vereinzelte Experimente, etwa den Chatbot Clara der Helvetia.
Fehlende Regelungen
Gegenwärtig gibt es weder versicherungsrechtliche noch allgemeine Vorschriften, die speziell den Einsatz von KI regeln. Da es auch an einschlägiger Rechtsprechung fehlt, verwundert es nicht, dass noch viele Rechtsfragen ungeklärt sind, weswegen erhebliche Unsicherheit herrscht. Schwierigkeiten erzeugt dabei insbesondere, dass das Verhalten adaptiver KI, die sich selbst fortentwickelt, nicht vorhersehbar und im Nachhinein auch kaum erklärbar sein kann. So trifft auch ChatGPT gelegentlich falsche Aussagen, ohne dass deren Zustandekommen rekonstruierbar ist. Das Sprachmodell erfindet sie scheinbar – was als Halluzinieren bezeichnet wird.
Etwas mehr Klarheit besteht im Versicherungsaufsichtsrecht. Zwar fehlen auch dort gesetzliche Vorgaben. Insoweit haben aber BaFin und EIOPA erste Verlautbarungen dazu getätigt, ob und wie der Einsatz von KI mit den Vorgaben des Aufsichtsrechts vereinbar ist. Die Behörden formulieren diesbezüglich in der Form von Prinzipien zum Beispiel Anforderungen an die Governance sowie die Transparenz und Erklär- bzw. Interpretierbarkeit der Entscheidungsprozesse der KI und schreiben Schutzmaßnahmen bezüglich des großen Diskriminierungspotenzials der Algorithmen vor.
Aktuelle Rechtsfragen
Für viele der bereits bekannten Rechtsfragen zeichnet sich jedoch zumindest eine Tendenz ab. So besteht beispielsweise weitgehend Einigkeit, dass sich die Verwender von KI-Systemen durch diese generierte Erklärungen als eigene zurechnen lassen müssen, auch wenn deren Inhalt von ihrem Vorstellungsbild abweicht. Zudem ist man sich im Ergebnis einig, dass es aktuell schlicht technisch noch nicht möglich ist, dass Versicherer und Vermittler ihre Beratungspflichten nach dem Versicherungsvertragsgesetz (VVG) stets gesetzeskonform durch eine KI erfüllen. Das VVG verbietet zwar deren Einsatz nicht. Die aktuellen KI-Systeme, selbst fortschrittliche große Sprachmodelle wie ChatGPT, können jedoch zumindest komplexere und atypische Beratungssituationen noch nicht zuverlässig bewältigen, sogar wenn die KI versicherungs- und unternehmensspezifisch nachtrainiert wurde.
Wie steht es um die Haftung?
Mit Blick auf eine Haftung für durch KI verursachte Schäden, etwa solche durch eine Falschberatung, können die Verwender weiterhin erfolgreich den Einwand entgegenhalten, dass die konkrete schadenstiftende „Entscheidung“ der KI deren autonomer Fortentwicklung geschuldet und nicht vorhersehbar gewesen sei. Daran wird wohl auch die geplante KI-Haftungsrichtlinie nichts ändern. Speziell für die Beratung könnte jedoch gleichwohl eine Einstandspflicht über die sogenannte „versicherungsrechtliche Erfüllungshaftung“ drohen. Diese sieht vor, dass der Versicherer unabhängig von einem Verschulden unrichtige Erklärungen seiner Agenten oder Angestellten über den Inhalt des Vertrags immer dann gegen sich gelten lassen muss, wenn der Versicherungsnehmer auf die Richtigkeit des Erklärungsinhalts vertrauen durfte. Während der weit überwiegende Teil der Rechtswissenschaft und der Rechtsprechung zu Recht annimmt, dass dieses Rechtsinstitut mit der Neukodifikation des VVG von 2007 abgeschafft wurde, wollen einzelne Oberlandesgerichte und Vertreter des Schrifttums an ihm festhalten. Sollte sich diese Rechtsauffassung durchsetzen, könnte die nicht vorhersehbare Falschinformation durch KI-Berater sogar das vorrangige Anwendungsfeld dieser eigentlich schon totgesagten Rechtsfigur sein.
Klare Grenzen
Die Rechtsordnung sieht zudem zahlreiche Schranken vor, die den möglichen Einsatz von KI begrenzen. Etwa darf der Algorithmus nicht in einer nach dem Allgemeinen Gleichbehandlungsgesetz untersagten Weise diskriminieren. Ebenso setzt das Datenschutzrecht der Möglichkeit von Entscheidungen einer KI, die unmittelbare Rechtswirkung zulasten eines Versicherten entfalten, enge Grenzen. So gestattet Art. 22 der Datenschutz-Grundverordnung (DSGVO) automatisierte Entscheidungen ohne eine explizite freiwillige Einwilligung des Betroffenen nur, sofern sie für diesen nicht nachteilig sind, also beispielsweise wenn dem Begehren vollumfänglich stattgegeben wird. Die einzige Ausnahme bildet § 37 des Bundesdatenschutzgesetzes (BDSG), der Entscheidungen zuungunsten der Versicherten ausschließlich in der Leistungsprüfung und dies auch nur für die Krankenversicherung zulässt. Insoweit wird zu Recht – aber bisher ohne Erfolg – von der Branche gefordert, die Befugnis auf weitere Sparten zu erweitern, damit auch in diesen die Schadenabwicklung beschleunigt werden kann.
Ausblick
Weitreichende Änderungen stehen jedoch bevor. In naher Zukunft wird das EU-Gesetz über künstliche Intelligenz (AI Act) – das weltweit erste seiner Art – in Kraft treten. Das Gesetz, durch das ein sicherer, vertrauenswürdiger und ethischer Einsatz von KI gewährleistet werden soll, ist ein wichtiger Schritt vorwärts. Der neue Rechtsrahmen macht unter anderem Vorgaben zur Klassifizierung von und den Anforderungen an KI-Systeme und wird der Versicherungswirtschaft zusätzliche Pflichten auferlegen. Gleichwohl ist er insgesamt zu begrüßen. Der AI Act ist jedoch nur ein erster Schritt – weitere Gesetze werden folgen, etwa die KI-Haftungsrichtlinie, sodass die sich wandelnden rechtlichen Rahmenbedingungen Rechtswissenschaft und Praxis noch lange vor immer neue Herausforderungen stellen werden.
Diesen Beitrag finden Sie auch in AssCompact 03/2024 und in unserem ePaper.
Lesen Sie außerdem:
KI-Gesetz: Versicherer kritisieren Hochrisikoeinstufung
Bild: © Sikov – stock.adobe.com
- Anmelden, um Kommentare verfassen zu können