AssCompact suche
Home
Software
27. Oktober 2024
Zu Haftungsrisiken für Firmen beim Einsatz von KI
Zu Haftungsrisiken für Firmen beim Einsatz von KI

Zu Haftungsrisiken für Firmen beim Einsatz von KI

KI birgt großes Potenzial für Unternehmen. Doch mit dem KI-Einsatz kommen auch spezifische Haftungsrisiken. Welche Gefahren gilt es im Blick zu haben? Und wie ist die Haftung für Schäden geregelt, die durch KI verursacht werden? Antworten auf diese und weitere Fragen gibt ein Versicherungsexperte.

Interview mit Florian Kowarz, Lead Underwriter Financial Lines bei Markel Insurance SE
Herr Kowarz, künstliche Intelligenz (KI) fordert auch die Versicherungsbranche heraus, ihre Strategien zu überdenken. Welche Rolle spielt KI aktuell bei Markel?

KI entfaltet ihr volles Potenzial überall dort, wo große Datenmengen erfasst und analysiert werden müssen. Daher setzen wir uns bei Markel als stark datengetriebenes Unternehmen intensiv mit KI auseinander, um unsere Prozesse, von der Risikoanalyse und -bewertung über die Vertragsabwicklung bis hin zum Schadenmanagement, kontinuierlich zu optimieren und effizienter zu gestalten.

In welchen Bereichen können Unternehmen denn besonders durch den Einsatz von KI profitieren?

KI verbessert die Effizienz in der Verarbeitung großer Datenmengen durch Echtzeitanalysen und hohe Skalierbarkeit. Sie reduziert menschliche Fehler, ermöglicht präzisere Prognosen und sorgt für konsistente Qualitätskontrollen. Dies führt zu einer deutlichen Effizienzsteigerung und der Automatisierung komplexer Prozesse, was wiederum die Betriebskosten senkt. Zudem sind KI-gestützte Systeme rund um die Uhr verfügbar.

Gilt dies auch für das Management und die Entscheidungsfindung auf Führungsebene? 

Absolut, KI unterstützt Führungskräfte dabei, fundierte Unternehmensstrategien zu entwickeln, Risiken zu managen und datengestützte Entscheidungen zu treffen. Durch den gezielten Einsatz von KI können Unternehmen klare Wettbewerbsvorteile erzielen. Umgekehrt kann die fehlende oder unzureichende Nutzung von KI zu erheblichen Wettbewerbsnachteilen führen, die sogar Haftungsrisiken für das Management mit sich bringen können. Daher ist es entscheidend, dass das Management KI-Technologien angemessen einsetzt, um Fehlentscheidungen und potenzielle Haftungsrisiken zu vermeiden. 

Kann eine D&O-Versicherung solche Haftungsrisiken abdecken? 

Ja, eine D&O-Versicherung kann Risiken abdecken, die aus der Nichteinführung oder fehlerhaften Nutzung von KI resultieren, insbesondere wenn diese als Verletzung der Sorgfaltspflicht im Sinne der einschlägigen Haftungsnormen, die in einer Vielzahl von Gesetzen verankert sind (z. B. § 43 GmbHG, § 93 AktG, § 347 HGB, § 280 BGB, § 34 und § 41 GenG), ausgelegt wird. Die Versicherung deckt mögliche Schäden ab, die durch Fehlentscheidungen des Managements entstehen können, wie etwa entgangene Gewinne. Um Ansprüche erfolgreich geltend zu machen, müssen die Haftungsgrundlagen präzise definiert und dokumentiert werden, da die D&O-Versicherung nur dann greift, wenn ein klarer Zusammenhang zwischen der Haftpflichtverletzung und dem entstandenen Schaden besteht. 

Welche spezifischen Haftungsrisiken sind mit dem Einsatz von KI verbunden? 

Zunächst einmal sind KI-Modelle, insbesondere solche, die auf maschinellem Lernen basieren, oft als „Black Boxes“ konzipiert, deren Entscheidungsprozesse schwer nachzuvollziehen sind. Dies kann zu Haftungsproblemen führen, wenn die KI fehlerhafte oder unerwartete Entscheidungen trifft und die Gründe dafür nicht transparent sind.

Zudem stellen Bias und Diskriminierung ein Risiko dar: KI-Systeme können Verzerrungen aus den Trainingsdaten übernehmen, was zu diskriminierenden Entscheidungen führen kann. Wenn ein KI-Modell auf fehlerhaften oder voreingenommenen Daten trainiert wird, kann es unbewusst Entscheidungen treffen, die rechtliche und ethische Probleme aufwerfen und zu Haftungsansprüchen führen können. 

Dann sind noch die Cybersecurity-Risiken zu nennen. KI-Systeme sind anfällig für Cyberangriffe, bei denen Hacker versuchen, Systeme zu manipulieren oder Daten zu stehlen. Ein erfolgreicher Angriff kann besonders gravierende Schäden verursachen, wenn die KI in sensiblen Bereichen wie Finanzmanagement oder Personalwesen eingesetzt wird. Daher ist es entscheidend, die Cybersicherheit von KI-Systemen sicherzustellen.

Des Weiteren ist der rechtliche Rahmen für KI-­Anwendungen noch im Aufbau, was zu Unsicherheiten hinsichtlich der Compliance führen kann. Unternehmen müssen sich kontinuierlich über die sich entwickelnden Gesetze und Vorschriften informieren und ihre KI-Systeme entsprechend anpassen, um rechtliche Risiken zu minimieren. 

Schließlich können unzureichende Schulungen und Sicherheitsprotokolle zu Datenschutzverletzungen führen. Firmen müssen sicherstellen, dass ihre KI-Systeme die geltenden Datenschutzbestimmungen einhalten, um Risiken wie Datenlecks oder Compliance-Verstöße zu vermeiden. 

Gibt es konkrete Beispiele für Schäden, die durch KI verursacht wurden?

Ein prominenter Fall betrifft einen weltweit tätigen Elektronikkonzern, dessen Mitarbeiter aufgrund unzureichender Schulungen sensible Unternehmensdaten in ein unsicheres KI-Tool einspeisten, was zu einem erheblichen Datenleck führte. Ein weiteres Beispiel sind KI­-gestützte Rekrutierungstools, die bei der Bewertung von Lebensläufen unbewusste Vorurteile reproduzierten, was zu Diskriminierung führt. Diese Vorfälle verdeutlichen die Notwendigkeit einer sorgfältigen Implementierung und kontinuierlichen Überwachung von KI-Systemen. 

Wie wird die Haftung für Schäden geregelt, die durch KI verursacht werden?

Der EU AI-Act enthält zwar strenge Regeln für den Einsatz von KI, stellt jedoch keine spezifischen Versicherungsregelungen für KI-Schäden auf. Die Haftung für Schäden, die durch KI verursacht werden, liegt weitgehend in den Händen der nationalen Gesetzgeber und des Versicherungssektors. Unternehmen sollten daher vertragliche Haftungsklauseln (§ 276 Abs. 3 BGB, § 309 Nr. 7 BGB) und Garantiehaftungen (§ 443 BGB) in ihre Verträge mit KI-Anbietern aufnehmen. Auch § 823 BGB (Schadenersatzpflicht) kann relevant sein, wenn ein KI-System Fehler verursacht, die Dritte schädigen. Darüber hinaus haftet das Management gemäß § 93 AktG und § 43 GmbHG für fahrlässige Entscheidungen hinsichtlich der Nutzung oder Nichteinführung von KI. 

Wie geht Markel mit den Herausforderungen bei KI-Schäden um? 

Bislang hat Markel keine spezifischen Schäden im Zusammenhang mit KI verzeichnet. Die rechtlichen Rahmenbedingungen sind weiterhin unklar und der AI-Act stellt lediglich einen ersten Schritt dar. Es bedarf noch einer Klärung der Verantwortlichkeiten bei KI-Schäden, insbesondere in Bezug auf die Haftung von Entwicklern, Unternehmen und Nutzern.

Welche Empfehlungen würden Sie Unternehmen im Hinblick auf den Einsatz von KI und den Versicherungsschutz geben?

Unternehmen sollten interne Richtlinien für die Überwachung und Kontrolle von KI-Systemen entwickeln, regelmäßige Audits durchführen und spezialisierte Schulungen für das Management sowie die gesamte Belegschaft anbieten. Es ist ratsam, sich an dem AI-Act und den Leitlinien von Fachverbänden zu orientieren, um Risiken zu minimieren und den Versicherungsschutz zu optimieren. Eine umfassende Compliance-Management-Struktur und regelmäßige rechtliche Überprüfungen durch externe Berater sind ebenfalls empfehlenswert, um Haftungsrisiken durch den Einsatz von KI zu minimieren.

Unternehmen sollten sicherstellen, dass ihre Versicherungsverträge spezifische Klauseln enthalten, die mögliche Risiken im Zusammenhang mit KI abdecken, und regelmäßig überprüfen, ob der Versicherungsschutz den aktuellen rechtlichen und technologischen Entwicklungen entspricht.

Diesen Beitrag lesen Sie auch in AssCompact 10/2024 und in unserem ePaper.

Bild: © Florian Kowarz, Markel

 
Ein Interview mit
Florian Kowarz