08.12.2022Hintergrund

Haftung beim Einsatz von KI – Der AI Act der EU

Mit ihrem KI-Paket will die EU "ein widerstandsfähiges Europa für die digitale Dekade" aufbauen und globale Standards setzen.

Die künstliche Intelligenz (KI) steht derzeit an der Spitze der technologischen Veränderungen. Egal ob Sprachsteuerung im Auto, Verarbeitung von Kundenfeedback oder frühzeitige Krankheitserkennung: KI-Anwendungen sind längst kein Zukunftsthema mehr. Doch wie steht es um die Haftung beim Einsatz von KI? Da eine adäquate Regulierung fehlt, will sich die EU diesem Problem nun mit einem neuen Gesetzespaket annehmen.

Die Anwendungsbereiche künstlicher Intelligenz sind schon heute beträchtlich. Es gibt kaum einen Lebensbereich, den KI-Systeme noch nicht durchdrungen haben. Da sich diese Entwicklung in Zukunft unaufhaltsam fortsetzen wird, denken auch immer mehr kleine und mittlere Unternehmen (KMU) über den Einsatz solcher Anwendungen nach. Zwar setzen bisher nur 9 Prozent der Unternehmen in Deutschland KI-Systeme ein. Doch in Zukunft wird der Mittelstand kaum auf die Chancen und Potentiale dieser wegweisenden Technologie verzichten können. So sieht es auch die Wirtschaft selbst: Laut einer Umfrage des Digitalverbands Bitkom betrachtet die große Mehrheit der befragten Unternehmen künstliche Intelligenz als Chance. 10 Prozent wollen 2023 in die Technologie investieren.

Unternehmen stellen sich die Haftungsfrage

Künstliche Intelligenz hilft dabei, Zeit und Ressourcen effizienter zu nutzen. Und sie ermöglicht Dinge, die aufgrund ihrer Komplexität zuvor nicht möglich waren – so zum Beispiel das autonome Fahren. KI-Systeme werfen jedoch auch Fragen auf, auf die es Antworten zu finden gilt. Neben ethischen Erwägungen werden derzeit intensiv Haftungsfragen beim Einsatz von KI diskutiert. Wer übernimmt die Haftung, wenn ein eingesetztes KI-Tool Bewerber aufgrund ihrer Herkunft oder ihres Geschlechts diskriminiert? Wer kommt dafür auf, wenn ein fahrerloses Fahrzeug einen Unfall verursacht? Die Bitkom-Befragung zeigt, dass sich auch viele Unternehmen mit ähnlichen Fragen beschäftigen. Als befürchtete Risiken beim Einsatz von KI gaben 40 Prozent der Befragten Haftungsverpflichtungen bei Schäden an.

Die Europäische Union will Klarheit schaffen

Die Europäische Union will auch deshalb mit ihrem AI Act (Artificial Intelligence Act) für mehr Klarheit sorgen und eine Antwort darauf finden, wer haftet, wenn KI fehlerhaft ist. Die Diskussionen drehen sich um Anpassungen im Haftungsrecht und um gänzlich neue Vorschriften. Die grundsätzliche Idee der neuen Vorschriften: sie sollen immer dann greifen, wenn ein KI-Schaden nicht durch die schon geltende Produkthaftung gedeckt ist. Die Kommission steht dabei vor einem schwierigen Spagat zwischen einem angemessenen Schutzniveau und Überregulierung. Die große Gefahr besteht darin, dass man KI-Systeme in der EU ausbremst und damit die technologische Entwicklung und die Innovationsfähigkeit der Wirtschaft gefährdet. Mit ihrem Gesetzsvorschlag will die EU jedoch einerseits Bürgerinnen und Bürger vor Risiken schützen, andererseits aber auch künstliche Intelligenz fördern und das Vertrauen in die Technologie stärken.

Risikobasierter Ansatz mit offenen Fragen

Der derzeitige Vorschlag sieht eine Klassifizierung von KI-Anwendungen in vier verschiedene Risikolevels vor: minimales Risiko, begrenztes Risiko, hohes Risiko und unannehmbares Risiko. Die Einordnung erfolgt je nach Einsatzzweck. Je höher das Risiko, desto strenger die Auflagen. Beispiele für Hochrisiko-Bereiche sind das Bildungssystem, der Arbeitsmarkt, die kritische Infrastruktur und die Strafverfolgung. Ein unannehmbares Risiko soll bestehen, wenn eine klare Bedrohung der Menschenrechte vorliegt. Ein minimales Risiko ergäbe sich, wenn eine KI-Software Nutzern Filmempfehlungen anzeigt.

Die exakte Einteilung der Anwendungszwecke ist jedoch noch Gegenstand von intensiven Debatten. Auch ist die genaue Definition eines KI-Systems umstritten. Die EU arbeitet derzeit zudem an der Richtlinie zu KI-Haftung, mit der sie die Betroffenenrechte stärken will. Laut EU-Kommission soll mit dieser neuen Richtlinie sichergestellt werden, dass „Opfer von durch KI-Technologie verursachten Schäden in gleicher Weise entschädigt werden, als wenn dies unter anderen Umständen geschehen wäre“. Die Umsetzung des Gesetzespakets zur künstlichen Intelligenz wird jedoch voraussichtlich erst 2025 erfolgen. Sobald das EU-Parlament eine Einigung erzielt hat (voraussichtlich Anfang 2023), können die Trilogverhandlungen der EU-Institutionen beginnen. Anfang Dezember hatten die EU-Mitgliedstaaten eine grundsätzliche Einigung erzielt. 

Mehr zu diesen Themen