Doch das spannende Feld der autonomen Entscheidungen durch Software und Algorithmen wirft rechtliche Fragen auf, die für Unternehmen von weitreichender Bedeutung sind, stellt Rödl & Partner fest. Das betreffe beispielsweise die Haftung für Schäden, die durch KI-Systeme verursacht werden können, Arbeitsschutz und Datenschutz.
Rödl & Partner nennt folgende möglichen Ursachen für Schäden:
Wenn es um die Haftung für Entscheidungen von KI-Systemen geht, stößt das etablierte Haftungssystem des gesetzlichen Deliktsrechts an seine Grenzen, so die Beratungsgesellschaft. Begründung: KI-Systeme treffen ihre Entscheidungen zwar auf der Grundlage von Daten und Algorithmen, die von Menschen erstellt wurden, aber sie treffen ihre Entscheidung ohne menschliche Einwirkung. In diesem Haftungssystem sei es für Geschädigte oft schwierig oder gar unmöglich, mögliche Ansprüche durchzusetzen. Schließlich müsse der korrekte Anspruchsgegner bekannt sein, eine Sorgfaltspflichtverletzung sei nachzuweisen und die Kausalität des Schadens herzustellen. So spricht sich Rödl & Partner für klare Regeln aus, die für die Haftung für Entscheidungen von KI-Systemen zu treffen seien.
Die Europäische Union hatte im Jahr 2021 den Artificial Intelligence Act (kurz AI Act) auf den Weg gebracht. Im Mai 2023 einigten sich die zuständigen Ausschüsse des EU-Parlaments auf eine Position. Das Gesetz soll KI-Anwendungen in Risikoklassen einteilen. Programme mit geringem Risiko würden dann kaum reguliert, während allzu riskante Systeme ganz verboten werden sollen. Anwendungen mit hohen Risiken müssten Auflagen erfüllen, um diese Risiken zu reduzieren.
Ein kontrovers diskutiertes Thema ist der Einsatz von KI-Sprachmodellen für die eigene Arbeit der Mitarbeiter, führt Rödl & Partner weiter aus. Das könne eine Pflichtverletzung des Arbeitnehmenden darstellen, beispielsweise wenn Aufgaben vollständig vom KI-System erledigt werden, ohne dass der Arbeitgeber davon Kenntnis hat. Allein die Nutzung zur Hilfestellung werde aber voraussichtlich dann keine Konsequenzen für den Arbeitnehmenden haben, wenn kein sonstiges Fehlverhalten wie die Offenbarung von Betriebsgeheimnissen hinzukommt.
Unternehmen sollten entsprechende Risiken prüfen und abwägen, ob und wie sie ihren Mitarbeitenden den Einsatz von KI-Sprachmodellen gestatten möchten, rät das Beratungsunternehmen. Dabei sollten klare Vorgaben gemacht und interne Richtlinien eingeführt werden. Weitere Informationen zu diesem Thema hat Rödl & Partner hier veröffentlicht.
(fab)
![]() |
Zeitschrift für Risikomanagement (ZfRM)Früher informiert, schneller reagieren
Zwei gut sortierte Rubriken |
Risikomanagement | 14.04.2023 |
Künstliche Intelligenz für Entscheidungshilfen und Datenanalyse in komplexen Prozessen | |
![]() |
Um die Herausforderungen der digitalen Transformation zu bewältigen, kommt es auf ein intelligent ausgerichtetes und ganzheitliches Risikomanagement an. Wo wir in der Industrie 4.0 aktuell stehen und welche Aufgaben vor uns liegen, erörtert Prof. Julia Arlinghaus (Lehrstuhl Produktionssysteme und -automatisierung, Fakultät für Maschinenbau, Otto-von-Guericke-Universität Magdeburg/Institutsleiterin des Fraunhofer-Instituts für Fabrikbetrieb und -automatisierung IFF) im Interview. mehr … |
Um unseren Webauftritt für Sie und uns erfolgreicher zu gestalten und
Ihnen ein optimales Webseitenerlebnis zu bieten, verwenden wir Cookies.
Das sind zum einen notwendige für den technischen Betrieb. Zum
anderen Cookies zur komfortableren Benutzerführung, zur verbesserten
Ansprache unserer Besucherinnen und Besucher oder für anonymisierte
statistische Auswertungen. Um alle Funktionalitäten dieser Seite gut
nutzen zu können, ist Ihr Einverständnis gefragt.
Weitere Informationen finden Sie in unserer Datenschutzerklärung.
Notwendige | Komfort | Statistik
Bitte wählen Sie aus folgenden Optionen: