Die EU hat nach jahrelanger Beratung einen großen Schritt gewagt und mit dem „EU AI Act“ die Nutzung von Künstlicher Intelligenz (KI) reguliert.
Zukünftig sind KI-Systeme in Risikogruppen einzuteilen – je höher die Gefahren der Anwendung sind, desto höher die Anforderungen an den Entwickler. Dies können zum einen Dokumentationsanforderungen in Bezug auf die Arbeitsweise der KI sein, welche transparent und nachweisbar sein soll, nachweislich urheberrechtliche Bestimmungen einhalten und zudem Wasserzeichen enthalten soll. Für Entwickler großer KI-Modelle gelten zusätzliche Anforderungen in Bezug auf Risikomanagement und Cybersicherheit. Ausnahmen gelten für unter einer Open-Source-Lizenz veröffentlichte KI-Modelle.
Es wird eine KI-Behörde eingerichtet, welche die Vorgaben für die Basismodelle durchsetzen soll; die Überwachung erfolgt durch nationale Behörden in den Mitgliedsstaaten. Beraten soll ein „AI Advisory Board“.
Der EU AI Act stellt weltweit einen Meilenstein dar, denn er schützt – ähnlich der EU-DSGVO – Betroffene in den verschiedensten Bereichen und soll eine Benachteiligung durch KI möglichst ausschließen.
In einem stark volatilen Umfeld, in dem sich die technischen Möglichkeiten mit rasantem Tempo entwickeln, wird es nicht einfach sein, die gesetzlichen Vorgaben einzuhalten. Umso wichtiger ist es, sich frühzeitig mit den Anforderungen auseinanderzusetzen und – der Verlockung, alles technisch Machbare schnell umzusetzen, zum Trotz – bei der Entwicklung und dem Einsatz von KI-Anwendungen die Risiken zu identifizieren, bewerten und entsprechende Grenzen zu setzen.
Gerne begleiten wir Ihre Projekte prüferisch und beratend.