Mit dem AI Act hat die Europäische Union das erste umfassende Gesetz zur Regulierung Künstlicher Intelligenz weltweit auf die Strecke gebracht. Mit dem risikobasierten Ansatz möchte die EU ein Vorzeigemodell schaffen, das auch in anderen Teilen der Welt aufgenommen werden könnte. Es besagt, dass die Regelungen mit den steigenden potenziellen Gefahren einer Anwendung für die Gesellschaft strenger werden.
Mit dem nun vorliegenden Ergebnis scheint ein Kompromiss gelungen zu sein, der für den europäischen Digitalstandort keine wesentlichen Nachteile im globalen Wettbewerb mit sich bringen dürfte. Eine überbordende Belastung von Forschungs- und Entwicklungsunternehmen sowie Start-ups wird im Gegensatz zur EU-Datenschutzgrundverordnung mit ihren weitreichenden Bestimmungen vermieden.
„Grundsätzlich ist die schnelle Einigung auf den AI Act zu begrüßen, weil damit ein einheitlicher Standard für den europäischen Digitalmarkt geschaffen wird, der im Einklang mit den Grundwerten des interactive advertsing bureau steht. In gelebter EU-Tradition ist das Ergebnis stark vom Konsumentenschutz geprägt und Künstliche Intelligenz sehr weit definiert. Der Großteil der klein- und mittelständischen europäischen Digitalwirtschaft entwickelt Lösungen im B2B-Bereich, die der Modernisierung des gesamten Wirtschaftssystems dienen. Für neue KI-basierte Entwicklungen beispielsweise im Bereich der digitalen Verwaltung wird es eine frei zugängliche Sandboxes-Infrastruktur brauchen“, hält Stefan Santer (Didomi), Leiter der Arbeitsgruppe Public Affairs im interactive advertising bureau austria, fest.
Messgröße für Dokumentationspflichten
In ihren technischen Dokumentationen müssen die Entwickler von KI-Basismodellen Aufschluss über die Trainings- und Testverfahren geben und die Einhaltung urheberrechtlicher Bestimmungen nachweisen. KI-generierte Produkte sollen mit digitalen Wasserzeichen gekennzeichnet werden, um die Transparenz für Verbraucher zu erhöhen. In diesem Zusammenhang wird sich die Frage stellen, wie weitreichend die Kennzeichnungspflicht geht, da viele bereits seit mehreren Jahren genutzte Tools wie Chatbots auf Machine Learning basieren.
Bergen große KI-Modelle systemische Risiken in sich, unterliegen sie zusätzlichen Verpflichtungen im Risikomanagement und der Cybersicherheit. Die Einstufung durch die EU-Kommission erfolgt anhand der Rechenleistung zum Training der Modelle, die in Floating Point Operations gemessen wird. Die verankerte Grenze überschreiten derzeit nur wenige, vornehmlich aus den Vereinigten Staaten stammende Modelle wie unter anderem Chat-GPT 4 von Open AI. Davon wiederum ausgenommen sind Modelle, die unter einer Open-Source-Lizenz zugänglich gemacht werden.
„Die Rechenleistung hat wenig Aussage. Vielmehr sollte die User-Anzahl für die Risikoeinstufung herangezogen werden. Künftig ist mit kleineren Modellen zu rechnen, die energiesparender sind und mit weniger Rechenleistung auskommen. In der aktuellen Fassung des AI Acts öffnet sich ein reparaturbedürftiger Graubereich“, kommentiert der Experte.
Urheberrecht: Mehraufwand ohne Mehrwert?
Im AI Act schlägt das traditionell strenge europäische Urheberrecht zu. Urheber können der Nutzung ihrer Werke zum Training der Modelle widersprechen. Grundsätzlich steht es Entwicklern jedoch frei, auf digital verfügbare Daten zuzugreifen. Sie müssen allerdings eine detaillierte Zusammenfassung der Inhalte erstellen. Mit der Transparenzvorgabe haben Autoren, Musiker und Kreative die Möglichkeit, nachzuvollziehen, ob ihre Werke genutzt wurden.
Das von Verlegerseite geforderte Auskunftsrecht, mit dem Urheber die Verwendung eines bestimmten Werkes abfragen können, ist in der Verhandlung abgeblitzt. Auch Vergütungsansprüche sind derzeit noch nicht geregelt.
„Es müssen praxisnahe Verfahren entwickelt werden, die einfach und effektiv sind. Die Zusammenfassung einzelner Trainingsdaten ist administrativ nicht bewältigbar. Im Urheberrecht schlummert die Gefahr ähnlich extensiver Dokumentationsvorschriften wie sie bereits die EU-Datenschutzgrundverordnung vorsieht. Sie bedeuten viel Mehraufwand und wenig Mehrwert“, verdeutlicht Stefan Santer.
Einheitliche Behörde
Innerhalb der Europäischen Kommission ist die Errichtung einer eigenen KI-Behörde vorgesehen, um die Regulierung der Basismodelle durchzusetzen. Die KI-Systeme selbst sollen von nationalen Behörden überwacht werden. Eine einheitliche Anwendung der Rechtsvorschriften soll durch die Zusammenkunft im Europäischen Ausschuss für Künstliche Intelligenz sichergestellt werden. Ein zusätzliche AI Advisory Board widmet sich dem Austausch mit der Zivilgesellschaft und Interessensgruppen.
„Das Ziel sollte eine europäische KI-Behörde sein und kein Behördenwucher in 27 Mitgliedsstaaten, der unterschiedliche nationale Rechtsprechungen begünstigt. Die in Österreich noch für dieses Jahr geplante KI-Servicestelle des Digitalisierungsstaatssekretariats scheint ein vernünftiger Kompromiss zu sein, der Firmen und Entwicklern beratend zur Seite steht“, ergänzt Stefan Santer abschließend.