„Endlich haben wir das weltweit erst verbindliche Gesetz zur künstlichen Intelligenz, um Risiken zu reduzieren, Chancen zu schaffen, Diskriminierung zu bekämpfen und Transparenz zu gewährleisten“, sagte Brando Benifei, Ko-Berichterstatter des Binnenmarktausschusses während der Plenardebatte. „Dank des Parlaments werden inakzeptable KI-Praktiken in Europa verboten und die Rechte von Arbeitnehmern und Bürgern geschützt.“ Er bezog sich auf die Einrichtung des Europäischen Amtes für Künstliche Intelligenz. Es soll Unternehmen bei der der Einhaltung der Vorschriften unterstützen. Es bleibt nun auch bei dem Ansatz, KI-Systeme nach dem von ihnen ausgehenden Risiko zu kategorisieren. Je größer die Gefahr ist, die von der KI ausgeht, desto höher sind die Anforderungen für den Einsatz. Bestimmte Anwendungen, die Rechte der Bürgerinnen und Bürger bedrohen, sind ganz verboten.
Strenge Vorschriften bei Hochrisiko-KI
Dazu zählen etwa die biometrische Kategorisierung auf Grundlage sensibler Merkmale und das gezielte Auslesen von Gesichtsbildern im Netz oder von Überwachungskameras für Gesichtserkennungsdatenbanken. Nicht gestattet ist auch, dass Systeme am Arbeitsplatz oder in der Schule Emotionen erkennen oder das soziale Verhalten bewerten. Selbst vorausschauende Polizeiarbeit, die einzig auf der Profilerstellung oder der Bewertung von Merkmalen einer Person beruht, sowie der Einsatz von KI, um das Verhalten von Menschen zu beeinflussen oder ihre Schwächen auszunutzen, ist nicht erlaubt. Vom Verbot der Nutzung biometrischer Fremdidentifizierungssysteme seitens der Strafverfolgungsbehörden gibt es Ausnahmen: Die Fernidentifizierung in Echtzeit ist erlaubt, wenn strenge Sicherheitsbestimmungen eingehalten werden. Es existieren zeitliche und räumliche Beschränkungen und es darf nur auf Grundlage einer speziellen behördlichen oder gerichtlichen Genehmigung gehandelt werden. Als Beispiele für erlaubte Sachverhalte dienen die Suche nach vermissten Personen oder die Abwehr eines Terroranschlages.
Mitgliedstaaten müssen Reallabore einrichten
Sogenannte Hochrisiko-KI-Systeme stellen möglicherweise eine Gefahr für Gesundheit, Sicherheit, Grundrechte, Umwelt, Demokratie und den Rechtsstaat dar. Konkret genannt ist in diesem Zusammenhang der Einsatz von KI-Systemen in den Bereichen Kritische Infrastruktur, allgemeine und berufliche Bildung oder Beschäftigung, Gesundheits- und Bankwesen, Migration und Grenzmanagement, Justiz, demokratische Prozesse und Strafverfolgung. Für diese Systeme gilt die Pflicht zur Risikobewertung und -verringerung. Es sind Nutzungsprotokolle zu führen, transparent und genau, sowie vom Menschen beaufsichtigt. Bürgerinnen und Bürger können Beschwerden über KI-Systeme einreichen. KI-Systeme mit allgemeinem Verwendungszweck und die Modelle, auf denen sie beruhen, müssen bestimmte Transparenzanforderungen erfüllen, darunter die Einhaltung des EU-Urheberrechts und die Veröffentlichung detaillierter Zusammenfassungen der für das Training verwendeten Inhalte. Für die leistungsfähigeren Modelle, die systemische Risiken bergen könnten, gelten künftig zusätzliche Anforderungen – etwa müssen Modellbewertungen durchgeführt, systemische Risiken bewertet und gemindert und Vorfälle gemeldet werden. Mitgliedstaaten müssen Reallabore einrichten und Tests unter tatsächlichen Bedingungen durchführen. Diese müssen für KMU und Start-ups zugänglich sein, damit sie KI-Systeme entwickeln und trainieren können, bevor sie damit auf den Markt gehen.
Copyright Bild: Unsplash / Lukas