Im März 2024 gab das EU-Parlament grünes Licht für das Gesetz über künstliche Intelligenz (KI). Es soll sowohl für Sicherheit als auch für die Achtung der Grundrechte sorgen und Innovationen fördern. Die neuen Regeln zielen darauf ab, Grundrechte, Demokratie und Rechtsstaatlichkeit sowie ökologische Nachhaltigkeit vor Hochrisiko-KI-Systemen zu schützen. Gleichzeitig sollen sie Innovationen ankurbeln und dafür sorgen, dass die EU in diesem Bereich eine Führungsrolle einnehmen kann. Die Verordnung legt abgestuft bestimmte Verpflichtungen für KI-Systeme fest, je nach Risiken und Auswirkungen.
Rasante Verbreitung von KI-Anwendungen macht Regulierung erforderlich
Technische Systeme, die menschliches Lernen nachahmen, entwickeln sich rasend schnell – mit allen Chancen und Risiken. Notwendig geworden war das Gesetz vor allem seit dem Durchbruch des Chatbots ChatGPT Ende 2022. Erstmals wurde einer größeren Öffentlichkeit bewusst, was mittlerweile mit künstlicher Intelligenz alles möglich geworden ist. Unter dem Begriff „Künstliche Intelligenz“ werden meist Anwendungen auf Basis maschinellen Lernens gemeint, bei denen eine Software große Datenmengen nach Übereinstimmungen abgleicht und daraus Schlussfolgerungen zieht. Sie werden schon jetzt in vielen Bereichen eingesetzt, wie beispielsweise in der Medizin bei der Diagnose von Krankheiten, in der Robotik oder bei den Sprachassistenten.
Balanceakt zwischen Regulierung und Innovationsförderung
Die auch AI Act (Artificial Intelligence), genannte Verordnung, zielt darauf ab, die ethische und verantwortungsvolle Nutzung von KI zu fördern, während gleichzeitig Raum für Innovationen geschaffen wird. Der AI Act setzt dabei auf klare Richtlinien und Kategorisierungen, um die verschiedenen Anwendungen von KI zu erfassen. Mit dieser Gesetzgebung ist die EU weltweit Vorreiter bei der Regulierung von KI.
Verbotene Anwendungen
Die neuen Vorschriften verbieten bestimmte KI-Anwendungen, die die Rechte der Bürgerinnen und Bürger bedrohen. Dazu zählen unter anderem die biometrische Kategorisierung auf der Grundlage sensibler Merkmale, wie zum Beispiel Geschlecht, ethnische Herkunft oder Alter sowie das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder von Überwachungskameras für Gesichtserkennungsdatenbanken. Ebenfalls verboten sind künftig Emotionserkennungssysteme am Arbeitsplatz und in Schulen sowie das Bewerten von sozialem Verhalten mit KI. Auch die Verwendung von KI-Systemen zur Strafverfolgung wird stark eingeschränkt und nur in Einzelfällen erlaubt. Diese Verbote sollen ein starkes Bekenntnis zum Schutz der Bürgerinnen und Bürger vor potenziell missbräuchlichen KI-Anwendungen signalisieren.
KI-Systeme nach Risikokategorien eingeteilt
Der AI Act unterteilt KI-Systeme auch in verschiedene Risikokategorien, um angemessene regulatorische Anforderungen festzulegen. Hochrisiko-KI-Systeme, die in sensiblen Bereichen wie Gesundheit oder Strafverfolgung eingesetzt werden, unterliegen strengen Vorschriften bezüglich Transparenz und menschlicher Überwachung. Dies soll sicherstellen, dass potenzielle Risiken angemessen kontrolliert werden. Auf der anderen Seite werden niedrig- und mittelrisikohafte KI-Anwendungen weniger strengen Regeln unterworfen, was Flexibilität und Innovation fördern könnte. Das betrifft unter anderem Anwendungen im Finanzbereich oder Chatbots und Sprachassistenten.
Gefahr von Diskriminierung
Wenn automatisierte Entscheidungssysteme und KI Entscheidungen treffen, die für Menschen im Alltag wichtig sind, wie beispielsweise in Bewerbungsverfahren oder bei Bankkrediten, kann es zu Diskriminierung kommen. Hintergrund ist, dass die Qualität von digitalen Entscheidungen wesentlich von den Daten abhängt, die in das System eingespeist werden. Liegen pauschale Gruppenmerkmale zugrunde, kann dies Vorurteile und Stereotype reproduzieren, daher hat der AI Act auch Antidiskriminierungsregeln festgelegt.
Herausforderungen für Unternehmen und Forschung
Für Unternehmen und Forschungseinrichtungen bringt der AI Act Herausforderungen: Sie müssen ihre bestehenden KI-Systeme überprüfen und möglicherweise anpassen, um den neuen Anforderungen zu entsprechen. Dies könnte mit Aufwand verbunden sein und Innovationen vorübergehend bremsen. Zudem besteht die Herausforderung darin, einen ausgewogenen Ansatz zu finden, der Innovationen fördert, aber gleichzeitig die Risiken für die Gesellschaft minimiert.
Insgesamt ist der AI Act ein Meilenstein für die KI-Industrie und ein starkes Signal dafür, dass die Europäische Union die Chancen und Risiken der Künstlichen Intelligenz ernst nimmt. Durch die Festlegung klarer Richtlinien und Kategorisierungen möchte die EU eine Vorreiterrolle bei der KI-Regulierung einnehmen und weltweit Standards setzen. Es bleibt jedoch abzuwarten, wie sich die Umsetzung gestaltet und welche Auswirkungen dies auf die globale KI-Landschaft haben wird. Letztendlich wird der Erfolg des AI Act davon abhängen, wie gut es gelingt, einen ausgewogenen Ansatz zwischen Innovation und Risikominimierung zu finden. Außerdem sind Maßnahmen notwendig, um die Gefahren der KI-Diskriminierung zu minimieren und den Schutz vor Benachteiligung zu verbessern.