Interinstitutionelle Verhandlungen zum KI-Gesetz werden noch in diesem Jahr erwartet, und während der EU-Rat seine Position erreicht hat, hat Deutschland in bestimmten Punkten Vorbehalte, die es der Position des Europäischen Parlaments näher bringen als andere Mitgliedstaaten.
Am 6. Dezember bekräftigten die europäischen Minister beim Telecom Council ihre Unterstützung für den globalen Ansatz des KI-Gesetzes, einem bahnbrechenden Gesetz zur Regulierung künstlicher Intelligenz auf der Grundlage ihres Schadenspotenzials.
Deutschlands Bundesminister für Digitalisierung, Volker Wissing, begrüßte den Kompromiss und stellte fest, dass „es noch Raum für Verbesserungen gibt“, und fügte hinzu, er wünsche sich, dass die Kommentare Deutschlands bei den Verhandlungen mit dem Europäischen Parlament und der Kommission, der sogenannten Trilogphase, berücksichtigt würden.
Welche Punkte Berlin während der Triloge weiter vorantreiben wird, könnte ein entscheidender Faktor bei den Verhandlungen werden, da das größte Land Europas den EU-Gesetzgebern helfen könnte, die Balance im Rat auszugleichen.
Biometrische Erkennung
Deutschland befürwortet ein vollständiges Verbot der biometrischen Erkennungstechnologie, wie bereits in der dargelegt Koalitionsvertrag die drei Regierungsparteien im Jahr 2021 unterzeichnet haben. Dies ist auch ein grundlegender Punkt für die Ko-Berichterstatter des Parlaments.
Laut schriftlichen Eingaben, die im Oktober eingereicht und EURACTIV vorliegen, ist Berlin jedoch nur dafür, die biometrische Echtzeit-Identifizierung in öffentlichen Bereichen zu verbieten und eine nachträgliche Identifizierung zuzulassen.
Gleichzeitig behalten sich die Deutschen das Recht vor, sich zu einem späteren Zeitpunkt im Verlauf der Diskussion ausführlicher zu der Angelegenheit zu äußern.
Zudem wollte Deutschland die Definition biometrischer Daten mit der EU-Datenschutz-Grundverordnung abgleichen, um abweichende Begrifflichkeiten zu vermeiden und biometrische Kategorisierungssysteme als riskant einzustufen.
Predictive Policing und Emotionserkennung
Ein weiteres umstrittenes Thema ist der Einsatz von KI-Systemen in Strafsachen. In der gleichen Reihe von Kommentaren drängte Berlin auf ein Verbot jeglicher KI-Anwendung, die menschliche Richter bei der Einschätzung des Risikos einer Person, eine Straftat zu begehen oder zu wiederholen, durch die Strafverfolgungsbehörden ersetzt.
Diese KI-Anwendungen wurden in der endgültigen Einigung des Rates nur in die Hochrisikokategorien aufgenommen, während es im Europäischen Parlament offenbar starke Unterstützung dafür gibt, diese Praktiken insgesamt zu verbieten.
In ähnlicher Weise wollten die Deutschen die Liste der verbotenen Praktiken um KI-Systeme erweitern, die von der Regierung als Polygraphen, auch als Lügendetektoren bekannt, oder als andere Werkzeuge zur Erkennung von Emotionen verwendet werden. Sie baten auch darum, alle anderen Emotionserkennungssysteme als riskant einzustufen.
Strafverfolgung
Der Text des EU-Rates führte eine Reihe wichtiger Ausnahmen für die Strafverfolgung ein. Der Ansatz Deutschlands bestand im Allgemeinen darin, strengere Sicherheitsvorkehrungen für die von Strafverfolgungsbehörden eingesetzte KI zu treffen.
Berlin sprach sich aber auch dafür aus, diese Anträge vom Vier-Augen-Prinzip, das die menschliche Aufsicht von mindestens zwei Personen erfordert, auszunehmen, weil in vielen bestehenden Fällen nur ein Beamter zur Entscheidung benötigt wird.
Diese Widersprüchlichkeit rührt wahrscheinlich daher, dass die Liste der Kommentare aus verschiedenen Ministerien stammt, die von verschiedenen Koalitionsmitgliedern geleitet werden. Es ist nicht immer klar, welches Ministerium in einem bestimmten Thema die Oberhand hat, was die deutsche Position für die EU-Politiker schwer interpretierbar macht.
Während der Verhandlungen forderte die Bundesregierung, die KI-Bestimmungen zu Sicherheit und Migration in einem separaten Vorschlag auszupacken. Bisher gab es wenig Enthusiasmus für einen solchen Ansatz, der einen separaten allgemeinen oder allgemeinen Gesetzesvorschlag erfordern würde.
KI am Arbeitsplatz
Die Bundesregierung hat sich auch dafür eingesetzt, jedes KI-System zu verbieten, das darauf abzielt, die Leistung und das Verhalten von Mitarbeitern ohne bestimmten Grund systematisch zu überwachen, was zu psychologischem Druck führt, der sie daran hindert, sich frei zu verhalten.
„Diese KI-Systeme können die Leistung und das Verhalten von Mitarbeitern genau verfolgen, Bewertungen über die Kündigungswahrscheinlichkeit oder Produktivität eines Mitarbeiters erstellen, anzeigen, welche Mitarbeiter möglicherweise negative Stimmungen verbreiten, und schließlich umfassende Profile von Mitarbeitern erstellen“, heißt es in dem Kommentar zu.
Deutschland erhielt in der allgemeinen Ausrichtung einen Hinweis darauf, dass es den Mitgliedstaaten freisteht, auf nationaler Ebene Maßnahmen zu ergreifen, um spezifischere Regeln für KI am Arbeitsplatz zu erarbeiten. Eine ähnliche Formulierung wurde für den Jugendschutz eingeführt.
Hohe Risikoklassifizierung
Der tschechischen Ratspräsidentschaft ist es gelungen, der Hochrisikoklassifizierung eine zusätzliche Ebene hinzuzufügen, was bedeutet, dass KI nicht nur aufgrund ihres Anwendungsbereichs, sondern auch, wenn sie zur Gestaltung des Entscheidungsprozesses beitragen, als erhebliches Risiko angesehen wird berücksichtigt.
Die Deutschen lehnten diesen Ansatz ab und betonten, dass KI-Anbieter die Anwendungsfälle nicht vorhersehen könnten. Sie weisen auch auf die fehlende Verpflichtung für Anbieter von nicht riskanten Systemen hin, zu erklären, wie sie zu einer solchen Einstufung gekommen sind.
Berlin machte weitere Vorschläge zu KI-Anwendungen, die als Hochrisiko eingestuft werden sollten, nämlich emissionsintensive Industrien, Abwasserentsorgung, Sicherheitskomponenten für kritische digitale Infrastrukturen und öffentliche Extremwetterwarnsysteme.
Weitere Vorschläge für die Hochrisikoliste umfassen KI-Systeme, die zur Zuweisung von Sozialwohnungen, zum Inkasso von Schulden und zur Bereitstellung personalisierter Preise verwendet werden, da alle diese Anwendungen gefährdete Kategorien bestrafen könnten.