AI-Act

Probleme mit AI: Halluzinationen, Geistiges Eigentum, Vertraulichkeit, wenige Vorschriften, Hacking-AIs, Deep Fakes, Bias

Definition AI:
System, das autonom ist und anpassungsfähig ist und Ziele aus Eingaben ableitet, und Ausgaben wie Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen generieren kann, die Umgebungen beeinflussen können.

AI-Act

  • einheitlichen Rechtsrahmen für KI in EU
  • verbietet KI mit unannehmbaren Risiken (Echtzeitüberwachung)
  • KI mit hohen Risiken haben Sicherheitsvorschriften
  • Schutz der Grundrechte, KI in Europa
  • Hemmen von Innovationen, nur Rahmen

Geschichte:

  • 2018: Plan
  • 2021: Vorschlag
  • Juni-Dezember 2023: Verhandlung
  • 2024: Zustimmung
  • August 2024: Inkrafttreten

Unannehmbares Risiko:

  • Grundsätzlich Verboten
  • Eindeutige Bedrohung
  • z.B. Bewertung von sozialem Verhalten, biometrische Identifizierung

Hohes Risiko:

  • sorgfältige Prüfung notwendig + Überprüfungen im Einsatz
  • Produkte die in anderen Richtlinien reguliert sind
  • auch: kritische Infrastruktur: zentrale Dienstleistungen, Migration, Asyl, Grenzkontrolle, Ausbildung, Personalmanagement, Strafverfolgung

Geringes Risiko:

  • Transparenzverpflichtungen, Nutzer sollen Überblick über Funktionsweise haben
  • Anwendung obliegt Anwendern (wow)
  • z.B. Empfehlungen

Minimales Risiko:

  • minimal oder keine Risiko für Grundrechte
  • keine Vorschriften
  • meiste Systeme, z.B. Videospiele
  • können freiwillig Anforderungen erfüllen

Prüfung Hochrisiko:

  • regelmäßig währen Lebenszyklus
  • Traininsdaten kein Bias/Fehlerfrei
  • technische Dokumentation
  • Logs
  • Gebrauchsanweisung
  • menschlicher Überwachung, Abschaltung jederzeit möglich
  • Benchmarks

Schritte:

  1. Konformitätsbewertung: entspricht System den Anforderungen des AI-Acts?
  2. Registrierung eigenständiger Systeme in der Datenbank
  3. Konformitätserklärung

erster Punkt: interne Kontrolle beim Hersteller

Anwendungsbereich: EU-Recht, nicht bei nationaler Sicherheit oder Forschung/Entwicklung

Allgemeine Modelle/Open Source: keine bestimmte Nutzung, Könne in Hochrisiko-System integriert werden, Transparenz notwendig

AI-Office: Überwacht die besten Modelle, Normen und Testverfahren, Wissenschaftliches Gremium
Transparenz: Benutzer müssen wissen, dass sie ein KI-System nutzen
Sanktionen: bis 35 Mio oder 7% Umsatz

Potentiale:

  • Vertrauenswürdige KI
  • Einheitlicher Rechtsrahmen
  • Innovation und Wettbewerb

Herausforderungen:

  • Biometrische Überwachung wegen Strafverfolgung
  • Unterschiede zwischen Mitgliedsstaaten
  • Hürden für Innovation
  • Unzureichendes Risiko bei General Purpose AI