Zurück zu: EINFÜHRUNG IN DIE KI
Definition – Entwicklung – Abgrenzung
- Definition -laut der EU-Verordnung- eines AI-Systems/KI-Systems ?
- Im AI-Act wird ein KI-System definiert als eine Software, die mit einer oder mehreren Techniken und Ansätzen der Künstlichen Intelligenz entwickelt wurde und eigenständig für eine bestimmte Aufgabe oder Funktion Ergebnisse erzeugen, vorhersagen oder empfehlen kann, die die Interaktionen oder Entscheidungen eines Nutzers beeinflussen können.
- Dabei kann es sich um Systeme handeln, die auf maschinellem Lernen (z.B. Deep Learning), Wissensbasen, statistischen Methoden, Logik- und symbolischen Ansätzen oder Kombinationen dieser Techniken basieren. KI-Systeme sind in der Lage, eigenständig Muster zu erkennen, Daten zu analysieren und daraus Ergebnisse abzuleiten, die automatisiert Entscheidungen unterstützen oder sogar eigenständige Handlungen auslösen.
- Die vier Risikokategorien für KI-Systeme: Der AI-Act teilt KI-Systeme in vier Risikokategorien ein, um sicherzustellen, dass deren Einsatz verantwortungsbewusst und sicher erfolgt.
- Unacceptable Risk (Untragbares Risiko / Verbotene KI)
- Definition: Diese Kategorie umfasst KI-Systeme, die ein inakzeptables Risiko für die Sicherheit, die grundlegenden Rechte oder die Freiheit der Menschen darstellen. Solche Systeme sind im Rahmen des AI-Acts verboten und dürfen in der EU nicht eingesetzt werden.
- Beispiele:
- Soziale Bewertungssysteme: KI-Systeme, die zur Bewertung des sozialen Verhaltens von Individuen eingesetzt werden und z.B. den Zugang zu Dienstleistungen oder Rechten einschränken können.
- Manipulative KI: Systeme, die gezielt Schwächen von Menschen ausnutzen, um deren Verhalten zu beeinflussen, wie z.B. Kinder zu gefährlichem Verhalten anzustiften.
- Gesichtserkennung in Echtzeit im öffentlichen Raum (außer zu bestimmten Zwecken, wie z.B. bei der Strafverfolgung unter strengen Auflagen).
- High-Risk (Hohes Risiko KI)
- Definition: Diese Kategorie betrifft KI-Systeme, die wesentliche Sicherheits-, Gesundheits- oder Grundrechtsrisiken mit sich bringen können, wenn sie falsch eingesetzt oder entwickelt werden. Diese Systeme sind erlaubt, unterliegen jedoch strengen Anforderungen und müssen umfassend überwacht und geprüft werden.
- Beispiele:
- Medizinische Diagnosesysteme: KI-Anwendungen, die bei der Diagnose oder Behandlung von Krankheiten unterstützen.
- Autonome Fahrzeuge: KI-Systeme, die in selbstfahrenden Autos verwendet werden und sicherheitsrelevante Entscheidungen treffen.
- Biometrische Identifizierungssysteme: Systeme, die zur Identifizierung von Personen anhand von biometrischen Daten (z.B. Fingerabdruck- oder Gesichtserkennung) verwendet werden.
- KI-Systeme zur Entscheidungsunterstützung im Personalwesen: Zum Beispiel Systeme, die automatisiert über Einstellungen oder Beförderungen entscheiden.
- Limited-Risk KI (Begrenztes Risiko)
- Definition: Diese KI-Systeme stellen nur ein geringes Risiko dar und unterliegen daher weniger strengen Auflagen. Es ist lediglich eine transparente Kommunikation über deren Einsatz erforderlich, damit Nutzer wissen, dass sie mit einem KI-System interagieren.
- Beispiele:
- Chatbots und virtuelle Assistenten: Systeme, die mit Nutzern interagieren und allgemeine Informationen bereitstellen oder bei Kundenanfragen unterstützen.
- Empfehlungssysteme für Produkte: KI, die auf Online-Plattformen zur Empfehlung von Produkten oder Dienstleistungen eingesetzt wird, wie z.B. auf Streaming-Diensten oder in Online-Shops.
- Automatische Textvervollständigung: KI-basierte Systeme, die Texteingaben in Anwendungen oder Smartphones vorschlagen oder vervollständigen.
- Minimal-Risk KI (Minimales Risiko)
- Definition: KI-Systeme, die ein minimales Risiko für die Sicherheit oder die Rechte der Nutzer darstellen. Diese Systeme sind im AI-Act am wenigsten reguliert und unterliegen keinen spezifischen Auflagen.
- Beispiele:
- Spam-Filter: KI-Systeme, die in E-Mail-Anwendungen verwendet werden, um unerwünschte Nachrichten automatisch zu identifizieren und zu blockieren.
- Bildbearbeitungssoftware: KI-Anwendungen, die verwendet werden, um Bilder zu verbessern oder zu bearbeiten.
- KI-gestützte Spiele: Systeme, die zur Verbesserung des Spielerlebnisses in Videospielen eingesetzt werden, wie z.B. dynamische Anpassungen der Spielschwierigkeit.
- Unacceptable Risk (Untragbares Risiko / Verbotene KI)
- Überblick über den European AI Act und seine Ziele.
Schreibe einen Kommentar