EU verbietet KI-Systeme mit „unannehmbaren Risiken“
In der Europäischen Union (EU) dürfen keine Systeme mit Künstlicher Intelligenz (KI) eingesetzt werden, die „unannehmbare Risiken“ für die Menschen bergen und die Grundrechte verletzen. Das seit gestern geltende Verbot ist der erste konkrete Schritt zur Umsetzung des im August 2024 in Kraft getretenen KI-Gesetzes der EU.
Die Regelung betrifft insbesondere Anwendungen, die menschliches Verhalten manipulieren können oder das Bewerten sozialen Verhaltens durch Regierungen, Behörden oder Unternehmen ermöglichen. Auch biometrische Systeme zur Erkennung von Emotionen am Arbeitsplatz sind jetzt verboten. Sozialversicherungen sind von dem Verbot bisher nicht betroffen.
Der bisher weltweit erste KI-Regelungsrahmen beinhaltet vier Risikostufen. Neben den jetzt verbotenen „unannehmbaren Risiken“ definiert das EU-Gesetz „hohe Risiken“, „Systeme mit besonderen Transparenzverpflichtungen“ und „minimale Risiken“. Hochrisiko-Anwendungen betreffen zum Beispiel KI-basierte medizinische Software, KI-Systeme für die Personaleinstellung oder Risiko-Bewertungssysteme – etwa bei Versicherungen. Entsprechende Systeme müssen strenge Anforderungen erfüllen. Dazu gehören laut EU-Kommission „Systeme zur Risikominderung, eine hohe Qualität der Datensätze, die Protokollierung von Aktivitäten, eine ausführliche Dokumentation, klare Benutzerinformationen, menschliche Aufsicht und ein hohes Maß an Robustheit, Genauigkeit und Cybersicherheit“.
Von der deutschen Kranken-, Renten- und Unfallversicherung werden nach Angaben ihres Europa-Dachverbandes (DSVE) bisher keine Hochrisiko-KI-Systeme eingesetzt. Dies könne sich allerdings ändern, „wenn etwa maschinelle Lernverfahren für die Prüfung eines Leistungsanspruchs eingesetzt werden“, sagte DSVE-Direktorin Ilka Wölfle G+G. So sei derzeit in den Niederlanden ein KI-Projekt in der Entwicklungsphase, „um Vorhersagen zu veränderten Lebensbedingungen von Versicherten zu treffen“. In Deutschland wird gerade ein vom Innovationsfonds der gesetzlichen Krankenversicherung gefördertes Projekt zum KI-Einsatz bei der Analyse von Gesundheitsdaten für die Versorgungsforschung (KI-Thrust) ausgewertet.
Der Digitalverband Bitkom kritisierte neben „hohen Anforderungen und engen Fristen für die Unternehmen“ sowie unzureichenden Verbotskriterien generell die Ausrichtung der KI-Gesetzgebung. „Während in den USA mit dreistelligen Milliardenbeträgen KI ausgebaut werden soll und in China extrem leistungsfähige Sprachmodelle veröffentlicht werden, werfen wir in Deutschland und Europa den KI-Unternehmen Knüppel zwischen die Beine“, sagte Susanne Dehmel, Mitglied der Bitkom-Geschäftsleitung. (toro)
Datenschutzhinweis
Ihr Beitrag wird vor der Veröffentlichung von der Redaktion auf anstößige Inhalte überprüft. Wir verarbeiten und nutzen Ihren Namen und Ihren Kommentar ausschließlich für die Anzeige Ihres Beitrags. Ihre E-Mail-Adresse wird nicht veröffentlicht, sondern lediglich für eventuelle Rückfragen an Sie im Rahmen der Freischaltung Ihres Kommentars verwendet. Die E-Mail-Adresse wird nach 60 Tagen gelöscht und maximal vier Wochen später aus dem Backup entfernt.
Allgemeine Informationen zur Datenverarbeitung und zu Ihren Betroffenenrechten und Beschwerdemöglichkeiten finden Sie unter https://www.aok.de/pp/datenschutzrechte. Bei Fragen wenden Sie sich an den AOK-Bundesverband, Rosenthaler Str. 31, 10178 Berlin oder an unseren Datenschutzbeauftragten über das Kontaktformular.