EU verbietet KI-Systeme mit „unannehmbaren Risiken“
In der Europäischen Union (EU) dürfen keine Systeme mit Künstlicher Intelligenz (KI) eingesetzt werden, die „unannehmbare Risiken“ für die Menschen bergen und die Grundrechte verletzen. Das seit gestern geltende Verbot ist der erste konkrete Schritt zur Umsetzung des im August 2024 in Kraft getretenen KI-Gesetzes der EU.
Die Regelung betrifft insbesondere Anwendungen, die menschliches Verhalten manipulieren können oder das Bewerten sozialen Verhaltens durch Regierungen, Behörden oder Unternehmen ermöglichen. Auch biometrische Systeme zur Erkennung von Emotionen am Arbeitsplatz sind jetzt verboten. Sozialversicherungen sind von dem Verbot bisher nicht betroffen.
Der bisher weltweit erste KI-Regelungsrahmen beinhaltet vier Risikostufen. Neben den jetzt verbotenen „unannehmbaren Risiken“ definiert das EU-Gesetz „hohe Risiken“, „Systeme mit besonderen Transparenzverpflichtungen“ und „minimale Risiken“. Hochrisiko-Anwendungen betreffen zum Beispiel KI-basierte medizinische Software, KI-Systeme für die Personaleinstellung oder Risiko-Bewertungssysteme – etwa bei Versicherungen. Entsprechende Systeme müssen strenge Anforderungen erfüllen. Dazu gehören laut EU-Kommission „Systeme zur Risikominderung, eine hohe Qualität der Datensätze, die Protokollierung von Aktivitäten, eine ausführliche Dokumentation, klare Benutzerinformationen, menschliche Aufsicht und ein hohes Maß an Robustheit, Genauigkeit und Cybersicherheit“.
Von der deutschen Kranken-, Renten- und Unfallversicherung werden nach Angaben ihres Europa-Dachverbandes (DSVE) bisher keine Hochrisiko-KI-Systeme eingesetzt. Dies könne sich allerdings ändern, „wenn etwa maschinelle Lernverfahren für die Prüfung eines Leistungsanspruchs eingesetzt werden“, sagte DSVE-Direktorin Ilka Wölfle G+G. So sei derzeit in den Niederlanden ein KI-Projekt in der Entwicklungsphase, „um Vorhersagen zu veränderten Lebensbedingungen von Versicherten zu treffen“. In Deutschland wird gerade ein vom Innovationsfonds der gesetzlichen Krankenversicherung gefördertes Projekt zum KI-Einsatz bei der Analyse von Gesundheitsdaten für die Versorgungsforschung (KI-Thrust) ausgewertet.
Der Digitalverband Bitkom kritisierte neben „hohen Anforderungen und engen Fristen für die Unternehmen“ sowie unzureichenden Verbotskriterien generell die Ausrichtung der KI-Gesetzgebung. „Während in den USA mit dreistelligen Milliardenbeträgen KI ausgebaut werden soll und in China extrem leistungsfähige Sprachmodelle veröffentlicht werden, werfen wir in Deutschland und Europa den KI-Unternehmen Knüppel zwischen die Beine“, sagte Susanne Dehmel, Mitglied der Bitkom-Geschäftsleitung. (toro)