Trends News

istock.com/Alexandros Michailidis

KI-Regulierung: Kritik an Vorschlägen der EU-Kommission

Die AutorInnen der Plattform Lernende Systeme fordern demnach in dem Papier, den konkreten Anwendungskontext eines Systems zu berücksichtigen sowie Beschwerdestellen und klare Haftungsregeln, teilte das ExpertInnen-Netzwerk in München mit. In dem Papier würden zusätzliche Kriterien benannt, um das Gefahrenpotenzial eines KI-Systems beurteilen zu können und gezeigt, wie die Verantwortung für Schäden zwischen AkteurInnen aufgeteilt werden sollte, hieß es.

Die EU habe dazu KI-Anwendungen nach ihrem Gefahrenpotenzial (der sogenannten Kritikalität) klassifiziert. So gehen den Angaben zufolge etwa von Systemen zur intelligenten Wartung von Industriemaschinen keine Gefahren aus. Sie entsprächen der niedrigsten von vier Risikostufen und bedürfen laut EU-Vorschlag keiner Regulierung. Andere denkbare KI-Anwendungen bergen demzufolge jedoch Risiken und müssten reguliert werden – bis hin zum Verbot, falls ihre Risiken als unannehmbar eingestuft würden, etwa Social Scoring durch staatliche Stellen.

KI-Systeme vor dem Hintergrund ihres Anwendungskontextes bewerten
Im Whitepaper werde der Vorschlag zur KI-Regulierung kritisiert, den die Kommission im April 2021 vorgelegt habe und der nun im EU-Parlament und Ministerrat diskutiert werde. Konkretisiert würden die Kriterien, anhand derer sich die Risiken von KI-Systemen beurteilen ließen. Die ExpertInnen betonten, dass KI-Systeme immer als Einzelfall und vor dem Hintergrund ihres jeweiligen Anwendungskontextes bewertet werden müssten: „Das gleiche System kann in einem Zusammenhang unproblematisch und in einem anderen höchst kritisch sein. KI für die Detektion von Hate Speech dürfte zum Beispiel zunächst als vergleichsweise unbedenklich gelten. Wenn die gleiche Anwendung aber von einem totalitären Staat genutzt wird, um kritische Stellungnahmen ausfindig zu machen und zu eliminieren, dann fällt die Bewertung gegenteilig aus“, erläuterte Jessica Heesen, Medienethikerin der Eberhard Karls Universität Tübingen.

Wie kritisch ein System zu bewerten sei und wie stark es reguliert werden sollte, wolle die EU-Kommission im Vorhinein durch bestimmte Kriterien festlegen, hieß es weiter. Das Whitepaper empfiehlt demnach, folgende Punkte stärker in den Blick zu nehmen: ob die Empfehlungen oder Entscheidungen eines KI-Systems Menschenleben oder Rechtsgüter wie die Umwelt gefährdeten und wieviel Handlungsspielraum dem Menschen bei der Auswahl und Nutzung der Anwendung bleibe, etwa um bestimmte Funktionen abzuschalten. Nach Ansicht der AutorInnen müssten die Kontroll- und Entscheidungsmöglichkeiten der NutzerInnen von KI-Systemen bei der Bewertung der Kritikalität stärker berücksichtigt werden. So sei es etwa ein Unterschied, ob eine KI-Software für den Aktienhandel Verkäufe automatisiert durchführe oder AktienbesitzerInnen nur Empfehlungen dafür gebe.

Das Fazit: Der Ansatz der EU-Kommission, KI-Systeme entsprechend ihres Gefahrenpotenzials zu regulieren, sei ein notwendiger Schritt auf dem Weg zu vertrauenswürdigen KI-Systemen. Insbesondere für Anwendungen mit höheren Autonomiegraden sei er jedoch nicht ausreichend. Es bestehe die Gefahr, dass die Risikoeinstufung eine Sicherheit vorgaukele, die ohne flankierende, nicht-technische Maßnahmen nicht gewährleistet werden könne, so Peter Dabrock, Ethikprofessor an der Friedrich-Alexander-Universität Erlangen-Nürnberg. (ud)

 

Stichworte

Verwandte Artikel

Anzeige

Lexikoneinträge