Ende September 2024 haben über 100 Unternehmen (darunter auch Autodesk) den EU-Pakt für künstliche Intelligenz unterzeichnet und sich damit dazu verpflichtet, die Grundsätze der EU-Verordnung über künstliche Intelligenz einzuhalten. Doch die Selbstverpflichtungen der Unternehmen bezüglich einer verantwortungsvollen KI-Entwicklung und KI-Anwendung genügen vielen Menschen nicht. Sie fordern gemäß einer Umfrage von AuthorityHacker eine gesetzliche Regulierung von KI-Technologie.
Diese Umfrage war auf die USA beschränkt und ergab, dass sich 79,8 % der Befragten strikte gesetzliche KI-Vorschriften wünschten – auch dann, wenn dies bedeuten sollte, dass der technologische Fortschritt abgebremst wird. Besonders wichtig war den Befragten das Thema Datenschutz: 82,45 % zeigten sich besorgt über die Nutzung personenbezogener Daten beim Training von KI-Systemen.
Begleitend erfolgte durch AuthorityHacker eine Analyse des weltweiten Status der KI-Regulierung mit dem Ergebnis, dass entsprechende Bestimmungen in beinahe zwei Dritteln aller Länder in Arbeit, jedoch unterschiedlich weit gediehen sind. Führend bei diesen Bemühungen ist bislang die EU mit ihrer KI-Verordnung, die vom Europäischen Rat offiziell am 21. Mai 2024 angenommen wurde und in den kommenden drei Jahren phasenweise in Kraft tritt.
Zu Regulierungszwecken setzt die KI-Verordnung der EU auf eine Kategorisierung von KI-Systemen anhand des jeweiligen Risikoniveaus sowie auf konkrete Anforderungen pro Kategorie. So gelten für KI-Systeme mit beschränkten Risiken (unter anderem Spamfilter oder Videospiele mit KI-Einsatz) relativ geringe Anforderungen an die Transparenz. Hochrisiko-KI-Systeme hingegen müssen strengere Kriterien erfüllen, um in der EU vertrieben werden zu können. Hierzu zählen KI-basierte Medizinsysteme ebenso wie KI-Systeme für die Einstellung von Personal. Bestimmte KI-Systeme wiederum, die unannehmbare Risiken bergen, sind verboten. Dies betrifft etwa Systeme, die Behörden oder Unternehmen eine Bewertung des sozialen Verhaltens (Social Scoring) ermöglichen.
Dieses risikobasierte Konzept der KI-Verordnung ist ein sinnvoller Ansatz, findet Scannell: „Das Verbot bestimmter KI-Aspekte hat seinen Grund, denn es gibt so manche fragwürdige Einsatzmöglichkeiten.“ Er führt dies weiter aus: „Viele Vorgaben der KI-Verordnung betreffen Maßnahmen, die Stakeholder, Kundinnen und Kunden, Anwendende und Investierende von großen Unternehmen, die KI einsetzen, auch erwarten würden.“
Die Schwerpunktsetzung auf hochriskante KI-Anwendungen sorgt außerdem dafür, dass die Verordnung auch dann noch Relevanz hat, wenn sich die Technologie verändert. „Je mehr Vorschriften zusammenkommen, umso anachronistischer wird die Verordnung. Als die EU anfing, sich mit der Regulierung von KI-Systemen auseinanderzusetzen, gab es die Technologie [der generativen KI] zum Beispiel noch gar nicht“, betont Scannell.
In puncto Datenschutz verweist er darauf, dass die KI-Verordnung und die zuvor etablierte Datenschutz-Grundverordnung (DSGVO) einander ergänzen. So sind Unternehmen, die für KI-Anwendungen große Mengen personenbezogener Daten verarbeiten, gemäß DSGVO dazu verpflichtet, eine Datenschutz-Folgenabschätzung durchzuführen. Die KI-Verordnung nimmt also immer wieder Bezug auf die DSGVO.
Wie Scannell befürwortet Cooper ebenfalls den Fokus auf hochriskante KI-Anwendungen. „Ich sehe jedoch auch noch viele Fragen auf uns zukommen, wenn es an die eigentliche Umsetzung [der Verordnung] geht.“ Vor allem eindeutigere Vorgaben zu den genauen Verantwortlichkeiten bei Entwicklung und Anwendung wären aus seiner Sicht wünschenswert gewesen.