KI und Datensicherheit: Worauf kommt es an?

Wie steht es in der KI-Entwicklung um die Datensicherheit? Welche Risiken und Regularien gibt es? Was ist mit ethischen Aspekten? Hier finden Sie Antworten.

Eine weibliche Person prüft auf Großbildschirmen Code-Zeilen.

Shawn Radcliffe

25. März 2025

Min. Lesedauer
  • Künstliche Intelligenz revolutioniert derzeit eine Vielzahl an Branchen. Es fragt sich jedoch, wie es dabei um die Datensicherheit bestellt ist und was für Risiken bestehen

  • Gesetzliche Bestimmungen und Branchenstandards sollen hier Klarheit schaffen, denn die KI-Entwicklung schreitet rasant voran. Zusätzlich sind seitens der Unternehmen proaktive Maßnahmen im KI-bezogenen Risikomanagement unerlässlich

  • Ziel ist es, Vertrauen bei Kunden und anderen Unternehmen aufzubauen, und zwar durch eine gleichbleibend hohe Qualität und Zuverlässigkeit und indem transparent aufgezeigt wird, dass KI-Entwicklung und KI-Anwendung verantwortungsvoll durchgeführt werden

In vielen Branchen wie Architektur, Ingenieurwesen, Bauwesen und Gebäudebetrieb (AECO), Produktentwicklung und Fertigung (PD&M) sowie Medien und Unterhaltung (M&E) hat Künstliche Intelligenz (KI) einen Wandel eingeläutet. Doch die in stetiger Weiterentwicklung befindliche KI-Technologie bietet nicht nur Vorteile, sondern birgt auch Risiken. Dessen sind sich bereits viele Führungskräfte bewusst. Neben Phishing, Vishing, Identitätsdiebstahl und Dokumentenfälschung steht besonders die Datensicherheit im Fokus.

Wie groß die KI-bezogenen Bedenken hierbei ausfallen, variiert je nach Sektor. Gemäß einer in den USA durchgeführten Umfrage des Finanzdienstleisters Yooz (AI in the Workplace: 2024 Construction Industry Snapshot) sind KI-assoziierte Befürchtungen in der Baubranche stärker ausgeprägt (62 %) als in der befragten Gesamtpopulation (57 %). Letztere umfasste auch Befragte aus Fertigung, Automobilbau, Handel, Gastronomie, Gesundheitswesen, Finanzwesen und Versicherungswesen.

Trotz aller Bedenken glauben 40 % der Befragten aus dem Bauwesen dennoch, dass der Einsatz von KI-Technologie ethischen Maßstäben entspricht – im Gegensatz zu nur 25 % der übrigen Befragten. Laut dem von Autodesk veröffentlichten „State of Design & Make“-Report von 2024, der anders als bei Yooz auf einer weltweit durchgeführten Umfrage beruht, stimmten 78 % der Befragten aus Planung und Fertigung zu, dass KI die Branche bereichern wird.

KI-Bedenken ausräumen, aber wie?

Manche Unternehmen haben selbst Vorkehrungen für einen verantwortungsvollen Einsatz der Technologie getroffen, um den Befürchtungen bezüglich der negativen Auswirkungen von KI entgegenzuwirken. Auch von staatlicher Seite sind Unternehmen angehalten, geeignete Maßnahmen zu ergreifen. Beispielsweise erreichte die Regierung des zu diesem Zeitpunkt noch amtierenden US-Präsidenten Joe Biden im Juli 2023 eine freiwillige Selbstverpflichtung führender KI-Unternehmen, um von KI ausgehende Risiken einzudämmen.

Im Zuge dessen hat Autodesk das Programm „Trusted AI“ ins Leben gerufen. Dabei widmen sich Experten aus den Bereichen Recht, Datenschutz, Governance, Informationssicherheit, KI und Daten der sicheren Implementierung von KI unter Einhaltung strenger interner Standards und Richtlinien. Dazu gehört auch die Zusammenarbeit mit dem US-amerikanischen Normungsinstitut NIST (National Institute of Standards and Technology), das wiederum zum Konsortium des US-Instituts für KI-Sicherheit AISIC (AI Safety Institute Consortium) zählt. Ziel der Zusammenarbeit ist die Entwicklung von Leitlinien und Normen für KI-bezogene Messungen und Richtlinien. Hinzu kommt eine weitere Maßnahme von Autodesk: das Einholen von Kundenfeedback zu KI-Bedenken.

Als sinnvolle Maßgabe für Unternehmen erachtet Barry Scannell, seines Zeichens KI-Spezialist und Partner in der Technologie-Abteilung der US-Anwaltsfirma William Fry, die am 01. August 2024 in Kraft getretene KI-Verordnung der Europäischen Union (EU) – auch für Unternehmen, die nicht in den Geltungsbereich der Verordnung fallen.

„Wer KIs entwickelt oder eine KI-Anwendung in Erwägung zieht, sollte als Erstes einen Risikomanagement-Plan aufstellen.”

Aaron Cooper, Vice President Global Policy, Business Software Alliance

In Anbetracht des rasanten Fortschritts von KI-Systemen und der neuen Gesetzesvorgaben sind Unternehmen gut beraten, in Bezug auf die potenziellen Gefahren von KI-Technologie proaktiv tätig zu werden. „Wer KIs entwickelt oder eine KI-Anwendung in Erwägung zieht, sollte als Erstes einen Risikomanagement-Plan aufstellen”, empfiehlt Aaron Cooper, Senior Vice President für Global Policy der Business Software Alliance (BSA), eines öffentlichen Verbands, der Software-Firmen zu Richtlinien berät.

„BSA hat Vorstandsmitgliedern verschiedener Unternehmen empfohlen, bei der KI-Implementierung auf ein verantwortungsvolles Vorgehen zu achten“, so Cooper. „Das ist auch dann wichtig, wenn dies kein Gesetz vorschreibt.“

Nur wenn dies gegeben ist, ist ein den ethischen Maßstäben genügender Einsatz von KI sichergestellt, befindet Cooper. Außerdem ist es erforderlich, um Verstöße gegen andere Gesetze zu vermeiden und Schaden hinsichtlich der Glaubwürdigkeit des eigenen Unternehmens abzuwenden, falls einmal ein KI-assoziierter Vorfall Negativschlagzeilen macht. „Deshalb sollten von Beginn an ein paar Sicherheitsvorkehrungen getroffen werden“, bekräftigt Cooper noch einmal.

Eine Bestandsaufnahme

In einem Server-Raum nimmt eine männliche Person auf einem Tablet eine Datenprüfung vor.
Sicherheitsstrategien umfassen unter anderem das Verschlüsseln, Anonymisieren, Filtern und Kontrollieren von Daten.

Des Weiteren empfiehlt Scannell eine Bestandsaufnahme der vorhandenen KI-Systeme: Wozu dienen sie jeweils? Wer ist jeweils von ihnen betroffen? Welche Risiken bestehen und wo ist ein Missbrauch möglich? Cooper zufolge sollte dies auch eine grundlegende Rechte- und Datenschutz-Folgenabschätzung umfassen.

Die wahre Herausforderung auf Unternehmensseite besteht laut Cooper jedoch nicht in der Abschätzung der Folgen eines KI-Einsatzes, sondern im organisatorischen Teil. „Dies gilt insbesondere für größere Unternehmen, da sehr viele Personen einzubeziehen sind.“

Was den Datenschutz anbelangt, gilt für KI das gleiche wie für andere Technologien: Daten müssen verschlüsselt und anonymisiert werden, geschützte Daten sind herauszufiltern und rigorose Zugangskontrollen sind zwingend. Da KI-Systeme letzten Endes zudem auch nur eine andere Form von Software-Code darstellen, sind sie außerdem auf ausnutzbare Schwachstellen zu prüfen. Auch Anbieter, die an der Entwicklung oder Anwendung von KI-Produkten beteiligt sind, müssen einbezogen werden und sich mit entsprechenden Risikofragen befassen.

Ziel ist es, Vertrauen bei Kunden und anderen Unternehmen aufzubauen, und zwar durch eine gleichbleibend hohe Qualität und Zuverlässigkeit und indem transparent aufgezeigt wird, dass KI-Entwicklung und KI-Anwendung verantwortungsvoll durchgeführt werden.

Dieser Vertrauensaspekt ist für Cooper entscheidend. Nur dann sei gewährleistet, „dass Unternehmen unterschiedlicher Industriezweige ein gutes Gefühl bei der KI-Anwendung haben und KI-Systeme nutzbringend einsetzen. Wenn eine KI hingegen ohne gebührendes Verantwortungsbewusstsein entwickelt wird, befindet sich das nächste Glied der Wertschöpfungskette in einer ziemlich verzwickten Lage – zum Beispiel diejenigen, die das jeweilige System am Ende verwenden.“

Hier setzen die EU-Verordnung über künstliche Intelligenz und ähnliche geplante Maßnahmen in den USA an, wie auch Cooper betont. Sie sollen die Rahmenbedingungen schaffen, unter denen das Potenzial von KI ausgeschöpft werden kann, Innovation gefördert wird und zugleich sichergestellt ist, dass KI-Systeme auf verantwortungsvolle Weise entwickelt werden.

Ethik und KI

Ende September 2024 haben über 100 Unternehmen (darunter auch Autodesk) den EU-Pakt für künstliche Intelligenz unterzeichnet und sich damit dazu verpflichtet, die Grundsätze der EU-Verordnung über künstliche Intelligenz einzuhalten. Doch die Selbstverpflichtungen der Unternehmen bezüglich einer verantwortungsvollen KI-Entwicklung und KI-Anwendung genügen vielen Menschen nicht. Sie fordern gemäß einer Umfrage von AuthorityHacker eine gesetzliche Regulierung von KI-Technologie.

Diese Umfrage war auf die USA beschränkt und ergab, dass sich 79,8 % der Befragten strikte gesetzliche KI-Vorschriften wünschten – auch dann, wenn dies bedeuten sollte, dass der technologische Fortschritt abgebremst wird. Besonders wichtig war den Befragten das Thema Datenschutz: 82,45 % zeigten sich besorgt über die Nutzung personenbezogener Daten beim Training von KI-Systemen.

Begleitend erfolgte durch AuthorityHacker eine Analyse des weltweiten Status der KI-Regulierung mit dem Ergebnis, dass entsprechende Bestimmungen in beinahe zwei Dritteln aller Länder in Arbeit, jedoch unterschiedlich weit gediehen sind. Führend bei diesen Bemühungen ist bislang die EU mit ihrer KI-Verordnung, die vom Europäischen Rat offiziell am 21. Mai 2024 angenommen wurde und in den kommenden drei Jahren phasenweise in Kraft tritt.

Zu Regulierungszwecken setzt die KI-Verordnung der EU auf eine Kategorisierung von KI-Systemen anhand des jeweiligen Risikoniveaus sowie auf konkrete Anforderungen pro Kategorie. So gelten für KI-Systeme mit beschränkten Risiken (unter anderem Spamfilter oder Videospiele mit KI-Einsatz) relativ geringe Anforderungen an die Transparenz. Hochrisiko-KI-Systeme hingegen müssen strengere Kriterien erfüllen, um in der EU vertrieben werden zu können. Hierzu zählen KI-basierte Medizinsysteme ebenso wie KI-Systeme für die Einstellung von Personal. Bestimmte KI-Systeme wiederum, die unannehmbare Risiken bergen, sind verboten. Dies betrifft etwa Systeme, die Behörden oder Unternehmen eine Bewertung des sozialen Verhaltens (Social Scoring) ermöglichen.

Dieses risikobasierte Konzept der KI-Verordnung ist ein sinnvoller Ansatz, findet Scannell: „Das Verbot bestimmter KI-Aspekte hat seinen Grund, denn es gibt so manche fragwürdige Einsatzmöglichkeiten.“ Er führt dies weiter aus: „Viele Vorgaben der KI-Verordnung betreffen Maßnahmen, die Stakeholder, Kundinnen und Kunden, Anwendende und Investierende von großen Unternehmen, die KI einsetzen, auch erwarten würden.“

Die Schwerpunktsetzung auf hochriskante KI-Anwendungen sorgt außerdem dafür, dass die Verordnung auch dann noch Relevanz hat, wenn sich die Technologie verändert. „Je mehr Vorschriften zusammenkommen, umso anachronistischer wird die Verordnung. Als die EU anfing, sich mit der Regulierung von KI-Systemen auseinanderzusetzen, gab es die Technologie [der generativen KI] zum Beispiel noch gar nicht“, betont Scannell.

In puncto Datenschutz verweist er darauf, dass die KI-Verordnung und die zuvor etablierte Datenschutz-Grundverordnung (DSGVO) einander ergänzen. So sind Unternehmen, die für KI-Anwendungen große Mengen personenbezogener Daten verarbeiten, gemäß DSGVO dazu verpflichtet, eine Datenschutz-Folgenabschätzung durchzuführen. Die KI-Verordnung nimmt also immer wieder Bezug auf die DSGVO.

Wie Scannell befürwortet Cooper ebenfalls den Fokus auf hochriskante KI-Anwendungen. „Ich sehe jedoch auch noch viele Fragen auf uns zukommen, wenn es an die eigentliche Umsetzung [der Verordnung] geht.“ Vor allem eindeutigere Vorgaben zu den genauen Verantwortlichkeiten bei Entwicklung und Anwendung wären aus seiner Sicht wünschenswert gewesen.

KI-Regulierung in den USA

Die Flagge des US-Bundesstaats Kalifornien weht neben dem Dom des Kapitols in Washington, D.C.
Kalifornien ist einer von zwei US-Bundesstaaten, die bei der Regulierung von KI-Systemen eine Vorreiterrolle einnehmen.

In den USA gibt es derzeit noch keine allgemeingültige Verordnung, die mit der KI-Verordnung der EU vergleichbar wäre. Im Oktober 2023 veröffentlichte die Biden-Administration jedoch einen Präsidentenerlass, der sichere KI-Systeme und eine verantwortungsvolle Anwendung dieser Systeme sicherstellen soll (Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence). Cooper zufolge „soll der Erlass den gesamten Regierungsapparat für das Thema KI fit machen.“

Zwar ist der Präsidentenerlass verbindlicher als Selbstverpflichtungen von Unternehmen. Ob er jedoch schlussendlich den gewünschten Effekt hat, hängt von den Standards und Bestimmungen zur KI-Kontrolle ab, die vom US-Handelsministerium (Department of Commerce), vom US-Ministerium für innere Sicherheit (Department of Homeland Security) und von weiteren Behörden noch auszuarbeiten sind.

Repräsentantenhaus und Senat in den USA widmen sich ebenfalls der KI-Problematik und haben gesonderte Arbeitsgruppen (Task Forces) eingerichtet, die zum Teil auch überparteilich die Situation aus Sicht der Legislative beurteilen sollen. Cooper sieht deshalb „in den USA die größten Bestrebungen hin zu einer neuen KI-Gesetzgebung“.

Eine Vorreiterrolle bei der Gesetzgebung zur Entwicklung und Anwendung bestimmter KI-Systeme nehmen die US-Bundesstaaten Kalifornien und Colorado ein: „Auch in den USA, beispielsweise in Colorado, liegt der Schwerpunkt der KI-Regulierung auf Hochrisiko-Fällen, ähnlich wie in der EU“, so Cooper. „Dadurch können weltweite Gefahrenpotenziale von KI leicht identifiziert und Unternehmen angehalten – oder gegebenenfalls gezwungen – werden, entsprechende Maßnahmen zu ergreifen.“ Weiter führt er aus: „Es geht nicht um ein Verbot von KI für bestimmte Situationen, sondern regulatorisch darum, sicherzustellen, dass Training und Anwendung von KI speziellen Sicherheitsvorkehrungen unterliegen und am Ende nicht zu Diskriminierung führen.“

Internationale Interoperabilität

Für Unternehmen wie Autodesk, die KI-Software nutzen oder vertreiben, besteht das Risiko, dass jedes Land und möglicherweise sogar jeder US-Bundesstaat zu guter Letzt komplett eigene und von den anderen gänzlich unterschiedliche KI-Gesetze verabschiedet, mit der Folge, dass insbesondere internationale Unternehmen mit einem wahren Sammelsurium an Bestimmungen konfrontiert wären, die Innovation verhindern oder Unternehmensführungen dazu zwingen würden, bezüglich der verschiedenen Vorgaben Prioritäten zu setzen. Genau das ist in gewisser Weise schon geschehen, nämlich beim Thema Datenschutz, bei dem die USA und die EU jeweils andere Ansätze verfolgen.

Im Idealfall „würden gleichgesinnte Nationen auf interoperable Regeln setzen“, meint Cooper. Die Aussichten stehen aktuell in seinen Augen auch gar nicht so schlecht, da die G7-Staaten Frankreich, Deutschland, Italien, Japan, die USA, das Vereinigte Königreich und Kanada sich in einem entsprechenden Diskurs befinden, „um sicherzugehen, dass bei der KI-Regulierung miteinander kompatible oder vielleicht sogar identische Maßgaben erfolgen“.

Eine Gewähr gibt es aber nicht, denn jeder Regierungswechsel, sei es in den USA oder in der EU, könnte einen Sinneswandel zur Folge haben, so wie unter Umständen auch einzelne US-Bundesstaaten neue KI-gerichtete Konzepte erwägen könnten. „Generell konzentrieren sich die einzelnen Regierungen bei ihren Sicherheitsmaßnahmen bislang jedoch auf Hochrisiko-Szenarien“, merkt Cooper an. „Insofern bleibt es vorerst vermutlich noch bei einer gemeinsamen Linie.“

Pratyush Rai, CEO der Firma, die hinter der mit einer generativen KI arbeitenden Browser-Erweiterung Merlin AI steht, hält die KI-Verordnung der EU im Hinblick auf kleinere Start-ups hingegen für zu komplex, so durchdacht sie auch sein mag. „Um innovativ sein und eine ethisch vertretbare und sichere Anwendung von KI-Systemen gewährleisten zu können, benötigen Unternehmen wie das unsrige eindeutige und einheitliche Vorschriften, die keine allzu aufwendigen Maßnahmen nach sich ziehen“, befindet Rai. „Wir sind bereit zu Transparenz, Selbstregulierung und Zusammenarbeit mit den Gesetzgebern, um praxisnahe, wirksame Rahmenbedingungen zu schaffen. Auch Industriestandards und Zertifizierungen könnten den Unternehmen die Compliance erleichtern, ohne dass sie sich in einem undurchschaubaren Wirrwarr aus Vorgaben verlieren.“

„Um innovativ sein und eine ethisch vertretbare und sichere Anwendung von KI-Systemen gewährleisten zu können, benötigen Unternehmen wie das unsrige eindeutige und einheitliche Vorschriften, die keine allzu aufwendigen Maßnahmen nach sich ziehen.“

Pratyush Rai, CEO, Merlin AI

Wie sich unterschiedliche KI-Bestimmungen in verschiedenen Jurisdiktionen auswirken können, zeigt sich am Beispiel der DSGVO-Umsetzung in den einzelnen EU-Staaten: „Was die DSGVO anbelangt, haben internationale Unternehmen, die mehreren Datenschutzgesetzen gerecht werden mussten, nicht auf den kleinsten gemeinsamen Nenner gesetzt, sondern auf die strengsten Vorgaben, um im Prinzip alle Bestimmungen zu erfüllen“, erklärt Scannell. „Und die strengsten Vorgaben hatte natürlich die DSGVO.“

Alle diese Aspekte werden derzeit im Rahmen generativer KI betrachtet, die bislang noch keine selbstdenkenden Systeme hervorgebracht hat. Scannell ist jedoch davon überzeugt, dass die Zeit autonomer Systeme früher oder später kommen und sowohl neue Chancen als auch neue Risiken mit sich bringen wird.

Deshalb ist für ihn klar: „Diese Technologie muss unbedingt reguliert werden. Anderenfalls könnte sie für schreckliche Zwecke eingesetzt werden und schwerwiegende Folgen haben. Nun haben wir jedoch eine Basis, die es uns ermöglicht, eine wahrlich weltverändernde Technologie zielführend und sicher zu nutzen.”

Shawn Radcliffe

Zur Person: Shawn Radcliffe

Shawn Radcliffe (ShawnRadcliffe.com) lebt und arbeitet im kanadischen Ontario als freiberuflicher Journalist und Yoga-Lehrer. Sein besonderes Interesse gilt Themen aus den Bereichen Gesundheit, Medizin, Wissenschaft, Architektur, Ingenieur- und Bauwesen sowie Yoga und Meditation.

Für Sie empfohlen