EU-KI-Gesetz: Ein erster Blick auf die europäische KI-Verordnung

von: Etienne Cussol CIPP/E, CIPM Etienne Cussol CIPP/E, CIPM | Aktualisiert am: Oktober 18, 2024

EU-AI-Act - Ein erster Blick auf die europäische AI-Verordnung-01

Das Europäische Parlament hat im März 2024 das EU-Gesetz über künstliche Intelligenz (EU AI Act) verabschiedet, das die ersten rechtlichen Richtlinien und Compliance-Anforderungen für die Nutzung von KI-Diensten enthält.

Unternehmen auf der ganzen Welt, die KI-Basissysteme einsetzen, könnten davon betroffen sein - wie können Sie sich also vorbereiten?

Im Folgenden gehe ich auf die EU-KI-Verordnung ein und erkläre ihren Anwendungsbereich, ihre Auswirkungen, die Strafen bei Nichteinhaltung und die Auswirkungen auf Unternehmen und Verbraucher. 

Inhaltsübersicht
  1. Was ist das EU-KI-Gesetz?
  2. Wichtige Daten zum EU-AI-Gesetz
  3. Wie definiert das EU-KI-Gesetz die KI-Systeme?
  4. Welche Art von KI wird von der EU reguliert und wie?
  5. Wer ist vom EU-KI-Gesetz betroffen und wie?
  6. Wie wird das EU-KI-Gesetz durchgesetzt?
  7. Mögliche Strafen und Bußgelder nach dem EU-KI-Gesetz
  8. KI und Datenschutz: Die Verbindung, das Pro und das Kontra
  9. Wie können sich Unternehmen auf die KI-Regulierung vorbereiten?
  10. Warum reguliert Europa die KI?
  11. Wie verschiedene europäische Länder auf AI reagieren
  12. Was ist mit ChatGPT?
  13. Zusammenfassung

Was ist das EU-KI-Gesetz?

Das Gesetz der Europäischen Union über künstliche Intelligenz (EU AI Act) ist eine formelle Verordnung, die vom Europäischen Parlament im März 2024 verabschiedet wurde. 

Es trat im August 2024 in Kraft.

Sie wurde von der Europäischen Kommission vorgeschlagen und ist eine der ersten Rechtsvorschriften, die den Einsatz und die Entwicklung künstlicher Intelligenz regelt und einen rechtlichen Rahmen dafür schafft. 

Wichtige Daten zum EU-AI-Gesetz

Lassen Sie uns kurz einige wichtige Daten zur Entwicklung der europäischen KI-Verordnung Revue passieren und einen Blick auf die mögliche zukünftige Zeitachse dieser Verordnung werfen. 

April 2021

Die Europäische Kommission legte im April 2021 ein umfassendes KI-Paket vor, das auch einen Vorschlag für ein KI-Gesetz enthielt.  

November 2022

Im November 2022, nach einem Jahr der Diskussion unter den EU-Gesetzgebern und fast fünf Iterationen des Verordnungstextes, wurde eine endgültige Kompromissversion des AI-Gesetzes vom Rat der EU einstimmig angenommen und dem Rat für Telekommunikation (TTE) vorgelegt. 

März 2023

Das Europäische Parlament sollte bis Ende März 2023 über die endgültige Fassung des AI-Gesetzes abstimmen. 

Nach der Abstimmung begannen im April die Diskussionen zwischen den Mitgliedstaaten, dem Parlament und der Kommission.

13. März 2024

Das Europäische Parlament hat die endgültige Fassung des EU-AI-Gesetzes mit einer überwältigenden Mehrheit (523-46 Stimmen) offiziell angenommen. 

August 2024

Mit dem teilweisen Inkrafttreten des EU-KI-Gesetzes wurde der KI-Pakt ins Leben gerufen, eine Initiative der Europäischen Kommission, die Unternehmen dazu ermutigen soll, sich zu verpflichten, dazu beizutragen, dass die KI-Entwicklung sicher und vertrauenswürdig ist und im Einklang mit dem EU-KI-Gesetz steht, das in den nächsten drei Jahren schrittweise in Kraft tritt. 

Februar 2025

Die Verbote, die sich auf das unannehmbare Risiko AI auswirken, treten in Kraft. 

August 2025

Anforderungen, die sich auf die Anbieter von KI-Modellen für allgemeine Zwecke auswirken, treten in Kraft, die Mitgliedstaaten müssen Behörden benennen.

Die Kommission wird auch die erste jährliche Überprüfung des Gesetzes vornehmen und gegebenenfalls Änderungen vorschlagen. 

August 2026

Es treten Verpflichtungen in Kraft, die sich auf den Einsatz von AI mit hohem Risiko auswirken, vor allem die in Anhang III aufgeführten, die AI-Systeme in den folgenden Sektoren umfassen: 

  • Biometrische Daten
  • Bildung
  • Kritische Infrastrukturen
  • Beschäftigung
  • Zugang zum öffentlichen Dienst
  • Strafverfolgung

Alle Mitgliedstaaten werden Vorschriften über Sanktionen im Zusammenhang mit dem Gesetz, einschließlich Verwaltungsstrafen, eingeführt haben und mindestens eine operative regulatorische Sandbox einrichten. 

Die Kommission wird eine weitere jährliche Überprüfung vornehmen und gegebenenfalls Änderungen vorschlagen.

August 2027

Alle verbleibenden Verpflichtungen, die sich auf KI-Systeme mit hohem Risiko auswirken, treten in Kraft, einschließlich derjenigen, die als Sicherheitskomponente einer Dienstleistung oder eines Produkts verwendet werden sollen, und der Anforderungen an die Bewertung durch Dritte, wie sie in anderen bestehenden EU-Rechtsvorschriften beschrieben sind. 

Wie definiert das EU-KI-Gesetz die KI-Systeme?

Das EU-KI-Gesetz definiert künstliche Intelligenz und KI-Systeme wie folgt: 

Ein maschinengestütztes System, das so konzipiert ist, dass es mit unterschiedlichem Grad an Autonomie betrieben werden kann und nach der Bereitstellung Anpassungsfähigkeit zeigt, und das für explizite oder implizite Ziele aus den Eingaben, die es erhält, ableitet, wie es Ergebnisse wie Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erzeugen kann, die physische oder virtuelle Umgebungen beeinflussen können.

Diese Definition umfasst Software, die mit einer oder mehreren Techniken entwickelt wird, wie z. B.:

  • Ansätze des maschinellen Lernens
  • Logische und wissensbasierte Ansätze
  • Statistische Ansätze 

Welche Art von KI wird von der EU reguliert und wie?

Das EU-KI-Gesetz regelt vier verschiedene Stufen von KI-'Risiken', und die Schwere der Risikostufe wirkt sich auf die Anforderungen und Verpflichtungen aus, die Unternehmen zu erfüllen haben. 

  • Unannehmbares Risiko (Titel II des Gesetzes): KI, die unterschwellige Manipulationen einsetzt, Kinder oder geistig Behinderte ausnutzt, und KI, die für den allgemeinen Zweck des Social Scoring und der biometrischen Fernidentifizierung für die Strafverfolgung eingesetzt wird - mit einigen Ausnahmen.
  • Hohes Risiko (Rechtsakt Titel III, Anhang III): Sicherheitskomponente von regulierten Produkten und KI-Systemen mit Anwendungen im Bereich der Humandienstleistungen wie Einstellung, Personalverwaltung, Bildung, öffentliche Dienste, Strafverfolgung und Grenzkontrolle.
  • Begrenztes Risiko (Titel IV des Gesetzes): KI-Systeme, die dazu bestimmt sind, mit natürlichen Personen zu interagieren, wie z. B. Deep Fakes, Chatbots, KI-Systeme, die Bilder, Audio- oder Videoinhalte erzeugen oder manipulieren, die existierenden Personen, Gegenständen und Orten oder anderen Einrichtungen oder Ereignissen ähneln und einer Person fälschlicherweise als authentisch oder wahrheitsgemäß erscheinen würden.
  • Minimales Risiko: Diese Kategorie wird durch Auslassung definiert und umfasst alle AIs, die nicht in die drei vorherigen Kategorien fallen.

Nach dem KI-Gesetz ist jede Technologie, die in die Kategorie "unannehmbares Risiko" fällt, für die Verwendung in der EU nicht zugelassen. Das Unternehmen muss nachweisen, unter welche Risikostufe seine Technologie fällt. 

Hohes Risiko AI

Nach dem KI-Gesetz der Europäischen Union ist die KI mit hohem Risiko die am stärksten regulierte Kategorie. 

Eine Anforderung besteht darin, dass die technischen Unterlagen für ein AI-System mit hohem Risiko erstellt werden müssen, bevor das System in Verkehr gebracht oder in Betrieb genommen wird, und dass sie auf dem neuesten Stand zu halten sind, wie in Anhang IV im Einzelnen beschrieben.

Darin heißt es u. a., dass die Dokumentation Folgendes enthalten sollte:

Der Rechtsakt enthält außerdem die folgenden zusätzlichen Anforderungen für AI mit hohem Risiko: 

  • Für Datensätze, die zum Training, zur Validierung und zum Testen von KI verwendet werden, sollten Verfahren zur Datenverwaltung und -kontrolle eingeführt werden
  • KI, die so konzipiert und entwickelt wurde, dass sie die automatische Aufzeichnung von Ereignissen während des Betriebs des Systems ermöglicht, muss anerkannten Normen oder gemeinsamen Spezifikationen genügen.
  • Sie müssen den Nutzern transparente Informationen darüber zur Verfügung stellen, wie das KI-System konzipiert und entwickelt wurde, wie es eingesetzt werden soll und welche Eigenschaften, Fähigkeiten und Grenzen es hat.
  • Ermöglichung menschlicher Kontrolle durch Schnittstellen-Tools, die entweder in das KI-System integriert sind oder vom Benutzer implementiert werden können

Es gibt zahlreiche weitere Verpflichtungen für Anbieter von AI mit hohem Risiko, die Folgendes umfassen:

  • Qualitätsmanagement
  • Technische Dokumentation
  • Konformitätsbewertungen
  • Automatisch erstellte Protokolle
  • Abhilfemaßnahmen
  • Die Pflicht zur Information
  • Zusammenarbeit mit den Behörden

Begrenztes Risiko AI

Das EU-KI-Gesetz sieht Transparenzverpflichtungen für KI mit begrenztem Risiko vor, insbesondere wenn die Gefahr von Manipulation (z. B. Chatbots) oder Täuschung (z. B. Deep Fakes) besteht. 

Sie besagt, dass natürliche Personen darauf aufmerksam gemacht werden sollten, dass sie mit einem KI-System interagieren, und lässt Raum für einige Ausnahmen für die Strafverfolgung.

Minimales Risiko AI

Alle KI-Dienste, die in die Kategorie des minimalen Risikos fallen, werden ermutigt, im Rahmen der aktuellen Fassung des KI-Gesetzes Verhaltenskodizes zu verabschieden, die beispielsweise Fairness, Nichtdiskriminierung und den Einsatz menschlicher Aufsicht gewährleisten.

KI mit minimalem Risiko umfasst alles, was nicht unter die anderen Kategorien mit höherem Risiko fällt.

Wer ist vom EU-KI-Gesetz betroffen und wie?

Das EU-KI-Gesetz hat aufgrund seines extraterritorialen Geltungsbereichs eine weitreichende Wirkung über die EU-Mitgliedstaaten hinaus, was bedeutet, dass die Durchsetzungsmöglichkeiten über die traditionellen territorialen Grenzen der EU hinausgehen könnten. 

Gegenwärtig wirkt sie sich aus: 

  • Unternehmen, die KI-Systeme in der EU auf den Markt bringen oder in Betrieb nehmen, auch wenn diese Anbieter nicht in der EU selbst ansässig sind
  • Alle Nutzer von KI-Systemen, wenn sie in der EU ansässig sind
  • Sowohl Anbieter als auch Nutzer von KI-Systemen, die in einem Land außerhalb der EU angesiedelt sind, wobei die von dem System erzeugten Ergebnisse innerhalb der EU verwendet werden

Im Rahmen dieser europäischen KI-Verordnung erhalten die KI-Nutzer in der EU Rechte und Kenntnisse über die Funktionsweise dieser Systeme, während von Unternehmen, die KI-Technologie herstellen oder nutzen, die Einhaltung verschiedener Verpflichtungen und Leitlinien erwartet wird.

Das Gesetz gilt jedoch nicht für die private oder nichtprofessionelle Nutzung. Ausgenommen sind auch KI-Systeme, die ausschließlich für militärische Zwecke entwickelt und genutzt werden.

Wie wird das EU-KI-Gesetz durchgesetzt?

Die Durchsetzung des EU-KI-Gesetzes bleibt den nationalen Überwachungsbehörden überlassen, aber ein autonomer KI-Ausschuss wird das Gesetz selbst überwachen.

Der vorgeschlagene AI-Ausschuss soll insbesondere die einheitliche Anwendung und Durchsetzung des Gesetzes in den 27 Mitgliedstaaten überwachen.  

Mögliche Strafen und Bußgelder nach dem EU-KI-Gesetz

Das AI-Gesetz skizziert einen Durchsetzungsrahmen, der dem DSGVOden primären Datenschutzvorschriften der EU, jedoch mit höheren Gebühren. 

Die Strafen umfassen Verwaltungsstrafen von bis zu 30.000.000 € oder, wenn es sich bei dem Zuwiderhandelnden um ein weltweit tätiges Unternehmen handelt, bis zu 6 % seines gesamten weltweiten Jahresumsatzes:

  • Nichteinhaltung des Verbots der künstlichen Intelligenz mit unannehmbaren Risiken gemäß Artikel 5
  • Nichteinhaltung der Anforderungen an die Daten und die Datenverwaltung im Zusammenhang mit AI mit hohem Risiko gemäß Artikel 10 durch das AI-System

Bei anderen Verstößen müssen Sie mit Bußgeldern von bis zu 20.000.000 € oder, wenn es sich bei dem Zuwiderhandelnden um ein weltweit tätiges Unternehmen handelt, mit bis zu 4 % seines gesamten weltweiten Jahresumsatzes rechnen.

Darüber hinaus kann die Übermittlung unrichtiger, unvollständiger oder irreführender Informationen an die Behörden mit einer Geldstrafe von bis zu 10.000.000 € oder bei weltweit tätigen Unternehmen mit bis zu 2 % des gesamten Jahresumsatzes geahndet werden.

KI und Datenschutz: Die Verbindung, das Pro und das Kontra

KI-Systeme sind untrennbar mit Datenschutzgesetzen verbunden, da manche Software eine Person identifizieren kann, die ansonsten auf der Grundlage des bereitgestellten Datensatzes nicht identifizierbar gewesen wäre. 

Das maschinelle Lernen stützt sich im Allgemeinen auf gigantische Mengen von Textdateien, und einige dieser Datensätze enthalten Details, die nach den Datenschutzbestimmungen wie der DSGVO rechtlich als personenbezogene Daten gelten:

  • Allgemeine Datenschutzverordnung (DSGVO)
  • Kalifornisches Verbraucherschutzgesetz(CCPA)
  • Virginia Verbraucherdatenschutzgesetz(CDPA)

Zweifellos wird KI die Art und Weise verändern, wie Unternehmen die Datenschutzbestimmungen einhalten und umgekehrt. Wir werden Sie daher über potenzielle Gesetze wie das EU-KI-Gesetz auf dem Laufenden halten und Unternehmen jeder Größe dabei helfen, den Übergang so reibungslos wie möglich zu gestalten.

Das Für und Wider von KI für den Datenschutz

Die KI-Technologie hat viele potenzielle Vorteile. Sie hilft bei der Rationalisierung alltäglicher Tätigkeiten, verbessert das Benutzererlebnis und begrenzt die Abhängigkeit eines Unternehmens von sensiblen persönlichen Daten.

Sie kann aber auch für gegenteilige Zwecke verwendet werden. 

Cyberangreifer und Sicherheitsverletzungen verlassen sich oft auf KI-gesteuerte Tools, die ihre Malware anpassen, um der Erkennung zu entgehen. Es ist auch schwierig, genau zu analysieren, ob die Ergebnisse der Verarbeitung personenbezogener Daten durch KI-Systeme Verzerrungen enthalten oder nicht. 

Die Menschen auf der ganzen Welt diskutieren immer noch über das Für und Wider der KI-Technologie. Doch Rechtsvorschriften wie die europäische KI-Verordnung sollen die Rechte des Einzelnen schützen und gleichzeitig die Entwicklung und Umsetzung neuer, bahnbrechender Software für künstliche Intelligenz ermöglichen.

Wie können sich Unternehmen auf die KI-Regulierung vorbereiten?

Um sich auf das EU-KI-Gesetz vorzubereiten, empfehle ich Unternehmen, ein Verfahren zur Bewertung des KI-Risikomanagements einzurichten, indem sie die folgenden Schritte befolgen.

Schritt eins: Führen Sie eine Bestandsaufnahme aller AI-Systeme durch, die Ihr Unternehmen verwendet

Ihr Unternehmen muss wissen, welche KI-Systeme es einsetzt, wie, warum und wo die KI zum Einsatz kommt. 

Erstellen Sie also ein Verfahren zur Identifizierung und Inventarisierung Ihrer KI-Systeme. Seien Sie bei diesem Schritt transparent und gründlich, damit Sie nicht versehentlich etwas auslassen.  

Schritt zwei: Erstellen eines KI-Risikoklassifizierungssystems 

Sobald Sie ein Inventar aller KI-Systeme haben, die Ihr Unternehmen nutzt, teilen Sie die Systeme in Risikokategorien ein, die dem Klassifizierungssystem entsprechen, das im EU-KI-Gesetz beschrieben ist. 

Versuchen Sie herauszufinden, in welche Risikostufen die von Ihnen verwendeten KI-Systeme fallen, und stellen Sie fest, ob Sie Systeme mit hohem oder inakzeptablem Risiko im Einsatz haben.  

Dritter Schritt: Implementierung von AI-Risikominderungsverfahren und unabhängigen Audits

Entwickeln Sie ein System von Verfahren zur Risikominderung und eine Methode zur Durchführung von Audits, um sicherzustellen, dass Ihr Unternehmen KI-Systeme mit hohem und inakzeptablem Risiko identifizieren und regulieren kann. 

Beginnen Sie zum Beispiel mit der Budgetierung für die entsprechenden Instrumente zur Risikominderung, auf die Ihr Unternehmen möglicherweise angewiesen ist, wenn das EU-KI-Gesetz verabschiedet wird. 

Vierter Schritt: Einführung einer internen KI-Governance-Struktur

Unternehmen können sich auf das EU-KI-Gesetz vorbereiten, indem sie ein internes Organisationssystem einführen, das der vorgeschlagenen KI-Governance-Struktur entspricht. Mit anderen Worten: Nutzen Sie Teile des Gesetzes, um die von Ihnen umgesetzten internen Risikomanagement-Richtlinien zu gestalten und zu inspirieren.

Wir empfehlen die Einrichtung eines internen Ausschusses, der für Ihr KI-Risikomanagement verantwortlich ist und sich aus Fachleuten für Cybersicherheit, Recht und Datenschutz zusammensetzt. 

Dies wird den Unternehmen helfen, die vorangegangenen Schritte zu erreichen, insbesondere Schritt 3, da es sicherstellt, dass Ihr Unternehmen angemessen geschult und auf die möglichen rechtlichen Auswirkungen vorbereitet ist. 

Warum reguliert Europa die KI?

Europa reguliert den Einsatz von KI-Systemen, um die Grundrechte, die Gesundheit und die Sicherheit der EU-Bürger zu schützen und sich als weltweit führend in der Entwicklung von KI-Diensten und -Software zu etablieren.

Ziel ist es, die rasche Fortsetzung der Entwicklung von KI-Software zu ermöglichen und gleichzeitig die Menschenrechte zu wahren, um sicherzustellen, dass sich KI positiv und nicht negativ auf das Leben der Menschen auswirkt.

Der Brüsseler Effekt und das EU-KI-Gesetz 

Viele Gesetzgeber verweisen auf den so genannten Brüsseler Effekt, wenn sie über die Auswirkungen der EU-KI-Verordnung sprechen, weil sie das Potenzial hat, die Art und Weise zu beeinflussen, wie der Rest der Welt KI einseitig reguliert.

Das Phänomen, das als Brüsseler Effekt bekannt ist, besteht aus zwei Teilen.

  1. De facto: Die Unternehmen beginnen, die EU-Anforderungen zur Standardisierung von Produkten und Dienstleistungen allgemein zu befolgen;
  2. De jure: Andere Länder erlassen formale Gesetze, die sich an der EU-Verordnung orientieren, um Konflikte mit dem kürzlich vereinheitlichten Verfahren zu vermeiden.

Die EU-Datenschutzverordnung, die General Data Protection Regulation (DSGVO), wird oft als das Aushängeschild des Brüsseler Effekts bezeichnet, da sie erhebliche Auswirkungen auf die Verpflichtungen der Unternehmen und die Rechtsvorschriften zum Datenschutz weltweit hat.

Es ist zwar ungewiss, ob das KI-Gesetz der EU denselben Geltungsbereich haben wird, aber viele Gesetzgeber halten dies für sehr wahrscheinlich, so dass es sich lohnt, dieses Gesetz im Auge zu behalten, egal wo Sie Ihren Sitz haben.

Wie verschiedene europäische Länder auf AI reagieren

Mit dem Aufkommen von KI-Diensten, die an die breite Öffentlichkeit vermarktet werden, haben die europäischen Regulierungsbehörden ihren Schwerpunkt auf KI verlagert, weshalb ich im nächsten Abschnitt vergleiche, wie verschiedene EU-Länder darauf reagiert haben.

Die britische ICO

Im November 2022 veröffentlichte das britische Information Commissioner's Office(ICO) einen Rahmen für die Prüfung von KI-Systemen, der sich auf bewährte Praktiken für Datenschutz und Compliance konzentriert.  

Die Prüfungen sind freiwillig und werden von der ICO-Abteilung für Sicherheit durchgeführt. Der Rahmen kann unabhängig davon angewendet werden, ob die Organisation ihr eigenes KI-System entwickelt oder KI als Dienstleistung in Anspruch nimmt. 

Dies geschah nach einem Vorfall im Jahr 2022, als die britischen Behörden Clearview AI eine Geldstrafe in Höhe von 7,5 Millionen Pfund auferlegten und dem Unternehmen eine Vollstreckungsmitteilung zusandten, weil es illegal über 20 Milliarden Bilder von Gesichtern von Personen gesammelt hatte. 

Norwegens Datatilsynet

Im Dezember 2022 legte die norwegische Datenschutzbehörde Datatilsynet einen Bericht über die Transparenz von KI vor, um Organisationen zu beraten, wie sie Nutzer über den Einsatz von KI informieren können.

Datatilsynet wies darauf hin, dass das Gesetz über personenbezogene Daten Transparenz bei der Nutzung von KI vorschreibt, was bedeutet, dass Organisationen nicht nur entscheiden müssen, welche Informationen über die Nutzung von KI sie weitergeben müssen, sondern auch wann und wie sie die Nutzer informieren.

Die Niederlande AP

Im Dezember 2022 hat die niederländische Datenschutzbehörde Autoriteit Persoonsgegevens(AP) damit begonnen, KI-Algorithmen zu überwachen und zu kontrollieren:

  • Transparenz
  • Diskriminierung
  • Fairness 

Das AP sicherte sich zusätzliche Mittel in Höhe von 1 Million Euro zur Unterstützung der Algorithmusüberwachung. 

In der Anfangsphase geht es darum, risikoreiche Algorithmen zu ermitteln, Wissen zu bündeln und die Zusammenarbeit weiter zu gestalten.

Frankreichs CNIL

Die französische Datenschutzbehörde Commission Nationale Informatique & Libertés(CNIL) kündigte für 2023 die Einrichtung eines Dienstes zur Bewertung der von KI ausgehenden Datenschutzrisiken an. 

Ziel ist es, Fachleuten und Einzelpersonen das Verständnis für die Funktionsweise von KI-Systemen innerhalb der CNIL zu erleichtern und das Fachwissen der CNIL in Bezug auf das Wissen und die Vorbeugung von Datenschutzrisiken im Zusammenhang mit der Implementierung dieser Systeme zu konsolidieren.

Was ist mit ChatGPT?

OpenAI, die Eigentümer von ChatGPT, haben eine Fibel zum EU-KI-Gesetz veröffentlicht und im September 2024 bekannt gegeben, dass sie sich den Kernverpflichtungen des EU-KI-Pakts angeschlossen haben.

Es scheint, dass OpenAI ChatGPT als ein allgemeines KI-System mit minimalem Risiko im Sinne des Gesetzes betrachtet, aber was hat ChatGPT zu all dem zu sagen?

Im März 2023 erklärte sie gegenüber POLITICO, dass sie und andere große Sprachmodelle von der EU als "hochriskant" eingestuft werden sollten, da sie "das Potenzial haben, schädliche und irreführende Inhalte zu erstellen" - ein direktes Zitat der kontroversen KI selbst!

Zusammenfassung

Das KI-Gesetz der EU beweist, dass die KI-Technologie auf dem Vormarsch ist und Unternehmen sich auf die Einhaltung von Rechtsvorschriften vorbereiten müssen. 

Jedes Unternehmen, das KI-Dienste nutzt, sollte einen professionellen Ausschuss einrichten und unabhängige Prüfungen durchführen, um festzustellen, in welche Risikokategorie die KI-Technologie fallen könnte.

Unternehmen können Termly's Datenschutzerklärung Generator nutzen, um eine KI-Nutzungsklausel hinzuzufügen, die angemessen offenlegt, welche KI-Systeme sie verwenden und wie sie personenbezogene Verbraucherdaten verarbeiten. 

Etienne Cussol CIPP/E, CIPM
Mehr über die Autorin

Geschrieben von Etienne Cussol CIPP/E, CIPM

Etienne ist Fachmann für Datenschutz und Compliance-Analyst bei Termly. Er arbeitet seit 2021 bei uns und kümmert sich um die Einhaltung der Datenschutzgesetze und beteiligt sich an unseren Marketinguntersuchungen. Zu seinen Fachgebieten - und Interessen - gehören Datenschutz (DSGVO, Datenschutzrichtlinie für elektronische Kommunikation, CCPA), Tracking-Technologien (Cookies von Drittanbietern, Fingerabdrücke) und neue Formen des Datenschutzmanagements (GPC und die Google Privacy Sandbox). Etienne hat an der Universität Toulouse internationale Wirtschaftsangelegenheiten studiert und sein Studium 2017 mit einem Master abgeschlossen. Mehr über die Autorin

Verwandte Artikel

Weitere Artikel ansehen