Volltextsuche nutzen

B O O K SCREENER

Aktuelle Veranstaltungen

Events
  • versandkostenfrei ab € 30,–
  • 6x in Wien und Salzburg
  • 6 Mio. Bücher
Menü

AI Act ante portas

Beitrag von Dr. Heidi Scheichenbauer


Weltweit erste Regulierung künstlicher Intelligenz steht in den Startlöchern

Nach monatelangen Verhandlungen wurde der AI Act am 13.3.2024 im EU-Parlament mit einer breiten Mehrheit angenommen. Der AI Act ist die erste Produktsicherheitsregulierung die auch die Berücksichtigung von grundrechtlichen Anforderungen vorsieht.

Bereits 2021 hatte die Europäische Kommission den Vorschlag über harmonisierte Vorschriften zur Künstlichen Intelligenz vorgelegt. Im Dezember 2023 wurde nach langen Trilogverhandlungen eine Einigung zwischen Parlament, Kommission und Rat über den AI Act erzielt.1 Als letzter Schritt erfolgen noch abschließende Beratungen im EU-Ministerrat, das Gesetz könnte noch vor der Europawahl 2024 in Kraft treten.
  

Risikobasierter Ansatz und verbotene Systeme

Wie bereits die DSGVO beinhaltet auch der AI Act einen risikobasierten Ansatz, der KI-Systeme je nach Art und Einsatzgebiet in verschiedene Risikoklassen einteilt, an die wiederum unterschiedliche Verpflichtungen und Rechtsfolgen geknüpft sind. Es gilt der Grundsatz: Je höher das Gefahrenpotenzial eines Systems, desto strenger sind die Anforderungen an dessen Entwicklung und Einsatz.

Verpflichtungen aus dem AI Act können sich sowohl für Anbieter als auch für Betreiber von KI-Systemen ergeben. Hier ist zu erwähnen, dass die Abgrenzung, wann man Betreiber oder Anbieter ist, herausfordernd sein kann.

Generell verboten werden besonders gefährliche KI-Anwendungen, wie etwa KI-Systeme, die ein unannehmbares Risiko bergen. Dazu zählen etwa Praktiken des „Social Scorings“ oder auch KI-Systeme zur Emotionserkennung am Arbeitsplatz. Verboten sind zudem auch manipulative Techniken die zur unterschwelligen Beeinflussung zählen.


Hochrisiko-Systeme unterliegen strengen Anforderungen

Nicht verboten aber als Hochrisiko-Systeme eingestuft und daher mit bestimmten Verpflichtungen verbunden können etwa KI-Systeme in der kritischen Infrastruktur, in der Migrations- und Grenzkontrolle oder auch je nach Einsatzzweck KI-Systeme im Bereich der allgemeinen und beruflichen Bildung (zB Zugang zu Bildung), Beschäftigung und Personalmanagement (zB Recruiting-Systeme) sein. Dies allerdings nur, sofern diese Systeme auch ein erhebliches Risiko für die Gesundheit, Sicherheit oder die Grundrechte von Personen darstellen.

Anbieter von Hochrisiko-KI-Systemen müssen sicherstellen, dass ihre Hochrisiko-KI-Systeme die in im AI Act festgelegten Anforderungen erfüllen. Für Hochrisiko-KI-Systeme haben Anbieter etwa ein Risikomanagementsystem einzurichten. Es bestehen zudem insbesondere bestimmte Anforderungen an Daten und Daten-Governance, die technische Dokumentation, an Aufzeichnungs- bzw Protokollierungspflichten, an die Sicherstellung der erforderlichen Transparenz, die Erstellung erforderlichen Gebrauchsanweisungen, Menschlicher Aufsicht, Genauigkeit, Robustheit und Cybersicherheit der Systeme.

Auch der Pflichtenkatalog für die Betreiber (Nutzer) von Hochrisiko-KI-Systemen kann umfangreich ausfallen. So ist etwa der Einsatz von angemessenen technischen und organisatorischen Maßnahmen (TOMs) vorgesehen, damit KI-Systeme gemäß der Gebrauchsanweisung verwendet werden oder die menschliche Aufsicht durch kompetente/geschulte natürliche Personen. Auch bestehen umfangreiche Informationspflichten. Neben diesen Plichten, kann es für Betreiber unter Umständen verpflichtend sein, für manche Systeme eine Grundrechtsfolgenabschätzung vorzunehmen.

Transparenz-Pflichten außerhalb der Hochrisiko-Klasse für bestimmte KI-Systeme

Außerhalb des Hochrisiko-Bereichs müssen Anbieter sicherstellen, dass KI-Systeme, die für die direkte Interaktion mit natürlichen Personen bestimmt sind, so konzipiert und entwickelt werden, dass die betreffenden natürlichen Personen informiert werden, dass sie mit einem KI-System interagieren.

Anbieter die synthetische Audio-, Bild-, Video- oder Textinhalte erzeugen (das betrifft auch den Einsatz von KI-Systemen mit allgemeinem Verwendungszweck), müssen sicherstellen, dass die Ergebnisse des KI-Systems in einem maschinenlesbaren Format gekennzeichnet und als künstlich erzeugt oder manipuliert erkennbar sind.

Betreiber von Emotionserkennungssystemen müssen zudem betroffene natürlichen Personen über den Betrieb dieses Systems informieren. Auch wenn KI-Systeme Bilder, Videos, Audioinhalte oder Texte erstellen muss dies durch Betreiber grundsätzlich offengelegt werden. (Näheres dazu siehe unter „Was ist mit ChatGPT & Co.?“)

Systeme mit geringem Risiko und ausgenommene Systeme

Allen anderen KI-Systemen wird kein erhebliches Risiko attestiert, weshalb der AI Act keine besonderen Verpflichtungen für diese vorsieht. Es wird lediglich die freiwillige Ausarbeitung von Verhaltenskodizes empfohlen. Explizit vom Anwendungsbereich ausgenommen sind KI-Modelle oder -Systeme, die ausschließlich zum Zweck der wissenschaftlichen Forschung, für Verteidigungs- und Militärzwecke sowie im privaten Bereich von natürlichen Personen genutzt werden. Außerdem fallen Systeme nicht in den Anwendungsbereich, wenn sie nicht in der Europäischen Union entwickelt, eingesetzt oder genutzt werden.

Was ist mit ChatGPT & Co.? – Sonderfall GPAI Modelle und -Systeme

Im Zuge der Verhandlungen in den Gesetzestext mitaufgenommen wurden sogenannte „KI-Modelle mit allgemeinem Verwendungszweck“ („GPAI-Modelle“), wie etwa GPT-3.5 und GPT-4-Modelle, die dem System des Chatbots „ChatGPT“ von OpenAI zugrunde liegen.2 Diese Modelle bilden im AI Act eine Sonderkategorie.

Neben den „normalen“ Pflichten gibt es für Betreiber von General Purpose KI (GPAI) keine zusätzlichen Pflichten. Die Regelungen beschränken sich allein auf zusätzliche Pflichten für Anbieter derartiger KI-Systeme (nicht für Betreiber). Hier ist darauf hinzuweisen, dass die grundsätzlichen Betreiberpflichten, insbesondere insb in Fällen von Hoch-Risiko-KI-Systemen, zu beachten sind.

Für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck bestehen bestimmte Dokumentationspflichten, für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck und systemischen Risiken zusätzliche Pflichten, zu denen etwa die Durchführung einer Modellbewertung oder Angriffstests gehören können, um Systemrisiken zu ermitteln.

KI- Kompetenz als allgemeine Pflicht für alle Anwender und Anbieter

Anbieter und Anwender von KI-Systemen müssen generell Maßnahmen ergreifen, um ein hinreichendes Verständnis von KI-Systemen – eine KI-Kompetenz („AI literacy“) – auf Seiten des eigenen Personals und der anderen Personen sicherzustellen, die in ihrem Auftrag mit dem Betrieb und der Nutzung von KI-Systemen befasst sind.


Was gilt es nun zu beachten?

Das Gesetz wird grundsätzlich 20 Tage nach Veröffentlichung im Amtsblatt der Europäischen Union in Kraft treten. Die Vorschriften sind dann überwiegend nach 2 Jahren nach dem Inkrafttreten anwendbar. Für GPAI-Modelle gilt eine Frist von 12 Monaten und verbotene Praktiken müssen bereits innerhalb von 6 Monaten eingestellt werden. Es ist somit absehbar, dass der AI Act die Tätigkeiten von unzähligen Unternehmen, Behörden, NPOs, etc. maßgeblich beeinflussen und eine fundamentale Umstellung mit sich bringen wird. Denn die Strafen bei Nichteinhaltung der Vorschriften können hoch ausfallen: So kann bei einer Verletzung verbotener Praktiken eine Geldbuße von bis zu €35 Mio. oder 7% des jährlich weltweiten Umsatzes und bei der Verletzung der Transparenzpflichten für Chatbots und generative KI eine Geldbuße von bis zu €15 Mio. oder 3% des jährlich weltweiten Umsatzes verhängt werden. Es wird daher jetzt schon dringend angeraten, sich mit diesem Rechtsinstrument eingehend zu beschäftigen, um die Einhaltung der darin enthaltenen Vorschriften rechtzeitig sicherzustellen. Wichtig wird es dabei, insbesondere in den ersten Schritten folgende Fragen zu klären:

•    Wird KI im Sinne des AI Acts eingesetzt?
•    Welche Rolle nimmt die eigene Organisation dabei ein? (hier ist insbesondere zwischen Anbietern und Nutzern zu unterscheiden)
•    Welcher Risikoklasse unterliegt die Anwendung?
•    Sicherstellung der erforderlichen KI-Kompetenz in der Organisation e



1  Der aktuelle Text kann hier auf Deutsch nachgelesen werden.
2  Eine genaue Erklärung zur Abgrenzung von GPAI-Modellen und Systemen finden Sie hier auf Englisch.

4. März 2024



Dr. Heidi Scheichenbauer

ist als Senior Consultant und Senior Researcher im Research Institute – Digital Human Rights Center tätig. Sie ist Mitglied im Verein der behördlichen und betrieblichen Datenschutzbeauftragten (Privacyofficers.at), Vortragende an der Donau Universität Krems und der Universität Wien und Autorin zahlreicher Publikationen betreffend die Bereiche Digitalisierungsrecht.


© Privat

 

Literatur zum Thema

FAST FORWARD

Die KI-Revolution: Chancen und Risiken

FAST FORWARD

Veröffentlicht 2024
von Alice Schmidt, Claudia Winkler, Florian Schütz, Jeroen Dobbelaere bei facultas / maudrich
ISBN: 978-3-99002-170-5

KI – Fluch oder Segen? Was macht Künstliche Intelligenz mit unserer Gesellschaft? Wie können wir KI nutzen, um unsere Zukunft zu gestalten? Welche Risiken birgt KI wirklich? In „FAST FORWARD“ präsentieren renommierte Expert:innen zentrale Risikobereiche und Chancen, die sich durch die ...

Always On

Verführung und Gefahr digitaler Medien

Always On

Veröffentlicht 2023
von Roland Mader, Oliver Scheibenbogen bei facultas / maudrich
ISBN: 978-3-99002-163-7

Gerade die ungeheuren Möglichkeiten und das vielfältige Angebot des Internets sorgen dafür, dass sich so mancher darin verirrt oder verliert. Dieses topaktuelle Buch bietet praktisches Hintergrundwissen und wertvolle Tipps für einen kompetenten und sorgsamen Umgang für Eltern, Jugendliche und ...

FlexLex Legal Tech Rechtsgrundlagen Österreich & EU

Fassung vom 15.11.2023

FlexLex Legal Tech Rechtsgrundlagen Österreich & EU

Veröffentlicht 2023
von Veronika Haberler, Nikolaus Forgó bei facultas / FlexLex
ISBN: 978-3-99071-308-2

Alle FlexLex Vorteile auf einen Blick: • Print & Digital auf allen mobilen Endgeräten nutzbar • E-Mail-Benachrichtigung bei jeder Gesetzesänderung • Stichtagsabfrage & Fassungsvergleich für registrierte Nutzer:innen Legal Tech wird die Arbeit aller Juristinnen und Juristen in den ...

Datenschutzrecht

Neu: Mit Judikaturtabellen (DSB, BVwG, OGH und EuGH) für einen schnellen Überblick über die Kernaussagen aller wichtigen Entscheidungen

Datenschutzrecht

Veröffentlicht 2021
von Dietmar Jahnel, Angelika Pallwein-Prettner bei facultas
ISBN: 978-3-7089-1978-2

Dieses Buch bietet einen systematischen Überblick über das „neue“ Datenschutzrechtsregime. Neben der Darstellung der Rechtslage aufgrund der DSGVO und des österreichischen DSG werden diverse praxisrelevante Fragen behandelt. Das Buch hilft, datenschutzrechtliche Fragen richtig einzuordnen. ...

Networks of Control

A Report on Corporate Surveillance, Digital Tracking, Big Data & Privacy

Networks of Control

Veröffentlicht 2016
von Wolfie Christl, Sarah Spiekermann bei facultas
ISBN: 978-3-7089-1473-2

The collection, analysis and utilization of digital information based on our clicks, swipes, likes, purchases, movements, behaviors and interests are now part of everyday life. While individuals become increasingly transparent, companies take control of the recorded data in an often nontransparent ...