Volltextsuche nutzen

B O O K SCREENER

Aktuelle Veranstaltungen

Events
  • versandkostenfrei ab € 30,–
  • 6x in Wien und Salzburg
  • 6 Mio. Bücher
Menü

KI rockt die Welt

Beitrag von ao. Univ.-Prof. Dr. Wolfang Zankl


    Künstliche Intelligenz (KI) entsteht aus Softwareprogrammen, die lernfähig sind und sich daher selbst weiterentwickeln können. Sie ist – zumeist aber noch nicht unter voller Ausnutzung dieses Potentials („starke KI“) – bereits jetzt allgegenwärtig und wird vor allem dort eingesetzt, wo es um die Erkennung von Mustern oder die Auswertung großer Datenmengen geht, zB in der medizinischen Diagnostik (Vergleich konkreter Röntgen/CT-Bilder mit Millionen anderer), bei selbstfahrenden Autos, Chatbots, Sprachassistenten, dynamischer bzw personalisierter Preisgestaltung, Gesichtserkennung bei Smartphones uvm. Weitere oft erwähnte Beispiele aus jüngerer Zeit:

    Computerkunst: KI kann Musik komponieren, Gedichte schreiben und Bilder malen – kürzlich wurde ein von KI generiertes Porträt („Edmond de Belamy“) um USD 400.000,- versteigert; vgl auch nextrembrandt.com: ein Programm wurde mit Bildern von Rembrandt und den Charakteristika seiner Maltechnik trainiert und produzierte so ein Porträt, das von Experten als typischer für Rembrandt angesehen wird als seine eigenen Gemälde. 
    Digital Life Prediction: Durch Berücksichtigung einer Vielzahl an Faktoren und Abgleich mit ebensolchen von Millionen oder Milliarden anderer (verstorbener) Menschen kann eine relativ präzise Lebens- oder Ablebenserwartung prognostiziert werden, was zB in der Versicherungswirtschaft, bei Triagen und vielen anderen Fällen eine Rolle spielen kann (iZm mit dem Projekt „RESPECT“ in Kanada bereits im Einsatz).
    ChatGPT: Chatbot mit Dialogsystem, das auf Machine Learning beruht und nach Eingabe entsprechender Vorgaben („Prompts“) komplexe Texte generieren kann. 

    Manche warnen vor solchen Anwendungen (zu ChatGPT s unten) oder ganz generell vor den Gefahren Künstlicher Intelligenz (zB Stephen Hawking, Elon Musk), weil es dadurch zu einer Machtübernahme gegenüber der Menschheit kommen könne (sog „Takeover“). Dies ist zwar theoretisch denkbar, weil Programme aus dem Internet den Schluss ziehen könnten, dass es oft besser war oder gewesen wäre, menschliche Befehle (nichts anderes sind Algorithmen, die in Programmen verwendet werden) nicht zu befolgen. Überdies kann das Internet infolge seiner dezentralen Kommunikationsarchitektur nicht „abgeschaltet“ werden, und durch das Internet of Things – bzw noch mehr durch zukünftige Quantencomputer, die nicht nur in binären 0/1-Kategorien, sondern mit sog QuBits auch überall „dazwischen“ agieren – kann sich diese Gefahr potenzieren. Dennoch ist dies eher abstrakt und kaum im Sinne einer totalen Übernahme, sondern nur partiell vorstellbar. Naheliegender sind andere Gefahren, etwa 


    Diskriminierungen, weil KI bestehende Tendenzen und Vorurteile übernimmt; vgl instruktiv zB das von KI generierte Video zu Michael Jacksons „Billie Jean“ (YouTube: „billie jean ai generated“), das iZm mit der Textzeile „mother always told me“ eine Frau mit Kind in der Küche zeigt. Da Unterhaltungsvideos vom Artificial Intelligence Act (AIA) nicht erfasst sein werden (s unten), muss solchen und ähnlichen Stereotypen durch entsprechende Programmierung und möglichst diverse Lernvorlagen begegnet werden. Sehr wohl vom AIA betroffen sind hingegen zB Fälle, bei denen es durch den Einsatz von KI zur Bekämpfung von Straftaten zu Diskriminierungen kommt – etwa wenn Angehörige bestimmter Staaten oder Personen mit bestimmter Hautfarbe statistisch häufiger strafbare Handlungen begehen.
    Verdrängung von Menschen, die sich va daraus ergeben wird, dass KI wesentlich günstiger und schneller arbeiten kann. Allerdings bringt die Entwicklung auch neue Berufsbilder mit sich, zB „KI-Flüsterer“, die KI so „zureden“ bzw sie durch entsprechende Eingaben so anwenden, dass sie optimal arbeitet.
    Letzteres ist auch deshalb wichtig, weil eine weitere Gefahr sich selbst weiterentwickelnder KI darin besteht, dass oft sogar ihre Entwickler (Programmierer) nicht wissen, wie sie zu bestimmten Ergebnissen gelangt  („Blackbox“), und dass sie oft Ergebnisse produziert, die nicht auf Fakten beruhen, sondern (weil die KI keine solchen gefunden hat) einfach von ihr „erfunden“ werden (idZ „Halluzinieren“ genannt, vgl dazu den aktuellen Fall eines Anwalts in New York, der ChatGPT beauftragte, einschlägige Präzedenzfälle zu finden, und diese sodann von ChatGPT "erfunden“ wurden). Solchen Risiken kann, vor allem, wo es um Gefahren für Freiheit, Leib oder Leben geht, durch die kontrollierende Einbettung von Menschen in entsprechende Entscheidungsprozesse begegnet werden („human in the loop“, s dazu unten).
    Auch in Bezug auf ChatGPT und ähnliche Programme wird vor diesen Gefahren, aber auch speziell vor Verwerfungen im Schul- und Bildungswesen gewarnt. Schüler oder Studierende würden Haus- oder Diplomarbeiten und Dissertationen nicht mehr selbst erstellen, sondern (wie kürzlich ein kolumbianischer Richter sein Urteil) von solchen Programmen verfassen lassen (vgl dazu auch die Ergebnisse der Verwendung von ChatGPT zur Erstellung von Hausarbeiten: https://zivilrecht.univie.ac.at/team/zankl-wolfgang/aktuelles/). Diesem Einwand kann freilich durch die Verwendung entsprechender Erkennungsprogramme und durch den Hinweis darauf begegnet werden, dass sich bisheriges Faktenwissen (das gegoogelt werden kann) zunehmend in Richtung Nutzungswissen entwickelt (wie, wo und wodurch macht man sich die Vorteile der Digitalisierung und speziell von KI am besten zu Nutzen – dies setzt aber iZm mit fachlichen Texten idR bereits ein gewisses Fachwissen voraus, mit dem zB auch KI-Fehler erkannt werden können). 

    Rechtlich bestehen derzeit (2023) noch keine umfassenden Spezialregeln (vgl aber einzelne Bestimmungen wie zB Art 13/2/f und 15/1/h DSGVO bezüglich Informations- und Auskunftspflichten bei automatisierter Entscheidungsfindung und Art 22 DSGVO bezüglich des Rechts, einer solchen zu widersprechen bzw diese menschlich überprüfen zu lassen, sowie § 89e GOG, der eine – auch auf KI anwendbare – Gefährdungsamtshaftung des Bundes für Schäden anordnet, die durch den Einsatz von IKT aus der Führung gerichtlicher Geschäfte entstanden sind), so dass mit allgemeinen Bestimmungen das Auslangen gefunden werden muss, zivilrechtlich zB mit der verschuldensunabhängigen Haftung des EKHG bei Unfällen selbstfahrender Autos, die durch mangelhafte KI verursacht werden (vgl § 9 EKHG: „Fehler in der Beschaffenheit“). Die Gefährdungshaftung des PHG kommt nicht ohne weiteres zum Tragen, weil Software keine bewegliche körperliche Sache iSd § 4 PHG ist, wenn Personen- oder Sachschäden ohne menschliches Zutun unmittelbar durch fehlerhafte Programme verursacht werden; § 8 PHG, wonach keine Haftung besteht, wenn der Fehler nicht erkennbar war, ist aber auf KI unanwendbar, wenn der Fehler infolge selbständiger Weiterentwicklung eingetreten ist – dies begründet eine Gefährlichkeit iSd § 5 PHG). Weiters wird in der Lehre die analoge Anwendung der Gehilfenzurechnung nach § 1313a ABGB für von KI verursachte Schäden diskutiert.

    Urheberrechtlich ist jene Person als berechtigt anzusehen, welche die entsprechende Software programmiert bzw von deren Entwickler zur Verfügung gestellt bekommen hat, um damit Texte (zB ChatGPT), Musik, Bilder oä zu generieren (str). Dass das dadurch geschaffene Werk infolge der Lernfähigkeit von KI uU nicht mehr unmittelbar auf eine Schöpfung dieser Person zurückzuführen ist, ändert daran nichts, weil mit der Programmierung immerhin die Voraussetzungen für die Entstehung geschaffen wurden und daraus ergebende Beliebigkeiten auch bei „humanoider“ Kunst nichts an der Urheberschaft des Menschen ändern, der diese Zufälle gezielt eingesetzt hat (zB Schüttbilder von Nitsch).

    Die EU-Kommission hat die Entwürfe zweier Rechtsakte vorgelegt: einer Verordnung („Artificial Intelligence Act“) und einer Richtlinie („über KI-Haftung“).

    Der derzeit im Trilog befindliche Entwurf des Artificial Intelligence Acts beruht auf einem risikobasierten Ansatz:

    Unannehmbare Risken, zB biometrische Fernidentifizierungssysteme oder (behördliches) Social Scoring sind untersagt.
    Hohe Risken, zB bei gefährlicher Infrastruktur im Verkehr oder in der Medizin, bei Einstellungsverfahren, Bewertung von Kreditwürdigkeit, Rechtspflege, Strafverfolgung ua unterliegen strengen Regelungen – zB Transparenz und menschliche Aufsicht („human in the loop“). Daher dürfen Triagen nicht direkt von Programmen durchgeführt, sondern deren Ergebnisse nur als Entscheidungsgrundlagen für Ärzte herangezogen werden; ebenso wären Programme in selbstfahrenden Autos, die ohne menschliches Zutun entscheiden, ob sie bei unvermeidbaren Unfällen zB eher Jüngere als Ältere „schonen“ (sog „Trolley-Dilemma“) grundrechtlich problematisch. • Geringe Risken, zB bei Chatbots, erfordert nur Transparenz – Menschen müssen wissen, mit wem sie es „zu tun haben“.
    Minimale Risken, zB Videospiele, bleiben unreguliert

    Der Entwurf einer Richtlinie über KI-Haftung betrifft nur die deliktische (außervertragliche) bereits nach nationalem Recht bestehende verschuldensabhängige Haftung und sieht eine Kausalitätsvermutung und Beweiserleichterung Geschädigter vor.

    Die Schwierigkeit dieser – und noch umfangreich bevorstehender – Regulierung Künstlicher Intelligenz besteht darin, dass so gut wie sämtliche Geschäfts- und Lebensbereiche davon betroffen sind und es bei letzteren auch um Grundfragen der menschlichen Existenz geht (Conditio Humana), wenn geregelt wird, ob und inwieweit der Mensch von Künstlicher Intelligenz umgeben, abhängig und uU sogar beherrschbar sein soll. Die Problematik zeigt sich zB daran, dass eine Entschließung des EU-Parlaments Programmen bzw Robotern mit „fortgeschrittener“ Künstlicher Intelligenz Rechtspersönlichkeit verleihen wollte (vgl YouTube: Zankl, „Künstliche Intelligenz rockt die Welt“).

    14. November 2023




    ao. Univ.-Prof. Dr. Wolfgang Zankl

    ist Universitätsprofessor am Institut für Zivilrecht der Universität Wien (www.zankl.at), Gründer und Direktor des weltweiten Netzwerks für IT-Recht (www.e-center.eu), Entwickler und Leiter der ersten juristischen Crowd-Intelligence-Plattform (www.checkmycase.com) und Foundation Member der Computer Ethics Society Hong Kong.

     © Privat

     

    Literatur zum Thema

    FlexLex Digitalisierungsrecht

    Fassung vom 1.1.2023

    FlexLex Digitalisierungsrecht

    Veröffentlicht 2023
    von Wolfgang Zankl bei facultas / FlexLex
    ISBN: 978-3-99071-174-3

    Die Gesetzessammlung beinhaltet folgende Gesetze: Digitalisierungsrecht im Überblick 1.Audiovisuelle Mediendienste-Gesetz 2.Arbeitsverfassungsgesetz (Auszug §§ 96, 96a, 97/1 Z 27) 3.Budapest-Konvention: Übereinkommen über Computerkriminalität 4.Budapest-Konvention: Zusatzprotokoll zum ...

    Bürgerliches Recht Bürgerliches Recht

    Veröffentlicht 2023
    von Wolfgang Zankl bei facultas
    ISBN: 978-3-7089-2266-9

    Das moderne Zivilrecht wird vor dem Hintergrund der Globalisierung und europäischen Gesetzgebung immer internationaler, mit der rasant zunehmenden Digitalisierung immer „elektronischer“ und infolge anhaltender Gesetzesflut immer unüberschaubarer. Das vorliegende Buch – jetzt auch als E-Book ...

    Produkthaftung und Digitalisierung Produkthaftung und Digitalisierung

    Veröffentlicht 2023
    von Christiane Denkmaier bei Verlag Österreich
    ISBN: 978-3-7046-9181-1

    Richtlinien der Produkthaftung - für das digitale Zeitalter gerüstet? Diese Monografie beschäftigt sich mit den Auswirkungen neuer Technologien auf die bestehenden Regeln der verschuldensunabhängigen Produkthaftung. Das Buch gliedert sich in drei Bereiche: Zu Beginn ...

    ECG

    E-Commerce-Gesetz

    ECG

    Veröffentlicht 2016
    von Wolfgang Zankl bei Verlag Österreich
    ISBN: 978-3-7046-6735-9

    Das E-Commerce-Recht bildet nicht nur die normative Grundlage des gesamten Online-Handels,sondern regelt ua auch zahlreiche Informationspflichten, die Verantwortlichkeit von Providern und das umstrittene Herkunftslandprinzip. Vor dem Hintergrund der technischen, wirtschaftlichen und ...

    Der digitale Nachlass

    Implikationen für die Gesellschaft und das Notariat

    Der digitale Nachlass

    Veröffentlicht 2018
    von Wolfgang Zankl, Claus Spruzina bei MANZ Verlag Wien
    ISBN: 978-3-214-02117-7

    Dieser Band enthält die Studie zu den Rechts- und Beratungsfragen des digitalen Nachlasses sowie den Vortrag und die Podiumsdiskussion anlässlich des Delegiertentags der Österreichischen Notariatskammer 2017:• Erwerb von Rechten am digitalen Nachlass kraft Universalsukzession• Schmälerung ...

    Rechtshandbuch der Digitalisierung Rechtshandbuch der Digitalisierung

    Veröffentlicht 2021
    von Wolfgang Zankl bei MANZ Verlag Wien
    ISBN: 978-3-214-02162-7

    Das Rechtshandbuch erklärt die Prozesse, Kommunikationsmedien, Tools und viele andere Grundlagen der digitalen Transformation . Es behandelt die entsprechenden Zusammenhänge praxisorientiert aus ...