In den letzten beiden Podcasts haben wir uns den Gefahren der „Künstlichen Intelligenz“ (KI) im Bereich des Urheberrechts und des Datenschutzes gewidmet.
In dieser Folge befassen wir uns mit der Frage, wie gesetzliche Maßnahmen dazu beitragen können, die von KI-Technologien ausgehenden Risiken für die Gesellschaft und einzelne Menschen zu minimieren.
Der „Artificial Intelligence Act“ der EU
Im Mittelpunkt der gesetzlichen Entwicklung steht der „Artificial Intelligence Act“ der EU, der bereits seit 2021 als Gesetzesentwurf vorliegt und sich gegenwärtig im Gesetzgebungsprozess befindet.
Es gibt schon viele Gesetze, die bei Intransparenz, Verletzung von Persönlichkeits- und Datenschutzrechten oder Diskriminierung einspringen und Unterlassungspflichten, Bußgelder, Strafen oder Schadensersatzansprüche für Betroffene begründen können.
Doch in kritischen Bereichen wie medizinischer Versorgung, Bildung, Verkehr usw. könnte eine nachträgliche Regulierung von Verstößen zu spät kommen. Dies gilt auch für eine in einer KI angelegte Diskriminierung von Menschen aufgrund ihres Geschlechts oder ihrer Hautfarbe.
Herausforderungen und Anpassungen im Gesetzgebungsprozess
Der AI-Act soll bereits im Vorfeld durch Verbote, Auditierungs- oder Transparenzpflichten verhindern, dass die vorgenannten Risiken bereits in der KI-Software angelegt werden.
Allerdings wurde der Gesetzgebungsprozess von der rasanten technologischen Entwicklung und universell einsetzbaren Tools wie ChatGPT überholt. Daher befindet sich der Gesetzgebungsprozess in einer Krise und muss neu justiert werden.
Zu Gast: Prof. Philipp Hacker
Um diese grundlegenden Fragen zu erläutern, freuen wir uns, Prof. Philipp Hacker als Gast gewinnen zu können. Als Experte für EU- und KI-Recht berät er nationale und EU-Institutionen als Sachverständiger und kann nicht nur Einblicke in das Gesetzgebungsverfahren geben, sondern auch erklären, wann es sinnvoll ist, KI zu regulieren und wann übermäßige gesetzliche Regulierung sogar negative Auswirkungen haben könnte.
Wir bedanken uns bei Prof. Philipp Hacker für seine Expertise und vor allem für die anschauliche und nachvollziehbare Erläuterung dieser gesetzlichen Entwicklung, die trotz ihrer Brisanz und zeitlichen Dringlichkeit noch in den Kinderschuhen steckt.
Wir wünschen viel Vergnügen beim Zuhören und verweisen gerne auf die folgenden Linktipps zu Publikationen von Prof. Hacker sowie weiterführenden Links zum Podcast.
Inhaltswarnung: Im Podcast wird im Zusammenhang mit den Risiken von KI auch das Thema Suizid und Kindesmissbrauch angesprochen.
Unsere Podcast-Reihe zum KI-Recht
- Chat GPT und KI vs. Urheberrecht – KI-Recht #1
- Datenschutz und Deepfakes – KI-Recht #2
- EU AI-Act: Bahnbrechende KI-Regulierung oder jetzt schon überholt? – KI-Recht #3
Kapitel
- 00:00:00 – Einführung zum Thema.
- 00:02:30 – Vorstellung unseres Gastes Prof. Philipp Hacker und seine Beratung im EU-Gesetzgebungsprozess.
- 00:07:00 – Wie kam der Entwurf des AI-Acts zustande?
- 00:10:00 – Autonomie, adaptive Systeme, maschinelles Lernen und was der AI-Act unter dem Begriff „Künstliche Intelligenz“ versteht.
- 00:25:00 – An wen richtet sich der AI-Act? Gilt er auch für Privatpersonen?
- 00:29:00 – Ist der AI-Act überhaupt notwendig? Es gibt bereits viele Gesetze, die Gefahren durch KI regeln.
- 00:40:30 – Werden Regelungen nicht bereits durch das „Digitale Dienste Gesetz“ abgedeckt?
- 00:54:30 – Gründe, warum ChatGPT auch ohne AI-Act bereits verboten werden könnte.
- 00:58:30 – Der AI-Act soll für einen Compliance-Rahmen sorgen, indem bestimmte Risikoszenarien geregelt werden.
- 01:04:00 – Was Schrauben für das Spaceshuttle mit KI-Regelungen und der Bedrohung des EU-Standorts zu tun haben.
- 01:09:00 – „Die USA sind Weltmeister in KI, die EU ist Weltmeister in KI-Regulierung“ – Ein Ausblick auf internationale KI-Regulierung mit dem AI-Act als Goldstandard?
- 01:14:00 – Wie hoch werden die Bußgelder sein und wird es eine „KI-Polizei“ geben?
- 01:19:00 – Wann ist mit dem AI-Act zu rechnen und wird er auch für zukünftige Entwicklungen, wie AGIs oder gar technologische Singularität, anwendbar sein?
Publikationen von Prof. Hacker zum Thema KI-Regulierung
- The European AI Liability Directives – Critique of a Half-Hearted Approach and Lessons for the Future – Der Artikel untersucht die Vorschläge der Europäischen Kommission zur KI-Haftung und zeigt, dass sie in Kombination mit dem EU-KI-Gesetz einen Brüssel-Effekt in der KI-Regulierung auslösen könnten, schlägt jedoch Verbesserungen vor und skizziert eine umfassende Zukunftsperspektive für KI-Haftung und Regulierung, einschließlich nachhaltiger KI (von Philipp Hacker; 01/2023).
- Regulating ChatGPT and other Large Generative AI Models – Der Artikel untersucht die Regulierung von großen generativen KI-Modellen wie ChatGPT im Kontext der aktuellen Diskussion um vertrauenswürdige KI-Regulierung und schlägt eine neue Terminologie sowie vier Strategien vor, um sicherzustellen, dass solche Modelle vertrauenswürdig sind und zum Nutzen der Gesellschaft eingesetzt werden. Auf S. 12 geht der Artikel auch auf die Entscheidung der italienischen DPA zur Sperrung von ChatGPT ein (von Philipp Hacker, Andreas Engel, Marco Mauer; 04/2023).
- Beyond Incompatibility à unser neuestes Paper mit einem neuen, diskriminierungsreduzierenden Algorithmus für KI-Systeme und DMA-Compliance – Der Artikel präsentiert einen neuen, diskriminierungsreduzierenden Algorithmus für KI-Systeme und DMA-Compliance (FAIM), der verschiedene Fairness-Kriterien verbindet, um unfaire Vorhersagen zu verbessern und rechtliche Anforderungen zu erfüllen (von Meike Zehlike, Alex Loosley, Håkan Jonsson, Emil Wiedemann, Philipp Hacker, 12/2022).
- Regulating Gatekeeper AI and Data: Transparency, Access, and Fairness under the DMA, the GDPR, and beyond – Der Artikel argumentiert, dass die wirkungsvollsten EU-Regeln für KI-Anwendungen in der digitalen Wirtschaft im kürzlich verabschiedeten Digital Markets Act statt im vorgeschlagenen KI-Gesetz zu finden sind und untersucht dessen Auswirkungen auf KI-Modelle und zugrundeliegende Daten in vier Schlüsselbereichen (von Philipp Hacker, Johann Cordes, Janina Rochon; 12/2022).
- Substantively smart cities – Participation, fundamental rights and temporality –
- The European AI Liability Directives – Critique of a Half-Hearted Approach and Lessons for the Future – In diesem Artikel geht es um die Frage, wie man Technologie nachhaltig sowie zukunftssicher gestalten und dabei auf Bürgerbeteiligung, Achtung der Menschen- und Grundrechte sowie Anpassungsfähigkeit an technologische Veränderungen basiert Rücksicht nehmen sollte.
- „Me, myself and AI – Regulierung künstlicher Intelligenz“ – Podcast mit Prof. Philipp Hacker bei Härting.fm.
Konferenztipp:
„Legal and Technical Challenges of Large Generative AI Models“ in Genf, Schweiz mit Möglichkeit zur virtuellen Teilnahme. Veranstaltet von Philipp Hacker (European New School of Digital Studies, European University Viadrina, Germany) und Sarah Hammer (University of Pennsylvania Law School, USA).
Referenzierte Podcastfolgen und weiterführende Links
- Datenschutz und Deepfakes – KI-Recht #2 – Rechtsbelehrung 114.
- Chat GPT und KI vs. Urheberrecht – KI-Recht #1 – Rechtsbelehrung 113.
- „Gratis“ und „ohne Gewähr“ gilt nicht mehr – Digitales Verbraucherrecht – Rechtsbelehrung 106.
- Haftung für autonome Systeme, KIs und Bots – Rechtsbelehrung Folge 42.
- ChatGPT: Italienische Datenschutzbehörde stellt Bedingungen für Betrieb – News bei heise online.
- Amazon scraps secret AI recruiting tool that showed bias against women – News bei Reuters.
- Belgian man dies by suicide following exchanges with chatbot – News bei The Brussels Times.
- OpenAI ist jetzt ClosedAI – bei Netzpolitik.org.
- „12 Millionen Bilder kopiert“: Getty klagt auch in den USA gegen Stability AI – News bei heise online.