Zukunftsfähige Regulierung Künstlicher Intelligenz durch die Europäische Union?
- Editors:
- |
- Series:
- IUS EUROPAEUM, Volume 70
- Publisher:
- 2026
Summary
This volume brings together the papers presented at the 29th Würzburg European Law Days in 2024. By examining the emerging framework of European AI regulation, the contributions seek to provide essential foundations, offer clear orientation, and stimulate new momentum. They illuminate the technical and ethical premises of AI governance, chart the structure and logic of the new AI Act, analyze the challenges that AI poses for anti-discrimination law, and examine security law as a key field of AI application. Further chapters compare European and Chinese regulatory approaches, evaluate the AI Act’s long-term viability from economic and information-science perspectives, and discuss the compliance demands arising from the deployment of AI.
With contributions by Prof. Dr. Bettina Berendt | Prof. Dr. Katrin Blasek | Prof. Dr. GeorgBorges | Simon Kremser | Tim Leibold | Prof. Dr. Enrico Peuker | Dr. Marc Ruttloff | Prof. Dr. Ralf P. Schenke | Prof. Dr. Ingo Scholtes | Prof. Dr. Bettina Schöndorf-Haubold | Prof. Dr. Frédéric Thiesse | Prof. Dr. Antje von Ungern-Sternberg
Keywords
Search publication
Bibliographic data
- Edition
- 1/2026
- Copyright year
- 2026
- ISBN-Print
- 978-3-7560-3761-2
- ISBN-Online
- 978-3-7489-6805-4
- Publisher
- Nomos, Baden-Baden
- Series
- IUS EUROPAEUM
- Volume
- 70
- Language
- German
- Pages
- 220
- Product type
- Edited Book
Table of contents
- Vorwort No access
- Authors: |
- I. Einleitung No access
- II. Entwicklungszyklen künstlich intelligenter Systeme No access
- 1. Das Grundkonzept: Statistische Sprachmodelle No access
- 2. Wortvektoren: Die Transformation von Sprache in Zahlen No access
- a) Grundlegende Funktionsweise künstlicher neuronaler Netze No access
- b) Frühere Arten künstlicher neuronaler Netze No access
- 4. Transformer-Architektur No access
- 5. Pretraining No access
- 1. Das Bias-Problem No access
- 2. Das Halluzinationsproblem No access
- 1. Instruction Fine Tuning No access
- 2. LLM Alignment mit RLHF No access
- 3. Prompt Engineering No access
- 4. Retrieval Augmented Generation (RAG) No access
- 5. Model Context Protocol (MCP) No access
- VI. Schlussbemerkung No access
- Authors:
- I. Einleitung No access
- 1. Grundlagen No access
- 2. Folgen No access
- 3. Prinzipien und Regeln No access
- III. Zweifel: Menschliche Interdependenzen und Care: Wortlaut vs. Prozess? No access
- 1. Grenzen der HLEG-Prinzipien am Beispiel von Transparenz sowie Vielfalt, Nichtdiskriminierung und Fairness und menschliches Handeln und menschliche Aufsicht No access
- 2. Drei problematische Rückkopplungsschleifen des Prozesses der ethischen Grundlagen der KI-VO No access
- V. Zusammenfassung, Limitationen und Ausblick No access
- Danksagung No access
- Authors:
- 1. Entstehung der KI-Verordnung No access
- 2. Regelungskonzepte der KI-Verordnung No access
- 3. Die rechtspolitische Debatte zur KI-Regulierung No access
- 4. Die KI-Omnibus-Verordnung No access
- a. KI-System und KI-Modell No access
- b. KI-System und physisches Produkt No access
- c. Ausnahmen vom Anwendungsbereich No access
- 2. Der Kreis der Normadressaten No access
- 1. Kapitel I: Zweck, Anwendungsbereich, Definitionen, KI-Kompetenz No access
- 2. Kapitel II: Verbote No access
- 3. Kapitel III und V: Hochrisiko-KI-Systeme und KI-Modelle mit allgemeinem Verwendungszweck No access
- a. Transparenzpflichten der Anbieter von KI-Systemen No access
- b. Transparenzpflichten der Betreiber von KI-Systemen No access
- 5. Kapitel VI–VIII: Innovationsförderung, Institutionen, KI-Datenbank No access
- a. Produktbeobachtungssystem und Meldepflicht No access
- b. Marktüberwachung No access
- c. Aufsicht für KI-Modelle mit allgemeinem Verwendungszweck. No access
- d. Kapitel XII: Sanktionen No access
- e. Recht zur Beschwerde, Recht auf Erläuterung No access
- 7. Kapitel X–XIII: Verhaltenskodizes, Leitlinien, delegierte Rechtsakte, Schlussbestimmungen No access
- a. Hochrisiko-KI-Systeme i.S. des Art. 6 Abs. 1 i.V.m. Anhang I KI-VO No access
- aa. Die Einstufung von KI-Systemen nach Art. 6 Abs. 2 KI-VO No access
- bb. Die Hochrisiko-Bereiche des Anhangs III No access
- cc. Die Bestimmung des Hochrisiko-Charakters nach der Verwendung des Ergebnisses No access
- dd. Die konkrete Risikobewertung, Art. 6 Abs. 3 KI-VO No access
- 2. Elemente des Risikomanagements No access
- 1. Die KI-Verordnung als Produktsicherheitsrecht für KI-Anwendungen No access
- 2. Innovationen in Produktsicherheitsrecht und Technikregulierung No access
- 3. Fragmentarische Ergänzungen No access
- VI. Fazit No access
- Authors:
- I. Einleitung No access
- a) Verzerrungen No access
- b) Black Box No access
- c) Verantwortungsdiffusion No access
- d) Neue Gefährdungslagen No access
- 2. Status quo des Antidiskriminierungsrechts No access
- 1. Überblick No access
- a) Verzerrungen: Daten-Governance nach Art. 10 AI Act No access
- b) Black Box: Transparenzpflichten No access
- c) Verantwortungsdiffusion: Risikomanagement No access
- d) Neue Gefährdungslagen: spezifische Instrumente No access
- IV. Fazit No access
- Authors:
- 1. Sicherheit durch KI? No access
- a) Unionskompetenzen im Bereich des Sicherheitsinformationsrechts No access
- b) Unionskompetenzen im Bereich der Künstlichen Intelligenz No access
- 1. Einsatzoptionen No access
- 2. Besorgnispotentiale und faktische Schwierigkeiten No access
- 3. Das Beispiel hessenDATA No access
- 1. Bewertung des Eingriffsgewichts einer automatisierten Datenverarbeitung No access
- 2. Konsequenzen für die gesetzgeberisch zu normierenden Eingriffsvoraussetzungen und den möglichen Einsatz von KI No access
- 3. KI-Kompatibilität alternativer Grundrechtssicherungen No access
- 1. Regelungsansatz der KI-Verordnung No access
- a) Verbotene Praktiken No access
- b) Hochrisiko-KI-Systeme No access
- V. Dilemmata No access
- Authors:
- 1. Regelungsmotivation No access
- 2. Rechtssetzung in China No access
- II. Ziele der Regulierung No access
- 1. Sachlicher Anwendungsbereich No access
- 2. Risikobasierter Ansatz? No access
- 3. Persönlicher Anwendungsbereich No access
- 1. Verzicht auf Regulierung No access
- 2. Regulierung und politische Maßnahmen No access
- 3. Hindernis Datenschutz? No access
- 1. Transparenzpflichten No access
- 2. Daten-Governance No access
- 1. Kontrolle der Inhalte No access
- 2. Registrierungspflichten No access
- Fazit No access
- Schnell gelesen…. No access
- Eine Bewertung des AI Acts aus ökonomischer Perspektive No access Pages 199 - 202Authors:
- Chancen und Risiken von KI im Kontext des EU AI Acts No access Pages 203 - 206Authors:
- Authors:
- I. Einordnung und Normzweck No access
- 1. Persönliche Reichweite: Anbieter und Betreiber No access
- 2. Sachliche Reichweite: Alle KI‑Systeme, risikoklassenunabhängig No access
- 3. GPAI‑Modelle im Horizont des Art. 4 KI-VO No access
- 4. Allgemein zugängliche KI‑Systeme in der beruflichen Praxis No access
- 5. Zeitliche und örtliche Anwendbarkeit No access
- III. Adressaten der Maßnahmen: „Personal und andere Personen“ No access
- 1. Verpflichtetenmaßstab: „Nach besten Kräften“ No access
- 2. Zielmaßstab: „Ausreichendes Maß an KI‑Kompetenz“ No access
- V. Umsetzung im Unternehmen: Integration in bestehende Compliance‑Architekturen No access
- 1. Sanktionsrechtliche Implikationen No access
- 2. Behördlicher Vollzug und Beschwerderechte No access
- 3. Zivil‑ und produkthaftungsrechtliche Risiken No access
- VII. Praxisleitlinien und Ausblick No access
- Verzeichnis der Autorinnen und Autoren No access Pages 219 - 220





