Der Artificial Intelligence Act (AI Act) der Europäischen Union trat am 1. August 2024 in Kraft und hat sich zum Ziel gesetzt, die sichere und vertrauenswürdige Entwicklung sowie Nutzung von Künstlicher Intelligenz (KI) innerhalb der EU zu fördern. Die vollständige Durchsetzung des AI Acts beginnt im August 2026, jedoch treten bereits im Februar 2025 bestimmte Regeln in Kraft. Experten des Bamberger Zentrums für Künstliche Intelligenz (BaCAI) stehen für Interviews zur Verfügung, um die Herausforderungen und Chancen der neuen Regelung zu erläutern.
Prof. Dr. Ute Schmid, Sprecherin des BaCAI, betont die hohe Bedeutung von Qualitätsstandards für KI-Systeme, die auf komplexen, datengestützten Modellen basieren. Die zentralen Anforderungen an vertrauenswürdige KI umfassen performante, robuste und transparente Systeme, die Erklärbarkeit und Diskriminierungsfreiheit gewährleisten. Zudem sollen menschliche Kontrolle und Aufsicht bei der Nutzung von KI unerlässlich sein.
Wichtige Forschungsprojekte
Am Lehrstuhl für Kognitive Systeme der Universität Bamberg werden Forschungsprojekte durchgeführt, die erklärbare KI, „human-in-the-loop“ maschinelles Lernen und partnerschaftliche KI-Systeme untersuchen. Hierbei wird auch erforscht, wie Teile des AI Acts mithilfe von Methoden der Logik und symbolischen KI formalisiert werden können. Prof. Dr. Christoph Benzmüller hat sich diesem Thema intensiv gewidmet.
Ein Workshop zur Diskussion des AI Acts findet am 13. Februar 2025 an der Universität Bamberg statt. Diese Fachtagung richtet sich an KI-interessierte Personen, insbesondere kleine und mittlere Unternehmen (KMUs). Die kostenfreie Anmeldung zur Veranstaltung ist bis zum 10. Februar 2025 möglich und wird vom KMU-KI-Erfahrungszentrum in Kooperation mit BaCAI sowie der vbw – Vereinigung der Bayerischen Wirtschaft e. V. Bezirksgruppe Oberfranken organisiert. Für Medienanfragen steht Hannah Fischer von der Pressestelle der Universität Bamberg zur Verfügung.
Risikobasierter Ansatz und ethische Leitlinien
Der AI Act basiert auf einem risikobasierten Ansatz, der sich an den 2019 entwickelten Ethikleitlinien für vertrauenswürdige KI orientiert. Diese Leitlinien beschreiben sieben unverbindliche ethische Grundsätze, darunter menschliches Handeln und menschliche Aufsicht, technische Robustheit und Sicherheit sowie Transparenz. Ziel ist es, die Gestaltung vertrauenswürdiger und menschenzentrierter KI zu fördern.
- Menschliches Handeln und menschliche Aufsicht
- Technische Robustheit und Sicherheit
- Privatsphäre und Daten-Governance
- Transparenz
- Vielfalt, Nichtdiskriminierung und Fairness
- Soziales und ökologisches Wohlergehen
- Rechenschaftspflicht
Diese Grundsätze sollen als Grundlage für die Entwicklung sowie die Verwendung von KI-Modellen dienen und alle Interessenträger dazu anregen, diese ethischen Anforderungen in ihre Normen zu integrieren.
Leitlinien für vertrauenswürdige KI
Die Leitlinien für vertrauenswürdige KI aus dem Jahr 2020 beinhalten drei Hauptkriterien: Rechtmäßigkeit, ethische Standards und Robustheit. Die sieben Kernanforderungen für vertrauenswürdige KI-Systeme beinhalten die Notwendigkeit eines vorrangigen menschlichen Handelns sowie technischer Robustheit, Daten-Governance und Transparenz.
Diese umfassenden Richtlinien und Standards stellen sicher, dass KI-Systeme nicht nur rechtlich konform, sondern auch ethisch verantwortungsvoll und technisch zuverlässig arbeiten. Die Umsetzung dieser Standards wird maßgeblich dazu beitragen, das Vertrauen in Künstliche Intelligenz in der gesamten EU zu stärken und deren gesellschaftliche Akzeptanz zu fördern.