Das Karlsruher Institut für Technologie (KIT) hat sich am Spin-off Validaitor beteiligt, das sich auf die Entwicklung von Tools zur Qualitätssicherung in der Künstlichen Intelligenz (KI) spezialisiert hat. Diese Initiative kommt in einer Zeit, in der neue EU-Gesetze fordern, dass ethische Standards und ein Risikomanagement beim Einsatz von KI eingehalten werden. Validaitor wird Organisationen und Unternehmen dabei unterstützen, diese komplexen Anforderungen zu erfüllen. Professor Thomas Hirth, Vizepräsident des KIT, hebt hervor, wie wichtig innovative Ansätze für die Qualitätssicherung und Compliance in der KI sind.
- Das KIT hat eine Beteiligung an Validaitor beschlossen.
- Das Unternehmen stellt eine Plattform für KI-Governance, Risikomanagement und automatisiertes Testen zur Verfügung.
- Das Angebot kombiniert Testen mit Werkzeugen, um einen regelkonformen Betrieb zu erleichtern.
Die Beteiligung des KIT an Validaitor ist Teil einer erfolgreichen Finanzierungsrunde, die auch andere Investoren wie Bitdefender, Voyager Ventures, EnBW New Ventures und das BW Seed Fonds der MBG Mittelständische Beteiligungsgesellschaft Baden-Württemberg umfasst. Yunus Bulut, Gründer und CEO von Validaitor, hat erklärt, dass die eingeworbenen Mittel dazu beitragen werden, die Plattform weiterzuentwickeln und dabei helfen, bis zu 80 Prozent der Kosten für KI-Zertifizierungen einzusparen. Das Investorenkonsortium bringt dabei Expertise in verschiedenen Bereichen mit, was die Entwicklung von Validaitor weiter vorantreiben wird.
Der AI Act und seine Bedeutung
Parallel zu den Entwicklungen rund um Validaitor wurde der AI Act als erstes umfassendes Regelwerk für Künstliche Intelligenz in der EU verabschiedet. Am 21. Mai 2024 einigten sich die 27 EU-Mitgliedstaaten auf diesen bedeutenden rechtlichen Rahmen, der Vertrauen in KI-Technologien schaffen und Innovationen in Europa fördern soll. Der AI Act verfolgt einen risikobasierten Ansatz: Je höher das Risiko eines KI-Systems, desto strengere Anforderungen gelten. Hochrisiko-KI-Systeme, die potenziell Gesundheit und Sicherheit gefährden könnten, müssen strenge Sicherheitsvorgaben einhalten.
Die neuen EU-Regelungen kategorisieren hochriskante KI-Systeme in zwei Hauptgruppen: erstens, KI-Systeme in Produkten, die unter EU-Produktsicherheitsvorschriften fallen, und zweitens, spezifische Bereiche, in denen KI-Systeme in einer EU-Datenbank registriert werden müssen. Dazu zählen Bereiche wie die Verwaltung kritischer Infrastrukturen und die Strafverfolgung. Vor der Markteinführung werden alle hochriskanten KI-Systeme bewertet und müssen während ihres gesamten Lebenszyklus diesen Bewertungen standhalten.
Die Rolle der Bundesregierung
Die Bundesregierung hat die Notwendigkeit von KI als entscheidend für die Zukunft der Gesellschaft und die Wettbewerbsfähigkeit der Wirtschaft erkannt. Bundesdigitalminister Volker Wissing hat betont, dass bei der Umsetzung des AI Acts Spielräume für Innovationen genutzt werden sollten. Die nationale KI-Strategie der Bundesregierung zielt darauf ab, Deutschland zu einem führenden Standort für die Entwicklung und Anwendung von KI zu machen, unterstützt durch die Einrichtung von KI-Servicezentren, besonders für kleine und mittlere Unternehmen.
Die Kombination dieser Entwicklungen, sowohl die Gründung von Validaitor als auch die Verabschiedung des AI Acts, zeigt, dass Deutschland und die EU ernsthaft daran arbeiten, ein sicheres und ethisches Umfeld für Künstliche Intelligenz zu schaffen und gleichzeitig Innovationen voranzutreiben.