Im Rahmen des neuen Forschungsschwerpunkts zum Thema Vertrauen und Künstliche Intelligenz (KI) wurden zwei bedeutende Projekte vom Bayerischen Institut für Digitale Transformation (bidt) gefördert. Insgesamt wurden zehn Vorhaben ausgewählt, die sich durch hervorragende Qualität, Aktualität und Relevanz auszeichnen. Diese Auswahl fand in einem kompetitiven Verfahren statt, das die besten Ansätze zur Untersuchung der Herausforderungen rund um Vertrauen und KI identifizierte.
Zusätzlich zu diesen Forschungsprojekten wurden zwei Konsortialprojekte aus Bayern ausgewählt, eines davon an der Universität Passau. Der Titel des Projekts lautet „Autoritäre KI: Wie große Sprachmodelle (LLMs) an Russlands Propaganda angepasst werden“. Dieses Vorhaben wird geleitet von Prof. Dr. Florian Toepfl und Prof. Dr. Florian Lemmerich von der Universität Passau sowie Prof. Dr. Andreas Jungherr von der Universität Bamberg.
Untersuchung autoritärer Strukturen
DasProjekt konzentriert sich auf die Frage, wie LLMs unter strenger Aufsicht und Zensur in Russland entwickelt werden und untersucht die Auswirkungen autoritärer Daten auf demokratische, LLM-gestützte Systeme. Diese Forschung ist besonders relevant in einer Zeit, in der die Rolle von KI in sozialen und politischen Kontexten zunehmend diskutiert wird. Die umfassende Analyse der Entwicklung und Nutzung von KI in autoritären Regimes könnte wesentliche Erkenntnisse über die Grenzen und Möglichkeiten von KI-Systemen liefern.
Aktuelle Anwendungen von KI in der Medizin, wie die Krebsfrüherkennung, oder in der Rekrutierung von Fachkräften zeigen bereits das immense Potenzial dieser Technologie. Gleichzeitig gibt es jedoch einen wachsenden Bedarf an klaren Regeln und Standards für die Sicherheit und Transparenz von KI-Systemen. Auch die Normungsroadmap für KI spielt hier eine zentrale Rolle, da sie eine einheitliche Klassifizierung von KI-Systemen anstrebt, um Vertrauen in diese Technologien zu schaffen und deren Akzeptanz zu erhöhen.
Die Normungsroadmap für KI
Ein internationales Normungsprojekt mit der Bezeichnung ISO/IEC AWI 42102 soll die Grundlagen für diese Klassifizierung legen. Es ist das erste seiner Art unter deutscher Leitung und orientiert sich an der Normungsroadmap für Künstliche Intelligenz, deren zweite Ausgabe strategische Handlungsempfehlungen beinhaltet. Diese Normung wird voraussichtlich noch weitere 2,5 Jahre in Anspruch nehmen, bis die Norm veröffentlicht wird. Unstimmigkeiten über die Definition von KI-Systemen bestehen weiterhin auch in Expertenkreisen.
Die AI=MC2-Taxonomie klassifiziert KI-Systeme anhand von drei Dimensionen: Methoden, Fähigkeiten und Kritikalität. Während Methoden sich auf die Funktionen der KI beziehen und Fähigkeiten die praktische Umsetzung abdecken, fokussiert sich die Kritikalität auf die potenziellen Gefahren, die von diesen Systemen ausgehen können. Die klare Darstellung und Zugänglichkeit von Informationen über KI-Systeme, vergleichbar mit Nährwertangaben auf Lebensmitteln, ist ein weiteres Ziel dieser Initiative.
Insgesamt zielt dieses Normungsprojekt darauf ab, konkrete Vorgaben zu schaffen, die sowohl die Sicherheit als auch die Transparenz von KI erhöhen. Dies ist nicht nur für Hersteller und Unternehmen von Bedeutung, sondern auch für Wissenschaftler und den öffentlichen Dienst, die sich mit der Integration von KI-Technologien in ihre Praktiken auseinandersetzen müssen. Ein begleitendes Buch mit dem Titel „Künstliche Intelligenz managen und verstehen“ bietet zusätzliche Informationen zu diesem umfangreichen Projekt.