Die Entwicklung und Nutzung von künstlicher Intelligenz (KI) zur Erkennung von Lügen und Täuschung ist ein viel diskutiertes Thema in der Wissenschaft. Ein Forschungsteam der Universitäten Marburg und Würzburg warnt jedoch vor möglichen Risiken bei einem vorzeitigen Einsatz dieser Technologie. Obwohl KI als potenziell wertvolles Instrument für die Grundlagenforschung betrachtet wird, bestehen Bedenken hinsichtlich ihrer Anwendung im praktischen Bereich.
Die Forscher Kristina Suchotzki und Matthias Gamer identifizieren drei zentrale Probleme bei der KI-basierten Täuschungserkennung. Erstens fehlt es oft an Erklärbarkeit und Transparenz in den getesteten Algorithmen, was bedeutet, dass der Entscheidungsprozess der KI nicht immer nachvollziehbar ist. Zweitens kann es zu Verzerrungen bei der Entscheidungsfindung kommen, vor allem aufgrund falscher Variablen und unzureichender Datengrundlagen. Drittens fehlt bislang eine eindeutige Theorie, die spezifische Indikatoren für Lügen vorhersagen könnte.
Trotz dieser Herausforderungen warnen die Forscher nicht grundsätzlich vor der Nutzung von KI zur Lügenerkennung, betonen jedoch die Notwendigkeit strenger Qualitätsstandards und Kontrollen. Besonders bei Massenscreenings sei Vorsicht geboten, um falsch-positive Ergebnisse zu vermeiden. Die Forderung nach strukturierten und kontrollierten Einsatzbereichen sowie die Beachtung ethischer Aspekte stehen im Mittelpunkt ihrer Empfehlungen.
Letztendlich appellieren Suchotzki und Gamer an politische Entscheidungsträger, die Entwicklung und Implementierung von KI-basierter Täuschungserkennung sorgfältig zu überdenken und strenge Forschungsstandards einzuhalten. Die Geschichte des Polygraphen dient dabei als Mahnung, wie wichtig es ist, fehlerhafte Technologien frühzeitig zu erkennen und zu vermeiden, um negative Auswirkungen auf unschuldige Personen zu verhindern.