Ennepe-Ruhr-KreisSportTechnologieWirtschaftWissenschaft

Google-Übersichten: Peinliche Fehler bei KI-Software entlarvt!

Mountain View (dpa) – Google hat in den USA die Suchmaschine umfassend um KI-Übersichten erweitert, die jedoch peinliche und verstörende Fehler aufweisen. Ein Nutzer teilte beispielsweise die Empfehlung, Klebstoff als Käseersatz auf einer Pizza zu verwenden. Weitere Fehler beinhalten Behauptungen wie Hunde, die in professionellen Basketball- und Football-Ligen spielen, oder dass Barack Obama der erste muslimische Präsident der USA war.

Diese KI-Zusammenfassungen, auch als „AI Overviews“ bekannt, sollen den Nutzern schnell direkte Antworten auf ihre Fragen liefern, anstatt eine Liste von Weblinks anzuzeigen. Trotz des Widerspruchs mehrerer Start-ups gegen Googles Dominanz in der Websuche und ihrem Plan, mit KI-Antworten zu konkurrieren, folgt der Internetriese diesem Trend. Während kurze Antworten auf Faktenfragen bereits verfügbar waren, sind sie jetzt zu ausführlicheren Texten geworden.

Inzidenztracker

Die Einführung dieser Funktion in weiteren Ländern ist für Jahresende geplant, was bei vielen Website-Betreibern und Medien Bedenken hervorruft. Sie befürchten, dass Google durch die KI-Zusammenfassungen weniger Traffic auf ihre Seiten leiten wird, was ihre Geschäfte beeinträchtigen könnte. Google behauptet jedoch, dass die Quellen für die Informationen in den Übersichten sogar einen Anstieg des Datenverkehrs verzeichnen. Die Auswirkungen auf andere bleiben jedoch unklar.

Ein Problem, das sich mit der breiten Einführung der KI-Übersichten zeigt, ist die Unfähigkeit der Software, seriöse Informationen von Scherzen oder Satire zu unterscheiden. Als Quellen für absurde Behauptungen dienten unter anderem Spaß-Posts in Online-Foren oder Artikel von Satire-Websites wie „The Onion“. Eine Google-Sprecherin erklärte, dass die Fehler auf ungewöhnliche Anfragen zurückzuführen seien und nicht der Erfahrung der meisten Nutzer entsprächen. Diese Beispiele würden genutzt, um das Produkt zu optimieren.

Im Februar wurde Google bereits wegen seines KI-Programms Gemini verspottet, das Bilder nicht-weißer Nazi-Soldaten und Siedler generierte. Der Konzern räumte ein, dass Ausnahmen für die Diversität nicht berücksichtigt wurden und stoppte vorerst die Bildgenerierung. Die Vorfälle verdeutlichen die Herausforderungen, mit denen Künstliche Intelligenz bei der Interpretation von Informationen konfrontiert ist und wie Unternehmen wie Google daran arbeiten, solche Fehler zu beheben und die Genauigkeit ihrer Dienste zu verbessern.

Mit einem beeindruckenden Portfolio, das mehr als zwei Jahrzehnte Berufserfahrung umfasst, ist unser Redakteur und Journalist ein fester Bestandteil der deutschen Medienlandschaft. Als langjähriger Bewohner Deutschlands bringt er sowohl lokale als auch nationale Perspektiven in seine Artikel ein. Er hat sich auf Themen wie Politik, Gesellschaft und Kultur spezialisiert und ist bekannt für seine tiefgründigen Analysen und gut recherchierten Berichte.
Schaltfläche "Zurück zum Anfang"