Wirtschaft

OpenAI-Turbulenzen: Top-Entwickler verlassen Unternehmen wegen Sicherheitsbedenken

ChatGPT: Risiko-Team schmeißt hin – die wahren Absichten von OpenAI

Das ChatGPT-Startup OpenAI hat kürzlich die neueste Version seiner künstlichen Intelligenz GPT4 vorgestellt, doch intern herrscht Unruhe. Top-Entwickler verlassen das Unternehmen aufgrund von Sicherheitsbedenken. Mitgründer Ilya Sutskever und Jan Leike, Leiter des Superalignment-Teams, haben ihre Kündigungen eingereicht. Das Superalignment-Team wurde letzten Sommer ins Leben gerufen, um die Sicherheit der KI-Entwicklung zu gewährleisten und Risiken zu erforschen. Leike gab an, dass sie intern als Bremser angesehen wurden und nicht die benötigten Ressourcen erhielten.

Leike begründete seinen Rücktritt damit, dass es entscheidend sei, zu erforschen, wie KI-Systeme gelenkt und kontrolliert werden können, da der Bau intelligenterer Maschinen als Menschen ein gefährliches Unterfangen sei. Er warnte davor, dass OpenAI die potenziellen Folgen ihrer Entwicklung nicht ausreichend berücksichtige und stattdessen lieber neue Produkte auf den Markt bringe. Die Führung um CEO Sam Altman verweigerte Leike und Sutskever anscheinend die Rechenleistung, die sie für die Prüfung der Algorithmen benötigten, obwohl OpenAI zuvor versprochen hatte, mindestens 20 Prozent der Rechenzeit für die Sicherheitsforschung zu verwenden.

Nachdem Leike und Sutskever kündigten, löste CEO Sam Altman das Risiko-Team komplett auf und verteilte die restlichen Entwickler auf andere Teams. Diese Rücktrittswelle legt den Fokus erneut auf den Führungsstreit bei OpenAI im vergangenen November, als das Aufsichtsgremium Sam Altman entließ. Es wird angenommen, dass Sicherheitsbedenken auch damals eine Rolle spielten. Analysten hatten bereits nach diesem Vorfall mit einem möglichen Rückzug von Sutskever gerechnet. Doch Leikes Rücktritt und die Auflösung des Superalignment-Teams wecken Fragen darüber, was die Entwickler zu ihrem Rückzug veranlasste.

OpenAIs Ziel war es, eine allgemeine künstliche Intelligenz zu entwickeln, die Menschen in der Problemlösung überlegen ist. Mit dem Erfolg und den Investitionen von Microsoft geriet jedoch die Sicherheitskultur in Gefahr. Leike betonte, dass es dringend erforderlich sei, sich ernsthaft mit den Auswirkungen von AGI zu befassen, um sicherzustellen, dass sie der gesamten Menschheit zugutekommt. Die Arbeit des Superalignment-Teams war äußerst herausfordernd und sollte unter anderem eine KI-Aufsicht entwickeln, um die Ergebnisse anderer Algorithmen zu überprüfen. Der Rücktritt von Leike und Sutskever zeigt, dass ihre Chefs wenig Interesse daran haben, ihre Algorithmen zur Rechenschaft zu ziehen und sicherzustellen, dass sie stets die Interessen der menschlichen Nutzer an erste Stelle setzen.

Rästel der Woche

Ursprünglich wurde es in den 1950er Jahren aus einer Boje entwickelt! Seither ist es ein fester Bestandteil jeder Gartenparty und das Herzstück jeder geselligen Runde im Freien.

Lösung anzeigen
Mit einem Portfolio, das mehr als zwei Jahrzehnte Berufserfahrung umfasst, ist der freie Redakteur und Journalist Konrad l. Schneider ein fester Bestandteil der deutschen Medienlandschaft.
Schaltfläche "Zurück zum Anfang"