OpenAI sucht einen Leiter zur Bekämpfung von ChatGPT für 550.000 $ pro Jahr

OpenAI sucht einen neuen Leiter der Sicherheitsvorbereitung, der für die Untersuchung von Risiken im Zusammenhang mit künstlicher Intelligenz, insbesondere in den Bereichen Computersicherheit und psychische Gesundheit, verantwortlich ist.

OpenAI sucht einen neuen Leiter der Sicherheitsvorbereitung, der für die Untersuchung von Risiken im Zusammenhang mit künstlicher Intelligenz, insbesondere in den Bereichen Computersicherheit und psychische Gesundheit, verantwortlich ist.

In einem Beitrag auf X erkannte der CEO des Unternehmens, Sam Altman, an, dass KI-Modelle „tatsächlich echte Herausforderungen darstellen“, einschließlich der „potenziellen Auswirkungen von Modellen auf die psychische Gesundheit“ sowie Modelle, die „so gut in der Computersicherheit sind, dass sie beginnen, kritische Schwachstellen zu finden“.

„Wenn Sie der Welt helfen wollen, herauszufinden, wie man Cybersicherheitsverteidiger mit modernsten Fähigkeiten ausstattet und gleichzeitig sicherstellt, dass Angreifer diese nicht für Schaden verwenden können, und alle Systeme sicherer macht, sowie wie wir biologische Fähigkeiten freisetzen und Vertrauen in die Sicherheit von Systemen gewinnen, die sich selbst verbessern können, dann bewerben Sie sich bitte“, schrieb Altman.

Die Stellenanzeige von OpenAI für den Leiter der Sicherheitsvorbereitung beschreibt die Aufgabe als diejenige, die für die Umsetzung des Unternehmensvorbereitungsrahmens verantwortlich ist, „unserer Strategie, die den Ansatz von OpenAI zur Verfolgung und Vorbereitung auf neue Möglichkeiten erklärt, die neue Risiken schwerwiegender Schäden schaffen“.

Das Gehalt für diese Position beträgt 555.000 US-Dollar plus Unternehmensanteile.

Das Unternehmen kündigte 2023 erstmals die Schaffung eines Vorbereitet-Teams an, das für die Untersuchung potenzieller „katastrophaler Risiken“ verantwortlich ist, sei es dringender Natur, wie Phishing-Angriffe, oder spekulativer, wie nukleare Bedrohungen.

Weniger als ein Jahr später versetzte OpenAI den Leiter der Sicherheitsvorbereitung, Aleksander Madry, in eine Position, die sich auf die Untersuchung der künstlichen Intelligenz konzentrierte. Andere Sicherheitsmanager verließen ebenfalls das Unternehmen oder gingen in neue Rollen außerhalb des Bereichs Vorbereitung und Sicherheit.

Das Unternehmen aktualisierte kürzlich seine Vorbereitungsstrategie und stellte fest, dass es seine Sicherheitsanforderungen „anpassen“ könnte, wenn ein konkurrierendes KI-Labor ein „hochriskantes“ Modell ohne ähnliche Schutzmaßnahmen veröffentlicht.

Wie Altman in seinem Beitrag erwähnte, erhalten generative KI-Chatbots zunehmend Aufmerksamkeit wegen ihrer Auswirkungen auf die psychische Gesundheit. Kürzliche Klagen behaupten, dass OpenAIs ChatGPT die Wahnvorstellungen der Nutzer verstärkt, ihre soziale Isolation erhöht und sogar zu Suiziden geführt hat. (Das Unternehmen erklärte, dass es weiterhin daran arbeitet, ChatGPTs Fähigkeit zur Erkennung von emotionalem Stress zu verbessern und Nutzer mit realer Unterstützung zu verbinden.)