Samstag, November 23, 2024

Lilian Weng verlässt OpenAI und ergänzt die Liste der Abgänge von Sicherheitsteams


KI-Neuigkeiten: Lilian Weng, Vizepräsidentin für Forschung und Sicherheit bei OpenAI, gab kürzlich ihre Entscheidung bekannt, das Unternehmen nach sieben Jahren zu verlassen. In ihrer Rolle spielte Weng eine zentrale Rolle bei der Entwicklung der Sicherheitssysteme von OpenAI, einem entscheidenden Bestandteil der verantwortungsvollen KI-Strategie des Unternehmens.

Ihr Abgang mit Wirkung zum 15. November folgt auf eine jüngste Abgangswelle unter dem KI-Sicherheitspersonal von OpenAI, darunter Persönlichkeiten wie Jan Leike und Ilya Sutskever. Die beiden leiteten gemeinsam das Superalignment-Team, eine Initiative, die sich auf die Verwaltung superintelligenter KI konzentriert.

AI News: Lilian Weng, Sicherheitsvizepräsidentin von OpenAI, tritt zurück und verweist auf die Notwendigkeit neuer Herausforderungen

In einem Beitrag auf Zu ihrer Arbeit bei OpenAI gehörte eine herausragende Rolle beim Aufbau des Safety Systems-Teams, das auf über 80 Mitglieder anwuchs.

Darüber hinaus würdigte Weng die Erfolge des Teams und zeigte sich stolz auf dessen Fortschritte sowie ihrer Zuversicht, dass das Team auch nach ihrem Weggang weiterhin erfolgreich sein würde. Der Ausstieg von Weng unterstreicht jedoch einen anhaltenden Trend unter den Mitgliedern des KI-Sicherheitsteams von OpenAI, von denen viele Bedenken hinsichtlich der sich ändernden Prioritäten des Unternehmens geäußert haben.

Weng kam zunächst als Teil seines Robotikteams zu OpenAI, das an fortgeschrittenen Aufgaben wie der Programmierung einer Roboterhand zum Lösen eines Zauberwürfels arbeitete. Im Laufe der Jahre wandelte sie sich in künstliche Intelligenz Sicherheitsrollen und beaufsichtigte schließlich die Sicherheitsinitiativen des Startups nach der Einführung von GPT-4. Dieser Übergang markierte ihren verstärkten Fokus auf die Gewährleistung der sicheren Entwicklung der KI-Modelle von OpenAI.

In den jüngsten AI-Nachrichten machte Weng keine Angaben zu ihren Plänen, erklärte jedoch:

„Nachdem ich fast sieben Jahre bei OpenAI gearbeitet habe, entscheide ich mich zu gehen. Ich habe so viel gelernt und bin jetzt bereit für einen Neustart und etwas Neues.“

OpenAI löst das Superalignment-Team auf, da sich die Sicherheitsprioritäten ändern

OpenAI hat kürzlich sein Superalignment-Team aufgelöst, ein von Jan Leike und Mitbegründer Ilya Sutskever gemeinsam geleitetes Projekt zur Entwicklung von Steuerungen für potenzielle superintelligente KI. Die Auflösung dieses Teams hat Diskussionen über die Priorisierung kommerzieller Produkte durch OpenAI gegenüber der Sicherheit ausgelöst.

Jüngsten KI-Nachrichten zufolge legte die Führung von OpenAI, darunter CEO Sam Altman, mehr Wert auf die Veröffentlichung von Produkten wie GPT-4o, einem fortschrittlichen generativen Modell, als auf die Unterstützung der Superalignment-Forschung. Dieser Fokus führte Berichten zufolge Anfang des Jahres zum Rücktritt von Leike und Sutskever, gefolgt von anderen in den Bereichen KI-Sicherheit und Politik bei OpenAI.

Das Ziel des Superalignment-Teams bestand darin, Maßnahmen für die Verwaltung zukünftiger KI-Systeme festzulegen, die Aufgaben auf menschlicher Ebene bewältigen können. Der Abbau hat jedoch die Besorgnis ehemaliger Mitarbeiter und Branchenexperten verstärkt, die argumentieren, dass die Verlagerung des Unternehmens hin zur Produktentwicklung möglicherweise auf Kosten strenger Sicherheitsmaßnahmen gehen könnte.

In den neuesten KI-Nachrichten OpenAI eingeführt ChatGPT Search nutzt das erweiterte GPT-4o-Modell, um Echtzeit-Suchfunktionen für verschiedene Informationen, einschließlich Sport, Aktienmärkte und Nachrichtenaktualisierungen, anzubieten.

Darüber hinaus sagte Tesla-CEO: Elon Musk hat Bedenken geäußert über die von KI ausgehenden Risiken und schätzt, dass die Wahrscheinlichkeit, dass KI-Entwicklungen abtrünnig werden, bei 10–20 % liegt. Auf einer kürzlich abgehaltenen Konferenz forderte Musk mehr Wachsamkeit und ethische Überlegungen bei der Weiterentwicklung der KI. Er betonte, dass der rasante Fortschritt der KI es Systemen bald ermöglichen könnte, innerhalb der nächsten zwei Jahre komplexe Aufgaben zu erfüllen, die mit menschlichen Fähigkeiten vergleichbar sind.

✓ Teilen:

Ronny Mugendi

Ronny Mugendi ist ein erfahrener Krypto-Journalist mit vier Jahren Berufserfahrung, der maßgeblich für verschiedene Medien zu Kryptowährungstrends und -technologien beigetragen hat. Mit über 4000 veröffentlichten Artikeln in verschiedenen Medien möchte er mehr Menschen informieren, aufklären und in die Blockchain- und DeFi-Welt einführen. Außerhalb seiner Karriere als Journalist genießt Ronny den Nervenkitzel des Fahrradfahrens und der Erkundung neuer Wege und Landschaften.

Haftungsausschluss: Der präsentierte Inhalt kann die persönliche Meinung des Autors beinhalten und unterliegt den Marktbedingungen. Machen Sie Ihre Marktforschung, bevor Sie in Kryptowährungen investieren. Der Autor oder die Veröffentlichung übernehmen keine Verantwortung für Ihren persönlichen finanziellen Verlust.




Dieser Beitrag ist ein öffentlicher RSS Feed. Sie finden den Original Post unter folgender Quelle (Website) .

Unser Portal ist ein RSS-Nachrichtendienst und distanziert sich vor Falschmeldungen oder Irreführung. Unser Nachrichtenportal soll lediglich zum Informationsaustausch genutzt werden. Die auf dieser Website bereitgestellten Informationen stellen keine Finanzberatung dar und sind nicht als solche gedacht. Die Informationen sind allgemeiner Natur und dienen nur zu Informationszwecken. Wenn Sie Finanzberatung für Ihre individuelle Situation benötigen, sollten Sie den Rat von einem qualifizierten Finanzberater einholen. Kryptohandel hat ein großes Handelsrisiko was zum Totalverlust führen kann.

Ähnliche Artikel

- Advertisement -spot_img

Letzten Artikel