KI-Neuigkeiten: Lilian Weng, Vizepräsidentin für Forschung und Sicherheit bei OpenAI, gab kürzlich ihre Entscheidung bekannt, das Unternehmen nach sieben Jahren zu verlassen. In ihrer Rolle spielte Weng eine zentrale Rolle bei der Entwicklung der Sicherheitssysteme von OpenAI, einem entscheidenden Bestandteil der verantwortungsvollen KI-Strategie des Unternehmens.
Ihr Abgang mit Wirkung zum 15. November folgt auf eine jüngste Abgangswelle unter dem KI-Sicherheitspersonal von OpenAI, darunter Persönlichkeiten wie Jan Leike und Ilya Sutskever. Die beiden leiteten gemeinsam das Superalignment-Team, eine Initiative, die sich auf die Verwaltung superintelligenter KI konzentriert.
AI News: Lilian Weng, Sicherheitsvizepräsidentin von OpenAI, tritt zurück und verweist auf die Notwendigkeit neuer Herausforderungen
In einem Beitrag auf Zu ihrer Arbeit bei OpenAI gehörte eine herausragende Rolle beim Aufbau des Safety Systems-Teams, das auf über 80 Mitglieder anwuchs.
Darüber hinaus würdigte Weng die Erfolge des Teams und zeigte sich stolz auf dessen Fortschritte sowie ihrer Zuversicht, dass das Team auch nach ihrem Weggang weiterhin erfolgreich sein würde. Der Ausstieg von Weng unterstreicht jedoch einen anhaltenden Trend unter den Mitgliedern des KI-Sicherheitsteams von OpenAI, von denen viele Bedenken hinsichtlich der sich ändernden Prioritäten des Unternehmens geäußert haben.
Weng kam zunächst als Teil seines Robotikteams zu OpenAI, das an fortgeschrittenen Aufgaben wie der Programmierung einer Roboterhand zum Lösen eines Zauberwürfels arbeitete. Im Laufe der Jahre wandelte sie sich in künstliche Intelligenz Sicherheitsrollen und beaufsichtigte schließlich die Sicherheitsinitiativen des Startups nach der Einführung von GPT-4. Dieser Übergang markierte ihren verstärkten Fokus auf die Gewährleistung der sicheren Entwicklung der KI-Modelle von OpenAI.
In den jüngsten AI-Nachrichten machte Weng keine Angaben zu ihren Plänen, erklärte jedoch:
„Nachdem ich fast sieben Jahre bei OpenAI gearbeitet habe, entscheide ich mich zu gehen. Ich habe so viel gelernt und bin jetzt bereit für einen Neustart und etwas Neues.“
OpenAI löst das Superalignment-Team auf, da sich die Sicherheitsprioritäten ändern
OpenAI hat kürzlich sein Superalignment-Team aufgelöst, ein von Jan Leike und Mitbegründer Ilya Sutskever gemeinsam geleitetes Projekt zur Entwicklung von Steuerungen für potenzielle superintelligente KI. Die Auflösung dieses Teams hat Diskussionen über die Priorisierung kommerzieller Produkte durch OpenAI gegenüber der Sicherheit ausgelöst.
Jüngsten KI-Nachrichten zufolge legte die Führung von OpenAI, darunter CEO Sam Altman, mehr Wert auf die Veröffentlichung von Produkten wie GPT-4o, einem fortschrittlichen generativen Modell, als auf die Unterstützung der Superalignment-Forschung. Dieser Fokus führte Berichten zufolge Anfang des Jahres zum Rücktritt von Leike und Sutskever, gefolgt von anderen in den Bereichen KI-Sicherheit und Politik bei OpenAI.
Ilya und OpenAI werden sich trennen. Das ist für mich sehr traurig; Ilya ist mit Sicherheit einer der größten Köpfe unserer Generation, ein Vorbild auf unserem Gebiet und ein lieber Freund. Seine Brillanz und Vision sind bekannt; Seine Wärme und sein Mitgefühl sind weniger bekannt, aber nicht weniger …
– Sam Altman (@sama) 14. Mai 2024
Das Ziel des Superalignment-Teams bestand darin, Maßnahmen für die Verwaltung zukünftiger KI-Systeme festzulegen, die Aufgaben auf menschlicher Ebene bewältigen können. Der Abbau hat jedoch die Besorgnis ehemaliger Mitarbeiter und Branchenexperten verstärkt, die argumentieren, dass die Verlagerung des Unternehmens hin zur Produktentwicklung möglicherweise auf Kosten strenger Sicherheitsmaßnahmen gehen könnte.
In den neuesten KI-Nachrichten OpenAI eingeführt ChatGPT Search nutzt das erweiterte GPT-4o-Modell, um Echtzeit-Suchfunktionen für verschiedene Informationen, einschließlich Sport, Aktienmärkte und Nachrichtenaktualisierungen, anzubieten.
Darüber hinaus sagte Tesla-CEO: Elon Musk hat Bedenken geäußert über die von KI ausgehenden Risiken und schätzt, dass die Wahrscheinlichkeit, dass KI-Entwicklungen abtrünnig werden, bei 10–20 % liegt. Auf einer kürzlich abgehaltenen Konferenz forderte Musk mehr Wachsamkeit und ethische Überlegungen bei der Weiterentwicklung der KI. Er betonte, dass der rasante Fortschritt der KI es Systemen bald ermöglichen könnte, innerhalb der nächsten zwei Jahre komplexe Aufgaben zu erfüllen, die mit menschlichen Fähigkeiten vergleichbar sind.
Haftungsausschluss: Der präsentierte Inhalt kann die persönliche Meinung des Autors beinhalten und unterliegt den Marktbedingungen. Machen Sie Ihre Marktforschung, bevor Sie in Kryptowährungen investieren. Der Autor oder die Veröffentlichung übernehmen keine Verantwortung für Ihren persönlichen finanziellen Verlust.
Dieser Beitrag ist ein öffentlicher RSS Feed. Sie finden den Original Post unter folgender Quelle (Website) .
Unser Portal ist ein RSS-Nachrichtendienst und distanziert sich vor Falschmeldungen oder Irreführung. Unser Nachrichtenportal soll lediglich zum Informationsaustausch genutzt werden. Die auf dieser Website bereitgestellten Informationen stellen keine Finanzberatung dar und sind nicht als solche gedacht. Die Informationen sind allgemeiner Natur und dienen nur zu Informationszwecken. Wenn Sie Finanzberatung für Ihre individuelle Situation benötigen, sollten Sie den Rat von einem qualifizierten Finanzberater einholen. Kryptohandel hat ein großes Handelsrisiko was zum Totalverlust führen kann.