Samstag, Januar 11, 2025

Das neueste „Argumentation“-Modell von OpenAI für grundlegende Fehler



OpenAI hat kürzlich ein „begründendes“ KI-Modell – o1 – veröffentlicht, das laut der neuen Anzeige des Unternehmens jedoch bereits mit grundlegenden Fehlern behaftet ist.

Der ChatGPT-Hersteller veröffentlichte zum Auftakt seiner „12 Days of OpenAI“-Veranstaltung, einer Reihe von Veröffentlichungen zur Feier der Weihnachtszeit, sein bislang fortschrittlichstes Modell für zahlende Abonnenten.

Ein OpenAI-Demovideo deutet darauf hin, dass das Modell fehleranfällig ist

Laut einem Video, das OpenAI veröffentlicht hat, um die Stärken des Modells zu zeigen, lädt ein Benutzer ein Bild eines hölzernen Vogelhauses hoch und bittet das Modell dann um Rat, wie man ein ähnliches bauen kann. Das „Argumentation“-Modell scheint einen Moment lang zu „denken“, bevor es scheinbar eine Reihe von Anweisungen ausgibt.

Bei genauerem Hinsehen scheinen die Anweisungen Zeitverschwendung zu sein. Das Modell misst das für die Aufgabe erforderliche Material wie Farbe, Kleber und Dichtmittel, liefert jedoch nur Maße für die Frontplatte des Vogelhauses.

Das Modell schlägt vor, ein Stück Schleifpapier auf andere Abmessungen zuzuschneiden, die nicht erforderlich sind. Darüber hinaus gibt das Modell an, dass es „die genauen Abmessungen“ angibt, im Gegensatz zu seinen früheren Behauptungen jedoch keine genauen Abmessungen angibt.

James Filus, der Direktor des Institute of Carpenters, einer in Großbritannien ansässigen Handelsorganisation, deckte ebenfalls die Fehler des Modells auf, wie zum Beispiel benötigte Werkzeuge, die aber in der o1-Liste fehlten, beispielsweise ein Hammer.

„Man würde aus dem Bild genauso viel über den Bau des Vogelhauses wissen wie aus dem Text, was den gesamten Zweck des KI-Tools irgendwie zunichte macht.“

Der Draht

Darüber hinaus gab Filus bekannt, dass die Kosten für den Bau desselben Vogelhauses „nicht annähernd“ die 20 bis 50 US-Dollar betragen würden, die das Modell geschätzt hatte.

Das OpenAI-Modell bewirkt das Gegenteil des beabsichtigten Verwendungszwecks

Der o1-Fall ergänzt andere Beispiele für Produktdemos von KI-Modellen, bei denen sie das Gegenteil des beabsichtigten Zwecks bewirken. Im Jahr 2023 gab eine Google-Anzeige für ein KI-gestütztes Suchtool fälschlicherweise an, dass das James-Webb-Teleskop eine Entdeckung gemacht hatte, die es nicht gemacht hatte. Dieser Fehler führte dazu, dass der Aktienkurs des Unternehmens fiel.

Dies war jedoch nicht alles vom Suchmaschinengiganten, denn kürzlich teilte eine aktualisierte Version eines ähnlichen Google-Tools den Nutzern mit, dass es sicher sei, Steine ​​zu essen. Es wurde auch behauptet, dass Benutzer Kleber verwenden könnten, um Käse auf ihre Pizza zu kleben.

Trotz der Fehler bleibt das o1-Modell laut öffentlichen Benchmarks das bisher leistungsfähigste Modell von OpenAI. Auch bei der Beantwortung von Fragen wird ein anderer Ansatz verfolgt als bei ChatGPT.

Laut Time ist o1 immer noch ein sehr fortschrittlicher Prädiktor für das nächste Wort, da er mithilfe maschinellen Lernens an Milliarden von Textwörtern aus dem Internet und darüber hinaus trainiert wurde.

Das Modell verwendet eine Technik, die als „Denkketten“-Argumentation bekannt ist, um hinter den Kulissen einen Moment lang über eine Antwort nachzudenken, und gibt seine Antwort erst danach. Das ist etwas anderes, als wenn man auf eine Aufforderung hin nur Wörter herausgibt.

Dies hilft dem Modell, genauere Antworten zu geben, anstatt nur Wörter als Antwort auf Benutzeranfragen auszuspucken.

Erhalten Sie in 90 Tagen einen hochbezahlten Web3-Job: Die ultimative Roadmap


Dieser Beitrag ist ein öffentlicher RSS Feed. Sie finden den Original Post unter folgender Quelle (Website) .

Unser Portal ist ein RSS-Nachrichtendienst und distanziert sich vor Falschmeldungen oder Irreführung. Unser Nachrichtenportal soll lediglich zum Informationsaustausch genutzt werden. Die auf dieser Website bereitgestellten Informationen stellen keine Finanzberatung dar und sind nicht als solche gedacht. Die Informationen sind allgemeiner Natur und dienen nur zu Informationszwecken. Wenn Sie Finanzberatung für Ihre individuelle Situation benötigen, sollten Sie den Rat von einem qualifizierten Finanzberater einholen. Kryptohandel hat ein großes Handelsrisiko was zum Totalverlust führen kann.

Ähnliche Artikel

- Advertisement -spot_img

Letzten Artikel