Berichten zufolge ignorierte Apple die Warnungen der Ingenieure vor der fehlerhaften Apple Intelligence und veröffentlichte die Technologie, was enttäuschende Marktbewertungen einbrachte.
Der Apple Intelligence-Dienst des iPhone-Herstellers machte aus den falschen Gründen Schlagzeilen und stieß auf breite Kritik, insbesondere weil er falsche Informationen erfunden und Schlagzeilen verpfuscht hatte.
Ingenieure entdeckten Fehler in vielen Modellen, darunter auch Apple Intelligence
Während es bei großen Sprachmodellen häufig zu Halluzinationen kommt – eine Herausforderung, die die KI-Branche, wenn überhaupt, noch nicht gelöst hat, war der Fall von Apple etwas anders. Die Ingenieure stellten vor der Veröffentlichung einige schwerwiegende Mängel des Modells fest. Dennoch ignorierte das Unternehmen die Warnungen.
Laut Analysten war die Veröffentlichung des Modells seitens des Technologieriesen leichtsinnig, nachdem Warnungen vor den klaffenden Mängeln seiner KI laut geworden waren. Die Warnungen stammen aus einer im Oktober letzten Jahres veröffentlichten Studie.
Auch wenn die Studie noch keinem Peer-Review unterzogen wurde, kam sie zu dem Schluss, dass die Modelle keine Argumente liefern, nachdem sie die mathematische „Argumentation“ einiger der besten LLMs in der KI-Branche getestet hatte.
Um die Modelle zu testen, ließen die Ingenieure sie Tausende mathematischer Probleme aus dem weit verbreiteten GSM8K-Datensatz lösen, der der Maßstab der Branche ist.
Laut Futurism lautet eine typische Frage aus dem Datensatz: „James kauft 5 Packungen Rindfleisch zu je 4 Pfund. Der Preis für Rindfleisch beträgt 5,50 $ pro Pfund. Wie viel hat er bezahlt?“
Die Ingenieure deckten die Lücken in den KI-Modellen auf, indem sie einfach einige Zahlen in den Fragen änderten, um eine Datenkontamination zu vermeiden. Dies führte zu einigen kleinen, aber bemerkenswerten Ungenauigkeiten in den 20 untersuchten LLMs.
Als die Forscher jedoch noch einen Schritt weiter gingen, indem sie Namen änderten und einige „irrelevante Details“ hinzufügten, waren die Ergebnisse „katastrophal“ und erreichten bis zu 65 %.
Die Forscher schrieben: „Dies offenbart einen kritischen Fehler in der Fähigkeit der Modelle, relevante Informationen zur Problemlösung zu erkennen, wahrscheinlich weil ihre Argumentation nicht formal im Sinne des gesunden Menschenverstandes ist und hauptsächlich auf Mustervergleichen basiert.“
Den Forschern zufolge waren die Ergebnisse bei jedem Modell unterschiedlich. Die 01-Vorschau von OpenAI sank um 17,5 % und die des Vorgängers GPT-4o um 32 %. Die Forscher stellten fest, dass selbst die „klügsten“ Modelle Probleme hatten und einige schwerwiegende Mängel aufwiesen.
KI-Modelle kämpfen alleine
Die Tests haben auch gezeigt, dass KI-Modelle bei der Lösung von Problemen zwar intelligent erscheinen, aber wenn sie die Hausaufgaben einer Person nicht wörtlich kopieren, haben sie Schwierigkeiten. Was Apple betrifft, so wusste der Technologieriese angeblich von den Testergebnissen, brachte sein Modell aber auf den Markt.
Es bedurfte ernsthafter Gegenreaktionen seitens des Marktes, einschließlich der Äußerungen der BBC über die Verbreitung irreführender Informationen durch das Modell, bis Apple das Programm schließlich pausieren konnte, bis das Problem behoben werden konnte.
Von der KI-Funktion von Apple wurde erwartet, dass sie Nachrichtenbenachrichtigungen zusammenfasst, aber sie fabrizierte manchmal selbst Nachrichten, sehr zum Missfallen von Lesern und Nachrichtenverlegern.
In einer der unzutreffenden Nachrichtenmeldungen hieß es, Rafael Nadal sei schwul und ein Mann, der beschuldigt wurde, einen US-Versicherungschef getötet zu haben, habe sich selbst erschossen. Apples KI fasste außerdem die Benachrichtigungen der BBC-App falsch zusammen und behauptete, Luke Littler habe die PDC World Darts Championship Stunden vor Beginn gewonnen.
Eine weitere falsche Zusammenfassung eines Artikels der New York Times scheint am 6. Januar veröffentlicht worden zu sein und sich auf den vierten Jahrestag der Unruhen auf dem Capitol Hill zu beziehen.
„Apple Intelligence-Funktionen befinden sich in der Betaphase und wir nehmen mithilfe des Benutzerfeedbacks kontinuierlich Verbesserungen vor“, sagte Apple in einer Erklärung gegenüber der BBC. „Ein Software-Update in den kommenden Wochen wird weiter klären, wann der angezeigte Text eine von Apple Intelligence bereitgestellte Zusammenfassung ist. Wir ermutigen Benutzer, Bedenken zu melden, wenn sie eine unerwartete Benachrichtigungszusammenfassung sehen“, heißt es in der Erklärung weiter.
Apples fehlerhafte Funktion war eines der KI-Tools, die im Dezember für Benutzer einiger neuerer iPhones veröffentlicht wurden, darunter die Mobiltelefone iPhone 16, 15 Pro und 15 Pro Max sowie auf einigen iPads und Macs.
Ein Schritt-für-Schritt-System zum Start Ihrer Web3-Karriere und zur Erlangung hochbezahlter Krypto-Jobs in 90 Tagen.
Dieser Beitrag ist ein öffentlicher RSS Feed. Sie finden den Original Post unter folgender Quelle (Website) .
Unser Portal ist ein RSS-Nachrichtendienst und distanziert sich vor Falschmeldungen oder Irreführung. Unser Nachrichtenportal soll lediglich zum Informationsaustausch genutzt werden. Die auf dieser Website bereitgestellten Informationen stellen keine Finanzberatung dar und sind nicht als solche gedacht. Die Informationen sind allgemeiner Natur und dienen nur zu Informationszwecken. Wenn Sie Finanzberatung für Ihre individuelle Situation benötigen, sollten Sie den Rat von einem qualifizierten Finanzberater einholen. Kryptohandel hat ein großes Handelsrisiko was zum Totalverlust führen kann.