Montag, November 25, 2024

Kleine Sprachmodelle (SLMs) gelten als das nächste große Ding in der KI



Während Unternehmen Geld in große Sprachmodelle (LLMs) stecken, glauben einige Branchenexperten im KI-Sektor, dass kleine Sprachmodelle (SLMs) das nächste große Ding werden.

Dies ist darauf zurückzuführen, dass die Aktivität in der Branche mit Beginn der Weihnachtszeit weiter zunimmt und Technologieunternehmen mehr Mittel in die Entwicklung ihrer Technologie investieren.

Die Zukunft liegt in kleinen Sprachmodellen

Unternehmen wie xAI unter der Leitung des Multimilliardärs Elon Musk konnten weitere 5 Milliarden US-Dollar von Andreessen Horowitz, der Qatar Investment Authority, Sequoia und Valor Equity Partners aufbringen, während Amazon weitere 4 Milliarden US-Dollar in Anthropic, einen Konkurrenten von OpenAI, investierte.

Während diese großen Technologieunternehmen und andere Milliarden von Dollar investieren, um sich auf die Entwicklung großer LLMs zur Bewältigung vieler verschiedener Aufgaben zu konzentrieren, ist die Realität der KI, dass es keine Einheitslösung gibt, die für alle passt, sondern aufgabenspezifische Modelle für Unternehmen erforderlich sind.

Laut Matt Garman, Chief Executive Officer von AWS, gibt es in einer Pressemitteilung zu ihrer wachsenden Partnerschaft und ihren Investitionen bereits eine überwältigende Resonanz von AWS-Kunden, die generative KI auf Basis von Anthropic entwickeln.

LLMs sind für die meisten Unternehmen immer noch die erste Wahl für bestimmte Projekte, für andere kann diese Wahl jedoch teuer in Bezug auf Kosten, Energie und Rechenressourcen sein.

Steven McMillan, Präsident und CEO von Teradata, der einigen Unternehmen einen alternativen Weg angeboten hat, vertritt ebenfalls andere Ansichten. Er ist überzeugt, dass die Zukunft den SLMs gehört.

„Wenn wir in die Zukunft blicken, glauben wir, dass kleine und mittlere Sprachmodelle und kontrollierte Umgebungen wie domänenspezifische LLMs viel bessere Lösungen bieten werden.“

~ McMillan

SLMs erzeugen maßgeschneiderte Ausgaben für bestimmte Datentypen, da die Sprachmodelle speziell dafür trainiert wurden. Da die von SLMs generierten Daten intern gespeichert werden, werden die Sprachmodelle daher auf potenziell sensible Daten trainiert.

Da LLMs sehr viel Energie verbrauchen, sind die kleinen Sprachversionen darauf trainiert, sowohl die Rechenleistung als auch den Energieverbrauch an den tatsächlichen Bedarf des Projekts anzupassen. Mit solchen Anpassungen bedeutet dies, dass die SLMs bei geringeren Kosten effizient sind als aktuelle große Modelle.

Für Nutzer, die KI für spezifisches Wissen nutzen möchten, gibt es die Option domänenspezifischer LLMs, da diese kein breites Wissen bieten. Es ist darauf trainiert, nur eine Informationskategorie tiefgreifend zu verstehen und in diesem Bereich genauer zu reagieren, beispielsweise zwischen einem CMO und einem CFO.

Warum SLMs eine bevorzugte Option sind

Nach Angaben der Association of Data Scientists (ADASci) würde die vollständige Entwicklung eines SLM mit 7 Milliarden Parametern für eine Million Benutzer nur 55,1 MWh (Megawattstunden) erfordern.

ADaSci hat herausgefunden, dass das Training von GPT-3 mit 175 Milliarden Parametern schätzungsweise 1.287 MWh Strom verbrauchte, wobei der Zeitpunkt der offiziellen Nutzung durch die Öffentlichkeit noch nicht berücksichtigt ist. Daher verbraucht ein SLM etwa 5 % der Energie, die durch das Training eines LLM verbraucht wird.

Große Modelle werden in der Regel auf Cloud-Computern ausgeführt, da sie mehr Rechenleistung verbrauchen, als jemals auf einem einzelnen Gerät verfügbar ist. Dies führt zu Komplikationen für Unternehmen, da sie die Kontrolle über ihre Informationen verlieren, wenn diese in die Cloud verschoben werden, und langsame Reaktionen auf dem Weg durch das Internet.

In der Zukunft wird die Einführung von KI durch Unternehmen kein Patentrezept sein, da Effizienz und die Auswahl des besten und kostengünstigsten Tools zur Erledigung von Aufgaben im Mittelpunkt stehen werden, was bedeutet, dass für jedes Projekt das Modell mit der richtigen Größe ausgewählt werden muss.

Dies wird für alle Modelle durchgeführt, sei es ein Allzweck-LLM oder kleinere und domänenspezifische LLMs, je nachdem, welches Modell bessere Ergebnisse liefert, weniger Ressourcen benötigt und die Notwendigkeit einer Datenmigration in die Cloud verringert.

In der nächsten Phase wird KI für Geschäftsentscheidungen von entscheidender Bedeutung sein, da die Öffentlichkeit großes Vertrauen in KI-generierte Antworten hat.

„Wenn man an das Training von KI-Modellen denkt, müssen diese auf der Grundlage großartiger Daten basieren.“

~ McMillan

„Das ist es, worum es bei uns geht: die Bereitstellung dieses vertrauenswürdigen Datensatzes und die Bereitstellung der Funktionen und Analysefunktionen, damit Kunden und deren Kunden den Ergebnissen vertrauen können“, fügte McMillan hinzu.

Da Effizienz und Genauigkeit weltweit sehr gefragt sind, bieten kleinere und domänenspezifische LLMs eine weitere Möglichkeit, Ergebnisse zu liefern, auf die sich Unternehmen und die breite Öffentlichkeit verlassen können.

Von Null zu Web3 Pro: Ihr 90-Tage-Karrierestartplan


Dieser Beitrag ist ein öffentlicher RSS Feed. Sie finden den Original Post unter folgender Quelle (Website) .

Unser Portal ist ein RSS-Nachrichtendienst und distanziert sich vor Falschmeldungen oder Irreführung. Unser Nachrichtenportal soll lediglich zum Informationsaustausch genutzt werden. Die auf dieser Website bereitgestellten Informationen stellen keine Finanzberatung dar und sind nicht als solche gedacht. Die Informationen sind allgemeiner Natur und dienen nur zu Informationszwecken. Wenn Sie Finanzberatung für Ihre individuelle Situation benötigen, sollten Sie den Rat von einem qualifizierten Finanzberater einholen. Kryptohandel hat ein großes Handelsrisiko was zum Totalverlust führen kann.

Ähnliche Artikel

- Advertisement -spot_img

Letzten Artikel