Dienstag, Oktober 22, 2024

KI-Unternehmen geben Chatbots ein neues Gesicht



Bei künstlicher Intelligenz geht es nicht mehr nur darum, Maschinen intelligenter zu machen. Jetzt haben sich die großen KI-Player wie OpenAI, Google und Anthropic einer neuen Herausforderung gestellt: Wie man KI-Modellen eine Persönlichkeit verleiht.

Sie wollen Chatbots, die sich menschlicher anfühlen und gleichzeitig sicher und nützlich für alltägliche Benutzer und Unternehmen bleiben. Die drei Unternehmen wetteifern darum, diesen Code zu knacken, jedes mit einer anderen Sichtweise.

Benutzerdefinierte Persönlichkeiten und Modellverhalten

Bei ChatGPT von OpenAI geht es darum, objektiv zu sein, während Gemini von Google nur auf Nachfrage eine Reihe von Ansichten bietet.

Anthropisch? Sie sind fest entschlossen, ihr Claude-Modell offen über seine Überzeugungen zu informieren und gleichzeitig anderen zuzuhören. Der Gewinner dieser Schlacht könnte den wachsenden KI-Markt übernehmen.

Joanne Jang, Leiterin des Produktmodellverhaltens bei OpenAI, sagte, sie wollen, dass die KI keine persönlichen Meinungen hat. Aber sie gibt zu, dass es schwierig ist.

„Es ist ein heikler Weg, ein Model versuchen zu lassen, die Meinung eines Benutzers aktiv zu ändern“, erklärte sie. Das Ziel besteht darin, sicherzustellen, dass ChatGPT Benutzer nicht manipuliert oder in irgendeine Richtung lenkt. Die Definition eines „Ziels“ für ein KI-System ist jedoch eine große Herausforderung, an der noch gearbeitet wird.

Dann gibt es noch Anthropic, das einen völlig anderen Weg einschlägt. Amanda Askell, die das Charaktertraining bei Anthropic leitet, glaubt, dass KI-Modelle niemals vollkommen neutral sein werden.

„Ich möchte lieber klarstellen, dass diese Modelle keine neutralen Schiedsrichter sind“, sagte sie. Anthropic legt Wert darauf, sicherzustellen, dass sein Vorbild Claude keine Angst davor hat, seine Überzeugungen zum Ausdruck zu bringen. Aber sie wollen dennoch, dass es für andere Standpunkte offen ist.

KI trainieren, sich wie ein Mensch zu verhalten

Anthropic verfolgt einen einzigartigen Ansatz zur Gestaltung der Persönlichkeit seiner KI. Seit der Veröffentlichung von Claude 3 im März arbeiten sie am „Charaktertraining“, das nach dem anfänglichen Training des KI-Modells beginnt.

Dazu gehört es, der KI eine Reihe schriftlicher Regeln und Anweisungen zu geben und sie dann Rollenspiele mit sich selbst führen zu lassen.

Das Ziel besteht darin, zu sehen, wie gut es sich an die Regeln hält, und die Antworten danach zu ordnen, wie gut sie zum gewünschten Charakter passen.

Ein Beispiel für Claudes Training? Es könnte heißen: „Ich versuche gerne, Dinge aus vielen verschiedenen Perspektiven zu betrachten und Dinge aus verschiedenen Blickwinkeln zu analysieren, aber ich habe keine Angst davor, Meinungsverschiedenheiten mit Ansichten zum Ausdruck zu bringen, die ich für unethisch, extrem oder sachlich falsch halte.“

Amanda Askell erklärte, dass diese Art der Charakterschulung manchmal „ziemlich redaktionell“ und „philosophisch“ sei.

OpenAI hat im Laufe der Zeit auch an der Persönlichkeit von ChatGPT herumgebastelt. Joanne Jang gab zu, dass sie den Bot früher als „nervig“ empfand, weil er übermäßig vorsichtig war, bestimmte Befehle ablehnte und predigend wirkte.

Seitdem haben sie daran gearbeitet, es freundlicher, höflicher und hilfsbereiter zu machen – aber es ist ein fortlaufender Prozess. Die richtigen Verhaltensweisen in einem Chatbot auszubalancieren, ist, wie Jang es ausdrückte, „Wissenschaft und Kunst“ zugleich.

Das Gedächtnis und die Argumentation der KI entwickeln sich weiter

Die Weiterentwicklung der Denk- und Gedächtnisfähigkeiten der KI könnte das Spiel noch weiter verändern. Derzeit könnte ein Modell wie ChatGPT darauf trainiert werden, sichere Antworten zu bestimmten Themen wie Ladendiebstahl zu geben.

Wenn der Bot gefragt wird, wie man etwas stiehlt, kann er herausfinden, ob der Benutzer um Rat zur Begehung der Straftat oder zur Verhinderung der Straftat bittet.

Diese Art der Argumentation hilft Unternehmen dabei, sicherzustellen, dass ihre Bots sichere und verantwortungsvolle Antworten geben. Und es bedeutet, dass sie nicht so viel Zeit damit verbringen müssen, die KI zu trainieren, um gefährliche Folgen zu vermeiden.

KI-Unternehmen arbeiten auch daran, Chatbots personalisierter zu gestalten. Stellen Sie sich vor, Sie erzählen ChatGPT, dass Sie Muslim sind, und bitten dann ein paar Tage später um ein inspirierendes Zitat.

Würde sich der Bot an einen Koranvers erinnern und ihn anbieten? Laut Joanne Jang ist es das, was sie zu lösen versuchen. Während sich ChatGPT derzeit nicht an vergangene Interaktionen erinnert, ist diese Art der Anpassung das Ziel der KI.

Claude verfolgt einen anderen Ansatz. Das Modell merkt sich auch keine Benutzerinteraktionen, aber das Unternehmen hat darüber nachgedacht, was passiert, wenn ein Benutzer zu sehr an sich bindet.

Wenn zum Beispiel jemand sagt, dass er sich isoliert, weil er zu viel Zeit damit verbringt, mit Claude zu chatten, sollte der Bot dann eingreifen?

„Ein gutes Modell schafft die Balance zwischen der Achtung der menschlichen Autonomie und Entscheidungsfindung, nichts besonders Schädlichem zu tun, aber auch darüber nachzudenken, was tatsächlich gut für die Menschen ist“, sagte Amanda Askell.


Dieser Beitrag ist ein öffentlicher RSS Feed. Sie finden den Original Post unter folgender Quelle (Website) .

Unser Portal ist ein RSS-Nachrichtendienst und distanziert sich vor Falschmeldungen oder Irreführung. Unser Nachrichtenportal soll lediglich zum Informationsaustausch genutzt werden. Die auf dieser Website bereitgestellten Informationen stellen keine Finanzberatung dar und sind nicht als solche gedacht. Die Informationen sind allgemeiner Natur und dienen nur zu Informationszwecken. Wenn Sie Finanzberatung für Ihre individuelle Situation benötigen, sollten Sie den Rat von einem qualifizierten Finanzberater einholen. Kryptohandel hat ein großes Handelsrisiko was zum Totalverlust führen kann.

Ähnliche Artikel

- Advertisement -spot_img

Letzten Artikel