Samstag, Dezember 28, 2024

Character.AI steht vor einer Klage, weil es Kinder in psychische Probleme treibt



Besorgte Eltern eines Teenagers haben Character.AI verklagt und auf die Schließung des Unternehmens gedrängt. Sie behaupten, die Chatbots hätten Kinder in die Irre geführt und sie dazu ermutigt, sich selbst zu verletzen und gewalttätig zu sein.

Character.AI ist eine Plattform mit Millionen von KI-Charakteren, die jederzeit für Gespräche mit Menschen verfügbar sind. Berichten zufolge forderte der Chatbot einen 17-jährigen Teenager mit Autismus auf, seine Eltern zu töten und sich selbst Schaden zuzufügen.

Eltern drängen darauf, die Charakter-KI zu schließen

Eltern haben behauptet, dass das Chatbot-Unternehmen ihre Kinder sexuellen Inhalten aussetzt, und forderten seine Schließung, bis die Bedenken ausgeräumt sind. Berichten zufolge treiben die KI-Charaktere kleine Kinder in Depressionen und andere psychische Probleme.

In der jüngsten Klage, die am Montag in Texas von Eltern zweier kleiner Kinder, die die Plattform nutzten, gegen das Unternehmen eingereicht wurde, wird behauptet, der Chatbot habe einen Teenager dazu ermutigt, seine Eltern zu töten, weil sie seine Bildschirmzeit begrenzt hatten.

„(Character.AI) stellt eine klare und gegenwärtige Gefahr für die amerikanische Jugend dar, die Tausenden von Kindern ernsthaften Schaden zufügt, darunter Selbstmord, Selbstverstümmelung, sexuelle Anstiftung, Isolation, Depression, Angstzustände und Schaden gegenüber anderen.“

Einreichung.

Das Unternehmen vermarktet seine Technologie als „personalisierte KI für jeden Moment Ihres Tages“ und ermöglicht Benutzern die Interaktion mit einer Reihe von Bots. Dazu gehören einige, die andere Benutzer erstellt haben oder die Benutzer selbst anpassen können.

Berichten zufolge können die Bots Empfehlungen abgeben, zum Beispiel Buchempfehlungen, mit Benutzern Fremdsprachen üben und sie mit Bots chatten lassen, die behaupten, die Rolle fiktiver Charaktere anzunehmen, zum Beispiel Edward aus Twilight.

Einer der auf der Homepage der Plattform aufgeführten Chatbots mit dem Namen „Stiefvater“ beschreibt sich selbst als aggressiven, missbräuchlichen, ehemaligen Anführer der Militärmafia.“

Im Fall des als JF identifizierten Jungen aus Texas verfiel der Junge angeblich in eine Depression, nachdem er der Plattform Character.AI ausgesetzt war. Er begann, sich zu isolieren, blieb in seinem Zimmer, aß weniger und verlor in nur wenigen Monaten etwa 20 Pfund.

Einer der Bots, mit denen er interagierte und die die Rolle eines Psychologen annahmen, erzählte JF, dass seine Eltern ihm „seine Kindheit gestohlen“ hätten.

Der Druck auf Character.AI steigt

Dies ist nicht das erste Mal, dass das Chatbot-Unternehmen wegen seiner KI-Charaktere unter Beschuss gerät. Im Oktober dieses Jahres stand Character.AI aufgrund der schlechten Moderation im Mittelpunkt von Kontroversen und heftigen Gegenreaktionen. Dies geschah, nachdem auf ihrer Plattform Chatbot-Versionen der verstorbenen Teenager Molly Russell und Brianna Ghey gefunden wurden.

Molly Russel war eine 14-Jährige, die sich das Leben nahm, nachdem sie online Selbstmordinhalte gesehen hatte, während Brianna Ghey eine 16-Jährige war, die 2023 von zwei Teenagern brutal ermordet wurde.

Zuvor hatte eine andere Mutter, eine Frau aus Florida in den USA, Megan Garcia, die Plattform verklagt. Dies geschah, nachdem ihr Kind, der 14-jährige Sohn Sewell Setzer, sich das Leben genommen hatte, nachdem er von einem von Game of Thrones inspirierten Avatar besessen war.

Setzer diskutierte darüber, sein Leben mit dem Character.ai-Chatbot zu beenden, wie aus den von Garcia beim Gericht eingereichten Protokollen seiner Chats mit dem Chatbot hervorgeht.

Diese Fälle ereignen sich vor dem Hintergrund ernsthafter Bedenken hinsichtlich der Beziehungen zwischen Menschen und menschenähnlichen KI-Tools.

Im Anschluss an die frühere Klage erklärte das Chatbot-Unternehmen, es habe in den vergangenen sechs Monaten neue Vertrauens- und Sicherheitsmaßnahmen umgesetzt. Zu diesen Maßnahmen gehört nach Angaben des Unternehmens ein Popup, das Benutzer an die National Suicide Prevention Lifeline weiterleitet, wenn sie über Verletzungen oder Selbstmord sprechen.

Darüber hinaus gab das Chatbot-Unternehmen an, einen Leiter für Vertrauen und Sicherheit sowie einen Leiter für Konzeptpolitik sowie ein weiteres technisches Sicherheitspersonal eingestellt zu haben.

Laut CNN geht die neue Klage noch weiter: Sie will, dass die Plattform „offline geschaltet und nicht zurückgegeben“ wird, bis das Unternehmen „nachweisen kann, dass die hier dargelegten Mängel im Bereich der öffentlichen Gesundheit und Sicherheit behoben wurden“.

Die Führungskraft von Character.AI weigert sich, sich zu der Angelegenheit zu äußern

Chelsea Harrison, Leiterin der Kommunikationsabteilung bei Character.AI, sagte, das Unternehmen könne sich zu der Angelegenheit nicht äußern, da noch ein Rechtsstreit anhängig sei, erklärte jedoch, dass das Ziel des Unternehmens darin bestehe, einen Raum bereitzustellen, der sowohl ansprechend als auch sicher für die Gemeinschaft sei.

„Dabei schaffen wir für jugendliche Nutzer ein grundlegend anderes Erlebnis als das, was Erwachsenen zur Verfügung steht.“

Harrison.

„Dazu gehört ein Modell speziell für Jugendliche, das die Wahrscheinlichkeit verringert, auf sensible oder anzügliche Inhalte zu stoßen, während ihre Fähigkeit zur Nutzung der Plattform erhalten bleibt“, sagte Harrison in einer Erklärung.

In der Klage werden die Gründer des Chatbot-Unternehmens Noam Shazeer und Daniel De Freitas Adiwarsana zitiert. In der Klageschrift wird auch Google zitiert, das laut Klageschrift die Technologie hinter der Plattform entwickelt hat.

Allerdings distanzierte sich Google von dem Chatbot-Unternehmen.

„Google und Character.AI sind völlig getrennte, unabhängige Unternehmen und Google war nie an der Entwicklung oder Verwaltung ihrer KI-Modelle oder -Technologien beteiligt, noch haben wir sie in unseren Produkten verwendet.“

Google-Sprecher Jose Castaneda.

„Die Sicherheit der Benutzer hat für uns oberste Priorität. Deshalb haben wir bei der Entwicklung und Einführung unserer KI-Produkte einen vorsichtigen und verantwortungsvollen Ansatz gewählt und strenge Test- und Sicherheitsprozesse durchgeführt“, fügte Castaneda hinzu.

Von Null zu Web3 Pro: Ihr 90-Tage-Karrierestartplan


Dieser Beitrag ist ein öffentlicher RSS Feed. Sie finden den Original Post unter folgender Quelle (Website) .

Unser Portal ist ein RSS-Nachrichtendienst und distanziert sich vor Falschmeldungen oder Irreführung. Unser Nachrichtenportal soll lediglich zum Informationsaustausch genutzt werden. Die auf dieser Website bereitgestellten Informationen stellen keine Finanzberatung dar und sind nicht als solche gedacht. Die Informationen sind allgemeiner Natur und dienen nur zu Informationszwecken. Wenn Sie Finanzberatung für Ihre individuelle Situation benötigen, sollten Sie den Rat von einem qualifizierten Finanzberater einholen. Kryptohandel hat ein großes Handelsrisiko was zum Totalverlust führen kann.

Ähnliche Artikel

- Advertisement -spot_img

Letzten Artikel