Donnerstag, Oktober 24, 2024

Open-Source-Wasserzeichen-Tool von Google, mit dem Nutzer KI-generierten Text identifizieren können



Google hat das Text-Wasserzeichen-Tool SynthID als Open-Source-Lösung bereitgestellt, eine Technologie, mit der Nutzer leicht erkennen können, ob Text original oder KI-generiert ist.

Laut Google kann der KI-generierte Textdetektor von der KI-Plattform Hugging Face und dem aktualisierten Responsible GenAI Toolkit von Google heruntergeladen werden. Wasserzeichen haben mit dem Boom der generativen KI in den letzten zwei Jahren an Bedeutung gewonnen, da LLMs manipuliert werden, um Fehlinformationen und Desinformationen sowie nicht einvernehmliche sexuelle Inhalte und für böswillige Zwecke zu verbreiten.

Die Entwicklung erfolgt vor dem Hintergrund, dass die Entwicklung solcher Tools dringend erforderlich ist, da die Strafverfolgungsbehörde der Europäischen Union befürchtet, dass bis 2026 90 % der Online-Texte synthetisch sein könnten, was zu Propaganda, Betrug und Täuschung führen würde.

Google-Forscher erklären ihr Wasserzeichen-Tool

In einem Beitrag auf der X-PlattformDer Suchmaschinenriese gab bekannt, dass er sein SynthID-Text-Wasserzeichen-Tool als Open-Source-Lösung anbietet und erklärt, dass es „Unternehmen und Entwicklern kostenlos zur Verfügung stehen wird, da es ihnen hilft, ihre KI-generierten Inhalte zu identifizieren“.

Pushmeet Kohli, Vizepräsident für Forschung bei Google DeepMind und Mitautor eines Forschungspapiers von Google DeepMind, sagte: „Das System beeinträchtigt die Funktionen der KI-Modelle nicht, sondern verbessert sie lediglich.“

Bilder und Videos standen im Mittelpunkt der Diskussionen über Inhaltsnachweise, und Wasserzeichen wurden als notwendige Lösung zur Bekämpfung von Deepfakes bezeichnet.

Im Mittelpunkt dieser Diskussionen stand auch die Coalition for Content Provenance and Authenticity (C2PA), eine Zusammenarbeit von Technologieunternehmen und großen Medienunternehmen zur Entwicklung eines Systems zum Anhängen verschlüsselter Metadaten zur Kennzeichnung von KI-generierten Bild- und Videodateien.

Laut dem Forschungsbericht von Google DeepMinds stört SynthID-Text die Generierung, da er einige von einem Chatbot ausgegebene Wörter so verändert, dass sie für einen SynthID-Detektor klar, für Menschen jedoch nahezu unsichtbar sind.

„Änderungen wie diese bringen eine statistische Signatur in den KI-generierten Text ein und während der Wasserzeichen-Erkennungsphase kann die Signatur gemessen werden, um zu sehen, ob der Text von einem KI-Modell durch das mit Wasserzeichen versehene LLM stammt“, schreiben die Forscher in der Arbeit.

Indem sie Sätze Wort für Wort generieren, funktionieren die LLMs, die Chatbots antreiben, indem sie das wahrscheinlich nächste Wort abhängig vom Kontext dessen auswählen, was vorher kam. Durch die zufällige Zuweisung von Zahlenwerten zu Kandidatenwörtern erzeugt das LLM Wörter mit einem höheren Wert. Wasserzeichen werden auf einem Textabschnitt angebracht, der vom Detektor analysiert wurde und bei dem festgestellt wurde, dass er eine höhere Punktzahl aufweist.

Branchenexperten loben Google für den Schritt in die richtige Richtung

Obwohl das DeepMind-System beim Markieren von Text mit Wasserzeichen besser abschneidet als andere Tools, räumten die Forscher in ihrer Arbeit ein, dass das Tool immer noch Mängel aufweist. Wenn Sie beispielsweise einen von Gemini generierten Text ändern, wird der Detektor getäuscht.

„Während SynthID kein Allheilmittel zur Identifizierung von KI-generierten Inhalten ist, ist es ein wichtiger Baustein für die Entwicklung zuverlässigerer KI-Identifizierungstools.“

– Kohli.

Wenn Benutzer Texte erheblich ändern oder einen anderen Chatbot verwenden, um den Text zusammenzufassen, wird der Detektor beim Versehen des von der KI generierten Textes mit einem Wasserzeichen in die Irre geführt.

Google behauptet, dass SynthID Text die Qualität, Genauigkeit und Geschwindigkeit der Textgenerierung, wie sie das in seinen Gemini-Modellen integrierte System getestet hat, nicht beeinträchtigt. Das Unternehmen fügte außerdem hinzu, dass es auch bei Text funktioniert, der beschnitten, geändert oder paraphrasiert wurde.

„Die Erkennung stellt ein besonderes Problem dar, wenn man beginnt, die Implementierung in realen Situationen zu berücksichtigen, da es Probleme mit der Überprüfung von Text in freier Wildbahn gibt, bei der man wissen muss, welches Wasserzeichenmodell angewendet wurde, um zu wissen und wo man es finden kann.“ Signal“, erklärte Bruce MacCormack, Mitglied des C2PA-Lenkungsausschusses.

Neben Google arbeitet auch OpenAI seit Jahren an KI-Technologie für Textwasserzeichen, hat deren Veröffentlichung jedoch aufgrund der technischen und kommerziellen Machbarkeit verzögert.

Doch Branchenexperten loben Googles Initiative allgemein als einen Schritt in die richtige Richtung.

„Es verspricht eine Verbesserung der Verwendung dauerhafter Inhaltsnachweise von C2PA für Dokumente und Rohtext“, sagte Andrew Jenks, Director of Media Provenance bei Microsoft und Vorstandsvorsitzender von C2PA.

MacCormack fügte außerdem hinzu, dass die Google-Forscher zwar noch viel zu tun haben, um dies in die Praxis umzusetzen, es sich aber weiterhin um eine großartige Initiative und „den ersten Schritt im bevorstehenden Marathon“ handelt.




Dieser Beitrag ist ein öffentlicher RSS Feed. Sie finden den Original Post unter folgender Quelle (Website) .

Unser Portal ist ein RSS-Nachrichtendienst und distanziert sich vor Falschmeldungen oder Irreführung. Unser Nachrichtenportal soll lediglich zum Informationsaustausch genutzt werden. Die auf dieser Website bereitgestellten Informationen stellen keine Finanzberatung dar und sind nicht als solche gedacht. Die Informationen sind allgemeiner Natur und dienen nur zu Informationszwecken. Wenn Sie Finanzberatung für Ihre individuelle Situation benötigen, sollten Sie den Rat von einem qualifizierten Finanzberater einholen. Kryptohandel hat ein großes Handelsrisiko was zum Totalverlust führen kann.

Ähnliche Artikel

- Advertisement -spot_img

Letzten Artikel