Montag, März 31, 2025

das erste globale Gesetz über künstliche Intelligenz ist Realität


Künstliche Intelligenz revolutioniert schnell jeden Sektor, von der Gesundheitsversorgung über die Finanzen bis hin zum Marketing und der öffentlichen Verwaltung. Aber wer überwacht diese Systeme? Wie können wir sicherstellen, dass die KI nicht die grundlegenden Rechte verletzt?

Aus diesen Fragen entsteht der Ich habe die Tatdie erste Gesetzgebung der Welt, die die Entwicklung, Verbreitung und Nutzung von künstlicher Intelligenz nach einem Schlüsselprinzip regelt: das Risiko.

Was sieht der EU AI Act vor?

Im Jahr 2024 genehmigt, führt der Europäische Verordnung über künstliche Intelligenz einen risikobasierten Ansatz ein. Die AI-Systeme werden in vier Hauptkategorien eingeteilt:

🔹 KI mit minimalem Risiko
🔹 KI mit hohem Risiko
🔹 Verbotene KI
🔹 Modelle für allgemeine Zwecke (GPAI)

Verbotene Praktiken: die KI, die keine Zukunft haben wird

Einige Anwendungen der künstlichen Intelligenz werden als ethisch inakzeptabel oder gefährlich angesehen und ab dem 2. Februar 2025 Verboten.

Beispiele für verbotene AI:

  • Sozialpunktzahl (im „Black Mirror“-Stil): Menschen basierend auf ihrem Verhalten bewerten, mit Konsequenzen im realen Leben.
  • Psychologische Manipulation: Systeme, die Benutzer dazu drängen, schädliche oder unbewusste Entscheidungen zu treffen.
  • Scraping von Gesichtern aus dem Internet für biometrische Datenbanken.
  • Erkennung von Emotionen in Schulen und Arbeitsplätzen (außer aus Gesundheits- oder Sicherheitsgründen).
  • Echtzeit-Biometrieüberwachung durch die Strafverfolgungsbehörden, außer in genehmigten Ausnahmefällen.

KI mit hohem Risiko: Regeln und Anforderungen

Sterben Hochrisikosysteme sind diejenigen, die direkt die Rechte, die Sicherheit oder den Zugang zu wesentlichen Dienstleistungen beeinflussen. Sie müssen strenge Anforderungen erfüllen.

Konkrete Beispiele:

  • KI verwendet, um Kandidaten einzustellen oder Leistungen zu bewerten.
  • Systeme, die die Kreditwürdigkeit oder Sozialleistungen bestimmen.
  • Algorithmen in medizinischen Geräten oder kritischen Infrastrukturen (Energie, Verkehr).
  • KI-Tools, die das Justizsystem oder demokratische Wahlen beeinflussen.

Die Lieferanten müssen:

  • Übernehmen Systeme von kontinuierliches Risikomanagement
  • Gewährleistung einer hohen Qualität der Trainings- und Testdaten
  • Jede Phase mit technischer Transparenz dokumentieren
  • Implementierung von Plänen zur Überwachung nach der Markteinführung

Die Nutzer müssen:

  • Die Systeme gemäß den spezifischen Anweisungen verwenden
  • Bewahren Sie die Logdateien des AI-Systems auf
  • Bewertung der Auswirkungen auf die Grundrechte in öffentlichen oder sensiblen Kontexten

Die Regeln treten am 2. August 2026 in Kraft.

Regeln für generische KI-Modelle (GPAI)

Die Verordnung führt auch eine spezielle Regelung für die Fundamentmodelle wie Granite von IBM oder Rufen Sie 3 von Meta an ein, die in zahlreichen verschiedenen Anwendungen eingesetzt werden können.

Pflichten der GPAI-Anbieter:

  • Einhaltung des EU-Urheberrechts
  • Öffentliche Zusammenfassung der Training-Datensätze
  • Automatische Markierung der generierten Inhalte (deepfake, Texte, Bilder)

Wenn ein Modell die Schwelle von 10²⁵ Flop im Trainingsprozess überschreitet, wird es als systemisches Risiko betrachtet und muss:

  • Schwere Vorfälle melden
  • Ergreifen Sie fortschrittliche Cybersicherheit-Maßnahmen

Die Regeln gelten für neue Modelle ab dem 2. August 2025mit einer Anpassungsfrist bis 2027 für die bereits bestehenden.

Wen betrifft der EU AI Act?

Die Verordnung gilt für:

  • Anbieter (wer AI entwickelt oder vermarktet)
  • Nutzer (wer AI-Systeme in seiner Tätigkeit verwendet)
  • Importeure und Distributoren in der EU

Auch Unternehmen außerhalb der EU fallen unter die Vorschriften wenn ihre Systeme oder Ausgaben in der Europäischen Union verwendet werden. In diesem Fall müssen sie einen autorisierten Vertreter in der EU benennen.

Sanktionen: bis zu 35 Millionen Euro

Die Geldstrafen sind der Schwere des Verstoßes angemessen:

Art der Verletzung Maximale Strafe
Verwendung von verbotener AI €35 Millionen oder 7% des globalen Umsatzes
Verletzung der Anforderungen für hochriskante AI €15 Millionen oder 3% des globalen Umsatzes
Irreführende Informationen an die Behörden €7,5 Millionen oder 1% des globalen Umsatzes

Sterben PMI E -Startup profitieren von einem verhältnismäßigen Sanktionsregime.

Wichtige Daten

1 ° August 2024: offizielles Inkrafttreten
2. Februar 2025: Verbot verbotener AI-Praktiken
2. August 2025: Gpai (Neue Modelle)
2. August 2026: Hochrisiko-ai
2. August 2027: Systeme, die durch andere EU-Vorschriften geregelt sind

FAQ – Häufig gestellte Fragen zum AI Act

▶ Gilt der AI Act auch für die persönliche Nutzung von künstlicher Intelligenz?
Nein. Die persönliche Nutzung oder für wissenschaftliche Forschung sind ausgenommen.

▶ Sind Open-Source-Systeme reguliert?
Ja, wenn sie systemische Auswirkungen haben oder in risikobehafteten Kontexten verwendet werden.

▶ Was bedeutet „Inhalte kennzeichnen“?
Hinzufügen von maschinenlesbaren Metadaten oder Labels, die darauf hinweisen, dass der Inhalt (z.B. ein deepfake-Video) von einer KI generiert oder verändert wurde.

Fazit

Der EU AI Act ist viel mehr als ein Gesetz: Es ist eine Absichtserklärung über die Zukunft der europäischen digitalen Innovation. Unternehmen, die AI entwickeln, vertreiben oder nutzen, müssen sofort handeln, um ihre Risiken zu bewertenAnwesend ihre Prozesse anzupassen und in Transparenz und Governance zu investieren.


Dieser Beitrag ist ein öffentlicher RSS Feed. Sie finden den Original Post unter folgender – Link steht im Artikel – Quelle (Website) .

Unser Portal ist ein RSS-Nachrichtendienst und distanziert sich vor Falschmeldungen oder Irreführung. Unser Nachrichtenportal soll lediglich zum Informationsaustausch genutzt werden. Die auf dieser Website bereitgestellten Informationen stellen keine Finanzberatung dar und sind nicht als solche gedacht. Die Informationen sind allgemeiner Natur und dienen nur zu Informationszwecken. Wenn Sie Finanzberatung für Ihre individuelle Situation benötigen, sollten Sie den Rat von einem qualifizierten Finanzberater einholen. Kryptohandel hat ein großes Handelsrisiko was zum Totalverlust führen kann.

Ähnliche Artikel

- Advertisement -spot_img

Letzten Artikel