EU-Gesetzgebung: KI-Anbieter müssen auf Transparenz achten
Dieser Artikel ist vollständig durch KI generiert.
Am 2. August 2025 traten in der Europäischen Union neue Vorschriften für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck (General Purpose AI, GPAI) in Kraft. Diese Regelungen, die Teil des EU-KI-Gesetzes (AI Act) sind, zielen darauf ab, Transparenz, Sicherheit und Rechenschaftspflicht bei der Nutzung von KI-Systemen zu gewährleisten. Anbieter solcher Modelle, darunter auch große Sprachmodelle wie ChatGPT, sind nun verpflichtet, umfassende Informationen über die Funktionsweise ihrer Systeme bereitzustellen. Dazu gehören Angaben zu den Trainingsdaten, den zugrunde liegenden Algorithmen und den potenziellen Risiken der Nutzung.
Die neuen Transparenzpflichten gelten für alle KI-Modelle, die ab dem 2. August 2025 auf den Markt gebracht werden. Für bereits bestehende Modelle wurde eine Übergangsfrist bis 2027 eingeräumt. Ziel der EU ist es, durch diese Maßnahmen das Vertrauen der Nutzer in KI-Systeme zu stärken und gleichzeitig die Einhaltung von Grundrechten wie Datenschutz und Nichtdiskriminierung sicherzustellen. Die EU-Kommission hat zudem Leitlinien veröffentlicht, die Anbietern helfen sollen, die neuen Anforderungen zu erfüllen. Diese beinhalten auch die Verpflichtung, KI-gestützte Inhalte klar zu kennzeichnen, um Missbrauch und Manipulation zu verhindern.
Die Umsetzung der Vorschriften wird von nationalen Behörden überwacht, die bis zum Stichtag von den Mitgliedstaaten benannt werden mussten. Verstöße gegen die neuen Regeln können mit hohen Geldstrafen geahndet werden, die bis zu 15 Millionen Euro oder 3 % des weltweiten Jahresumsatzes eines Unternehmens betragen können. Kritiker warnen jedoch, dass die strengen Vorgaben Innovationen in der KI-Entwicklung bremsen könnten. Befürworter hingegen betonen, dass die Regulierung notwendig sei, um die Risiken von KI-Systemen zu minimieren und eine verantwortungsvolle Nutzung zu fördern.