Neue EU-Regeln: KI-Anbieter müssen Trainingsdaten offenlegen
Dieser Artikel ist vollständig durch KI generiert.
Seit dem 2. August 2025 gelten in der Europäischen Union neue, strengere Vorschriften für Anbieter von Künstlicher Intelligenz (KI). Der sogenannte EU AI Act verpflichtet Unternehmen, die KI-Modelle mit allgemeinem Verwendungszweck entwickeln, ihre Trainingsdaten offenzulegen. Ziel ist es, mehr Transparenz und Sicherheit im Umgang mit KI-Systemen zu schaffen. Besonders betroffen sind Anbieter wie OpenAI, Google und andere, die generative KI-Modelle wie ChatGPT oder Gemini betreiben. Die neuen Regeln sollen sicherstellen, dass die Herkunft und Qualität der Daten, mit denen KI-Systeme trainiert werden, nachvollziehbar sind.
Die Offenlegungspflicht umfasst nicht nur die Datenquellen, sondern auch Informationen darüber, wie die Modelle trainiert wurden und welche Schutzmaßnahmen gegen Verzerrungen oder Diskriminierung implementiert sind. Ein standardisiertes Disclosure-Template, das von der EU bereitgestellt wurde, soll den Prozess vereinheitlichen. Unternehmen, die diesen Anforderungen nicht nachkommen, drohen empfindliche Strafen. Die EU sieht in der Regelung einen wichtigen Schritt, um Vertrauen in KI-Technologien zu stärken und gleichzeitig Risiken wie Fehlinformationen oder algorithmische Diskriminierung zu minimieren.
Die neuen Vorschriften sind Teil eines umfassenderen Regulierungsrahmens, der auch die Verantwortung der Anbieter für die Sicherheit und ethische Nutzung ihrer Systeme betont. Neben der Offenlegung der Trainingsdaten müssen Unternehmen künftig auch regelmäßige Audits durchführen und Berichte über die Auswirkungen ihrer KI-Modelle vorlegen. Die EU hofft, mit diesen Maßnahmen eine Vorreiterrolle in der globalen KI-Regulierung einzunehmen und Standards zu setzen, die auch außerhalb Europas Beachtung finden könnten.