EU AI Act: Verbot von KI-Systemen mit "unannehmbarem Risiko"
Dieser Artikel ist vollständig durch KI generiert.
Die Europäische Union hat mit dem EU AI Act einen Meilenstein in der Regulierung von Künstlicher Intelligenz (KI) gesetzt. Seit Juni 2025 ist das Gesetz vollständig in Kraft und verbietet KI-Systeme, die als “unannehmbares Risiko” eingestuft werden. Dazu zählen Anwendungen wie Social Scoring oder manipulative Technologien, die die Grundrechte der Menschen gefährden könnten. Ziel des Gesetzes ist es, die Sicherheit und Transparenz von KI-Systemen zu gewährleisten und gleichzeitig Innovationen zu fördern. Unternehmen und Entwickler stehen nun vor der Herausforderung, ihre KI-Produkte entsprechend den neuen Vorschriften zu überprüfen und anzupassen.
Der EU AI Act teilt KI-Systeme in drei Risikoklassen ein: minimal, hoch und unannehmbar. Während Systeme mit minimalem Risiko kaum reguliert werden, unterliegen Hochrisiko-Systeme strengen Auflagen, wie etwa der Nachvollziehbarkeit von Entscheidungen und der Einhaltung von Datenschutzstandards. Systeme mit unannehmbarem Risiko hingegen dürfen weder entwickelt noch eingesetzt werden. Nationale Behörden und das neu geschaffene EU AI Office überwachen die Einhaltung der Vorschriften und können bei Verstößen empfindliche Strafen verhängen. Für Unternehmen bedeutet dies nicht nur technische Anpassungen, sondern auch die Schulung von Mitarbeitenden im Umgang mit KI.