Spotify hat kürzlich für Aufsehen gesorgt, als auf dem offiziellen Profil des 1989 erschossenen Country-Musikers Blaze Foley ein neuer Song mit dem Titel “Together” veröffentlicht wurde. Das Besondere daran: Der Song wurde vollständig von einer Künstlichen Intelligenz (KI) generiert – ohne Zustimmung der Erben oder des Labels. Der Vorfall hat eine hitzige Debatte über die ethischen und rechtlichen Grenzen von KI in der Musikindustrie ausgelöst.

Der Song, der Mitte Juli auf Foleys Spotify-Profil auftauchte, wurde von Fans und Experten schnell als untypisch für den Künstler erkannt. Statt des rauen Outlaw-Sounds, für den Foley bekannt war, handelt es sich bei “Together” um eine generische Country-Ballade. Auch das Cover-Artwork, das einen blonden Mann zeigt, der keinerlei Ähnlichkeit mit Foley hat, wurde offenbar von einer KI erstellt. Craig McDonald, Leiter des Labels Lost Art Records, das Foleys Nachlass verwaltet, zeigte sich empört: “Das ist nicht Blaze. Es ist ein KI-Schrott-Bot, der seinem Erbe schadet.”

Spotify entfernte den Song nach Beschwerden und erklärte, dass der Upload gegen die Richtlinien zu irreführenden Inhalten verstoßen habe. Der Titel wurde über den TikTok-Dienst SoundOn hochgeladen, der es Nutzern ermöglicht, Musik direkt auf Plattformen wie Spotify zu veröffentlichen. Ein Sprecher von TikTok bestätigte, dass sowohl der Song als auch das Konto des Uploaders gelöscht wurden. Dennoch bleibt die Frage offen, wie solche Vorfälle in Zukunft verhindert werden können.

Der Fall Blaze Foley ist kein Einzelfall. Auch auf den Profilen anderer verstorbener Künstler wie Guy Clark tauchten kürzlich KI-generierte Songs auf. Branchenexperten fordern nun strengere Sicherheitsmaßnahmen und eine klare Kennzeichnung von KI-Inhalten. Die Diskussion zeigt, wie dringend die Musikindustrie auf die Herausforderungen durch KI reagieren muss, um das geistige Eigentum und die Integrität von Künstlern zu schützen.

Quellen