Kriminelle haben die Stimme des österreichischen Musikers Andreas Gabalier mit künstlicher Intelligenz nachgebildet.
Sie erstellten ein gefälschtes Interview, in dem Gabalier angeblich Empfehlungen für Krypto-Investitionen ausspricht.
Die englischsprachige Abschrift erschien auf einer Website, die der österreichischen Nachrichtenplattform orf.at stark ähnelt.
Laut der Kleinen Zeitung nutzten die Täter das gefälschte Interview, um potenzielle Opfer zu täuschen.
KI-Betrüger nehmen Prominente ins Visier
Stimmenklonen mit künstlicher Intelligenz entwickelt sich in Österreich zur gängigen Betrugsmasche.
Betrüger fälschen gezielt die Stimmen bekannter Persönlichkeiten, um ihnen dubiose Aussagen unterzuschieben.
Immer wieder geraten Politiker und Fernsehgesichter wie Bundespräsident Alexander Van der Bellen oder Armin Assinger ins Visier.
Nun wurde erstmals auch ein prominenter Musiker Ziel einer solchen Manipulation.
Behörden warnen vor tiefgreifendem Missbrauch
Täuschend echte Webseiten und überzeugend nachgeahmte Stimmen erhöhen die Gefahr für Verbraucher.
Sicherheitsbehörden fordern strengere Gesetze gegen KI-Missbrauch und digitale Identitätsdiebstähle.
Experten raten, angebliche Interviews mit Prominenten stets kritisch zu hinterfragen.
Nur durch Aufklärung und technische Schutzmaßnahmen lässt sich dieser Form von Betrug langfristig begegnen.