Taylor Swift udsat for spredning af falske pornobilleder
Politikere og fans af den verdensberømte musiker Taylor Swift er vrede over, at AI-genererede falske pornobilleder, der er gået virale på det sociale medie X.
Det skriver nyhedsbureauet AFP.
Et af billederne blev set 47 millioner gange på X, før det torsdag blev fjernet. Ifølge amerikanske medier var opslaget tilgængeligt i omkring 17 timer.
Ifølge nyhedsbureauet er billederne stadig tilgængelige på andre platforme.
Det er ikke noget nyt, at der ses pornografiske billeder, som er deepfake, af kendisser.
Blandt andre aktivister er bekymrede for, at letanvendelige værktøjer, der anvender generativ kunstig intelligens (AI), vil skabe en ukontrollerbar strøm af giftigt eller skadeligt indhold.
– Det, der er sket for Taylor Swift, er ikke noget nyt. I årevis har kvinder været mål for deepfakes uden deres samtykke, siger demokraten Yvette Clarke, der er medlem af Repræsentanternes Hus og har støttet lovgivning om at bekæmpe deepfake porno.
Et deepfake er et manipuleret billede, en falsk video eller lydoptagelse skabt ved hjælp af kunstig intelligens.