Elon Musks nya AI-satsning är under kritik för att generera icke-samtyckta nakna deepfakes av kändisar – och göra det på ett oroande könsbiaserat sätt. En nyligen genomförd undersökning av Gizmodo avslöjar att Musks Grok Imagine-verktyg, med sitt “Spicy”-läge, gärna skapar NSFW-videor av kända kvinnor (tänk Taylor Swift eller Melania Trump) men vägrar göra detsamma för…
Läs mer