Elon Musks neues KI-Unternehmen steht unter Beschuss, weil es nicht-einvernehmliche Nackt-Deepfakes von Prominenten generiert – und das auf eine beunruhigend geschlechtsspezifische Weise. Eine aktuelle Untersuchung von Gizmodo zeigt, dass Musks Grok Imagine-Tool mit seinem „Spicy“-Modus bereitwillig NSFW-Videos von berühmten Frauen erstellt (man denke an Taylor Swift oder Melania Trump), sich aber weigert, dasselbe für Männer…
Weiterlesen