LIM Center, Aleje Jerozolimskie 65/79, 00-697 Warsaw, Poland
+48 (22) 364 58 00

Το «καυτό» AI mode του Elon Musk πυροδοτεί σκάνδαλο με NSFW deepfakes – Γιατί οι γυναίκες είναι ο στόχος της νέας κρίσης AI πορνογραφίας

Το «καυτό» AI mode του Elon Musk πυροδοτεί σκάνδαλο με NSFW deepfakes – Γιατί οι γυναίκες είναι ο στόχος της νέας κρίσης AI πορνογραφίας

Grok 4: Inside Elon Musk’s Most Powerful (and Controversial) AI Chatbot Yet

Η νέα επιχείρηση τεχνητής νοημοσύνης του Elon Musk δέχεται πυρά για το ότι δημιουργεί μη συναινετικά γυμνά deepfakes διασημοτήτων – και το κάνει με έναν ανησυχητικά μεροληπτικό ως προς το φύλο τρόπο. Μια πρόσφατη έρευνα του Gizmodo αποκαλύπτει ότι το εργαλείο Grok Imagine του Musk, με τη λειτουργία “Spicy”, δημιουργεί εύκολα NSFW βίντεο διάσημων γυναικών (όπως η Taylor Swift ή η Melania Trump), αλλά αρνείται να κάνει το ίδιο για άνδρες gizmodo.com gizmodo.com. Αυτή η αναφορά εμβαθύνει στα ευρήματα του Gizmodo για το αμφιλεγόμενο χαρακτηριστικό του Grok, εξετάζει την ταχεία άνοδο του πορνογραφικού περιεχομένου και deepfakes που παράγονται από AI, και διερευνά τις ηθικές, νομικές και κοινωνικές επιπτώσεις. Εξετάζουμε επίσης τις τρέχουσες εξελίξεις μέχρι τον Αύγουστο του 2025 – από τη δημόσια κατακραυγή και τις προειδοποιήσεις ειδικών μέχρι τους νέους νόμους που στοχεύουν στον περιορισμό του AI “revenge porn.” Ο στόχος: να κατανοήσουμε πώς το “Spicy Mode” έγινε το πιο πρόσφατο σημείο έντασης στην συνεχιζόμενη κρίση NSFW περιεχομένου από AI, και τι μπορεί να γίνει γι’ αυτό.

Το “Spicy Mode” του Grok – NSFW Deepfakes και ενσωματωμένη μεροληψία

Το Grok Imagine είναι ο δημιουργός εικόνων και βίντεο της xAI (διαθέσιμος σε συνδρομητές επί πληρωμή στην πλατφόρμα X του Musk) και αξιοσημείωτα επιτρέπει στους χρήστες να δημιουργούν περιεχόμενο για ενήλικες μέσω της λειτουργίας “Spicy” gizmodo.com. Ενώ τα κυρίαρχα εργαλεία AI όπως το Veo της Google και το Sora της OpenAI απαγορεύουν το απροκάλυπτο ή το περιεχόμενο με διασημότητες, η λειτουργία Spicy του Grok το ενθαρρύνει ενεργά avclub.com avclub.com. Οι δοκιμές του The Verge έδειξαν ότι η AI «δεν δίστασε να δημιουργήσει πλήρως λογοκριμένα topless βίντεο της Taylor Swift» με την πρώτη προσπάθεια – χωρίς καν να ζητηθεί γυμνό theverge.com. Παρομοίως, το Deadline διαπίστωσε ότι ήταν εξαιρετικά εύκολο να ζητήσει κανείς από το Grok να δημιουργήσει μια εικόνα της Scarlett Johansson να αποκαλύπτει το εσώρουχό της avclub.com. Σε έντονη αντίθεση, οι προσπάθειες να παραχθεί ανδρικό γυμνό δεν είχαν κανένα αποτέλεσμα. Όπως αναφέρει το Gizmodo, «δημιουργούσε μόνο τις εικόνες με γυναίκες πραγματικά ακατάλληλες για το χώρο εργασίας. Τα βίντεο με άνδρες ήταν τέτοια που δεν θα προκαλούσαν ιδιαίτερη εντύπωση.» gizmodo.com Στην πράξη, η λειτουργία Spicy του Grok μπορεί το πολύ να εμφανίσει έναν άνδρα χωρίς μπλούζα, ενώ οι γυναίκες απεικονίζονται topless ή εντελώς γυμνές.

Αυτό το κραυγαλέο διπλό πρότυπο έχει προκαλέσει ανησυχίες. Το Grok θα δημιουργήσει ένα κλιπ τύπου softcore πορνό με μια γυναίκα δημόσιο πρόσωπο με το πάτημα ενός κουμπιού gizmodo.com, αλλά το ίδιο φίλτρο “Spicy” προφανώς σταματάει στη γυμνή ανδρική άνω κορυφή gizmodo.com. Ο Matt Novak του Gizmodo δοκίμασε μάλιστα να ζητήσει ένα γενικό, μη διάσημο άνδρα σε σύγκριση με μια γενική γυναίκα: το ανδρικό άβαταρ τραβούσε αμήχανα το παντελόνι του αλλά παρέμενε καλυμμένο, ενώ το γυναικείο άβαταρ αμέσως αποκάλυπτε το στήθος της gizmodo.com. Τέτοια αποτελέσματα υποδηλώνουν μια έμφυλη προκατάληψη ενσωματωμένη στη διαχείριση περιεχομένου της τεχνητής νοημοσύνης (είτε σκόπιμα είτε ως παραπροϊόν της εκπαίδευσής της). Το ίδιο το ιστορικό του Musk με μισογυνιστικά σχόλια – από το να ενισχύει ισχυρισμούς ότι οι γυναίκες είναι «αδύναμες» gizmodo.com μέχρι το να αστειεύεται για το να αφήσει έγκυο την Taylor Swift – ενισχύει τις υποψίες ότι αυτή η προκατάληψη είναι περισσότερο χαρακτηριστικό παρά σφάλμα gizmodo.com.

Δυνατότητες & Περιορισμοί: Αξίζει να σημειωθεί ότι τα deepfakes του Grok είναι συχνά κακής ποιότητας. Οι ομοιότητες με διασημότητες που παράγει είναι συχνά μη πειστικές ή με σφάλματα gizmodo.com gizmodo.com. (Για παράδειγμα, εικόνες που υποτίθεται ότι απεικονίζουν την ηθοποιό Sydney Sweeney ή τον πολιτικό J.D. Vance δεν έμοιαζαν καθόλου με τα πραγματικά τους πρόσωπα gizmodo.com.) Παράξενα λάθη συνέχειας – όπως ένας άντρας που φοράει παντελόνι με διαφορετικά μπατζάκια σε ένα βίντεο – είναι συνηθισμένα gizmodo.com. Το Grok επίσης δημιουργεί αυτόματα γενική μουσική υπόκρουση ή ήχο για κάθε κλιπ, προσθέτοντας στην σουρεαλιστική αίσθηση του “uncanny valley” gizmodo.com. Αυτές οι τεχνικές αδυναμίες ίσως αποτελούν σανίδα σωτηρίας για την xAI αυτή τη στιγμή, καθώς πραγματικά ρεαλιστικές γυμνές απομιμήσεις διασήμων θα προκαλούσαν σχεδόν σίγουρα αγωγές και απαγορεύσεις gizmodo.com. Όπως σχολίασε το Gizmodo, η καλύτερη άμυνα του Musk απέναντι σε νομικές ενέργειες μπορεί να είναι ότι «οι εικόνες δεν πλησιάζουν καν» τους πραγματικούς διάσημους gizmodo.com. Όμως η τεχνολογία βελτιώνεται ραγδαία, και ακόμα και αυτά τα ατελή deepfakes είναι αρκετά αναγνωρίσιμα ώστε να προκαλούν ανησυχία avclub.com.

Αντίδραση του κοινού: Η κυκλοφορία του “Spicy Mode” προκάλεσε αμέσως οργή στα μέσα κοινωνικής δικτύωσης και στον Τύπο. Μέσα σε λίγες μέρες από την έναρξη του Grok Imagine, το X (Twitter) κατακλύστηκε από εικόνες γυμνών γυναικών που δημιουργήθηκαν με AI, με τους χρήστες να μοιράζονται με ενθουσιασμό συμβουλές για το πώς να μεγιστοποιήσουν τη γυμνότητα στις προτροπές τους gizmodo.com. Αυτό προκάλεσε εκτεταμένη κριτική ότι ο Musk ουσιαστικά άνοιξε τον ασκό του Αιόλου για σεξουαλική παρενόχληση και εκμετάλλευση με τη βοήθεια AI. «Πολλά από τα περιεχόμενα του Grok Imagine που έχει κοινοποιήσει ή αναδημοσιεύσει ο Musk είναι αποσπάσματα με γενικής εμφάνισης ξανθιές με πλούσιο στήθος ή γυναίκες με αποκαλυπτικές φανταστικές στολές», παρατήρησε το A.V. Club, σημειώνοντας ότι ο Musk φαίνεται να έχει σκοπό να ανταγωνιστεί το Pornhub avclub.com avclub.com. Τεχνολογικά blogs και σχολιαστές έχουν σαρκαστικά προτείνει ότι ο Musk «σχεδόν παρακαλάει για μια αγωγή από την Taylor Swift» λόγω των αυτόματα παραγόμενων γυμνών του Grok avclub.com. Πράγματι, ορισμένοι σχολιαστές έχουν παροτρύνει γνωστούς στόχους όπως η Swift να σύρουν τον Musk στα δικαστήρια και «να κάνουν τον κόσμο πιο ασφαλή για άλλες γυναίκες και κορίτσια» avclub.com. Μέχρι στιγμής, δεν υπάρχει δημόσια ένδειξη νομικής ενέργειας από την πλευρά της Swift ή άλλων – αλλά οι φωνές για λογοδοσία γίνονται όλο και πιο δυνατές.

Ακόμα και έξω από τη διαμάχη για το Grok, το 2024 υπήρξε μια μεγάλη δημόσια κατακραυγή για πορνογραφία που παράγεται από AI στο X. Σε ένα περιστατικό, πορνογραφικές εικόνες deepfake της Taylor Swift διαδόθηκαν ευρέως στην πλατφόρμα, με μία ψεύτικη φωτογραφία να συγκεντρώνει 47 εκατομμύρια προβολές πριν αφαιρεθεί theguardian.com. Οι θαυμαστές κινητοποιήθηκαν μαζικά για να αναφέρουν τις εικόνες, και ακόμη και ο Λευκός Οίκος παρενέβη, χαρακτηρίζοντας την κατάσταση «ανησυχητική» theguardian.com. Η περίπτωση της Swift είναι εξαιρετική μόνο λόγω της προσοχής που έλαβε· αμέτρητες γυναίκες (διάσημες ή μη) έχουν δει τη μορφή τους να μετατρέπεται σε άσεμνο περιεχόμενο που οι πλατφόρμες αποτυγχάνουν να αφαιρέσουν άμεσα theguardian.com theguardian.com. Η δημόσια οργή γύρω από αυτά τα περιστατικά – και τώρα γύρω από τη λειτουργία NSFW του Grok – αντικατοπτρίζει μια αυξανόμενη συναίνεση ότι τα εργαλεία AI που επιτρέπουν σεξουαλικά deepfakes ξεπερνούν τα ηθικά όρια.

Η Ταχεία Άνοδος του NSFW Περιεχομένου και των Deepfakes που Παράγονται από AI

Το επεισόδιο με το Grok είναι το πιο πρόσφατο κεφάλαιο σε μια ανησυχητική τάση: η πορνογραφία που παράγεται από AI (“deepfake porn”) έχει εκτοξευθεί σε συχνότητα τα τελευταία χρόνια. Το φαινόμενο έγινε για πρώτη φορά διαβόητο το 2017, όταν χομπίστες στο Reddit άρχισαν να χρησιμοποιούν πρώιμους αλγόριθμους deep-learning για να τοποθετούν πρόσωπα διασήμων σε σώματα πορνοστάρ. Μέχρι το 2018, τα λεγόμενα “deepfake” βίντεο της Gal Gadot, της Emma Watson, της Scarlett Johansson και άλλων πολλαπλασιάζονταν σε ιστοσελίδες ενηλίκων – οδηγώντας πλατφόρμες όπως το Reddit, το Twitter και το Pornhub να απαγορεύσουν τέτοιο μη συναινετικό περιεχόμενο theguardian.com theverge.com.

Παρά τους πρώιμους αυτούς αποκλεισμούς, η βιομηχανία deepfake πορνό μετακινήθηκε στη σκιά και συνέχισε να αναπτύσσεται. Μέχρι τα τέλη του 2019, μια σημαντική έκθεση της εταιρείας κυβερνοασφάλειας Deeptrace διαπίστωσε ότι το 96% όλων των deepfake βίντεο που κυκλοφορούσαν στο διαδίκτυο ήταν πορνογραφικά, μη συναινετικά face-swaps, σχεδόν αποκλειστικά με γυναίκες ως στόχους regmedia.co.uk. Οι τέσσερις κορυφαίες ιστοσελίδες deepfake πορνό που μελετήθηκαν είχαν συγκεντρώσει πάνω από 134 εκατομμύρια προβολές σε βίντεο που στοχοποιούσαν «εκατοντάδες διάσημες γυναίκες παγκοσμίως.» regmedia.co.uk Αυτή η ανισορροπία ήταν έντονη: τα θύματα ήταν συντριπτικά γυναίκες, και οι καταναλωτές ενδιαφέρονταν συντριπτικά για τις γυναίκες ως σεξουαλικά αντικείμενα. «Το 99% των deep fake σεξουαλικών βίντεο αφορούν γυναίκες, συνήθως διάσημες γυναίκες,» σημείωσε η καθηγήτρια νομικής Danielle Citron, τονίζοντας πώς αυτές οι δημιουργίες «σε μετατρέπουν σε σεξουαλικό αντικείμενο με τρόπους που δεν επέλεξες» nymag.com. «Δεν υπάρχει τίποτα κακό με την πορνογραφία, αρκεί να την έχεις επιλέξει ο ίδιος,» πρόσθεσε η Citron – ο τρόμος των deepfakes είναι ότι αυτές οι γυναίκες ποτέ δεν επέλεξαν να χρησιμοποιηθεί η εικόνα τους σε explicit σκηνές nymag.com.

Αρχικά, τα deepfakes διασήμων κυριαρχούσαν, αλλά πλέον όλο και περισσότεροι απλοί άνθρωποι στοχοποιούνται. Τον Ιανουάριο του 2023, η κοινότητα streaming του Twitch συγκλονίστηκε από ένα σκάνδαλο όταν ο δημοφιλής streamer Brandon “Atrioc” Ewing αποκάλυψε κατά λάθος ότι είχε επισκεφθεί μια ιστοσελίδα deepfake πορνό που πουλούσε explicit βίντεο με γυναίκες streamers – τοποθετώντας τα πρόσωπά τους στα σώματα πορνοστάρ polygon.com. Οι γυναίκες (μερικές από τις οποίες ήταν προσωπικές φίλες του Atrioc) καταστράφηκαν ψυχολογικά και αντιμετώπισαν κύματα παρενόχλησης όταν τα deepfakes αποκαλύφθηκαν polygon.com. Μία από τα θύματα, η streamer QTCinderella, έκανε μια δακρυσμένη δήλωση καταγγέλλοντας την παραβίαση και αργότερα βοήθησε να οργανωθούν νομικές προσπάθειες για την αφαίρεση τέτοιου περιεχομένου polygon.com polygon.com. Το «Twitch deepfake» σκάνδαλο τόνισε ότι δεν χρειάζεται να είσαι σταρ του Χόλιγουντ για να σου συμβεί αυτό – οποιοσδήποτε έχει εικόνες του στο διαδίκτυο είναι δυνητικά ευάλωτος στο να «γδυθεί» από την τεχνητή νοημοσύνη παρά τη θέλησή του.

Η άνοδος των φιλικών προς τον χρήστη εργαλείων τεχνητής νοημοσύνης έχει μόνο επιταχύνει την τάση. Το 2019, μια εφαρμογή με το όνομα DeepNude έγινε για λίγο viral επειδή χρησιμοποιούσε AI για να «γδύνει» φωτογραφίες γυναικών με το πάτημα ενός κουμπιού, παράγοντας ψεύτικα γυμνά onezero.medium.com. Αν και ο δημιουργός του DeepNude την έκλεισε εν μέσω δημόσιας κατακραυγής, το κακό είχε ήδη γίνει. Μέχρι το 2023–2025, οι γεννήτριες εικόνων ανοιχτού κώδικα (όπως τα παράγωγα του Stable Diffusion) και οι εξειδικευμένες υπηρεσίες deepfake έχουν καταστήσει ασήμαντο για οποιονδήποτε έχει μερικές φωτογραφίες και ελάχιστες τεχνικές γνώσεις να δημιουργήσει γυμνές ή σεξουαλικές εικόνες άλλων. Ορισμένα φόρουμ ανταλλάσσουν ανοιχτά AI-δημιουργημένα γυμνά γυναικών που έχουν ληφθεί από τα μέσα κοινωνικής δικτύωσης. Όπως παραπονέθηκε ένα θύμα, streamer του Twitch, αφού ανακάλυψε πορνογραφικά ψεύτικα βίντεο με τον εαυτό της, «Αυτό δεν έχει καμία σχέση με εμένα. Κι όμως είναι εδώ με το πρόσωπό μου.» theguardian.com Το αίσθημα παραβίασης και αδυναμίας είναι έντονο μεταξύ όσων έχουν «ψηφιακά θυματοποιηθεί».

Με λίγα λόγια, η τεχνητή νοημοσύνη έχει εκδημοκρατίσει την ικανότητα δημιουργίας πορνογραφικών ψευδών, και αυτή η δυνατότητα έχει χρησιμοποιηθεί δυσανάλογα ως όπλο εναντίον των γυναικών. Δεν είναι μόνο οι διασημότητες που είναι στόχος – είναι οποιοσδήποτε, από δημοσιογράφους και ακτιβιστές (που μπορεί να στοχοποιηθούν για εκφοβισμό ή δυσφήμιση) μέχρι πρώην συντρόφους και ιδιώτες (που στοχοποιούνται από εκδικητικούς ή για εκβιασμούς). Η εμφάνιση λειτουργιών όπως το Spicy mode του Grok – που έβαλε μια επίσημη, φιλική προς τον χρήστη σφραγίδα σε κάτι που ήταν προηγουμένως υπόγεια πρακτική – σηματοδοτεί ότι η NSFW γενετική τεχνητή νοημοσύνη έχει πραγματικά εισέλθει στο mainstream, φέρνοντας μαζί της όλο το ηθικό της βάρος.

Ηθικές, Νομικές και Κοινωνικές Επιπτώσεις της Πορνογραφίας που Παράγεται από ΤΝ

Η ηθική αγανάκτηση για το deepfake πορνό είναι ευρείας βάσης. Στον πυρήνα του, η δημιουργία ή η διανομή σεξουαλικού περιεχομένου κάποιου χωρίς τη συγκατάθεσή του αποτελεί βαθιά παραβίαση της ιδιωτικότητας, της αξιοπρέπειας και της αυτονομίας. Όπως υποστηρίζουν η Citron και άλλοι ηθικολόγοι, αυτό είναι κάτι παραπάνω από κακοποίηση μέσω εικόνας – είναι μια μορφή σεξουαλικής εκμετάλλευσης. Τα θύματα περιγράφουν συναισθήματα «αδυναμίας, ταπείνωσης και τρόμου» γνωρίζοντας ότι άγνωστοι (ή κακοποιητές) παρακολουθούν ψεύτικα βίντεο με αυτούς σε σεξουαλικές πράξεις που ποτέ δεν έκαναν. Μπορεί να ισοδυναμεί με μια εικονική μορφή σεξουαλικής επίθεσης, αφήνοντας μόνιμα τραύματα. Δεν προκαλεί έκπληξη ότι οι γυναίκες και τα κορίτσια υφίστανται το μεγαλύτερο βάρος: «Τα μη συναινετικά οικεία deepfakes» είναι «μια τρέχουσα, σοβαρή και αυξανόμενη απειλή, που επηρεάζει δυσανάλογα τις γυναίκες», καταλήγουν οι ερευνητές sciencedirect.com.

Υπάρχει επίσης ένα μισογυνικό υπόρρευμα σε πολύ από αυτό το περιεχόμενο. Οι ειδικοί σημειώνουν ότι το deepfake πορνό χρησιμοποιείται συχνά ως όπλο για να υποβαθμίσει γυναίκες που βρίσκονται σε θέσεις εξουσίας ή που απορρίπτουν τις προσεγγίσεις κάποιου. «Το πορνό που παράγεται από την τεχνητή νοημοσύνη, τροφοδοτούμενο από μισογυνισμό, κατακλύζει το διαδίκτυο», παρατήρησε ο Guardian εν μέσω της φρενίτιδας για τα deepfake της Taylor Swift theguardian.com. Η ίδια η πράξη του να γδύνεις μια γυναίκα μέσω AI μπορεί να θεωρηθεί ως μια προσπάθεια να την «βάλεις στη θέση της». «Είναι άντρες που λένε σε μια ισχυρή γυναίκα να επιστρέψει στο κουτί της», όπως περιέγραψε ένας παρατηρητής το κλίμα του περιστατικού με τη Swift. Είτε πρόκειται για ανώνυμους trolls που παράγουν γυμνές εικόνες μιας γυναίκας πολιτικού, είτε για έναν εμμονικό θαυμαστή που φτιάχνει ψεύτικες sex tapes μιας ποπ σταρ, το μήνυμα είναι παρόμοιο – μια μορφή ψηφιακής αντικειμενοποίησης και εκφοβισμού.

Πέρα από την ατομική βλάβη, οι κοινωνικές επιπτώσεις είναι ανησυχητικές. Αν ο καθένας μπορεί να τοποθετηθεί σε πορνογραφία, τα οπτικά μέσα δεν μπορούν πλέον να θεωρηθούν αξιόπιστα. Τα deepfakes απειλούν με ζημιά στη φήμη και εκβιασμό σε μεγάλη κλίμακα. Γυναίκες που βρίσκονται στο προσκήνιο μπορεί να αυτολογοκριθούν ή να αποσυρθούν από την online δραστηριότητα από φόβο ότι θα στοχοποιηθούν. Υπάρχει επίσης ένα αποτρεπτικό αποτέλεσμα στον λόγο: φανταστείτε μια δημοσιογράφο επικριτική προς ένα καθεστώς να γίνεται το θέμα ενός ρεαλιστικού ψεύτικου sex βίντεο που κυκλοφορεί για να τη δυσφημίσει. Συνολικά, η κανονικοποίηση του «σχεδιασμένου πορνό» με άτομα που δεν συναινούν εγείρει ερωτήματα για τη συναίνεση, τη σεξουαλική εκμετάλλευση και την εμπορευματοποίηση της ανθρώπινης εικόνας. Ακόμα και για το συναινετικό ενήλικο ψυχαγωγικό περιεχόμενο, κάποιοι ανησυχούν ότι οι ερμηνευτές που παράγονται από AI θα μπορούσαν να αντικαταστήσουν τα πραγματικά μοντέλα – αλλά όταν αυτοί οι ερμηνευτές AI φορούν τα πραγματικά πρόσωπα ανθρώπων που έχουν κλαπεί από το Facebook ή το Instagram, η γραμμή της συναίνεσης ξεπερνιέται ξεκάθαρα.

Ελευθερία του Λόγου vs. Ιδιωτικότητα: Υπάρχει μια ένταση μεταξύ εκείνων που ζητούν την απαγόρευση όλων των πορνογραφικών deepfakes και των υποστηρικτών της ελευθερίας του λόγου που ανησυχούν για υπερβολές. Θα μπορούσε ποτέ ένα deepfake διασημότητας να θεωρηθεί νόμιμη παρωδία ή τέχνη; Θεωρητικά, ναι – η σάτιρα και η παρωδία είναι προστατευόμενες μορφές έκφρασης, ακόμα και όταν χρησιμοποιείται η ομοιότητα δημόσιων προσώπων. Ορισμένοι υπερασπιστές της τεχνολογίας AI σημειώνουν ότι παραποιημένες εικόνες δημόσιων προσώπων αποτελούν εδώ και καιρό μέρος της ποπ κουλτούρας (π.χ. εξώφυλλα περιοδικών με Photoshop), υποστηρίζοντας ότι η παρορμητική ποινικοποίηση θα μπορούσε να καταπνίξει τη δημιουργικότητα. Ωστόσο, ακόμα και οι περισσότεροι μελετητές της ελευθερίας του λόγου θέτουν όριο στις μη συναινετικές σεξουαλικές απεικονίσεις. Η βλάβη για το άτομο είναι τόσο έντονη και προσωπική που πιθανότατα υπερτερεί κάθε δημόσιου συμφέροντος. Νομικοί ειδικοί επισημαίνουν ότι οι νόμοι περί δυσφήμισης ή παρενόχλησης μπορεί να καλύπτουν ορισμένες περιπτώσεις, αλλά όχι όλες. Υπάρχει αυξανόμενη συναίνεση ότι απαιτούνται νέες νομικές διασφαλίσεις για να αντιμετωπιστεί ειδικά η deepfake πορνογραφία, χωρίς να υπονομεύεται η νόμιμη έκφραση apnews.com apnews.com. Η σύνταξη αυτών των νόμων με ακρίβεια – ώστε να τιμωρούνται οι ξεκάθαρες καταχρήσεις χωρίς να συμπεριλαμβάνεται η σάτιρα ή η συναινετική ερωτική τέχνη – είναι μια πρόκληση με την οποία οι υπεύθυνοι χάραξης πολιτικής έρχονται τώρα αντιμέτωποι apnews.com apnews.com.

Τρέχουσες Εξελίξεις (έως τον Αύγουστο 2025): Από την Αντίδραση στην Τεχνολογία σε Νέους Νόμους

Η διαμάχη γύρω από τη λειτουργία “Spicy” του Grok έρχεται σε μια στιγμή που κυβερνήσεις και πλατφόρμες παγκοσμίως κινούνται επιτέλους για να αντιμετωπίσουν την επιδημία των AI-παραγόμενων προσωπικών εικόνων. Ακολουθούν μερικές από τις πιο πρόσφατες εξελίξεις:

  • Εθνική αγανάκτηση και ακτιβισμός: Τα viral περιστατικά με την Taylor Swift και άλλους έχουν κινητοποιήσει τη δημόσια γνώμη. Ακόμα και ο Λευκός Οίκος των ΗΠΑ σχολίασε τα deepfakes της Swift, όπως αναφέρθηκε, χαρακτηρίζοντάς τα «ανησυχητικά» theguardian.com. Οργανώσεις υπεράσπισης όπως το National Center on Sexual Exploitation έχουν εκφραστεί ανοιχτά, καταδικάζοντας το xAI του Musk για το ότι «προωθεί τη σεξουαλική εκμετάλλευση επιτρέποντας σε AI βίντεο να δημιουργούν γυμνό» και ζητώντας την αφαίρεση τέτοιων λειτουργιών time.com. «Το xAI θα πρέπει να αναζητήσει τρόπους για να αποτρέψει τη σεξουαλική κακοποίηση και εκμετάλλευση», δήλωσε η Haley McNamara του NCOSE σε ανακοίνωσή της, αντικατοπτρίζοντας μια ευρύτερη πίεση από την κοινωνία των πολιτών time.com.
  • Οι δημοσκοπήσεις δείχνουν συντριπτική δημόσια υποστήριξη για απαγορεύσεις: Πρόσφατες έρευνες δείχνουν ότι το κοινό τάσσεται σταθερά υπέρ της αυστηρότερης ρύθμισης. Μια δημοσκόπηση του Ιανουαρίου 2025 από το Artificial Intelligence Policy Institute διαπίστωσε ότι το 84% των Αμερικανών υποστηρίζει να καταστεί ρητά παράνομη η μη συναινετική deepfake πορνογραφία, και παρομοίως θέλουν οι εταιρείες AI να «περιορίσουν τα [AI] μοντέλα ώστε να αποτρέπουν τη χρήση τους για τη δημιουργία deepfake πορνογραφίας.» time.com. Μια δημοσκόπηση του Pew Research το 2019 διαπίστωσε επίσης ότι περίπου τα τρία τέταρτα των ενηλίκων στις ΗΠΑ τάσσονται υπέρ των περιορισμών σε ψηφιακά αλλοιωμένα βίντεο/εικόνες time.com. Εν ολίγοις, οι ψηφοφόροι σε όλο το φάσμα φαίνεται να ζητούν δράση ενάντια σε αυτή τη μορφή κακοποίησης.
  • Νέοι Νόμοι και Νομοσχέδια: Οι νομοθέτες άκουσαν το κάλεσμα. Στις ΗΠΑ, ο νόμος Take It Down Act υπογράφηκε τον Μάιο του 2025, σηματοδοτώντας την πρώτη ομοσπονδιακή νομοθεσία που στοχεύει στην πορνογραφία deepfake time.com. Αυτός ο διακομματικός νόμος καθιστά παράνομο το να «δημοσιεύει ή να απειλεί να δημοσιεύσει» κάποιος εσκεμμένα προσωπικές εικόνες χωρίς συναίνεση – συμπεριλαμβανομένων deepfakes που έχουν δημιουργηθεί με AI – και απαιτεί από τις πλατφόρμες να αφαιρούν τέτοιο υλικό εντός 48 ωρών από την ειδοποίηση του θύματος apnews.com apnews.com. Οι ποινές είναι αυστηρές και ο νόμος δίνει τη δυνατότητα στα θύματα να αφαιρούν το περιεχόμενο γρήγορα apnews.com apnews.com. «Πρέπει να παρέχουμε στα θύματα διαδικτυακής κακοποίησης τις νομικές προστασίες που χρειάζονται, ειδικά τώρα που τα deepfakes δημιουργούν τρομακτικές νέες ευκαιρίες για κακοποίηση», δήλωσε η Γερουσιαστής Amy Klobuchar, συν-χορηγός του νόμου, χαρακτηρίζοντάς τον «μια μεγάλη νίκη για τα θύματα διαδικτυακής κακοποίησης.» apnews.com apnews.com Ακόμα και πριν τον ομοσπονδιακό νόμο, πάνω από 15 πολιτείες των ΗΠΑ είχαν απαγορεύσει τη δημιουργία ή διανομή explicit deepfakes (συχνά με επικαιροποίηση των νόμων περί «εκδικητικής πορνογραφίας»). Τώρα, διαμορφώνεται ένα ενιαίο ομοσπονδιακό πρότυπο. Και άλλες χώρες κινούνται παράλληλα. Η κυβέρνηση του Ηνωμένου Βασιλείου, για παράδειγμα, ποινικοποίησε τη διαμοίραση deepfake πορνογραφίας στον Νόμο για την Ασφάλεια στο Διαδίκτυο (σε ισχύ από τις αρχές του 2024), και προωθεί νομοθεσία για να ποινικοποιήσει ακόμα και τη δημιουργία σεξουαλικά explicit deepfakes χωρίς συναίνεση hsfkramer.com hsfkramer.com. Τον Ιανουάριο του 2025 το Ηνωμένο Βασίλειο επανεισήγαγε πρόταση για να καταστήσει παράνομη τη δημιουργία deepfake γυμνών, τονίζοντάς το ως «μια ιστορική εξέλιξη για την προστασία των γυναικών και των κοριτσιών.» <a href=”https://www.hsfkramer.com/notes/tmt/2024-05/criminalising-deepfakes-the-uks-new-offences-following-the-online-safety-act#:~:text=Further%20update%3A%20On%207%20January,Act%2020hsfkramer.com hsfkramer.com Η Αυστραλία ψήφισε νόμο το 2024 που απαγορεύει τόσο τη δημιουργία όσο και τη διανομή deepfake σεξουαλικού υλικού, και η Νότια Κορέα έχει φτάσει στο σημείο να προτείνει την ποινικοποίηση ακόμα και της κατοχής ή της θέασης τέτοιου deepfake πορνό (όχι μόνο της παραγωγής του) hsfkramer.com. Η παγκόσμια τάση είναι σαφής: οι μη συναινετικές σεξουαλικές εικόνες από AI θεωρούνται πλέον έγκλημα. Οι νομοθέτες αναγνωρίζουν ότι αυτές οι εικόνες «μπορούν να καταστρέψουν ζωές και φήμες», όπως το έθεσε η Klobuchar apnews.com, και λαμβάνουν μέτρα – αν και οργανώσεις υπεράσπισης της ελευθερίας της έκφρασης όπως η EFF προειδοποιούν ότι κακογραμμένοι νόμοι θα μπορούσαν να οδηγήσουν σε υπερβολική λογοκρισία ή κατάχρηση apnews.com apnews.com.
  • Πολιτικές Πλατφορμών Τεχνολογίας: Οι μεγάλες τεχνολογικές πλατφόρμες έχουν αρχίσει να ενημερώνουν τις πολιτικές τους (τουλάχιστον στα χαρτιά) για να αντιμετωπίσουν το σεξουαλικό περιεχόμενο που δημιουργείται από την ΤΝ. Το Facebook, το Instagram, το Reddit και το παραδοσιακό Twitter απαγορεύουν επίσημα τη μη συναινετική προσωπική απεικόνιση, συμπεριλαμβανομένων των deepfakes theguardian.com theverge.com. Το Pornhub και άλλες ιστοσελίδες ενηλίκων επίσης εφάρμοσαν απαγορεύσεις στο περιεχόμενο που δημιουργείται από ΤΝ και απεικονίζει πραγματικά άτομα χωρίς συγκατάθεση ήδη από το 2018 theguardian.com theverge.com. Στην πράξη, η επιβολή παραμένει αποσπασματική – ένας αποφασισμένος χρήστης μπορεί ακόμα να βρει ή να μοιραστεί παράνομα deepfakes σε πολλές πλατφόρμες. Ωστόσο, υπάρχουν σημάδια προόδου: για παράδειγμα, μετά το περιστατικό με τη Swift, το X (Twitter) τελικά αντέδρασε μπλοκάροντας τις αναζητήσεις για το όνομά της για να σταματήσει τη διάδοση theguardian.com theguardian.com. Το Reddit όχι μόνο απαγορεύει το deepfake πορνό, αλλά έκλεισε ολόκληρες κοινότητες που διακινούσαν τέτοιο υλικό. Το YouTube και το TikTok έχουν επίσης πολιτικές που απαγορεύουν τις ρητά σεξουαλικές εικόνες που έχουν υποστεί χειρισμό από ΤΝ. Η πρόκληση είναι η κλίμακα και η ανίχνευση – και εδώ εφαρμόζεται η νέα τεχνολογία.
  • Ανίχνευση και Μέτρα Προστασίας: Μια αναπτυσσόμενη βιομηχανία τεχνολογικών λύσεων στοχεύει να εντοπίζει και να αφαιρεί deepfake πορνό. Εταιρείες τεχνητής νοημοσύνης όπως η Sensity (πρώην Deeptrace) και startups όπως η Ceartas αναπτύσσουν αλγορίθμους ανίχνευσης που σαρώνουν το διαδίκτυο για το πρόσωπο ενός ατόμου σε πορνογραφικό περιεχόμενο και επισημαίνουν ταυτίσεις polygon.com polygon.com. Μάλιστα, μετά το σκάνδαλο στο Twitch, ο Atrioc συνεργάστηκε με την Ceartas για να βοηθήσει τις θιγόμενες streamers: η εταιρεία χρησιμοποίησε την τεχνητή νοημοσύνη της για να εντοπίσει deepfake περιεχόμενο αυτών των γυναικών και να υποβάλει αιτήματα αφαίρεσης DMCA polygon.com polygon.com. Το OnlyFans, μια πλατφόρμα με συμφέρον στην προστασία των δημιουργών, έχει επίσης επιστρατεύσει τέτοια εργαλεία για να ελέγχει ψεύτικο περιεχόμενο των μοντέλων του polygon.com. Υπάρχει επίσης δουλειά στην ενσωμάτωση υδατογραφημάτων ή μεταδεδομένων σε εικόνες που παράγονται από AI για να βοηθούν στην αναγνώριση ψεύτικων, καθώς και προτάσεις να απαιτείται κρυπτογραφική αυθεντικοποίηση των πραγματικών εικόνων (ώστε οι μη επισημασμένες εικόνες να θεωρούνται ψεύτικες). Επιπλέον, ο Νόμος για την ΤΝ της Ευρωπαϊκής Ένωσης (συμφωνήθηκε το 2024) περιλαμβάνει διατάξεις που ορίζουν ότι οι προγραμματιστές εργαλείων deepfake πρέπει να διασφαλίζουν ότι τα αποτελέσματα επισημαίνονται ξεκάθαρα ως παραγόμενα από AI bioid.com. Αρκετές πολιτείες των ΗΠΑ (και η ΕΕ) εξετάζουν υποχρεώσεις ώστε κάθε περιεχόμενο που έχει τροποποιηθεί από AI να συνοδεύεται από σχετική γνωστοποίηση κατά τη δημοσίευση cjel.law.columbia.edu bioid.com. Αν και τέτοιες επισημάνσεις δεν θα σταματήσουν κακόβουλους να τις αφαιρούν, αποτελούν μια προσπάθεια να εγκαθιδρυθούν πρότυπα διαφάνειας γύρω από τα συνθετικά μέσα.
  • Πλατφόρμα vs. X του Musk: Αξίζει να τονιστεί πόσο ασυνήθιστη είναι η προσέγγιση του Musk με το X και το xAI. Ενώ οι περισσότερες πλατφόρμες ενισχύουν τους περιορισμούς, ο Musk ουσιαστικά τους χαλάρωσε, προσελκύοντας μια βάση χρηστών που επιθυμεί “τολμηρές” δυνατότητες AI. Το X όχι μόνο δεν έχει απαγορεύσει τα αποτελέσματα του Grok· είναι το σπίτι του Grok. Αυτή η απόκλιση έχει φέρει το X σε αντιπαράθεση με πολλούς ειδικούς. Τον Αύγουστο του 2024, μια ομάδα Δημοκρατικών βουλευτών ανέφερε συγκεκριμένα το Grok του Musk σε επιστολή προς τις ρυθμιστικές αρχές, προειδοποιώντας ότι οι χαλαρές πολιτικές για τα deepfakes (συμπεριλαμβανομένων και ρητών για πρόσωπα όπως η Kamala Harris ή η Taylor Swift) θα μπορούσαν να προκαλέσουν χάος στις εκλογές και πέρα από αυτές time.com. Ο Musk φαίνεται να ποντάρει ότι η ικανοποίηση της ζήτησης για AI-παραγόμενη ερωτική ύλη (και ακόμη και AI συνομιλητές που φλερτάρουν ή γδύνονται, όπως δείχνουν τα νέα χαρακτηριστικά του xAI time.com) θα φέρει έσοδα και χρήστες. Όμως η αντίδραση – νομική, κοινωνική και ενδεχομένως οικονομική (μέσω ανησυχιών διαφημιστών) – ίσως να δείξει μια διαφορετική εικόνα μακροπρόθεσμα.

Προτάσεις Πολιτικής και το Επόμενο Βήμα: Μπορούμε να περιορίσουμε το deepfake πορνό;

Η συναίνεση μεταξύ πολιτικών και ηθικολόγων είναι ότι πολύπλευρη δράση είναι απαραίτητη για την αντιμετώπιση του AI-παραγόμενου NSFW περιεχομένου. Βασικές προτάσεις και ιδέες περιλαμβάνουν:

  • Ισχυρότεροι νόμοι και επιβολή: Όπως αναφέρθηκε, νόμοι όπως το Take It Down Act είναι μια αρχή. Οι ειδικοί προτείνουν περαιτέρω βελτιώσεις, όπως το να καταστεί η πράξη δημιουργίας ψεύτικης σεξουαλικής εικόνας κάποιου χωρίς συναίνεση ποινικό αδίκημα, και όχι μόνο η διανομή της. (Το Ηνωμένο Βασίλειο κινείται προς αυτή την κατεύθυνση hsfkramer.com hsfkramer.com.) Σαφείς νομικές κυρώσεις για τους δράστες – και για όσους εν γνώσει τους φιλοξενούν ή κερδίζουν από τέτοιο περιεχόμενο – μπορούν να λειτουργήσουν αποτρεπτικά. Σημαντικό είναι κάθε νομοθεσία να έχει προσεκτικό πεδίο εφαρμογής ώστε να μην ποινικοποιεί ακούσια τη συναινετική ερωτική τέχνη ή τη νόμιμη πολιτική σάτιρα apnews.com apnews.com. Απαραίτητες είναι και οι αστικές αποζημιώσεις: τα θύματα χρειάζονται εύκολες διαδικασίες για να διεκδικήσουν αποζημιώσεις και να λάβουν δικαστικές εντολές για αφαίρεση περιεχομένου. Πολλοί υποστηρικτές θέλουν να δουν εξαιρέσεις στο Section 230 (ο αμερικανικός νόμος που προστατεύει τις πλατφόρμες από ευθύνη για περιεχόμενο χρηστών) ώστε οι ιστοσελίδες να θεωρούνται υπεύθυνες αν δεν ανταποκρίνονται σε αιτήματα αφαίρεσης deepfake πορνό. Αυτό θα πίεζε τις πλατφόρμες να είναι πολύ πιο προσεκτικές.
  • Τεχνολογικά προστατευτικά μέτρα: Από την πλευρά της ανάπτυξης, προτάσεις υποδεικνύουν ότι οι δημιουργοί μοντέλων AI θα πρέπει να ενσωματώνουν προληπτικά μέτρα ασφαλείας. Για παράδειγμα, οι εταιρείες θα μπορούσαν να εκπαιδεύσουν φίλτρα περιεχομένου ώστε να ανιχνεύουν πότε μια προτροπή χρήστη περιλαμβάνει το όνομα ή την ομοιότητα ενός πραγματικού ατόμου και να μπλοκάρουν οποιαδήποτε ρητή έξοδο που αφορά αυτό το άτομο. (Ορισμένοι δημιουργοί εικόνων AI ήδη αρνούνται προτροπές που φαίνεται να αναφέρονται σε ιδιώτες ή να παράγουν γυμνό δημόσιων προσώπων – το Grok της xAI αποτελεί εξαίρεση καθώς δεν το κάνει avclub.com.) Μια άλλη ιδέα είναι η απαίτηση επαλήθευσης συναίνεσης για ρητές δημιουργίες: π.χ. μια υπηρεσία AI μπορεί να δημιουργεί γυμνή εικόνα μόνο αν ο χρήστης αποδείξει ότι το υποκείμενο είναι ο ίδιος ή ένα συναινούν μοντέλο. Φυσικά, κακόβουλοι χρήστες θα μπορούσαν απλώς να χρησιμοποιήσουν ανοιχτού κώδικα μοντέλα χωρίς τέτοια φίλτρα, αλλά αν οι μεγάλες πλατφόρμες υιοθετήσουν αυστηρά μέτρα, θα μπορούσε να περιοριστεί η ευρεία διάδοση. Επαλήθευση ηλικίας αποτελεί επίσης ανησυχία – ο μόνος έλεγχος του Grok ήταν μια εύκολα παρακαμπτόμενη ερώτηση ημερομηνίας γέννησης gizmodo.com – οπότε υπάρχουν εκκλήσεις για πιο ισχυρά μέτρα ώστε να διασφαλιστεί ότι ανήλικοι (που συχνά στοχοποιούνται με ψεύτικα γυμνά) δεν μπορούν να χρησιμοποιούν αυτά τα εργαλεία ή να απεικονίζονται από αυτά.
  • Έρευνα και ανίχνευση: Οι κυβερνήσεις χρηματοδοτούν έρευνα για την ανίχνευση deepfake, και οι εταιρείες συνεργάζονται για τη δημιουργία προτύπων αυθεντικοποίησης μέσων. Ο στόχος είναι να γίνει ευκολότερη η γρήγορη αναγνώριση και αφαίρεση ψεύτικου πορνό όταν εμφανίζεται. Ωστόσο, η ανίχνευση θα είναι πάντα ένα παιχνίδι γάτας-ποντικιού καθώς τα AI fakes γίνονται πιο εξελιγμένα. Ορισμένοι ειδικοί πιστεύουν ότι η εστίαση πρέπει να μετατοπιστεί στην πρόληψη της βλάβης (μέσω νομικών κυρώσεων και εκπαίδευσης) αντί να ελπίζουμε σε έναν τεχνικό «ανιχνευτή ψευδών» που θα τα πιάνει όλα. Παρ’ όλα αυτά, οι εξελίξεις στην AI για καλό σκοπό – όπως καλύτερο hashing εικόνων για εντοπισμό γνωστών ψευδών, ή εργαλεία για άτομα ώστε να βρίσκουν αν η εικόνα τους έχει χρησιμοποιηθεί καταχρηστικά – θα παίξουν ρόλο στον περιορισμό του φαινομένου.
  • Λογοδοσία πλατφορμών: Ομάδες υπεράσπισης ζητούν οι πλατφόρμες κοινωνικής δικτύωσης και περιεχομένου ενηλίκων να επιτηρούν προληπτικά το περιεχόμενο AI πορνό. Αυτό θα μπορούσε να σημαίνει επένδυση σε ομάδες εποπτείας περιεχομένου με δεξιότητες στην ανίχνευση deepfakes, συνεργασία με τις αρχές για εντολές αφαίρεσης και αποκλεισμό επαναλαμβανόμενων παραβατών που δημιουργούν ή διαμοιράζουν μη συναινετικό υλικό. Κάποιοι ζητούν επίσης συστήματα εξαίρεσης ή μητρώα, όπου άτομα μπορούν να καταχωρούν την ομοιότητά τους (ή των παιδιών τους) και οι πλατφόρμες να διασφαλίζουν ότι δεν επιτρέπεται AI περιεχόμενο που τους απεικονίζει – αν και διοικητικά αυτό θα ήταν δύσκολο να εφαρμοστεί. Τουλάχιστον, πρωτόκολλα άμεσης ανταπόκρισης – όπως η απαίτηση αφαίρεσης εντός 48 ωρών στον αμερικανικό νόμο apnews.com – πρέπει να γίνουν στάνταρ πρακτική σε όλες τις πλατφόρμες παγκοσμίως.
  • Εκπαίδευση και Κοινωνικοί Κανόνες: Τέλος, μέρος της λύσης βρίσκεται στην αλλαγή των κοινωνικών προτύπων. Όπως η κοινωνία καταδίκασε ευρέως το “revenge porn” και το αναγνώρισε ως κακοποίηση, η ελπίδα είναι ότι η deepfake πορνογραφία θα στιγματιστεί καθολικά. Αν ο μέσος άνθρωπος κατανοήσει τη βλάβη και αρνηθεί να διαμοιράσει ή να καταναλώσει τέτοιο περιεχόμενο, η ζήτηση θα μειωθεί. Οι ειδικοί στην ηθική της τεχνολογίας τονίζουν τη σημασία της εκπαιδευτικής επάρκειας στα μέσα ενημέρωσης – να διδάσκουμε στους ανθρώπους ότι το να βλέπεις δεν σημαίνει πάντα ότι είναι αλήθεια, και ότι μια τολμηρή φωτογραφία της Διασημότητας Χ μπορεί να είναι ψεύτικη. Η ενδυνάμωση των νεότερων γενεών ώστε να πλοηγούνται κριτικά σε έναν κόσμο με μέσα που έχουν αλλοιωθεί από την τεχνητή νοημοσύνη θα είναι καθοριστική. Το ίδιο σημαντικές θα είναι και οι εκστρατείες ενημέρωσης προς τους δυνητικούς δράστες ότι η δημιουργία αυτών των ψευδών δεν είναι αστείο – είναι σοβαρή παραβίαση με ενδεχόμενες ποινικές συνέπειες.

Συμπέρασμα

Η εμφάνιση του “Spicy Mode” του Grok έχει ρίξει λάδι στη φωτιά που ήδη μαίνεται γύρω από την τεχνητή νοημοσύνη και τα σεξουαλικά ρητά deepfakes. Το εργαλείο τεχνητής νοημοσύνης του Elon Musk, κάνοντας εύκολη και ακόμη και “επίσημη” τη δημιουργία γυμνών σωσιών διασημοτήτων, προκάλεσε άμεση αντίδραση – και έριξε φως στην ευρύτερη κρίση της deepfake πορνογραφίας. Από τα έδρανα του Κογκρέσου μέχρι τα σχόλια στα τεχνολογικά φόρουμ, υπάρχει αυξανόμενη συμφωνία ότι κάτι πρέπει να γίνει για να προστατευθούν τα άτομα (ιδίως οι γυναίκες) από τις σκοτεινές εφαρμογές αυτής της τεχνολογίας.

Όπως είδαμε, το NSFW περιεχόμενο που παράγεται από τεχνητή νοημοσύνη δεν είναι μια μεμονωμένη καινοτομία – είναι μια κλιμακούμενη κοινωνική πρόκληση. Αντιπαραθέτει τη δημιουργική ελευθερία και την τεχνολογική καινοτομία με την ιδιωτικότητα, τη συναίνεση και την ασφάλεια. Το τζίνι δεν πρόκειται να επιστρέψει στο μπουκάλι, αλλά με έξυπνη πολιτική, υπεύθυνη τεχνολογική ανάπτυξη και πολιτισμική αλλαγή, μπορούμε να ελπίζουμε ότι θα περιορίσουμε τη βλάβη. Οι επόμενοι μήνες και χρόνια πιθανότατα θα φέρουν περισσότερες αγωγές, περισσότερους νόμους και βελτιωμένες δικλείδες ασφαλείας στην τεχνητή νοημοσύνη. Το Grok του Musk είτε θα προσαρμοστεί υπό πίεση είτε θα γίνει παράδειγμα προς αποφυγή για μια επιχείρηση τεχνητής νοημοσύνης που αγνόησε τα ηθικά όρια με δικό της ρίσκο.

Προς το παρόν, το μήνυμα από ειδικούς και κοινό είναι ξεκάθαρο: η deepfake πορνογραφία είναι μια γραμμή που η τεχνητή νοημοσύνη δεν πρέπει να διασχίσει. Και αν εταιρείες όπως η xAI δεν τραβήξουν αυτή τη γραμμή μόνες τους, οι ρυθμιστικές αρχές και η κοινωνία είναι όλο και πιο έτοιμες να το κάνουν για λογαριασμό τους. Όπως το έθεσε ένας υπέρμαχος της ηθικής της τεχνολογίας, “Το να μετατρέπουν την εικόνα σου σε πορνογραφία χωρίς συναίνεση είναι καταστροφικό – είναι καιρός να το αντιμετωπίσουμε ως τη σοβαρή κακοποίηση που είναι, και όχι ως αναπόφευκτο αποτέλεσμα της τεχνολογίας.” Η συζήτηση δεν αφορά πλέον το αν χρειάζεται δράση, αλλά το πόσο γρήγορα και αποτελεσματικά μπορούμε να περιορίσουμε την σεξουαλική εκμετάλλευση που τροφοδοτείται από την τεχνητή νοημοσύνη, πριν ανατραπούν κι άλλες ζωές από την επόμενη “πικάντικη” καινοτομία.

Πηγές:

  • Novak, Matt. “Το ‘Spicy’ Mode του Grok δημιουργεί NSFW deepfakes διασημοτήτων γυναικών (αλλά όχι ανδρών).Gizmodo, 6 Αυγ. 2025 gizmodo.com gizmodo.com.
  • Weatherbed, Jess. “Η ρύθμιση ‘Spicy’ βίντεο του Grok μου έφτιαξε αμέσως deepfakes γυμνής Taylor Swift.The Verge, 5 Αυγ. 2025 theverge.com.
  • Carr, Mary Kate. “Ο Elon Musk ουσιαστικά παρακαλάει για μια αγωγή Taylor Swift με τα deepfakes γυμνών του Grok AI.AV Club, 7 Αυγ. 2025 avclub.com avclub.com.
  • Saner, Emine. “Μέσα στο σκάνδαλο deepfake της Taylor Swift: ‘Είναι άντρες που λένε σε μια δυνατή γυναίκα να επιστρέψει στο κουτί της’.The Guardian, 31 Ιαν. 2024 theguardian.com theguardian.com.
  • Clark, Nicole. “Ο streamer που προκάλεσε το σκάνδαλο deepfake πορνό στο Twitch επιστρέφει.Polygon, 16 Μαρ. 2023 polygon.com polygon.com.
  • Patrini, Giorgio. “Η Κατάσταση των Deepfakes.” Αναφορά Deeptrace Labs, Οκτ. 2019 regmedia.co.uk.
  • Citron, Danielle. Συνέντευξη στο NYMag Intelligencer, Οκτ. 2019 nymag.com.
  • Ortutay, Barbara. “Ο Πρόεδρος Τραμπ υπογράφει το Take It Down Act, αντιμετωπίζοντας τα μη συναινετικά deepfakes. Τι είναι αυτό;AP News, Αυγ. 2025 apnews.com apnews.com.
  • Burga, Solcyre. “Ο Grok του Elon Musk θα επιτρέπει σύντομα στους χρήστες να δημιουργούν AI βίντεο, συμπεριλαμβανομένων και με explicit περιεχόμενο.TIME, Αύγ. 2025 time.com time.com.
  • Herbert Smith Freehills Law Firm. “Ποινικοποίηση των deepfakes – τα νέα αδικήματα του Ηνωμένου Βασιλείου…,” 21 Μαΐου 2024 hsfkramer.com hsfkramer.com.

Tags: ,