בתוך מהפכת ה-AI הלא מצונזר: כיצד פורנו שנוצר בידי בינה מלאכותית משנה את הכללים ומעורר מחלוקת

NSFW AI – השימוש בבינה מלאכותית גנרטיבית ליצירת תוכן למבוגרים "לא בטוח לעבודה" – הפך לתופעה בוערת. מתמונות ארוטיות שנוצרו ב-AI וסרטוני פורנו דיפפייק ועד מפתות עם קול משוכפל וצ'אטבוטים "חברות", למידת מכונה משנה את נוף תוכן המבוגרים. זו מהפכה טכנולוגית שמעלה אפשרויות מפתות ושאלות אתיות דחופות במידה שווה. תומכים מהללים דרכים חדשות לפנטזיה ויצירתיות, בעוד מבקרים מזהירים מפני הטרדה, פגיעות בהסכמה ונזק חברתי. באמצע 2025 מוצאת את עצמה NSFW AI בצומת דרכים: מאומצת על ידי קהילות נישה וסטארטאפים, תחת בדיקה של מחוקקים, ומעוררת פחד אצל מי שנפגע ממנה. בדו"ח מקיף זה, נצלול למהי NSFW AI, היכן היא משגשגת, ההתפתחויות האחרונות (מ-איסורים בפלטפורמות ועד חוקים חדשים), הדילמות האתיות, קולות משני צידי הוויכוח, ואיך העולם מנסה להסדיר ולמתן את הממד החדש והפרוע הזה של הבינה המלאכותית. בואו נחשוף את העולם הפרוע של פורנו שנוצר ב-AI – ולמה זה לא רק פורנו, אלא גם פרטיות, כוח ועתיד התוכן המיני.
מהי NSFW AI וכיצד היא פועלת?
NSFW AI מתייחסת למערכות בינה מלאכותית שמייצרות תוכן למבוגרים מפורש – כולל תמונות, סרטונים, אודיו וטקסט פורנוגרפיים – לעיתים בריאליזם מדהים. מערכות אלו מנצלות את אותן טכנולוגיות גנרטיביות מתקדמות שמאחורי פריצות הדרך האחרונות באמנות ומדיה מבוססות AI, אך מוחלות על חומרים בדירוג X. החידושים המרכזיים כוללים מודלים של למידה עמוקה שאומנו על מאגרי נתונים עצומים של תמונות וסרטונים, ולומדים לייצר תוכן חדש בתגובה להנחיות משתמש. לדוגמה, מודלים דיפוזיה מטקסט לתמונה כמו Stable Diffusion יכולים ליצור תמונות עירום או מיניות פוטוריאליסטיות מתיאור טקסט פשוט globenewswire.com. טכניקות "דיפפייק" מאפשרות החלפה או סינתוז של פנים בסרטונים, כך שנראה שאנשים אמיתיים (לעיתים סלבריטאים או אנשים פרטיים) משתתפים בפורנו שמעולם לא יצרו. כלים מתקדמים של שכפול קול יכולים לחקות קול של אדם בדיוק מדהים, ולאפשר יצירת אודיו ארוטי או "דיבור מלוכלך" בקול היעד. ומודלים שפתיים גדולים יכולים לייצר סיפורים ארוטיים לוהטים או להשתתף במשחקי תפקידים מיניים בצ'אט.
בעיקרו של דבר, מערכות AI NSFW משתמשות ב-אותם אלגוריתמים שמייצרים כל אמנות או מדיה בינה מלאכותית – רק מאומנות או מותאמות במיוחד על נתוני אימון פורנוגרפיים או ארוטיים. רשתות גנרטיביות מתחרות (GANs) היו חלוצות מוקדמות ביצירת תמונות עירום, אך מודלים של דיפוזיה ומודלים מבוססי טרנספורמר שיפרו מאוד את האיכות. מחוללי תמונות NSFW מודרניים מסוגלים להפיק תמונות עירום באיכות גבוהה המותאמות להנחיות המשתמש במינימום מאמץ globenewswire.com. יוצרי וידאו דיפפייק משתמשים לעיתים קרובות בתוכנה ייעודית (חלקה קוד פתוח) כדי למפות פנים אחת על אחרת בסרטוני מבוגרים קיימים, וליצור פורנוגרפיה סינתטית שקשה להבחין בינה לבין צילומים אמיתיים cbsnews.com. שירותי קול מבוססי AI יכולים לקחת דגימת אודיו וליצור דיבור חדש (כולל תוכן מפורש) באותו קול. וצ'אטבוטים מבוססי AI משתמשים ביצירת שפה טבעית כדי לספק שיחות ארוטיות מותאמות אישית או סקס-טינג לפי דרישה.
הגבולות בין דמיון למציאות מיטשטשים. כפי שציין אחד מהמשקיפים, "תמונות, קולות וסרטונים ריאליסטיים מאוד של מחוללי NSFW AI ממשיכים להתפתח, ומשנים עוד יותר את הדרך בה תוכן למבוגרים נוצר, נצרך ומובן" chicagoreader.com. משתמש יכול כיום לזמן סצנה פורנוגרפית מותאמת אישית – למשל, תמונה של מפגש פנטזיה עם סלבריטאי או קטע אודיו של אקס אומר דברים מפורשים – באמצעות הנחיה פשוטה, דבר שהיה בלתי אפשרי רק לפני כמה שנים. הכוח החדש הזה מעלה שאלות דחופות לגבי הסכמה, פרטיות וההבדל בין פנטזיה יצירתית לניצול. הטכנולוגיה הבסיסית עצמה אדישה מוסרית – ניתן להשתמש בה כדי ליצור כל דבר – אך כאשר היא מופנית למיניות אנושית ולדמויות של אנשים אמיתיים, ההשלכות הופכות למורכבות.
צורות עיקריות של תוכן למבוגרים שנוצר ב-AI
- תמונות שנוצרו ב-AI: מודלים של טקסט-לתמונה (למשל Stable Diffusion) יכולים להפיק תמונות ארוטיות או פורנוגרפיות מפורשות מהנחיות. משתמשים יכולים לציין מראה, תרחיש וכו', ולקבל תמונות עירום או מיניות ייחודיות לפי דרישה globenewswire.com. רבים מהמודלים הללו הם קוד פתוח או מותאמים אישית על ידי המשתמש, ומאפשרים תוכן מעבר למה שכלי AI מרכזיים מתירים.
- סרטוני פורנו דיפפייק: באמצעות טכנולוגיית דיפפייק, יוצרים ממפים את פניו של אדם על סרטון למבוגרים, ויוצרים קליפ פורנוגרפי מזויף של מישהו שמעולם לא השתתף בו. סרטונים אלו, שעברו מניפולציה בידי בינה מלאכותית, לעיתים קרובות מכוונים לסלבריטאים או לאנשים פרטיים ללא הסכמה cbsnews.com theguardian.com. איכות הדיפפייקים השתפרה עד כדי כך שבשנים 2024–2025 רבים מהם נראים מציאותיים בצורה מדאיגה, הודות למעבדים גרפיים חזקים יותר ואלגוריתמים מתקדמים.
- שיבוט קולי ואודיו: מחוללי קול מבוססי בינה מלאכותית משכפלים קולות של סלבריטאים או מכרים כדי להפיק קטעי אודיו מפורשים (למשל, לדמות שחקנית מפורסמת מדברת בצורה גסה, או ליצור ספרי אודיו ארוטיים בכל קול שתרצו). בינה מלאכותית קולית מתקדמת (כמו ElevenLabs) הופכת את זה לפשוט להפיק אנחות, דיאלוגים או קריינות בקול נבחר, מה שמעורר חששות לגבי התחזות באודיו פורנוגרפי.
- צ'אטבוטים ארוטיים וסיפורת: מודלים לשוניים של בינה מלאכותית משמשים לצ'אט NSFW ולסיפורים למבוגרים. אפליקציות “חברה בינה מלאכותית” וצ'אטבוטים למשחקי תפקידים ארוטיים זינקו בפופולריות בין 2023–2025. בוטים אלו יכולים לנהל שיחות לוהטות או סקס טקסטואלי עם המשתמש, ולייצר טקסטים ארוטיים ללא הגבלה. חלקם משלבים גם ויזואליה והודעות קוליות. זהו סוג חדש של תוכן למבוגרים – מלווים אינטראקטיביים מבוססי בינה מלאכותית שמותאמים לפנטזיות אינטימיות chicagoreader.com sifted.eu.
בעוד פלטפורמות בינה מלאכותית מיינסטרימיות (כמו DALL·E של OpenAI או Midjourney) אוסרות על הפקת תוכן פורנוגרפי, קהילות הקוד הפתוח והטכנולוגיה למבוגרים אימצו את הטכנולוגיות הללו כדי לדחוף את גבולות ה-NSFW. האופי הקוד הפתוח של כלים רבים “מעודד חדשנות ושיתופי פעולה” אך גם מקל על הסרת מגבלות ויצירת תוכן מפורש לא מפוקח chicagoreader.com chicagoreader.com. כפי שנראה, המתח הזה בין חדשנות לרגולציה מתרחש בפלטפורמות שונות.
פלטפורמות, אפליקציות וקהילות שמניעות בינה מלאכותית NSFW
מערכת אקולוגית תוססת (ולעיתים מוצלת) של פלטפורמות וקהילות מקוונות צמחה ליצירה ושיתוף של תוכן למבוגרים שנוצר בידי בינה מלאכותית. מכיוון שחברות טכנולוגיה גדולות אוסרות על תוכן מפורש בשירותי הבינה המלאכותית שלהן arnoldit.com blog.republiclabs.ai, הבום של בינה מלאכותית NSFW מונע על ידי מפתחים עצמאיים, מודלים בקוד פתוח וסטארטאפים נישתיים. הנה כמה מהתחומים המרכזיים שבהם בינה מלאכותית NSFW חיה ומשגשגת:
- מרכזי מודלים בקוד פתוח: CivitAI – אתר קהילתי פופולרי – מארח ספרייה עצומה של מודלים ותמונות בינה מלאכותית שנוצרו על ידי משתמשים, כולל רבים המותאמים במיוחד לתוכן למבוגרים chicagoreader.com. משתמשים יכולים להוריד מודלים מותאמים של Stable Diffusion עבור הנטאי, עירום ריאליסטי, אמנות פטיש ועוד, ולשתף את התמונות שיצרו. הפתיחות של אתרים כאלה הפכה אותם לכתובת עיקרית ליוצרי בינה מלאכותית NSFW. עם זאת, זה גם אומר מעט מאוד סינון; התוכן נע בין אמנות ארוטית אמנותית לבין חומר פורנוגרפי קיצוני. אתרים נוספים כמו Hugging Face אירחו מודלים NSFW (עם אזהרות), ופורומים כמו 4chan או GitHub שיתפו גם הם מודלים "דלופים" לא מצונזרים.
- מחוללי תמונות NSFW ואפליקציות: שירותים מבוססי רשת רבים מתמחים כיום בהפקת תמונות ארוטיות בבינה מלאכותית. לדוגמה, פלטפורמות כמו Candy.ai, Arting.ai, Vondy, OurDream ואחרות (לעיתים קרובות במנוי) מאפשרות למשתמשים ליצור תמונות למבוגרים מותאמות אישית עם מעט מאוד מגבלות יחסית chicagoreader.com chicagoreader.com. חלקן מתהדרות ברינדורים באיכות גבוהה ובמגוון רחב של סגנונות – מפוטוריאליסטי ועד אנימה – כדי להתאים לטעמים שונים. רבות מהן הופיעו ב-2024–2025, לעיתים מציעות תקופת ניסיון חינם או טוקנים, ומתחרות על מי תוכל ליצור את האמנות NSFW הריאליסטית או הדמיונית ביותר. השיווק שלהן מדגיש התאמה אישית ופרטיות, ומבטיח למשתמשים שהם יכולים ליצור בדיוק את מה שהם רוצים "בסביבה בטוחה ופרטית, ללא מגבלות של תוכן מצולם מראש" globenewswire.com. קהילות ופורומים של פורנו בינה מלאכותית: לפני המהלכים האחרונים לדיכוי התופעה, אתרי פורנו דיפפייק ייעודיים היו מרכזי פעילות זו. הידוע לשמצה ביותר היה Mr. Deepfakes, שהוקם ב-2018, והפך ל"שוק הבולט והמרכזי ביותר" לפורנו דיפפייק של סלבריטאים וגם של מטרות שאינן סלבריטאים cbsnews.com. משתמשים באתר יכלו להעלות ולצפות בסרטוני דיפפייק מפורשים ואפילו להזמין פורנו לא-בהסכמה מותאם אישית בתשלום cbsnews.com. האתר טיפח קהילה עם פורומים לדיון בטכניקות ולהחלפת תכנים. עם זאת, כפי שנפרט בהמשך, Mr. Deepfakes נסגר ב-2025 לאחר שאיבד ספק שירות קריטי cbsnews.com. בעקבות צעדי הדיכוי הללו, קהילת פורנו הדיפפייק לא נעלמה – היא התפצלה והיגרה. מומחים מציינים שפירוק אתר מרכזי "מפזר את קהילת המשתמשים, וסביר להניח שדוחף אותם לפלטפורמות פחות מיינסטרימיות כמו טלגרם" לצורך החלפת תכנים cbsnews.com. אכן, אפליקציות מוצפנות ופורומים נישתיים הם הבית החדש עבור חובבי בינה מלאכותית NSFW רבים שגורשו מהפלטפורמות הגדולות.“חברות” ושותפות AI: גל של סטארטאפים משלב יצירת תוכן ארוטי עם חברות אינטראקטיבית. דוגמה בולטת היא Oh (הממוקמת בלונדון), שמציגה את עצמה כ"בונה את OnlyFans של ה-AI" – פלטפורמת שותפות ארוטית שבה משתמשים מתקשרים עם דגמים וירטואליים שנוצרו ב-AI באמצעות טקסט, קול ותמונות sifted.eu sifted.eu. Oh גייסה 4.5 מיליון דולר בתחילת 2025 כדי ליצור "בוטים אוטונומיים בלבוש מינימלי" שיכולים אפילו ליזום שיחות פלרטטניות עם משתמשים sifted.eu sifted.eu. באתר שלה, המשתמשים רואים פרופילים של בוטים חצי-עירומים – רובם דמויות נשיות בדיוניות, אך חלקם הם "תאומים דיגיטליים" של יוצרי תוכן בוגרים אמיתיים שמעניקים רישיון לדמותם (ולוקחים חלק מהרווחים) sifted.eu. משתמשים יכולים לשוחח עם הבוטים האלה ולקבל הודעות טקסט סקסיות, תמונות עירום שנוצרו ב-AI, ואפילו הודעות קוליות שנוצרו על ידי קולות משוכפלים sifted.eu. מספר שירותים דומים צצו בסביבות 2023–2024: DreamGF, Kupid AI, FantasyGF, Candy.ai וכו', מה שמעיד על מגמה של שותפים לצ'אט למבוגרים מונעי AI sifted.eu. האטרקציה היא אינטראקציה ארוטית מותאמת אישית 24/7 – למעשה קמגירל או חבר וירטואלי שמופעל על ידי אלגוריתמים.
- פלטפורמות מבוגרים מבוססות שמסתגלות: גם פלטפורמות תוכן למבוגרים מסורתיות לא נותרות מחוץ לגל הבינה המלאכותית. OnlyFans, שירות המנויים הפופולרי ליוצרים, התמודד עם גל של תוכן למבוגרים שנוצר על ידי בינה מלאכותית. לפי המדיניות, OnlyFans מאפשרת תמונות שנוצרו בבינה מלאכותית רק אם הן מציגות את היוצר המאומת עצמו ומסומנות בבירור כתוכן שנוצר בבינה מלאכותית reddit.com. נאסר להשתמש בבינה מלאכותית כדי להתחזות לאחרים או לאוטומציה של צ'אט עם מעריצים reddit.com. למרות זאת, דווח על חשבונות שמוכרים חבילות של תמונות עירום שנוצרו בבירור בבינה מלאכותית (עם תקלות בולטות כמו ידיים מוזרות או "עיניים מתות" בכל תמונה) למנויים תמימים reddit.com. חלק מהיוצרים האנושיים זועמים, וחוששים ש-דגמי בינה מלאכותית מזויפים עלולים להציף את הפלטפורמה ולפגוע בהכנסות שלהם reddit.com uniladtech.com. עובדת מין אחת התלוננה שבינה מלאכותית "לוקחת את המאמץ, היצירתיות והטרחה" שהיוצרים האמיתיים משקיעים, וכינתה זאת "עוול למעריצים שלי" והביעה חשש שזה יחמיר ציפיות לא מציאותיות לגבי מין reddit.com reddit.com. מצד שני, כמה יוצרים חכמים בתחום המבוגרים מאמצים כלים של בינה מלאכותית – משתמשים במחוללי תמונות כדי לשפר או להגדיל את התוכן שלהם, או מעניקים רישיון לדמותם לחברות כמו Oh להכנסה נוספת sifted.eu. תעשיית התוכן למבוגרים בכללותה (אולפני פורנו, אתרי מצלמות וכו') בוחנת בזהירות את השימוש בבינה מלאכותית ליצירת תוכן, אך גם מתבוננת בזה בחשדנות ככוח משבש שעשוי לאפשר הצפה של תוכן מפורש שנוצר על ידי משתמשים מחוץ למעגל המקצועי. אנליסטים בתעשייה צופים שתוכן למבוגרים שמופעל על ידי בינה מלאכותית עשוי להוות יותר מ-30% מצריכת הפורנו המקוונת עד 2027 אם המגמות הנוכחיות יימשכו globenewswire.com, סימן לכמה מהר הטכנולוגיה הזו מתרחבת.
2025: הצפה של פורנו בינה מלאכותית ותגובת נגד מתעצמת
באמצע 2025, NSFW AI הגיעה לנקודת מפנה. מצד אחד, התוכן הפך לנפוץ ומשכנע מאי פעם; מצד שני, הדאגה הציבורית והפיקוח הרגולטורי הגיעו לשיא חדש. ההתפתחויות האחרונות כוללות מקרי התעללות בולטים, תגובות רגולטוריות מהירות, ואפילו פיקוח עצמי בתוך תעשיית הטכנולוגיה. להלן סיכום של חלק מהחדשות והמגמות המרכזיות של 2024–2025 סביב פורנו שנוצר בבינה מלאכותית:
מחלוקות ושערוריות דיפפייק לא בהסכמה
אולי שום דבר לא הניע את הוויכוח סביב NSFW AI יותר מהעלייה ב-פורנוגרפיית דיפפייק לא בהסכמה – שימוש בבינה מלאכותית כדי לגרום לכך שמישהו (בדרך כלל אישה) ייראה עירום או משתתף במעשי מין שמעולם לא עשה. פרקטיקה זו החלה עם סלבריטאים אך יותר ויותר מופנית כלפי אנשים רגילים, לעיתים קרובות כהטרדה או כ"פורנו נקמה". עד 2023, התופעה הפכה לנפוצה ומטרידה: תחקירים מצאו כי כל אחד יכול בקלות למצוא אתרי פורנו דיפפייק בגוגל, להצטרף ל-Discord כדי לבקש זיופים מותאמים אישית, ואפילו לשלם בכרטיס אשראי – כלכלה תת-קרקעית משגשגת שבה "יוצרים" מפרסמים בגלוי שירותים theguardian.com theguardian.com. מחקרים מצאו בעקביות כי נשים ונערות הן הקורבנות העיקריות של מגמה זו. דוח מכונן של Sensity (חברת בטיחות בינה מלאכותית) מצא כי 95–96% מהדיפפייקים ברשת הם דימויים מיניים לא בהסכמה, כמעט כולם מציגים נשים theguardian.com. סלבריטאיות, מהשחקנית Taylor Swift ועד דמויות רשת, חוו הפצה ויראלית של תמונות עירום מזויפות שלהן ברשתות החברתיות klobuchar.senate.gov. מדאיג אף יותר, אנשים פרטיים וקטינים היו למטרה: לדוגמה, נערה בת 14 גילתה שחבריה לכיתה השתמשו באפליקציה כדי ליצור תמונות פורנוגרפיות מזויפות שלה ולשתף אותן ב-Snapchat klobuchar.senate.gov.אירוע בולט התרחש בינואר 2023, כאשר סטרימר משחקי וידאו ב-Twitch נתפס עם לשונית דפדפן פתוחה לאתר פורנו דיפפייק שבו הופיעו עמיתותיו. הסטרימר התנצל בדמעות, אך אחת מהנשים, סטרימרית ה-Twitch QTCinderella, הגיבה בתגובה עוצמתית: "ככה זה מרגיש להיפגע… לראות תמונות שלי 'עירומה' מופצות" ללא הסכמה theguardian.com. היא הדגישה עד כמה זה לא הוגן שכאישה באור הזרקורים, כעת עליה להשקיע זמן וכסף כדי להילחם בהסרת תמונות מיניות מזויפות שלה מהאינטרנט theguardian.com theguardian.com. תחינתה – "לא אמור להיות חלק מהעבודה שלי להיות מוטרדת כך" – נגעה ללב והביאה את נושא פורנו הדיפפייק למרכז השיח הציבורי כהתעללות חמורה.מאז, מקרים כאלה רק התרבו. ב-2024, תלמידים במספר מדינות הפכו גם לתוקפים וגם לקורבנות של החלפת עירום בינה מלאכותית. באוסטרליה, קהילת בית ספר הוכתה בתדהמה בעקבות הפצת תמונות מפוברקות של מספר תלמידות שנוצרו ושותפו ללא הסכמתן, מה שהוביל לחקירת משטרה ולזעם ציבורי theguardian.com. בהונג קונג ב-2025, סטודנט למשפטים באוניברסיטה היוקרתית של הונג קונג יצר לכאורה תמונות פורנוגרפיות בינה מלאכותית של לפחות 20 סטודנטיות ומורות, וגרם לשערורייה כאשר העונש הראשוני של האוניברסיטה היה רק מכתב אזהרה cbsnews.com cbsnews.com. הרשויות בהונג קונג ציינו כי לפי החוק הנוכחי, רק הפצה של תמונות כאלה היא עבירה פלילית, לא עצם יצירתן, מה שמשאיר פרצה אם היוצר לא שיתף את התמונות המזויפות בפומבי cbsnews.com. ארגוני זכויות נשים גינו את העיר כ"נמצאת מאחור" בהגנות, ונציב הפרטיות של הונג קונג פתח בחקירה פלילית בכל זאת, בטענה לכוונת פגיעה אפשרית cbsnews.com cbsnews.com. המקרה הדגיש ש-כל אחד יכול להיות מטרה והחוקים הקיימים לעיתים קרובות לא מצליחים להדביק את הקצב.
בין ההתעללויות הללו, הקורבנות מתארים נזק רגשי ופגיעה במוניטין. להופיע במעשה מיני מזויף בהיפר-ריאליזם הוא טראומטי מאוד, גם אם מבחינה לוגית יודעים שזה מזויף. "זה סוריאליסטי לראות את הפנים שלי… הם נראו קצת מתים מבפנים," אמרה סטודנטית שמצאה סרטוני AI שלה באתר פורנו (שהועלו על ידי בן כיתה לשעבר ממורמר) centeraipolicy.org. הקורבנות חשות חסרות אונים, לא רק כי לא הסכימו לתמונות כאלה, אלא גם כי כל כך קשה להסיר אותן. כפי שכתבה עיתונאית אחת, "פורנו דיפפייק לא בהסכמה הוא מצב חירום שהורס חיים." זה מכריח נשים לחיות במצב של פרנויה, לתהות מי ראה את הזיופים האלה, ומסיט את האנרגיה שלהן ל"משחק סיוטי של חבוט-את-החפרפרת" בניסיון למחוק את התוכן מהרשת theguardian.com klobuchar.senate.gov. תומכים השוו זאת לצורת טרור מיני-סייבר שמטרתה להשתיק ולהפחיד נשים theguardian.com.
אפילו פלטפורמות מדיה חברתית מרכזיות סייעו בטעות בהפצת תוכן מיני שנוצר ב-AI. בתחילת 2024, תמונות דיפפייק מפורשות של טיילור סוויפט הופצו כל כך נרחב ב-X (לשעבר טוויטר) – וצברו מיליוני צפיות – עד שהפלטפורמה חסמה זמנית תוצאות חיפוש לשמה כדי לעצור את הגל cbsnews.com. נמצא כי מטא (פייסבוק/אינסטגרם) הציגה מאות מודעות לאפליקציות "הפשטה" (כלים שמפשיטים דיגיטלית תמונות של נשים באמצעות AI) ב-2024, למרות שמודעות כאלה מפרות את המדיניות. לאחר חקירה של CBS News, מטא הסירה רבות מהמודעות הללו והודתה שחלפו דרך הבדיקה cbsnews.com. קיומן של מודעות כאלה מראה עד כמה אפליקציות "הפשטה" ב-AI הפכו לנורמליות ונגישות, אפילו ברשתות פרסום לגיטימיות cbsnews.com.
איסורי פלטפורמה ורגולציה עצמית של התעשייה
בהתמודדות עם לחץ ציבורי, כמה פלטפורמות טכנולוגיה וספקי שירותים נקטו צעדים לרסן תוכן NSFW שנוצר ב-AI בשנה האחרונה. התפתחות בולטת הייתה הסגירה של Mr. Deepfakes במאי 2025, כפי שצוין קודם. האתר הודיע שהוא נסגר לאחר ש"ספק שירות קריטי משך את תמיכתו", מה שהביא בפועל להשבתת האתר cbsnews.com. למרות שאין לכך אישור רשמי, הדבר מרמז שספק תשתית או אחסון (ייתכן שירות ענן, רשם דומיינים, או שירות הגנה מפני DDoS) החליט לנתק קשרים, ככל הנראה בשל סיכון משפטי או תדמיתי. התזמון התרחש ימים ספורים לאחר שקונגרס ארה"ב העביר חוק מרכזי נגד דיפפייק (שיידון בהמשך), מה שגרם לרבים לראות בכך חלק ממבצע אכיפה רחב יותר cbsnews.com. הנרי אג'דר, מומחה דיפפייק מוכר, בירך על הסגירה כעל פירוק "הצומת המרכזית" של רשת פוגענית גדולה cbsnews.com. "זהו רגע לחגוג," אמר, תוך שהוא מזהיר שבעיית תמונות דיפפייק לא בהסכמה "לא תיעלם" – היא תתפזר אך כנראה לא תשוב להיות כה מרכזית cbsnews.com. אכן, אג'דר ציין שהקהילות הללו ימצאו בתים חדשים אך "הן לא יהיו גדולות ובולטות" כמו אתר מרכזי אחד, וזהו "התקדמות קריטית" cbsnews.com.חברות טכנולוגיה גדולות החלו גם הן לטפל בהיבט של כלים ופרסומות. במאי 2024, גוגל עדכנה את המדיניות שלה כדי לאסור פרסומות לפלטפורמות שמייצרות פורנו דיפפייק או מדריכים כיצד ליצור אותו arnoldit.com. הצעד של גוגל, שנכנס לתוקף בסוף מאי 2024, נועד לחנוק את קידום השירותים הללו דרך Google Ads. (גוגל כבר אסרה בעבר שימוש בפלטפורמת Colab שלה לאימון מודלים של דיפפייק, וכבר ב-2018 אתרים כמו Reddit ו-Pornhub אסרו רשמית פורנו לא קונסנסואלי שנוצר ב-AI arnoldit.com.) זה הוצג כהיערכות של גוגל לגרוע יותר: "אם פורנו דיפפייק נראה חובבני ב-2018, הוא בטוח ייראה הרבה יותר מציאותי עכשיו," ציין דיווח של ExtremeTech, והצדיק את הצורך בכללי פרסום מחמירים יותר arnoldit.com. גם חברות מדיה חברתית מעדכנות את מדיניות ניהול התוכן – למשל, Pornhub ואתרי מבוגרים גדולים התחייבו ב-2018 לאסור דיפפייקים (כפורנו לא קונסנסואלי), ובאירופה, חוקים חדשים ב-2024–25 מחייבים אתרי פורנו "להילחם בתוכן מזיק" או לעמוד בפני קנסות subscriber.politicopro.com. כחלק ממאמץ רחב יותר לבטיחות, בעלת Pornhub אף השעתה זמנית את השירות באזורים מסוימים (כמו צרפת ומדינות מסוימות בארה"ב) בשל חששות מציות לחוקים החדשים subscriber.politicopro.com, מה שממחיש כיצד פלטפורמות למבוגרים נאלצות לקחת ברצינות את נושא הגנת התוכן או לנתק גישה.חברות הבינה המלאכותית המרכזיות ממשיכות להתרחק משימושים שאינם בטוחים לעבודה (NSFW). מודל התמונות DALL·E ושירות ChatGPT של OpenAI שומרים על מסננים מחמירים נגד תוכן מיני. Midjourney (יוצר תמונות בינה מלאכותית פופולרי) לא רק אוסרת על הנחיות פורנוגרפיות, אלא גם יישמה מודרציה אוטומטית שמזהה הקשר כדי למנוע ממשתמשים להגניב בקשות NSFW arxiv.org. כאשר המסננים של מודל אחד מובסים על ידי ניסוח מתוחכם של הנחיות, המקרים הופכים לפומביים והחברות מהדקות את אמצעי ההגנה (משחק חתול ועכבר מתמיד). מצד שני, שחקנים חדשים לעיתים מתהדרים ב-היעדר צנזורה כנקודת מכירה: לדוגמה, המודל החדש Stable Diffusion XL של Stability AI מסוגל טכנית להפיק תמונות NSFW אם מריצים אותו מקומית ללא מסנן בטיחות, וחברות קטנות יותר אף מפרסמות בגלוי "פחות הגבלות על תוכן NSFW לעומת המתחרים" latenode.com. הדבר מדגיש את הפיצול בתעשיית הבינה המלאכותית: השחקנים הגדולים נוקטים משנה זהירות ודואגים למוניטין המותג, בעוד פרויקטים קטנים או פתוחים פונים לביקוש ל-AI גנרטיבי לא מצונזר – כולל פורנוגרפיה.התפתחויות משפטיות ורגולטוריות מרכזיות (2024–2025)
אולי ההתפתחויות המשמעותיות ביותר הגיעו מ-מחוקקים המגיבים לסכנות של פורנו בינה מלאכותית. ברחבי העולם, ממשלות מתחילות להעביר חוקים שמענישים על דיפפייקים לא בהסכמה, מגנים על קורבנות, ואפילו מסדירים את כלי הבינה המלאכותית עצמם. הנה סקירה של מהלכים משמעותיים:
- ארצות הברית – חוק Take It Down (2025): באפריל 2025, הקונגרס האמריקאי העביר ברוב גדול את חוק "Take It Down" הדו-מפלגתי, החוק הפדרלי הראשון שמטפל ישירות בדימויים אינטימיים שנוצרו ב-AI klobuchar.senate.gov. החוק הופך לְעבֵרָה פדרלית ליצור או לשתף תמונות אינטימיות לא בהסכמה (אמיתיות או שנוצרו ב-AI) של אדם. חשוב מכך, הוא מחייב פלטפורמות מקוונות להסיר תוכן כזה בתוך 48 שעות מדיווח של קורבן klobuchar.senate.gov. החוק הזה – שקודם על ידי הגברת הראשונה מלניה טראמפ ונכתב במשותף על ידי סנאטורים משתי המפלגות – נחתם על ידי הנשיא דונלד טראמפ במאי 2025 klobuchar.senate.gov. הוא נחשב לחוק האינטרנט המרכזי הראשון של כהונתו השנייה של טראמפ ולתגובה ישירה ל"בעיה המתפשטת במהירות של [פורנו לא בהסכמה]" klobuchar.senate.gov. תומכי נפגעים שיבחו אותו כצעד שהיה צריך להיעשות מזמן. "דיפפייקים יוצרים הזדמנויות מזעזעות חדשות להתעללות," אמרה הסנאטורית איימי קלובשר, והוסיפה שכעת הקורבנות יכולים להסיר חומרים ולהעמיד את הפוגעים לדין klobuchar.senate.gov. ראוי לציין שחברות טכנולוגיה גדולות כמו Meta, Google ו-Snap תמכו בחוק – סימן להסכמה רחבה שיש לפעול klobuchar.senate.gov. החוק כולל עונשים של קנסות ועד שנתיים מאסר לעבריינים cbsnews.com. הוא גם מאפשר לקורבנות לתבוע את היוצרים/מפיצים על נזקים, ומחזק את האפשרות לפעולה אזרחית. ארגוני חופש ביטוי ופרטיות הזהירו מפני פוטנציאל לניצול לרעה של החוק – לדוגמה, Lia Holland מ-Fight for the Future כינתה אותו "בעל כוונות טובות אך מנוסח בצורה גרועה", מתוך חשש ששחקנים רעים ינצלו דרישות הסרה כדי לצנזר תוכן לגיטימי klobuchar.senate.gov. למרות זאת, חוק Take It Down נכנס כעת לתוקף, ומהווה את הצעד המשמעותי הראשון של הממשל הפדרלי האמריקאי למאבק בניצול מיני מבוסס AI בקנה מידה רחב.
- מדינות ארה"ב: עוד לפני פעולה פדרלית, מספר מדינות בארה"ב חוקקו חוקים משלהן. קליפורניה, טקסס, וירג'יניה, ניו יורק ואחרות העבירו חוקים בשנים 2019–2023 שהופכים לבלתי חוקי ליצור או להפיץ פורנו דיפפייק ללא הסכמה (לעיתים תחת חוקים נגד פורנו נקמה או התחזות מינית). בשנת 2025, המדינות המשיכו לחדד את החוקים. לדוגמה, טנסי הציגה את "חוק מניעת תמונות דיפפייק" שייכנס לתוקף ב-1 ביולי 2025, ויוצר עילות אזרחיות ופליליות לכל מי ששימוש בדמותו האינטימית נעשה ללא הסכמה wsmv.com wsmv.com. הדחיפה הגיעה לאחר שחזאית טלוויזיה מקומית גילתה שתמונות עירום מזויפות שלה מופצות ברשת, מה שהוביל אותה להעיד על ההשפעה עליה ועל משפחתה wsmv.com. טנסי גם העבירה חוק שמפליל את הכלים ליצירת פורנו ילדים בינה מלאכותית – והופך לעבירה פלילית להחזיק, להפיץ או לייצר ביודעין תוכנה שנועדה ליצור חומרי התעללות מינית בילדים שנוצרו בבינה מלאכותית wsmv.com. חוק זה מכיר בזוועה של פורנוגרפיית ילדים שנוצרה בבינה מלאכותית ושואף למנוע אותה על ידי מיקוד בטכנולוגיה עצמה (החזקה של כלי כזה בטנסי היא כעת עבירת פשע מדרגה E, ייצורו – עבירת פשע מדרגה B) wsmv.com.
- אירופה – צעדים ברמת האיחוד האירופי: האיחוד האירופי נקט בגישה דו-שלבית: רגולציה רחבה על בינה מלאכותית והנחיות פליליות ייעודיות. חוק הבינה המלאכותית של האיחוד האירופי (צפוי להסתיים ב-2024/2025) יחייב שתוכן שנוצר על ידי בינה מלאכותית יעמוד בחובות שקיפות. דיפפייקים, שמסווגים כ-AI "בסיכון מוגבל", לא ייאסרו לחלוטין אך חייבים להיות מסומנים בבירור כתוכן שנוצר על ידי בינה מלאכותית (למשל, סימני מים או הצהרות), וחברות יחויבו לחשוף פרטים על נתוני האימון שלהן euronews.com euronews.com. אי עמידה בדרישות עלולה להוביל לקנסות של עד 15 מיליון אירו ואף יותר euronews.com. בנוסף, האיחוד האירופי אישר הנחיה למניעת אלימות נגד נשים שמפלילה במפורש יצירה או הפצה לא-בהסכמה של דיפפייקים מיניים euronews.com. ההנחיה מחייבת את מדינות האיחוד לאסור התנהגות זו (העונשים המדויקים ייקבעו על ידי כל מדינה) עד 2027 euronews.com euronews.com. המשמעות היא שבכל רחבי אירופה, יצירת תמונת פורנו מזויפת של מישהו ללא הסכמתו תהווה עבירה פלילית, בדומה לאופן שבו מטופלת פורנו נקמה אמיתית.
- צרפת: צרפת פעלה באגרסיביות ב-2024 עם תיקון חדש בחוק הפלילי שלה. כעת זה בלתי חוקי בצרפת לשתף כל תוכן חזותי או קולי שנוצר ב-AI של אדם ללא הסכמתו euronews.com. אם זה נעשה באמצעות שירות מקוון, העונשים מחמירים (עד שנתיים מאסר, קנס של 45,000 אירו) euronews.com. חשוב לציין שצרפת אסרה באופן מוחלט דיפפייקים פורנוגרפיים, גם אם מישהו ניסה לסמן אותם כמזויפים euronews.com. לכן בצרפת, יצירה או הפצה של דיפפייק מיני היא עבירה שדינה עד 3 שנות מאסר וקנס של 75,000 אירו euronews.com. החוק הצרפתי גם מעניק לרגולטור הדיגיטלי שלה, ARCOM, סמכות לחייב פלטפורמות להסיר תוכן כזה ולשפר מערכות דיווח euronews.com.
- הממלכה המאוחדת: גם ב-2023–2024 עודכנו חוקים בבריטניה. תיקונים ל-חוק העבירות המיניות יהפכו יצירת דיפפייק מיני ללא הסכמה לעבירה שעונשה עד שנתיים מאסר euronews.com euronews.com. בנוסף, חוק הבטיחות המקוונת 2023 (רגולציה מקיפה לאינטרנט) הופך לשיתוף או איום בשיתוף של תמונות מיניות ללא הסכמה (כולל דיפפייקים) ברשתות החברתיות לעבירה פלילית, ומחייב פלטפורמות "להסיר באופן יזום" חומרים כאלה או למנוע את הופעתם euronews.com. אם הפלטפורמות נכשלות, הן צפויות לקנסות של עד 10% מההכנסות הגלובליות – תמריץ עצום לעמידה בדרישות euronews.com. עם זאת, יש מומחים שמציינים שבריטניה עדיין לא הופכת לבלתי חוקי את יצירת דיפפייק שלא משותף, פער שמשאיר קורבנות פגיעים אם התמונות נשמרות בפרטי (בדומה למצב בהונג קונג) euronews.com. יש קריאות בבריטניה להפליל אפילו את פיתוח והפצה של כלי דיפפייק עצמם euronews.com. דנמרק: ביוני 2025, הפרלמנט של דנמרק הסכים על חוק פורץ דרך להעניק לאנשים זכויות יוצרים על הדמות שלהם עצמם – למעשה, הפיכת הפנים שלך ל"קניין הרוחני שלך" כאמצעי להילחם בדיפפייקיםeuronews.com. חוק זה יהפוך לבלתי חוקי ליצור או לשתף "חיקויים דיגיטליים" של מאפייני אדם ללא הסכמהeuronews.com. "יש לך זכות על הגוף שלך, הקול שלך ותווי הפנים שלך," אמר שר התרבות של דנמרק, והציג זאת כהגנה גם מפני מידע שגוי ושימוש מיני לרעהeuronews.com. למרות שהפרטים עדיין בהמתנה, הדבר מרמז שדנמרק תתייחס למי שמייצר דיפפייק שלך כמפר "זכויות הדמות" שלך, בדומה להפרת זכויות יוצרים, מה שעשוי להקל מאוד על הסרת תכנים ופעולה משפטית.
- דרום קוריאה: דרום קוריאה הייתה אחת מהמדינות הראשונות שנפגעו קשות מפורנו דיפפייק (בהתחשב במאבקיה בפשעים מיניים דיגיטליים בשנים האחרונות). עד 2021, דרום קוריאה אסרה על יצירה או שיתוף של דיפפייקים מיניים; בסוף 2024, היא הלכה רחוק יותר כדי להפליל אפילו החזקה או צפייה בתוכן כזה. חוק שעבר בספטמבר 2024 (ונחתם על ידי הנשיא יון ב-2024/25) הפך לבלתי חוקי לרכוש, להחזיק או לצפות בתמונות/סרטונים מיניים דיפפייק, כאשר מפרי החוק עלולים לעמוד בפני עד 3 שנות מאסר cbsnews.com cbsnews.com. יצירה/הפצה כבר היו לא חוקיות (5+ שנות מאסר) והעונש הועלה ל-7 שנים מקסימום אם החוק החדש ייחתם cbsnews.com. גישה תקיפה זו מכירה בכך שדיפפייקים אלו הוחלפו לעיתים קרובות בין צעירים; למעשה, ב-2024 דיווחה המשטרה הקוריאנית על 387 מעצרים הקשורים לתוכן מיני דיפפייק רק במחצית הראשונה של השנה – 80% מהעצורים היו בני נוער cbsnews.com. הבעיה הפכה לכל כך נפוצה בקרב בני נוער (יצירת דיפפייקים של חברים לכיתה, מורים וכו') עד שקוריאה מתייחסת לכך כפשע חמור אפילו לנסות להשיג חומר כזה cbsnews.com cbsnews.com. פעילים בסיאול הפגינו עם שלטים שעליהם נכתב "פשעים מיניים דיפפייק חוזרים, גם המדינה שותפה" בדרישה לפעולה תקיפה יותר cbsnews.com, והממשלה הגיבה בצעדים אלו.
- סין: פורנוגרפיה מכל סוג שהיא אסורה בהחלט בסין, וזה כולל גם פורנו שנוצר בינה מלאכותית. יתרה מכך, סין יישמה תקנות פורצות דרך על טכנולוגיית "סינתזה עמוקה" בינואר 2023, המחייבות שכל מדיה שנוצרה או עובדה על ידי בינה מלאכותית ושעלולה להטעות תישא תוויות או סימני מים ברורים ואוסרות שימוש בטכנולוגיה כזו לצורך התחזות, הונאה או סיכון ביטחוני oxfordmartin.ox.ac.uk afcea.org. למעשה, סין אסרה מראש דיפפייקים לא מסומנים ונתנה לרשויות סמכויות נרחבות להעניש את מי שמייצר אותם. בשילוב עם האיסור הגורף של סין על חומר תועבה, תוכן NSFW שנוצר בבינה מלאכותית אסור כפליים – למרות שהוא כנראה קיים במעגלים מחתרתיים, לצנזורים הסינים יש כלים משפטיים למחוק ולהעמיד לדין מיידית.
ברמה הגלובלית, המגמה ברורה: דימויים מיניים שנוצרו בבינה מלאכותית ללא הסכמה הופכים לעבירה פלילית ברחבי העולם, ופלטפורמות מחויבות לאכוף זאת. עד סוף 2025, המצב המשפטי הרבה פחות סלחני כלפי פורנו דיפפייק מאשר רק שנתיים קודם לכן, אז רק כמה מדינות בארה"ב ומדינות כמו דרום קוריאה חוקקו חוקים כאלה. עם זאת, האכיפה והמודעות עדיין מהוות אתגר. קורבנות רבים עדיין לא יודעים שהחוק מגן עליהם כעת, ומשטרה/תובעים לרוב אינם מצוידים להתמודד עם עבריינים אנונימיים ברשת. החוקים גם משתנים – יש מקומות שמענישים אפילו על יצירה פרטית, אחרים רק אם זה מופץ. ובכל זאת, המומנטום להכרה בהתעללות מינית שנוצרת בבינה מלאכותית כהתעללות אמיתית הוא חד-משמעי. כפי שציינה פרופסורית למשפטים מארה"ב, גל החקיקה הזה מחזיר את הכוח לידיים של הקורבנות ומשדר את המסר ש"יש לך זכויות על הדימוי והגוף שלך, גם בעידן הבינה המלאכותית" euronews.com.
הביצה האתית: הסכמה, דיפפייקים והשפעה חברתית
מעבר למישור המשפטי, תוכן NSFW שנוצר בבינה מלאכותית מעלה שאלות אתיות וחברתיות עמוקות. בלב העניין ניצבת סוגיית ההסכמה – האם תוכן מיני יכול להיות אתי אם נוצר ללא הסכמה (או אפילו ידיעה) של מי שמופיע בו? רוב האנשים יסכימו שדיפפייקים מיניים ללא הסכמה הם עוול אתי ברור, למעשה סוג של פגיעה מינית. אך הדילמות עמוקות יותר: מה לגבי פורנוגרפיה שנוצרת בבינה מלאכותית תוך שימוש בתמונות של אנשים אמיתיים שהושגו בהסכמה (למשל, אימון על סרטי פורנו מסחריים) – האם זה "ללא קורבן" או שמדובר בניצול הדימוי של אותם מבצעים ללא הסכמה או פיצוי נוסף? ומה לגבי פורנו בינה מלאכותית בדיוני לחלוטין – ללא דמות אמיתית – האם זה חף מנזק, או שמא זה עלול לנרמל פנטזיות מסוכנות (כמו ניצול ילדים או תרחישי אונס)? ואיך באים לידי ביטוי ההטיות של מודלים של בינה מלאכותית בתוכן ארוטי?
הסכמה ופרטיות: הדאגה המיידית ביותר היא שלאנשים יש אפס שליטה או הסכמה על איך בינה מלאכותית עשויה להשתמש בדמותם. כל מי שאי פעם פרסם תמונה באינטרנט (ואפילו כאלה שלא, אם למכר יש תמונה שלהם) נמצא תיאורטית בסיכון להפוך לפנים של דיפפייק פורנוגרפי. נשים, במיוחד אלו שבמרכז תשומת הלב הציבורית, חיות כיום עם מציאות מצמררת: ייתכן שתתעוררי לגלות שהאינטרנט "חושב" שיש לו תמונות עירום או סרטוני סקס שלך, הודות לבינה מלאכותית theguardian.com. זה מפר את כבוד האדם הבסיסי והפרטיות. כפי שניסח זאת החוק בדנמרק, צריך להיות לך זכות על פניך וגופך – אך הטכנולוגיה והנורמות הנוכחיות אינן מבטיחות זאת. אתיקאים טוענים ש-עצם קיומם של הזיופים הללו, גם אם אינם מופצים בהיקף רחב, הוא פגיעה – זו הצגה של מעשה מיני הכולל אותך, שנוצרה ללא רשותך. זה עשוי להרגיש כמו סוג של תקיפה מינית בהשפעתה הפסיכולוגית. העובדה ש"האינטרנט הוא לנצח" מוסיפה לנזק: ברגע שהתמונות מופצות, הן עלולות לצוץ שוב ושוב, ולגרום לקורבנות לחוות מחדש את הטראומה. כל הגורמים הללו הופכים פורנוגרפיה בינה מלאכותית ללא הסכמה להפרה אתית חמורה. החברה מתחילה להתייחס לכך ברצינות דומה לעבירות מין אחרות מבחינת סטיגמה ותוצאות, אך כפי שנדון, החוקים עדיין מדביקים את הפער.
דיפפייקים ואמת: היבט נוסף הוא כיצד דיפפייקים מטשטשים את המציאות. עם תמונות פורנוגרפיה שנוצרות בבינה מלאכותית ונראות אמיתיות יותר ויותר, ייתכן שהצופים לא יבינו שמדובר בזיוף, מה שמזיק עוד יותר למוניטין. סרטון מין מזויף עלול לעלות לאדם במשרתו, להרוס מערכות יחסים, או לשמש לסחיטה ("סחיטה מינית"). גם אם יוכח מאוחר יותר שמדובר בזיוף, את ההשפלה והפגיעה במוניטין לא ניתן למחוק לחלוטין. זה מעלה את הרף האתי עבור יוצרי הזיופים – הם משחקים בחיים ובפרנסה של אנשים אמיתיים. זה גם מדגיש אתגר חברתי: כיצד נשמור על אמון במדיה כאשר "לראות זה להאמין" כבר לא תקף? יש מומחים שמכנים דיפפייקים "התקפה על האמת" שבתחום הפורנוגרפיה מנוצלת כדי להשפיל ולהעניש נשים theguardian.com.
קטינים ו-CSAM שנוצר ב-AI: ייתכן שזו קו הגבול האתי שעליו יש הסכמה כמעט מוחלטת – חומרי התעללות מינית בילדים (CSAM) שנוצרו בינה מלאכותית – כלומר, תיאורים של קטינים בסיטואציות מיניות. גם אם אף ילד אמיתי לא נפגע ביצירתם, כמעט כל הרגולטורים והפלטפורמות מתייחסים לפורנוגרפיית ילדים שנוצרה ב-AI כבלתי חוקית ומזיקה באותה מידה כמו CSAM אמיתי. ההצדקה האתית ברורה: תוכן כזה מינ sexualizes ילדים ועלול לעודד עבירות אמיתיות. לעיתים קרובות הוא גם נוצר באמצעות תמונות של ילדים אמיתיים (למשל, לקיחת תמונה תמימה של ילד ו"הפשטתה" או שינוי שלה באמצעות AI – פגיעה חמורה בכבוד ובפרטיות של הילד) centeraipolicy.org. למרבה הצער, יש עדויות שזה קורה. חוקר מסטנפורד, דיוויד ת'יל, גילה מאות תמונות ידועות של התעללות בילדים שהוטמעו במאגר נתונים פופולרי לאימון AI עבור Stable Diffusion centeraipolicy.org. המשמעות היא שהמודל אומן בחלקו על תמונות פשע אמיתיות, וזה בעייתי מאוד. גם אם כעת מסירים אותן, עצם השימוש בהן מדגיש כיצד מפתחי AI עלולים לאמן בטעות מודלים על תוכן פוגעני. גרוע מכך, ללא אמצעי הגנה קפדניים, AI עלול לייצר תמונות חדשות הדומות לקלטים הבלתי חוקיים הללו. ישנם משתמשים בפורומים שניסו להשתמש ב-AI כדי "להפשיט" תמונות של קטינים או ליצור דימויים אסורים – מגמה שכוחות האכיפה מנסים לבלום במהירות. מבחינה אתית, יש כמעט קונצנזוס: אסור לעולם להשתמש ב-AI ליצירת CSAM. אך יישום הדבר מורכב – הוא דורש שהמודלים יאומנו לדחות במפורש כל פקודה או ניסיון ליצור תוכן כזה, או חוקים שיהפכו כל ניסיון כזה לעבירה חמורה (כפי שעשתה טנסי). חברות טכנולוגיה רבות מקודדות כיום מסננים כך שאפילו המילה "ילד" או רמזים לקטינות בפקודה ייחסמו. אך משתמשים עוינים מנסים לעקוף זאת. הסיכון כאן עצום, כי אם נעשה שימוש לרעה ב-AI בדרך זו, הוא עלול לפגוע מחדש בנפגעי התעללות ולספק חומר חדש לפדופילים תוך תירוץ ש"לא נפגע ילד אמיתי." אתיקאים רבים דוחים את טענת "פשע ללא קורבן" כאן, ומציינים שצריכת כל תיאור של ניצול ילדים, אמיתי או בינה מלאכותית, כנראה מעודדת התעללות אמיתית על ידי נרמול התופעה centeraipolicy.org reddit.com. לכן, זהו קו אתי ברור שרובם מסכימים עליו: הפקה או שימוש ב-AI לתוכן מיני של ילדים הוא פסול לחלוטין וחובה למנוע זאת בכל דרך (טכנולוגית וחוקית).
נתוני אימון ותוכן שנכפה: ישנה סוגיה אתית פחות ברורה אך חשובה באופן שבו מודלים של AI NSFW נבנים. יוצרי פורנו בינה מלאכותית רבים אומנו על מערכי נתונים גדולים שנגרדו מהאינטרנט – כולל אתרי פורנו. המשמעות היא שתמונות של אנשים אמיתיים (שחקני פורנו, דוגמניות מצלמות רשת, אפילו תמונות עירום אישיות שדלפו) הפכו לנתוני אימון מבלי שהאנשים הללו נתנו את הסכמתם. חברות הבינה המלאכותית עשו זאת בשקט, ורק מאוחר יותר חוקרים החלו לחשוף את ההיקף. לדוגמה, נמצא כי יוצר עירום בינה מלאכותית בשם “These Nudes Do Not Exist” אומן על תכנים מ-“Czech Casting”, חברת פורנו שנחקרת בחשד לכפיית נשים למין centeraipolicy.org. כלומר, הבינה המלאכותית ממש אומנה על סרטונים של נשים שהיו אולי קורבנות סחר או אונס – ולמעשה למדה לשחזר תמונות של גופן או של אחרות בתנוחות דומות. הנשים הללו בוודאי לא הסכימו לשימוש נוסף בתמונותיהן ליצירת פורנו חדש אינסופי. כפי שאמרה אחת הקורבנות על כך שתמונתה הופיעה במערך אימון של בינה מלאכותית: “זה מרגיש לא הוגן, זה מרגיש שלוקחים לי את החירות” centeraipolicy.org. אפילו במקרים פחות קיצוניים, המודלים ייתכן שבלעו מיליוני תמונות יומיומיות של נשים מהרשתות החברתיות או מצילומי דוגמנות – גם האנשים הללו לא הסכימו להפוך לחומר גלם ליצירת פורנו. כל מודל פורנו בינה מלאכותית נושא עמו את רוחות הרפאים של אנשים אמיתיים בנתוני האימון שלו. ייתכן שחלק מהאנשים הללו דווקא בסדר עם זה – למשל, שחקני פורנו שצילמו מרצון עשויים שלא להתנגד או אפילו לעודד טכנולוגיה שמרחיבה את עבודתם. אך אחרים (כמו אנשים פרטיים שבתמונות שדלפו, או שחקני פורנו שפרשו מהתעשייה ורוצים להמשיך הלאה) היו נחרדים לדעת שבינה מלאכותית עלולה לערבב את דמותם לתוך תוכן מיני חדש לנצח. זה מעלה שאלות אתיות של קניין רוחני וזכויות דמות. האם יש לפצות אנשים אם תמונותיהם סייעו ליצור כלי פורנו בינה מלאכותית רווחי? יש הטוענים שכן – המודלים הללו “מרוויחים ישירות מהגברים והנשים שהופיעו בנתוני האימון” מבלי לומר אפילו תודה centeraipolicy.org. אחרים טוענים שאם הנתונים היו זמינים לציבור, זהו משחק הוגן לאימון בינה מלאכותית לפי חוקי הקניין הרוחני הנוכחיים. הקונצנזוס האתי נוטה לפחות ללא להשתמש בחומרים לא מוסכמים או פוגעניים בעליל באימון (למשל, פורנו נקמה ידוע או סרטוני סחר צריכים להיות מחוץ לתחום). חברות מתחילות כעת לבדוק מערכי נתונים לאיתור תוכן כזה, אך היסטורית הן לא עשו זאת, וזה מדאיג. כפי שניסח זאת המרכז למדיניות בינה מלאכותית, כמעט “ודאי” שמודלים של פורנו בינה מלאכותית אומנו על חלק מתמונות אינטימיות לא מוסכמות (NCII) centeraipolicy.org. להבא, יש קריאות לאוצרות קפדנית יותר של מערכי נתונים ואולי אפילו רישום “Opt-out” שיאפשר לאנשים להסיר את תמונותיהם ממערכי אימון של בינה מלאכותית <a href="https://www.centeraipolicy.org/work/the-senate-passes-the-defiance-act#:~:text=These%20are%20contentious%20topics.%20%E2%80%9COpt,content%20to%20train%20centeraipolicy.org. זה מורכב מבחינה טכנית ולוגיסטית, אך השיח סביב אתיקת נתונים בבינה מלאכותית גנרטיבית רק הולך ומתחזק.
תוכן בדיוני אך קיצוני: תחום בעייתי נוסף – אם לא מוצגת בו דמות אמיתית, האם יש גבולות למה שפורנו בינה מלאכותית צריך ליצור? יש החוששים שבינה מלאכותית תאפשר תוכן מיני קיצוני במיוחד או בשוליים שלא ניתן היה להשיג בעולם האמיתי, ושזה עלול להזיק. לדוגמה, סימולציות של אונס, זואופיליה, פורנו "סנאף" (רצח), או כפי שהוזכר, תרחישים עם ילדים. יש שיגידו, "עדיף שזה יהיה בינה מלאכותית מאשר שמישהו יעשה זאת במציאות," אך מבקרים חוששים שזה עלול להקהות את הרגישות של אנשים או לעודד מימוש במציאות. לכל הפחות, זה מעלה שאלות מוסריות האם לאפשר לבינה מלאכותית לספק פנטזיות כאלה חוצה קו חברתי. פלטפורמות כמו Oh טוענות שהן חוסמות כל "פרקטיקות לא חוקיות" – הבוטים שלהן לא יעסקו בתוכן פדופילי או נושאים מיניים פליליים אחרים sifted.eu. זהו אמצעי הגנה אתי שחברות אחראיות מנסות ליישם. אך למודלים בקוד פתוח אין מוסר מובנה; משתמשים יכולים להנחות אותם ליצור כמעט כל דבר אם המודל לא מוגבל במפורש. המשמעות היא שהאחריות נופלת על המצפון האישי (ועל החוק המקומי). העמדה האתית של רוב קהילות הבינה המלאכותית היא לשים מסננים נוקשים נגד תוכן מיני לא חוקי או אלים. ובכל זאת, כפי שחזתה ביוצרים ב-OnlyFans, סביר להניח שרק עניין של זמן עד שמישהו ישתמש בבינה מלאכותית כדי ליצור דברים כמו "התעללות בילדים בבינה מלאכותית שמוצגת כ-age-play, או תרחישי אונס בבינה מלאכותית," וש"צריך לדבר על זה יותר" reddit.com. השאלה האתית נותרת לא פתורה: האם קיומה של הדמיה היפר-ריאליסטית של פשע היא נזק בפני עצמו? רבים נוטים להשיב בחיוב, במיוחד אם זה מערב קטינים (שם זה בבירור פלילי). לגבי פנטזיות קיצוניות אחרות, החברה טרם הגיעה להסכמה, אך זהו תחום לדיון פעיל באתיקה דיגיטלית.
מגדר וייצוג: בינה מלאכותית NSFW גם יורשת את ההטיות והסטריאוטיפים של נתוני המקור שלה. פורנוגרפיה מיינסטרימית זכתה לביקורת על ייצוגים סקסיסטיים או לא מציאותיים של נשים, והבינה המלאכותית עלולה להעצים את אותם דפוסים. אם המודלים מאומנים בעיקר, למשל, על פורנו שמחפיץ נשים או על טווח מצומצם של סוגי גוף, התוצרים ישקפו זאת. זה עלול לחזק סטנדרטים לא מציאותיים של יופי או תסריטים מיניים. יתרה מכך, רוב המלווים הארוטיים והבוטים הדימויים של בינה מלאכותית הם נשיים כברירת מחדל, מתוך הנחה שמדובר במשתמשים גברים הטרוסקסואלים. לדוגמה, רשימת הבוטים של פלטפורמת Oh היא "רוב נשי" כאווטרים בלבוש מינימלי sifted.eu. מבקרים חוששים שזה מחזק את התפיסה של נשים כצעצועים דיגיטליים ועלול להשפיע על האופן שבו משתמשים (בעיקר גברים) רואים מערכות יחסים אמיתיות. אפילו מייסדי חלק מהמלווים הדיגיטליים עצמם מודים שבעתיד האינטימיות עלולה להפוך ל"מוזרה" או "דיסטופית" אם אנשים יתנתקו מבני זוג אמיתיים לטובת פנטזיה של בינה מלאכותית sifted.eu. נטען כי אותן חברות בינה מלאכותית עלולות לחזק סטריאוטיפים מזיקים על נשים שתמיד זמינות, מסכימות ומותאמות לכל גחמה sifted.eu. פסיכולוגים ופמיניסטיות מביעים חשש שטכנולוגיות כאלה עלולות להחמיר בעיות כמו בדידות, מיזוגיניה או ציפיות מעוותות ממין. מצד שני, תומכים טוענים שכלים אלה עשויים להוות מוצא בטוח למי שמתקשה במערכות יחסים אנושיות, או לעזור לאנשים לחקור מיניות ללא סטיגמה. מבחינה אתית, מדובר בחרב פיפיות: האם חברה דיגיטלית יכולה להפוך מישהו למתקשר טוב יותר או להעניק נחמה? ייתכן. האם היא גם עלולה לאפשר למישהו להתרחק מקשר אנושי אמיתי ולראות בנשים אובייקטים מותאמים אישית בלבד? ייתכן. החברה תצטרך להתמודד עם השאלות הללו ככל ששירותים כאלה יתרחבו.
לסיכום, האתיקה של בינה מלאכותית NSFW סובבת סביב הסכמה, נזק, והמסרים החברתיים שאנו מעבירים על מיניות ואנושיות. הכלל הזהב של פורנו אתי – שכל מי שמוצג הוא משתתף בוגר ומסכים – מתהפך לחלוטין בפורנו בינה מלאכותית, שבו לעיתים קרובות אף אחד מהדמויות לא באמת "השתתף" ולכן לא יכול היה להסכים. אנו נאלצים להרחיב את מושג ההסכמה כך שיכלול גם את הדימוי של אדם ואפילו את הנתונים שלו. כפי שנכתב באחת התגובות, הטכנולוגיה הזו מאלצת אותנו לשקול מחדש "את יסודות האינטימיות, ההסכמה וחופש היצירה" בעידן הדיגיטלי chicagoreader.com. המרחב האתי מלא אזורים אפורים, אך ישנה הסכמה גוברת כי קווים אדומים מסוימים (תוכן ילדים, שימוש לא מוסכם בזהויות אמיתיות) חייבים להיאכף, ושכיבוד האוטונומיה של הפרט צריך להנחות מה ייחשב למקובל. במקביל, עלינו להיזהר לא להגדיר כבעיה את כל יצירת התוכן המיני בבינה מלאכותית – עבור מבוגרים מסכימים המשתמשים בזה לעצמם, זה עשוי להיות כלי חיובי. האתגר הוא לאפשר לשימושים החדשניים וההסכמיים לפרוח תוך מיגור המניפולטיביים והמנצלים.
תומכים מול מבקרים: הוויכוח על בינה מלאכותית NSFW
התגובות ל-NSFW AI הן מקוטבות. יש החוגגים זאת כהתפתחות מרגשת בבידור למבוגרים ובחירות אישית; אחרים מגנים זאת כאיום חברתי. בואו נפרט את הטיעונים המרכזיים של שני הצדדים:
טיעונים מצד התומכים (בעד NSFW AI):
- חופש יצירתי וחקר מיני: התומכים טוענים ש-AI יכול להיות ערוץ חיובי לחקר מיניות, פנטזיות וסטיות בדרך פרטית וללא שיפוטיות. משתמשים שעלולים להרגיש מבוכה או חוסר יכולת לממש פנטזיות מסוימות במציאות, יכולים לעשות זאת בבטחה עם תוכן שנוצר על ידי AI או צ'אטבוטים. זה עשוי להפחית טאבו ובושה סביב מיניות. יש אף שמכנים זאת העצמה: "מבוגרים בהסכמה יכולים ליצור יחד את הפנטזיות הוויזואליות שלהם בסביבה בטוחה ופרטית" עם AI, אומר מנכ"ל פלטפורמת AI למבוגרים globenewswire.com. מנקודת מבט זו, AI גנרטיבי הוא רק כלי – בדומה לאמנות ארוטית או צעצועי מין – שיכול להעצים ביטוי מיני בריא.
- התאמה אישית וחדשנות בבידור למבוגרים: תומכים מדגישים כיצד NSFW AI מספק התאמה אישית שאין לה תחרות לעומת פורנו מסורתי globenewswire.com. במקום לצרוך באופן פסיבי את מה שאולפנים מייצרים, אנשים יכולים ליצור תוכן שמותאם בדיוק להעדפותיהם (סוגי גוף, תרחישים וכו'). מודל מונחה משתמש זה נתפס כחדשנות ש"משבשת" את הפרדיגמה האחידה של תוכן למבוגרים globenewswire.com. זה יכול לתת מענה לתחומי עניין נישתיים שמפיקים מסורתיים מתעלמים מהם (כל עוד הם חוקיים). סטארטאפים בתחום זה מרבים להציג את ה-AI כקפיצת מדרגה קוואנטית באופן שבו תוכן למבוגרים נמסר – ומעבירים את השליטה לידיו של המשתמש globenewswire.com. הם גם טוענים שזה מכבד פרטיות: המשתמשים לא צריכים לקיים אינטראקציה עם אדם אחר או לחשוף את הפנטזיות שלהם לאף אחד מלבד ה-AI.
- תחליף בטוח לדחפים מזיקים: טיעון פרו שנוי במחלוקת יותר הוא שפורנו בינה מלאכותית עשוי לשמש כתחליף בלתי מזיק להתנהגות שעלולה להיות מזיקה. לדוגמה, יש שהעלו השערה שפדופילים המשתמשים בפורנו ילדים שנוצר ב-CGI או בבינה מלאכותית עשויים לספק את הדחפים שלהם מבלי לפגוע בילדים אמיתיים (הטיעון הזה שנוי מאוד במחלוקת ורוב המומחים דוחים אותו, אך הוא עולה לדיון). אחרים מציעים שמי שיש להם פנטזיות מיניות אלימות יוכלו להשתמש בסימולציות בינה מלאכותית במקום לחפש קורבנות אמיתיים. למעשה, זו העמדה של "עדיף שיוציאו את זה על פיקסלים מאשר על אנשים". עם זאת, זה נותר בגדר השערה ומעורר שאלות אתיות – אין ראיות ברורות לכך שבינה מלאכותית מפחיתה פשיעה בפועל; ייתכן שהיא אף מעודדת אותה (כפי שטוענים המתנגדים). למרות זאת, יש תומכי חופש ביטוי שאומרים שגם פנטזיות מתועבות בצורת בינה מלאכותית הן ניסוי מחשבתי שלא צריך להפליל כל עוד אף אדם אמיתי לא נפגע ישירות. נקודת מבט זו אינה מיינסטרים, אך היא קיימת בדיונים על תוכן קיצוני reddit.com.
- תמיכה בקהילות וזהויות נישתיות: בינה מלאכותית יכולה ליצור תוכן עבור קהילות שכמעט ולא זכו לייצוג בפורנו המיינסטרים – למשל, פנטזיות מסוימות של להט"ב, תרחישי BDSM עם פרמטרי הסכמה מסוימים, או אמנות ארוטית עם אלמנטים פנטסטיים. חברים בתת-תרבויות כמו פרוותיים (furry) או הנטאי, למשל, משתמשים באמנות בינה מלאכותית כדי ליצור תוכן שלא ניתן היה להפיק עם שחקנים אמיתיים. זה נתפס כהרחבת גבולות האמנות הארוטית. בנוסף, בינה מלאכותית יכולה לאפשר לאנשים עם מוגבלויות או מגבלות אחרות לחוות אינטימיות וירטואלית בדרכים שלא היו אפשריות עבורם. מי שמתקשים באינטראקציה חברתית עשויים למצוא חברות בבן/בת זוג בינה מלאכותית שאינם שופטים אותם. תומכים, כמו מייסד הסטארט-אפ "AI OnlyFans", טוענים ששותפים כאלה מבוססי בינה מלאכותית עשויים להיות "רווח נטו" לחברה, במיוחד עבור אנשים שחסרים צורות אחרות של חברות sifted.eu. לדעתו, אם מישהו בודד או צורך פורנו מנצל, בן/בת זוג בינה מלאכותית הוא אלטרנטיבה מבוקרת, ואולי אף בריאה יותר sifted.eu.
- הסכמה של הדמויות המיוצרות לעומת דוגמניות אמיתיות: טיעון נוסף בעד AI NSFW הוא ששימוש בשחקנים שנוצרו בבינה מלאכותית (שלא באמת קיימים) בפורנו עשוי לבטל בעיות רבות בתעשיית המבוגרים. אין סיכון לניצול של שחקנית אמיתית אם שחקנית הפורנו נוצרת על ידי בינה מלאכותית. אף גוף של אדם לא נמצא בסיכון למחלות מין או התעללות על סט של AI. בתיאוריה, זה עשוי בסופו של דבר להחליף חלק מהפקות הפורנו האמיתיות, ובכך להפחית נזק למבצעים אנושיים במצבים מסוכנים. (כמובן, הנקודה הנגדית היא שלרוב אותם מבצעים בוחרים להיות שם ועלולים לאבד הכנסה אם יוחלפו, אז זה מורכב.) אבל עתידנים מדמיינים עולם שבו פורנו AI ריאליסטי לחלוטין יכול לספק את הביקוש מבלי שאף אדם אמיתי יצטרך לעסוק בעבודה שעלולה להיות משפילה – בעצם שרשרת אספקה פורנוגרפית אתית יותר. יש יוצרים בתעשייה שמרצונם יוצרים "תאומים דיגיטליים" של עצמם (באמצעות רישוי הדימוי/קול שלהם) כדי ש-AI יבצע עבורם חלק מהעבודה – בהסכמה וחלוקת רווחים sifted.eu. מודל זה, אם יורחב, עשוי לאפשר ליוצרים להרוויח כסף תוך שהם מעבירים חלק מהיצירה ל-AI בשליטתם, אולי מצב של win-win.
- חופש ביטוי וערך אמנותי: מנקודת מבט של זכויות אזרח, יש המגנים גם על AI NSFW כצורת ביטוי. אמנות ארוטית ופורנוגרפיה נחשבות מזמן לדיבור מוגן (למעט תועבה) במדינות רבות. AI רק מרחיב את אמצעי הביטוי. אם אמן יכול לצייר עירום או לצלם סצנת פורנו בהסכמה, למה שלא יוכל להנחות AI ליצור יצירת אמנות עירומה? הם טוענים שאיסור גורף על תוכן מיני שנוצר ב-AI יהיה הגזמה שעלולה לצנזר אמנות חיובית-מינית או יוזמות יצירתיות לגיטימיות. כל עוד כל המעורבים מסכימים (מה שמורכב כשמדובר ב-AI, אבל נניח שהתהליך בהסכמה), הם טוענים שלמבוגרים צריכה להיות החירות ליצור ולצרוך תוכן מיני כרצונם, בין אם בסיוע AI ובין אם לא. ארגונים כמו Electronic Frontier Foundation הזהירו מפני איסורים גורפים על טכנולוגיית דיפפייק, וציינו שלטכנולוגיה יש שימושים מועילים ושעדיף למקד עבריינים מאשר לאסור את הטכנולוגיה עצמה klobuchar.senate.gov. הקו הליברטריאני הזה בדיון אומר: להעניש נזק ממשי (כמו שימוש לא בהסכמה), אבל לא להפליל את הכלי או פנטזיה בהסכמה.
טיעונים של מבקרים (נגד AI NSFW):
- הפרות הסכמה והתעללות בתמונות: מבקרים מדגישים כי NSFW AI כבר אפשרה התעללות מסיבית בהסכמה ובדימוי של אנשים. מגפת הדיפפייקים הלא-קונסנסואליים מדברת בעד עצמה – חיים שנהרסו, פרטיות שנשברה. הם טוענים שזו לא תופעה שולית אלא השימוש המרכזי בטכנולוגיית דיפפייק עד כה: 96% מהדיפפייקים היו פורנוגרפיים ובמהותם כולם ללא הסכמה theguardian.com. לטענתם, הטכנולוגיה הזו מטבעה נוטה להתעללות כזו, מה שהופך אותה לנשק מסוכן. גם כאשר אנשים אינם מטרה ישירה, היעדר כל אפשרות להסכים להיכלל בנתוני אימון או בפנטזיה של מישהו אחר הוא מטריד. אדם יכול למצוא את האוטונומיה המינית שלו נרמסת לחלוטין כאשר אחרים מייצרים תמונות מפורשות שלו יש מאין. מבקרים טוענים שזה לא מוסרי מיסודו ויש לגנות זאת כמו מציצנות או עבירות מין אחרות. קיומן של "מאות אפליקציות AI להפשיט" שזמינות בקלות klobuchar.senate.gov אומר שכל תמונה של אישה יכולה להפוך לפורנוגרפית תוך שניות, מצב שרבים מכנים בלתי נסבל ומטיל אימה.
- נזק רגשי ופסיכולוגי: להיות קורבן של זיוף פורנוגרפי ב-AI עלול לגרום למצוקה נפשית חריפה – השפלה, חרדה, PTSD, ואפילו מחשבות אובדניות. דוגמה טרגית: נער בן 17 בארה"ב שם קץ לחייו ב-2022 לאחר שסחטן השתמש בעירום מזויף כדי לסחוט אותו klobuchar.senate.gov. הנזק הפסיכולוגי לנשים שמגלות דיפפייקים שלהן הוא עצום; זה מתואר כצורה וירטואלית של תקיפה מינית. לכן, מבקרים רואים ב-NSFW AI כלי שמקל על הטרדה והתעללות בקנה מידה פוטנציאלי עצום – "חירום" עבור אנשים פגיעים (במיוחד נשים, קטינים, להט"ב שעלולים להיות מטרה לזיופים מיניים מונעי שנאה וכו') theguardian.com. הם טוענים שאין שום תועלת נטענת של הטכנולוגיה שמצדיקה את הנזקים הממשיים שמתרחשים כעת.
- נרמול של תוכן מנצל: מתנגדים חוששים ששטף הפורנו מבוסס הבינה המלאכותית, במיוחד תרחישים קיצוניים או לא בהסכמה, עלול לנרמל תמונות כאלה ולשחוק את הסנקציות החברתיות סביב נושאים כמו פרטיות והסכמה. אם עירום מזויף של סלבריטאים או חברי כיתה יהפוך ל"בדיחה נפוצה באינטרנט", אנשים עלולים להיעשות אדישים להפרת פרטיותם של אחרים. זה גם עלול להזין תפיסות מיזוגניות (התייחסות לנשים כאובייקטים מיניים זמינים לשימוש כרצונך). מבחינה אתית, זה דומה לפורנו נקמה או צילום מתחת לחצאית – לאפשר לזה להתפשט משדר מסר שגוף האישה אינו שייך לה. בנוסף, מבקרים חוששים ש-בינה מלאכותית עלולה להסלים טעמים סוטים – למשל, מי שצורך פורנו אונס מבוים בבינה מלאכותית עלול להיות בסיכון גבוה יותר לבצע אלימות, או פדופיל שצורך פורנו ילדים שנוצר בבינה מלאכותית עלול בכל זאת לעבור לפגיעה בילדים אמיתיים. למרות שהראיות בנושא שנויות במחלוקת, פסיכולוגים רבים ממליצים על זהירות, בהתחשב בכך שמדיה יכולה לחזק התנהגויות.
- השפעה על מערכות יחסים וחברה: סוציולוגים ופמיניסטיות מסוימים מביעים חשש ששותפים מיניים מבוססי בינה מלאכותית ופורנו מותאם אישית במיוחד עלולים לפגוע במערכות יחסים אנושיות אמיתיות. אם אנשים רבים יפנו ל"חברות" בינה מלאכותית שמספקות ציות מושלם, מה יקרה ליכולת שלהם ליצור מערכות יחסים עם בני זוג אמיתיים שיש להם צרכים וגבולות עצמאיים? יש חשש להחרפת הבידוד החברתי ולעיוות הציפיות ממין ורומנטיקה. מייסד אחת מאפליקציות החברות מבוססות הבינה המלאכותית עצמו כינה זאת "דיסטופי מאוד" ושהדבר עלול ליצור "עתיד מוזר לאינטימיות" שבו אנשים מתנתקים זה מזה sifted.eu. הסטריאוטיפים שמתחזקים – לעיתים קרובות דמויות החברות בבינה מלאכותית הן נשיות וצייתניות – עלולים להעמיק עמדות סקסיסטיות בקרב המשתמשים. לכן, מבקרים טוענים ש-NSFW AI עלול להחמיר בעיות כמו בדידות, מיזוגיניה והפיכת אינטימיות למוצר.
- איום על אמנים, מבצעים ועובדים: העוסקים בתחומים יצירתיים ובתעשיית המבוגרים רואים ב-AI NSFW איום על פרנסתם וזכויותיהם. אמנים חזותיים (למשל, מאיירי ארוטיקה או דוגמנים) מגלים ש-AI מגרד את עבודותיהם ללא רשות, ואז יוצר תמונות חדשות בסגנונם או של דמותם. זה מרגיש כמו גניבת קניין רוחני ופוגע בשוק לאמנות מוזמנת. צלמים חוששים שמחוללי תמונות בינה מלאכותית יחליפו את הצורך לשכור דוגמנים לצילומים. שחקני פורנו ועובדות מין מודאגים מכך ש"קלונים" של AI או דוגמניות דמיוניות לחלוטין ימשכו אליהם צרכנים – או יציפו את השוק בתוכן שמוזיל את ערך עבודתם. מספר יוצרי OnlyFans דיווחו על ירידת הכנסות ותלונות ממעריצים, ייתכן שבשל תחרות מתוכן שנוצר ב-AI, שהוא זול וזמין תמיד reddit.com. הם טוענים שמדובר בתחרות לא הוגנת כי הבינה המלאכותית בעצם ניכסה את הדימויים והמשיכה שלהם ללא המאמץ או המגע האנושי, ושזה יוריד את המחירים לרמות לא בנות קיימא עבור עובדים אמיתיים. עובדות מין גם חוששות שיילחצו להשתמש ב-AI כדי ליצור יותר תוכן או להיות זמינות 24/7, מה שממסחר עוד יותר את עבודתן reddit.com. איגודים וארגוני סנגור מודאגים מעולם שבו חברות יעדיפו כוכב פורנו בינה מלאכותית (ללא זכויות, דרישות או שכר) על פני אנושי – תרחיש שעלול למחוק משרות ולנצל את הדימויים של מבצעים שאימנו את המודלים מלכתחילה. בקיצור, מבקרים רואים ב-AI NSFW פגיעה ביצירתיות ובעבודה האנושית על ידי שימוש בנתוני בני אדם ליצירת אספקה אינסופית של תוכן חינמי (או זול).
- מדרון חלקלק של מוסר וחוק: מנקודת מבט מדיניות, מבקרים טוענים שאי קביעת גבולות ברורים ל-AI NSFW כעת עלולה להוביל לעתיד בלתי נשלט. אם נקבל פורנו בינה מלאכותית כ"פנטזיה בלבד", מה יקרה כשהוא יפגוש סוגיות מציאותיות כמו הסכמה? לדוגמה, אם מישהו יוצר פורנו AI של האקסית שלו וטוען שזו רק פנטזיה, האם זה מצדיק זאת? רוב האנשים יגידו שלא – ברור שהאקסית נפגעת. לכן מבקרים נוטים לעקרון הזהירות: לקבוע גבולות מוקדם. יש אף שהציעו להתייחס לכלי יצירת דיפפייק כמו לכלי פריצה או האקינג – לא בהכרח לא חוקיים, אך בפיקוח הדוק, ואיסור מוחלט על כלים שמיועדים בבירור להתעללות (כמו אפליקציות "הפשטה" שמטרתן היחידה היא להפשיט תמונות ללא הסכמה). אתיקאים התומכים ברגולציה חזקה טוענים שהפוטנציאל לניצול עולה בהרבה על מקרי השימוש החיוביים והנישתיים. לעיתים קרובות הם מביאים את קולם של הקורבנות: כפי שאמרה אתיקאית טכנולוגיה אחת, "נערה שרואה את עצמה בפורנו שנוצר ב-AI – החוויה הזו, החיים שנהרסים, מצדיקים פיקוח הדוק על הטכנולוגיה הזו." חופש הביטוי חשוב, הם אומרים, אך הוא לא יכול לבוא על חשבון הסוכנות והבטיחות של אחרים.
החלוקה בין תומכים למבקרים לעיתים נופלת על קווי אופטימיות טכנולוגית מול ספקנות חברתית. חובבי טכנולוגיה רואים ב-AI למבוגרים חזית מרגשת (עם כמה בעיות לניהול), בעוד שפעילים חברתיים רואים בכך צורה חדשה של התעללות דיגיטלית שיש לרסן. שתי נקודות המבט תקפות – והאתגר להבא יהיה למקסם את היתרונות (חופש יצירתי, הנאה פרטית, חדשנות תעשייתית) תוך מזעור הנזקים (ניצול לא בהסכמה, דיסאינפורמציה, דחיקת עובדים). כל פתרון ידרוש קלט מטכנולוגים, מחוקקים, אתיקאים, תעשיית המבוגרים ונפגעי פגיעות בתמונות. נכון ל-2025, השיחה הזו באמת החלה.
(לסיכום, הנה השוואה מהירה בין שני הצדדים:)
- התומכים טוענים ש-AI למבוגרים מעצים יצירתיות, מאפשר הגשמת פנטזיות בטוחה, ואפילו יכול לעזור ליוצרים בהסכמה להרוויח או לאנשים בודדים למצוא חברות – למעשה התפתחות טכנולוגית של פורנו שלדבריהם, אם נעשה בו שימוש אתי, אינו מזיק לאיש ומעצים את החירות האישית globenewswire.com sifted.eu.
- מבקרים טוענים שזה מזין גל של התעללות מינית מבוססת תמונה, שוחק את ההסכמה והפרטיות, עלול לעוות את תפיסת המשתמשים לגבי מין ומערכות יחסים, ומנצל את הדימויים והעבודה של אנשים אמיתיים לרווח ללא הסכמתם theguardian.com reddit.com. לדעתם, העלויות החברתיות של בינה מלאכותית NSFW (במיוחד לנשים וקבוצות פגיעות) עולות בהרבה על התועלת הפרטית שמקבלים חלק מהמשתמשים, ולכן יש צורך בהגבלות ופיקוח חזקים.
נלחמים חזרה: בקרה טכנולוגית ואמצעי הגנה על תוכן NSFW
לאור הסיכונים של בינה מלאכותית NSFW, מתקיים מרוץ מקביל לפתח אמצעי הגנה טכנולוגיים ומדיניות כדי לנהל אותה. המאבק הזה מתנהל בכמה חזיתות: פיתוח כלים טובים יותר לזיהוי תוכן שנוצר בבינה מלאכותית, יישום מסנני בקרה על תוכן, וטיפוח נורמות או סימני מים שיבדילו בין אמיתי למזויף. כך מנסים הבינה המלאכותית והפלטפורמות לרסן את הצד האפל של NSFW AI:
- מסנני NSFW אוטומטיים: יוצרי תמונות בינה מלאכותית רבים כוללים מסווגי פורנוגרפיה שמנסים לחסום או לסנן תכנים מפורשים. לדוגמה, הגרסה הרשמית של Stable Diffusion כוללת "בודק בטיחות" שמסמן ומטשטש תמונות עירום או מיניות arxiv.org. DALL·E של OpenAI פשוט מסרב לכל בקשה שמרמזת אפילו על תוכן מיני. ל-Midjourney יש רשימה נרחבת של מילים אסורות והיא משתמשת בבינה מלאכותית כדי לפרש את ההקשר של הבקשה – היא לא תייצר תמונות אם תחשוד שהבקשה פורנוגרפית או מנצלת arxiv.org. המסננים האלה אינם מושלמים (משתמשים כל הזמן מוצאים דרכים לעקוף אותם, למשל באמצעות שימוש באאופמיזמים או שגיאות כתיב במונחים אסורים arxiv.org). עם זאת, הם מונעים יצירה מקרית או לא מכוונת של תמונות NSFW על ידי המשתמש הכללי. הם מהווים קו הגנה ראשון, במיוחד בפלטפורמות מיינסטרים שאינן רוצות לארח תוכן מפורש. חלק מהגרסאות בקוד פתוח מסירות את המסננים הללו, אך אז האחריות עוברת למשתמש (ולכל פלטפורמה שהתוכן מועלה אליה).
- כלי זיהוי דיפפייק: בצד המחקר, מושקעים מאמצים משמעותיים באלגוריתמים לזיהוי דיפפייק. חברות כמו מיקרוסופט וסטארטאפים כמו Sensity פיתחו בינה מלאכותית שמנתחת סרטונים/תמונות לאיתור סימני מניפולציה (כמו תאורה לא עקבית, ארטיפקטים בפנים, או סימני מים דיגיטליים). באחת ההערכות, מודל Hive Moderation (חבילת בינה מלאכותית למודרציה בה משתמשות רשתות חברתיות מסוימות) הציג את הדיוק הגבוה ביותר בזיהוי דמויות שנוצרו בבינה מלאכותית לעומת אמיתיות emerginginvestigators.org. גלאים אלו משמשים פלטפורמות לסריקת קבצים שמועלים (למשל, פייסבוק עשויה לסרוק תמונה לאיתור עירום וגם לבדוק אם זו תמונה מזויפת מוכרת של מישהו). פיתוח גלאים הוא משחק חתול ועכבר: ככל שמודלים גנרטיביים משתפרים, גם הגלאים חייבים להשתפר. האיחוד האירופי דוחף חברות ליישם מערכות כאלה – כללי השקיפות של חוק הבינה המלאכותית והדירקטיבה למניעת אלימות נגד נשים למעשה מחייבים פלטפורמות לזהות פורנו בינה מלאכותית ולהסיר אותו euronews.com euronews.com. חלק משיטות הזיהוי מסתמכות על מטא-דאטה או דפוסים מוכרים של גנרטורים מסוימים (למשל, כלים מסוימים של בינה מלאכותית משאירים סימני מים בלתי נראים בדפוסי הפיקסלים). התעשייה שוקלת גם גישה יזומה יותר: הטבעת סימני מים בתוכן בינה מלאכותית בזמן היצירה. גוגל, למשל, עובדת על שיטות לתייג תמונות שנוצרו בבינה מלאכותית כך שכל עותק יזוהה ככזה גם לאחר עריכה. OpenAI הציעה סימני מים קריפטוגרפיים לטקסטים ממודלים שפתיים. אם זה יאומץ באופן נרחב, זה עשוי לסייע למסננים אוטומטיים לאתר פורנו בינה מלאכותית לפני שיתפשט. עם זאת, מודלים בקוד פתוח כנראה לא יטביעו סימני מים מרצונם, וגורמים עוינים יכולים לנסות להסיר סימני מים.
- האשטאג תוכן ומאגרי מידע: כדי להתמודד עם פורנו נקמה ודיפפייקים, חברות טכנולוגיה וארגונים ללא מטרות רווח יצרו מאגרי מידע של תמונות פוגעניות מוכרות (באמצעות האשטאג קריפטוגרפי כמו PhotoDNA לתמונות אמתיות של התעללות בילדים, למשל). גישה דומה נשקלת לדיפפייקים: אם קורבן מדווח על תמונה מזויפת, ניתן להוסיף את ההאשטאג שלה למאגר הסרות כך שתזוהה ותוסר מיידית אם תועלה במקום אחר. המערכת החדשה בבריטניה במסגרת חוק הבטיחות המקוונת עשויה לכלול זיהוי יזום כזה – ולחייב פלטפורמות "למנוע [תוכן אסור] מלהופיע מלכתחילה" euronews.com. בפועל, זה אומר סריקה לאיתור תמונות או סרטונים לא חוקיים מוכרים בעת ההעלאה. האתגר עם זיופי בינה מלאכותית הוא שהתוקפים יכולים לייצר אינסוף וריאציות, כך שהאשטאג אחד לא יתפוס את הבאה. כאן נדרש זיהוי דמיון מבוסס בינה מלאכותית, שיכול לאתר תוכן הדומה מאוד לזיופים מוכרים או תואם לאדם שביקש שלא יופיעו תמונות מפורשות שלו ברשת.
- פיקוח באתרים פורנוגרפיים: מעניין לציין שאתרי פורנו מרכזיים כמו Pornhub נאלצו לשדרג את הפיקוח שלהם בעקבות דיפפייקים. מאז 2018, Pornhub אוסרים העלאת כל תוכן שנוצר על ידי בינה מלאכותית ומציג אנשים אמיתיים ללא הסכמה. הם מסתמכים על דיווחי משתמשים ובדיקת מודרטורים כדי לאתר תכנים כאלה, אך עם מיליוני העלאות, זה קשה. חוק השירותים הדיגיטליים של האיחוד האירופי מביא אחריות מחמירה יותר: ב-2024, Pornhub (ואתרים דומים כמו Xvideos, Xnxx) הוגדרו כפלטפורמות גדולות שחייבות לנקוט יוזמה במניעת תוכן לא חוקי ומזיק או לעמוד בפני קנסות subscriber.politicopro.com. סביר להניח שזה אומר השקעה בסינון אוטומטי. אתרי פורנו עשויים להתחיל להשתמש בגלאי דיפפייקים על כל וידאו חדש. כיום יש גם אימות זהות למעלים; אמנם זה לא חסין (מזייפים יכולים לאמת את עצמם ולהעלות זיוף של מישהו אחר), אך זה מוסיף אפשרות לאיתור.
- מדיניות ברשתות החברתיות: רשתות חברתיות כמו טוויטר (X) ורדיט עדכנו מדיניות כדי לאסור במפורש שיתוף "תמונות אינטימיות שנוצרו או עובדו על ידי בינה מלאכותית" ללא הסכמת המצולמים. רדיט אסרו דיפפייקים כבר ב-2018 אחרי הגל הראשון. תקני הקהילה של פייסבוק אוסרים מדיה סינתטית שעלולה להטעות בדרכים מזיקות (מה שמכסה פורנו מזויף של מישהו). האכיפה עדיין לא עקבית – כפי שצוין, תוכן דיפפייק עדיין הפך לוויראלי ב-X ב-2024 cbsnews.com, ומטה נאלצה להסיר פרסומות עירום בינה מלאכותית רק לאחר לחץ ציבורי cbsnews.com. עם זאת, החוקים החדשים (Take It Down Act, כללי האיחוד האירופי) מטילים עליהם כעת חובות משפטיות. אפשר לצפות לזמני תגובה מהירים יותר – למשל, לפי החוק האמריקאי, לפלטפורמות יש 48 שעות להסיר NCII מדווח או לעמוד בפני עונשים klobuchar.senate.gov klobuchar.senate.gov. סביר להניח שהחברות יעדיפו להסיר תכנים במקרה של ספק. ייתכן גם שישולבו מנגנוני דיווח ל"זה זיוף בינה מלאכותית שלי" כדי שמשתמשים יוכלו לדווח על פגיעה במהירות.
- אימות גיל ובקרות גישה: היבט נוסף של מתן מתינות הוא מניעת קטינים מגישה לפורנו בינה מלאכותית. אתרי פורנו מסורתיים כוללים בדיקות גיל (שלא תמיד נאכפות היטב), וחלק מהמדינות (כמו צרפת, יוטה, טקסס) חוקקו חוקים שמחייבים אימות גיל קפדני לאתרים למבוגרים versustexas.com. כלים מבוססי בינה מלאכותית מסבכים את העניין – מודלים גנרטיביים יכולים לשמש בפרטיות ללא כל שערי בקרה. עם זאת, חלק מהפלטפורמות החלו לדרוש אימות תעודה מזהה כדי לגשת למצבים NSFW, כדי לוודא שהמשתמשים הם בגירים. לדוגמה, פלטפורמת Infatuated.ai הדגישה פרוטוקולי אימות גיל חזקים וחסימת כל פקודה שכוללת קטינים globenewswire.com. לאפליקציית הצ'אטבוט Replika היה מקרה ידוע לשמצה שבו אפשרה משחקי תפקידים ארוטיים ורבים מהקטינים השתמשו בה; לאחר ביקורת ציבורית, הגבילו את התוכן הארוטי למשתמשים בני 18 ומעלה באמצעות אימות גיל בתשלום או תעודה מזהה. כך שלפחות בשירותים המסחריים, יש מאמץ להפריד תוכן בינה מלאכותית למבוגרים מילדים. זה חשוב כי ילדים עצמם השתמשו בכלי דיפפייק כדי להציק לחבריהם (כפי שראינו בבתי ספר) cbsnews.com. חינוך צעירים על ההשלכות האתיות והמשפטיות הוא גם חלק מהמתינות – חלק מבתי הספר החלו לכלול מודעות לדיפפייק בתכניות לאזרחות דיגיטלית nea.org.
- שיתופי פעולה ונהלים מיטביים: המאבק בשימוש לרעה בבינה מלאכותית הוביל לשיתופי פעולה בין חברות טכנולוגיה, רשויות אכיפת חוק וארגונים לא ממשלתיים. יוזמות כמו קבוצת יושרת המדיה של Partnership on AI או הקואליציה לאימות מקור ותוכן (C2PA) שואפות לקבוע סטנדרטים לאימות תוכן. חברות עשויות לכלול מטא-דאטה על אופן יצירת תמונה/וידאו (מצלמה לעומת תוכנה מבוססת בינה מלאכותית). במקביל, רשויות אכיפת החוק עוברות הכשרה על דיפפייקים כדי שיתייחסו ברצינות לדיווחי נפגעים וידעו כיצד לאסוף ראיות. יורופול ב-2023 סימנה פורנו דיפפייק כאיום מתפתח וקראה למדינות החברות להקצות משאבים למאבק בו theguardian.com.
- הגבלות על מודלים של בינה מלאכותית: קו הגנה ישיר יותר הוא הגבלת ההפצה של מודלים המסוגלים ליצור תוכן מזיק. לחלק ממאגרי המודלים של הבינה המלאכותית יש תנאים: לדוגמה, Stability AI בחרה לא לכלול באופן רשמי תמונות פורנוגרפיות ברורות במערך האימון של Stable Diffusion 2.0, בין השאר כדי למנוע מהמודל להיות טוב מדי ביצירת פורנו (משתמשים התלוננו שהמודל החדש "פוריטני" כתוצאה מכך). Hugging Face (מאגר המודלים של הבינה המלאכותית) לעיתים דוחה אירוח של מודלים שנעשו בבירור עבור פורנו או מוסיף הצהרת אזהרה גדולה שמחייבת את המשתמשים להסכים שלא ישתמשו בו לרעה. היה גם מקרה בולט: בסוף 2022, אתר מימון ההמונים Kickstarter אסר קמפיין עבור "Unstable Diffusion", שהיה ניסיון לגייס כסף לבניית מודל בינה מלאכותית מותאם לפורנו. Kickstarter ציין מדיניות נגד פרויקטים פורנוגרפיים של בינה מלאכותית וסגר אותו arnoldit.com. מקרה זה הדגיש שגם מימון ותמיכה ל-AI NSFW עלולים להיתקל במכשולים. חנויות אפליקציות כמו של אפל גם עוינות לאפליקציות בינה מלאכותית לא מסוננות – אפל הסירה אפליקציות ליצירת תמונות בינה מלאכותית שיכלו להפיק תכנים NSFW, ודחפה את המפתחים להוסיף מסננים. לכן, הגישה למודלים המתקדמים ביותר של בינה מלאכותית עשויה להיות מוגבלת על ידי מדיניות תאגידית במידה מסוימת. עם זאת, מודלים בקוד פתוח אמיתי קשה מאוד להגביל – ברגע שהם משתחררים, הם מופצים בטורנטים ובפורומים. לכן זו מדיניות מוגבלת.
הניטור של תוכן בעידן הפורנו מבוסס הבינה המלאכותית הוא ללא ספק אתגרי. היקף התוכן הפוטנציאלי להפרה הוא עצום וגדל. אך הטכנולוגיה מתמודדת עם הטכנולוגיה: הבינה המלאכותית עצמה משמשת ללחימה בבינה מלאכותית. לדוגמה, לפי הדיווחים, מטא משתמשת במסווגי למידת מכונה כדי לזהות פנים מוכרות בתמונות עירום כדי לאתר דיפפייקים של סלבריטאים, ולזהות את ארטיפקטי הערבוב האופייניים לדיפפייקים. סטארטאפים כמו Reality Defender מציעים שירותים לחברות לסרוק ולמחוק תוכן דיפפייק בזמן אמת realitydefender.com. והשיניים המשפטיות שניתנו כעת על ידי חוקים חדשים פירושן שפלטפורמות שלא ישקיעו באמצעים אלו מסתכנות בקנסות כבדים או בתביעות.
כיוון מבטיח אחד הוא הרעיון של מדיה מאומתת: אם, למשל, כל יוצרי הפורנו הלגיטימיים יחתמו קריפטוגרפית על הסרטונים שלהם כאמיתיים, אז כל דבר ללא חתימה שטוען להיות "סרטון הסקס של פלוני" יוכל להיות מסומן כחשוד. זה מסובך ליישום אוניברסלי, אך הרעיון של מקוריות (provenance) נמצא בבדיקה (לא רק לפורנו, אלא לכל המדיה, כדי לצמצם דיסאינפורמציה).
בסופו של דבר, מתן המידתיות לעולם לא יהיה חסין לחלוטין – הרבה עדיין יחמוק ברשת הפראית. פלטפורמות מוצפנות או מבוזרות יאכסנו את התוכן הגרוע ביותר. אבל לפחות בזירה המרכזית והחוקית, יש מאמץ משותף להפחית את הנזק של NSFW AI. התקווה היא ליצור סביבה שבה שימושים לגיטימיים (תוכן למבוגרים בהסכמה, אמנות פנטזיה וכו') יוכלו להתקיים, אך שימושים זדוניים יזוהו ויוסרו במהירות. זו משימה קשה – שתוארה כמשחק "חבוט-את-החפרפרת" על ידי קורבנות klobuchar.senate.gov – אבל ארגז הכלים של חוקים, גלאי בינה מלאכותית, מדיניות פלטפורמות וחינוך משתמשים יחד מהווים הגנה רב-שכבתית.השלכות ועתיד: ההשפעה על יוצרים ותעשיית המבוגרים
ככל ש-NSFW AI מערער את הסטטוס קוו, הוא כבר משפיע על אנשים אמיתיים באקוסיסטם של הבידור למבוגרים – מכוכבי פורנו ועובדי מין ועד אמנים ארוטיים ואולפני תוכן. יש שמוצאים הזדמנות בטכנולוגיה החדשה, בעוד אחרים חוששים שייעשו מיותרים או ייסחפו אליה בעל כורחם.
מבצעים ועובדי מין בתעשיית המבוגרים: אולי ההשפעה הישירה ביותר היא על אלו שמרוויחים את לחמם מיצירת תוכן למבוגרים. מצד אחד, יש יוצרים מתוחכמים שמאמצים את הבינה המלאכותית כדי להעצים את עבודתם. לדוגמה, דוגמניות למבוגרים יכולות להשתמש במחוללי תמונות בינה מלאכותית כדי להפיק תמונות משופרות או מעוצבות של עצמן למכירה (ובכך לחסוך בצורך בצילומים יקרים) – כל עוד התמונות עדיין דומות להן ועומדות בכללי הפלטפורמה reddit.com. כמה משפיענים עשו כותרות בכך שיצרו "גרסאות בינה מלאכותית" של עצמם: למשל, ב-2023 משפיענית בשם קארין מרג'ורי השיקה צ'אט-בוט בינה מלאכותית של אישיותה, שמעריצים יכלו לשלם כדי לשוחח איתו באינטימיות. באופן דומה, הקונספט של הסטארט-אפ Oh ל"תאומים דיגיטליים" מאפשר לכוכבת פורנו לרשום את דמותה ליצירת אווטאר בינה מלאכותית שמדבר או מופיע עבור מעריצים, וכך ליצור מקור הכנסה חדש עם מינימום עבודה נוספת sifted.eu. מהלכים אלה מעידים שחלק מהתעשייה רואים בבינה מלאכותית כלי להגדלת עצמם – תיאורטית הם יכולים לבדר יותר מעריצים באמצעות בינה מלאכותית מאשר פיזית אחד על אחד.
מצד שני, מבצעים רבים מודאגים. אם מעריצים יכולים לקבל תוכן פנטזיה מותאם אישית שנוצר בידי בינה מלאכותית, האם הם יפסיקו לשלם לאנשים אמיתיים? ישנם דיווחים על פרופילים שנוצרו בבינה מלאכותית ב-OnlyFans, המשתמשים בנשים בדויות לחלוטין (אך מציאותיות), לפעמים עם סימון מים #AI לאחר שהתעוררו חשדות, שמוכרים תוכן בזול יותר או מציפים משתמשים ב-reddit.com. תחרות כזו עלולה לפגוע בהכנסות של יוצרים אמיתיים. חלק מעובדי תעשיית המין אומרים שזה “מדכא” לראות סטנדרט מתהווה שבו הצלחה פירושה לייצר תוכן 24/7 כמו אלגוריתם – סטנדרט שבלתי אפשרי לאדם לעמוד בו, אך קל לבינה מלאכותית, וכך נוצר לחץ על בני אדם לאמץ בינה מלאכותית או להישאר מאחור reddit.com. יש גם מרכיב רגשי: כפי שכתבה יוצרת ותיקה, השימוש בבינה מלאכותית כדי “לרמות” ולייצר גוף מושלם או תפוקה אינסופית מרגיש כאילו זה מוזיל את המאמץ האמיתי והאותנטיות שהיוצרים האנושיים משקיעים reddit.com. “זו חוצפה – פוגעת במעריצים שלי… ובעבודה הקשה שאני משקיעה בגוף שלי [ובתוכן],” אמרה על אלו שמשתמשים בבינה מלאכותית כדי לזייף תוכן reddit.com.אנחנו כבר רואים התנגדות והסתגלות: יוצרים שמתאגדים כדי להוקיע פרופילים מזויפים שנוצרו בבינה מלאכותית, ופלטפורמות שמעדכנות מדיניות כדי להרגיע שיוצרים אמיתיים לא יתחזו להם בבינה מלאכותית. OnlyFans, כפי שצוין, אוסרת שימוש בדמותו של אדם אחר ודורשת סימון תוכן שנוצר בבינה מלאכותית reddit.com. אפילו דובר על תביעות משפטיות מצד יוצרים נגד זיופי בינה מלאכותית – למשל, שמועה על תביעה שמטרתה להרחיק חשבונות בוטים מ-OnlyFans reddit.com. בנוסף, מבצעים מודאגים מ-הסכמה וזכויות דימוי – לדוגמה, שחקנית פורנו שפרשה עלולה לגלות שסצנות העבר שלה שימשו לאימון בינה מלאכותית שמייצרת כעת סרטונים מפורשים חדשים של “היא” ללא הסכמתה או תשלום. זה דומה לחששות של שחקני הוליווד לגבי שימוש בדמותם בבינה מלאכותית – רק שלשחקני פורנו יש אפילו יותר מה להפסיד כי הדימוי שלהם קשור למשהו רגיש במיוחד. ייתכן שהתעשייה תצטרך לפתח משהו כמו עמדת איגוד השחקנים Screen Actors Guild, שבו שחקנים יכולים לנהל משא ומתן על איך בינה מלאכותית יכולה או לא יכולה לדמות אותם. למעשה, הגישה של דנמרק למתן זכויות יוצרים על דימוי אישי עשויה לאפשר למבצעים ברחבי העולם לדרוש בעלות על פניהם/גופם בהקשרים אלו euronews.com.
אולפנים ומפיקים: גם אולפני פורנו מסורתיים עלולים להיפגע. אם צוות קטן עם כלי בינה מלאכותית יכול להפיק סרטון פורנוגרפי סביר בלי לשכור שחקנים, לאולפנים הגדולים אין יתרון. עם זאת, וידאו בינה מלאכותית כיום עדיין לא ברמה של אולפן מקצועי לתוכן ארוך – זה בעיקר קליפים קצרים או דורש שילוב עם צילומים אמיתיים. ייתכן שחלק מהאולפנים יתחילו להשתמש בבינה מלאכותית עבור אפקטים מיוחדים או פוסט-פרודקשן (למשל, הצערת שחקנים, שיפור ויזואלי, או אפילו הסרת קעקועים מזהים לשם אנונימיות). שימוש אפשרי נוסף: יצירת אנימציות פורנוגרפיות ריאליסטיות שבעבר היו יקרות להפקה ידנית. אך האולפנים מתמודדים גם עם איום של התנהגות דמוית פיראטיות: שחקנים לא ישרים עלולים להשתמש בבינה מלאכותית כדי ליצור חיקויים של תוכן או דוגמניות פרימיום. לדוגמה, אם לאולפן יש כוכבת פופולרית בחוזה, מישהו עלול ליצור דיפפייק שלה בסצנות חדשות ולדלפן. זה עלול לפגוע ברווחי האולפן ובמותג של הכוכבת. ייתכן שהאולפנים יגיבו באכיפה נמרצת של סימני מסחר או זכויות דמות של הכישרון החתום אצלם. ייתכן שנראה אולפני פורנו משתפים פעולה עם חברות טכנולוגיה ליצירת תוכן בינה מלאכותית מורשה של כוכביהם (עם חלוקת רווחים) לפני שהפיראטים יעשו זאת, כמהלך הגנתי.
אמנים וכותבים ארוטיים: מעבר למבצעי וידאו, יש גם את מי שיוצרים קומיקס, איורים או ספרות ארוטית. בינה מלאכותית כבר מסוגלת לחקות סגנונות אמנות – קהילת האמנות ההנטאי בפרט חוותה גל של ארוטיקה יפנית שנוצרה בבינה מלאכותית בסוף 2022, מה שגרם למתחים. חלק מהלקוחות החלו להשתמש בבינה מלאכותית במקום לשלם לאמנים אנושיים, בטענה לעלות ונוחות. אמנים מחו בפלטפורמות כמו DeviantArt (שספגה ביקורת על הכנסת תכונות בינה מלאכותית). יש חשש שהשוק לאמנות וסיפורים ארוטיים בהזמנה אישית יתמוטט כאשר כל אחד יוכל לקבל קומיקס או סיפור מיני מותאם אישית בחינם. עם זאת, חובבים מציינים שבינה מלאכותית עדיין מתקשה בסיפורים מורכבים ובאמנות מעודנת באמת – אמנים אנושיים מציעים רמה של יצירתיות ורגש שלבינה מלאכותית חסר. תוצאה סבירה היא גישה היברידית: אמנים ישתמשו בבינה מלאכותית לטיוטה או צביעה, ואז יוסיפו את הנגיעות שלהם. אך אמנים פחות מבוססים עלולים להתקשות להתחרות בתוצרים של בינה מלאכותית בלחיצת כפתור, שרבים מהצופים רואים בהם "מספיק טוב". זה מעלה את הצורך אולי בערך "עבודת יד אותנטית" חדש באמנות ארוטית, בדומה לאיך שחלק מהמעריצים מוכנים לשלם יותר כדי לדעת שאדם יצר את זה.
עמדת תעשיית המבוגרים: מעניין לציין שחברות הבידור למבוגרים הגדולות היו עד כה שקטות יחסית בפומבי לגבי בינה מלאכותית. ייתכן כי הן בוחנות אסטרטגיות פנימיות או כי חשיפה תזמין בדיקה מוגברת. תעשיית המבוגרים היסטורית אימצה טכנולוגיה במהירות (הייתה מהראשונות לאמץ את האינטרנט, מצלמות רשת, פורנו VR וכו'). כבר רואים אתרים שמוכרים תוכן "דיפפייק דמוי סלבריטאים" (אזור אפור חוקית במקומות מסוימים) ומתנסים בהמלצות מונעות בינה מלאכותית. בעולם הקאמים, כמה אתרי מצלמות ניסו צ'אטבוטים מבוססי בינה מלאכותית לשימור לקוחות כשהדוגמניות לא מחוברות. אך החלפה מוחלטת של מבדרים אנושיים בבינה מלאכותית עדיין לא התרחשה בפלטפורמות הגדולות, בין היתר בשל חוסר בשלות טכנולוגית והעדפת המשתמשים לאינטראקציה אמיתית.
עם זאת, לחץ כלכלי עשוי להוביל להסתגלות. אם, באופן היפותטי, בעוד 2-3 שנים בינה מלאכותית תוכל לייצר סרט פורנו באיכות HD מלאה של כל שני סלבריטאים לפי דרישה, שוק הפורנו המקצועי עם שחקנים לא מוכרים עלול לקרוס – למה לשלם או להירשם כשיש אינסוף פנטזיות חינמיות? התעשייה עשויה לעבור להדגשת אותנטיות, אינטראקציה חיה וקהילה – דברים שבינה מלאכותית לא יכולה לספק. ייתכן שנראה פורנו משווק עם תגים כמו "100% אנושי, עונג אמיתי" כנקודת מכירה, באירוניה. מנגד, התעשייה עשויה לשלב בינה מלאכותית כדי לחסוך בעלויות – למשל, שחקן אחד מופיע ואז משתמשים בבינה מלאכותית כדי להחליף לו פנים וליצור מספר סרטונים "שונים" מצילום אחד (ברשות, אידיאלית). תרחיש כזה יעלה סוגיות אתיות (האם הצופים יודעים שזה אותו אדם שעבר שינוי? האם המבצע מקבל תשלום על כל גרסה או רק פעם אחת?).השפעה חיובית אחת עשויה להיות על הבטיחות: אם בינה מלאכותית יכולה לדמות מעשים מסוכנים, אולפנים עשויים להשתמש בה כדי להימנע מסיכון המבצעים. לדוגמה, במקום לגרום למבצעים לבצע פעלול קיצוני, אפשר לצלם משהו בסיסי ולייצר את החלק האינטנסיבי באמצעות בינה מלאכותית. או, כפי שהוזכר, מבצע יכול להצטלם לבוש ובינה מלאכותית תייצר גרסה בעירום, מה שיכול לאפשר למישהו להופיע בפורנו מבלי להיות עירום על הסט (אם כי הרעיון הזה מעלה דיון משלו על אותנטיות והסכמה).
פיצול שוק: סביר ששוק התוכן למבוגרים יתפצל לרמות:
- תוכן אנושי יוקרתי המדגיש אינטראקציה אמיתית (סרטונים מותאמים אישית, OnlyFans עם מעורבות ישירה של היוצר, הופעות קאם חיות – דברים שבהם הנוכחות האנושית היא העיקר).
- תוכן שנוצר בבינה מלאכותית שיכול להיות זול מאוד או חינמי, מציף אתרי tube או ערוצים פרטיים. זה עשוי לספק את הצרכנים המזדמנים או כאלה עם פנטזיות מאוד מסוימות (סלבריטאים וכו'). אם פורנו deepfake יישאר חצי-בלתי חוקי, הוא עשוי להישאר יותר במחתרת או בפורומים לא מסחריים.
- תוכן היברידי שבו יוצרים משתמשים בבינה מלאכותית אך נשארים מעורבים. לדוגמה, דוגמנית עשויה למכור סטים של תמונות שלה שעברו שדרוג בינה מלאכותית – למעשה הדמות שלה, אך משופרת או מוצבת בסצנות פנטסטיות על ידי בינה מלאכותית. כל עוד זה שקוף ובהסכמה, המעריצים עשויים להעריך את המגוון.
הזדמנות לכישרונות חדשים? יש כאן צד מעניין נוסף: בינה מלאכותית עשויה להנמיך חסמים לכניסה לעולם התוכן למבוגרים בצורה מבוקרת. מי שלעולם לא היה משתף את גופו או פניו האמיתיים, עשוי ליצור דמות בינה מלאכותית – אווטאר מיני בדיוני – ולמכור תוכן של אותה דמות. למעשה, להיות קאם-גירל או דוגמנית OnlyFans באמצעות פרוקסי של בינה מלאכותית. יש משתמשים שניסו זאת בהצלחה משתנה. זה פותח דלת לאנשים להרוויח מפנטזיות מבלי לחשוף את זהותם או גופם. עם זאת, פלטפורמות כיום דורשות אימות זהות כדי למנוע התחזות ובעיות גיל, כך שאדם עדיין יצטרך להירשם ולציין שהתוכן נוצר בבינה מלאכותית של דמות בדיונית. אם הדבר יאושר, זה עשוי ליצור קטגוריה חדשה של יוצרים: יוצרי תוכן למבוגרים מבוססי בינה מלאכותית שהם אנשי עסקים אמיתיים אך המוצר שלהם הוא דמות וירטואלית לחלוטין. הם יתחרו בדוגמנים אמיתיים. האם משתמשים ישלמו על דוגמנית "מזויפת"? ייתכן, אם היא אטרקטיבית ואינטראקטיבית מספיק, ובמיוחד אם לא יבינו מיד שמדובר בזיוף. אפשר לדמיין שחלק מהמשתמשים אף יעדיפו דמות בינה מלאכותית ש"תמיד זמינה ולעולם לא עוברת יום רע". זה כמובן מטריד את המבצעים האנושיים מסיבות ברורות.
השפעה רגולטורית ומשפטית על התעשייה: עם חוקים חדשים על דיפפייקים, לפלטפורמות למבוגרים יש תמריצים משפטיים לאסור כל דבר שאינו בהסכמה. באופן אירוני, זה עשוי דווקא לחזק את ידן של חברות פורנו מבוססות ומפוקחות (שפועלות רק עם מבצעים בהסכמה) לעומת אתרי AI פיראטיים. אם האכיפה תהיה חזקה, משתמשים שירצו פורנו דיפפייק יתקשו להשיג אותו, מה שעשוי לדחוף אותם למקורות לא חוקיים בדארקנט או להרתיע אותם מההרגל. בינתיים, יצירות AI בהסכמה (כמו דוגמנית שמסכימה לגרסה בינה מלאכותית של עצמה) עשויות להפוך לקטגוריית מוצר חדשה ומורשית. זה ידרוש הבהרה משפטית: למשל, האם דוגמנית יכולה לקבל זכויות יוצרים או סימן מסחרי על פניה כדי שתוכל לתבוע מישהו שמייצר שיבוט AI שלה ללא רשות? מדינות מסוימות כמו דנמרק ואולי חוקים מדינתיים עתידיים בארה"ב נעות לכיוון הרעיון הזה euronews.com. זה יעזור למבצעים להגן על המותג שלהם.
סיכום ההשפעה: תעשיית התוכן למבוגרים נמצאת בתחילתו של שינוי פרדיגמה פוטנציאלי. מי שיתאים את עצמו – על ידי שימוש אתי ושקוף ב-AI – יוכל לשגשג או לפחות לשרוד. מי שיתעלם עלול להיאבק מול גל התוכן והרגלי הצריכה המשתנים. כפי שאמר יזם AI אחד על בני לוויה מבוססי AI, "כל חידוש חדש יכול להרגיש כמו שינוי דרסטי… זו אבולוציה" sifted.eu. השאלה היא האם האבולוציה הזו תשלים או תטרוף את המערכת האקולוגית הקיימת של היוצרים.
סיכום: חזית אירוטית חדשה, רווית דילמות
עליית ה-NSFW AI פתחה ללא ספק תיבת פנדורה. תוך כמה שנים בלבד, ראינו את ה-AI עובר מיצירת תמונות חתולים מצחיקות ליצירת תמונות עירום מזויפות שיכולות להרוס חיים של אדם. הטכנולוגיה הזו חזקה, דו-צדדית, וכאן כדי להישאר. מצד אחד, היא מאפשרת לאנשים רגילים ליצור כל דימוי או תרחיש אירוטי שהם יכולים לדמיין, ומטשטשת את הגבול בין צרכן ליוצר בתעשיית הבידור למבוגרים. יש בה הבטחה להנאה מותאמת אישית, חקירה יצירתית, ואולי גם מודלים עסקיים חדשים בתעשייה של מיליארדי דולרים שלרוב הייתה קפואה טכנולוגית. מצד שני, NSFW AI יצרה צורות חדשות של התעללות – "אונס דיגיטלי" כפי שיש המכנים זאת – בכך שהיא שוללת מאנשים (בעיקר נשים) שליטה על הדימוי והגוף שלהם במרחב הדיגיטלי. זה מאתגר את מערכות המשפט שלנו, שממהרות לעדכן הגדרות של התחזות, פורנוגרפיה והסכמה לעידן ה-AI. וזה מאלץ את החברה להתמודד עם שאלות לא נוחות על טבע המיניות, חופש הביטוי והקשר האנושי כאשר הם מוגברים או מסומלצים על ידי AI.
נכון לסוף 2025, המטוטלת נעה לכיוון של אמצעי הגנה ואחריותיות. חקיקה משמעותית בארה"ב ובאיחוד האירופי, אכיפה מחמירה באסיה, ושינויים במדיניות הפלטפורמות – כולם מאותתים כי פורנו בינה מלאכותית ללא הסכמה נתפס כיום כבלתי נסבל. במקביל, מפותחות טכנולוגיות לזיהוי ומניעת ניצול לרעה, גם כאשר הטכנולוגיה הגנרטיבית עצמה משתפרת. ניתן לצפות שהדינמיקה של "חתול ועכבר" תימשך: כל אמצעי בטיחות חדש עשוי להיתקל בטכניקות התחמקות חדשות מצד גורמים זדוניים. אך המודעות הציבורית גבוהה בהרבה כיום – פורנו בינה מלאכותית כבר אינו תופעה שולית באינטרנט; זהו נושא מרכזי לדיון בפרלמנטים ובמערכות חדשות. מודעות ציבורית זו יכולה להעצים קורבנות לצאת ולדרוש צדק, ולדחוף חברות לקחת אחריות.מבט לעתיד מראה כי שיתוף פעולה עולמי יהיה המפתח. סוגיות אלו אינן נעצרות בגבולות – דיפפייק שנוצר במדינה אחת עלול להרוס חיים של מישהו במדינה אחרת. יהיה חשוב שממשלות ישתפו שיטות עבודה מומלצות (כפי שמראה סקר Euronews על חוקים אירופיים, מדינות רבות לומדות זו מזו euronews.com euronews.com). ייתכן שבשנים הקרובות תתגבש מסגרת או אמנה בינלאומית למאבק בהתעללות מינית מבוססת תמונה, שתתייחס לעבירות החמורות ביותר כפשעים נגד זכויות אדם. בינתיים, ארגוני חברה אזרחית ומחנכים ימשיכו להעלות מודעות, ללמד אוריינות מדיה (כדי שאנשים יחשבו פעמיים לפני שיאמינו או ישתפו תוכן אינטימי "שהודלף"), ולתמוך בקורבנות.
למרות כל הצדדים האפלים של בינה מלאכותית NSFW, ראוי לציין ש-לא הכול שחור משחור. בהקשרים של הסכמה, יש אנשים שמפיקים מכך אושר אמיתי – בין אם מדובר בזוג שמעשיר את האינטימיות שלו עם תרחישי משחק תפקידים שנוצרו בבינה מלאכותית, יוצר תוכן למבוגרים שמרוויח בבטחה מהבית באמצעות דמות בינה מלאכותית, או פשוט אנשים שרואים סוף סוף את הפנטזיה הייחודית שלהם מיוצגת ביצירת אמנות או סיפור בינה מלאכותית. אסור לאבד את מקרי השימוש הללו בדיון; הם מדגישים שהטכנולוגיה עצמה אינה רעה מיסודה. זו בסך הכול כלי – שמעצים כוונות אנושיות, לטוב ולרע. המשימה שלנו היא להכווין את השימוש בה לכיוונים של הסכמה ויצירתיות, ולהגן בתקיפות מפני שימושים זדוניים.
אמנים, יוצרים ועובדי מין – האנשים שפועלים בעולם התוכן למבוגרים – כנראה ימשיכו להסתגל ולמצוא לעצמם מקום בנוף החדש הזה. רבים מהם נאבקים כדי ש"אתיקה של בינה מלאכותית" תכלול גם את קולם, ודורשים מנגנוני הסכמה ופיצוי. למעשה, הם מבקשים דבר פשוט: אל תיקחו מאיתנו בלי לשאול. החברה כולה מתמודדת עם העיקרון הזה בכל תחומי הבינה המלאכותית, מאמנות ועד חדשות ופורנו.
לסיכום, NSFW AI עומד בצומת של טכנולוגיה, מיניות, חוק ואתיקה. הוא מאתגר אותנו להגדיר מחדש את המושגים של הסכמה, פרטיות ואפילו את המציאות עצמה בעידן הדיגיטלי. המחצית השנייה של שנות ה-2020 תהיה מכריעה בקביעת הנורמות והכללים שינהלו תחום זה. האם אנו צועדים לעתיד שבו פורנו בינה מלאכותית נפוץ אך מפוקח בקפדנות, ומשמש בעיקר למטרות טובות או נייטרליות? או שנראה בלקניזציה, שבה גופים מרכזיים מסלקים אותו בזמן שהוא משגשג בפינות אפלות, בדומה לסחר לא חוקי? התוצאה תלויה בהחלטות שמתקבלות כעת – על ידי מחוקקים, חברות טכנולוגיה ומשתמשים.דבר אחד בטוח: השד יצא מהבקבוק. אי אפשר להחזיר את NSFW AI לאחור. אבל אנחנו יכולים וחייבים ללמוד לחיות איתו באחריות. כמשתמשים, זה אומר לכבד את כבודם של אחרים בעת השימוש בכלים הללו; כחברות, לבנות מנגנוני בטיחות מההתחלה; כממשלות, להציב גבולות ברורים; וכקהילות, לא לסבול ניצול לרעה. עם ערנות ואמפתיה, התקווה היא ששלב "המערב הפרוע" של פורנו הבינה המלאכותית יתפתח לשטח מתורבת יותר – כזה שבו מבוגרים בהסכמה יוכלו ליהנות מצורות חדשות של אמנות ארוטית וחיבור, בעוד מי שמבקש לנצל את הטכנולוגיה לרעה יורחק. הסיפור של NSFW AI עוד נכתב, ואמצע 2025 הוא רק הפרק הראשון. התגובה של החברה כעת תקבע האם הטכנולוגיה הזו תעשיר אותנו או תסכן אותנו בתחום התוכן האינטימי.
מקורות:
- Oremus, Will. “Congress passes bill to fight deepfake nudes, revenge porn.” The Washington Post (דרך אתר הסנאט של קלובושר), 28 באפריל 2025 klobuchar.senate.gov klobuchar.senate.gov.
- Fawkes, Violet. “8 Best NSFW AI Image Generators – Finding pleasure at the crossroads of code and consent.” Chicago Reader, 13 באפריל 2025 chicagoreader.com chicagoreader.com.
- Mahdawi, Arwa. “Nonconsensual deepfake porn is an emergency that is ruining lives.” The Guardian, 1 באפריל 2023 theguardian.com theguardian.com.
- פריס, ליילה. "אתר הפורנו שנוצר בינה מלאכותית Mr. Deepfakes נסגר לאחר שספק השירות הסיר תמיכתו." CBS News, 5 במאי 2025 cbsnews.com cbsnews.com.
- CBS News/AFP. "שערוריית פורנו שנוצר בבינה מלאכותית מטלטלת את אוניברסיטת הונג קונג לאחר שלפי החשד סטודנט למשפטים יצר דיפפייקים של 20 נשים." CBS News, 15 ביולי 2025 cbsnews.com cbsnews.com.
- ליונס, אמט. "דרום קוריאה עומדת להפליל החזקה או צפייה בסרטוני דיפפייק פורנוגרפיים." CBS News, 27 בספטמבר 2024 cbsnews.com cbsnews.com.
- ות'ינגטון, קיילב. "חוקים חדשים למאבק בדיפפייקים ופורנו ילדים שנוצר בבינה מלאכותית נכנסים לתוקף בטנסי." WSMV News Nashville, 30 ביוני 2025 wsmv.com wsmv.com.
- דסמרה, אנה. "דנמרק נלחמת בדיפפייקים באמצעות הגנה על זכויות יוצרים. אילו חוקים נוספים קיימים באירופה?" Euronews, 30 ביוני 2025 euronews.com euronews.com.
- ניקול-שוורץ, קאי. "הכירו את OnlyFans של הבינה המלאכותית: כך גייסה סטארט-אפ אחד מיליונים כדי לבנות פלטפורמת 'חברים ארוטיים'." Sifted, 13 במרץ 2025 sifted.eu sifted.eu.
- וילסון, קלאודיה. "הסנאט מעביר את חוק DEFIANCE." המרכז למדיניות בינה מלאכותית (CAIP), 1 באוגוסט 2024 centeraipolicy.org centeraipolicy.org.
- ארנולד, סטיבן. "גוגל נוקטת עמדה — נגד תוכן מפוקפק. האם הבינה המלאכותית תצליח?" בלוג Beyond Search, 24 במאי 2024 arnoldit.com arnoldit.com.
- הולנד, אוסקר. "לין צ'י-לינג מטייוואן על ההתמודדות עם דיפפייק והמאבק נגד דיסאינפורמציה מבוססת בינה מלאכותית." CNN, 5 באוקטובר 2023 (להקשר על דיפפייקים של סלבריטאים).
- (מסמכי מדיניות נוספים, הודעות לעיתונות ודוחות כפי שצוטטו לאורך הטקסט.)