LIM Center, Aleje Jerozolimskie 65/79, 00-697 Warsaw, Poland
+48 (22) 364 58 00

صدمة نهاية الأسبوع للذكاء الاصطناعي: اختراقات عالمية، رهانات الشركات الكبرى وخطوات جريئة (19–20 يوليو 2025)

صدمة نهاية الأسبوع للذكاء الاصطناعي: اختراقات عالمية، رهانات الشركات الكبرى وخطوات جريئة (19–20 يوليو 2025)

AI Weekend Shockwave: Global Breakthroughs, Big Tech Bets & Bold Moves (July 19–20, 2025)

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

اختراقات في العلوم والرعاية الصحية

تسريع التحليل الطبي: في مجال الرعاية الصحية، تعد اختراقات الذكاء الاصطناعي بتشخيصات أسرع وإجراءات أكثر أمانًا. كشف باحثون من جامعة إنديانا ومستشفيات شريكة عن خط أنابيب “معلوماتية السرطان” مدعوم بالذكاء الاصطناعي يمكنه فحص شرائح علم الأمراض الرقمية والسجلات الصحية الإلكترونية وبيانات الجينوم للإشارة إلى احتمالية الإصابة بالسرطان واقتراح مرحلة الورم. وبحسب الباحث الرئيسي سبيريدون باكاس، فقد قلل نظام الذكاء الاصطناعي بعض إجراءات التشخيص “من أيام إلى ثوانٍ”، حيث صنّف الحالات بسرعة تفوق البشر binaryverseai.com binaryverseai.com. كما كشف الأداة عن ترابطات دقيقة عبر بيانات متعددة الأنماط قد يغفل عنها البشر، على الرغم من إصرار الفريق على أن أطباء علم الأمراض يظلون ضروريين للحالات الصعبة والأحكام النهائية binaryverseai.com. يجسد هذا المشروع اتجاهًا أوسع نحو الطب متعدد الأنماط بالذكاء الاصطناعي الذي يمكنه استيعاب أنواع عديدة من البيانات مرة واحدة. وبالمثل، أفاد أطباء الأشعة بنجاحهم في استخدام نموذج ذكاء اصطناعي يُدعى mViT (محول رؤي معدل) لتحسين فحوصات الأشعة المقطعية للأطفال binaryverseai.com binaryverseai.com. يمكن لأجهزة الأشعة المقطعية التي تعتمد تقنية عدّ الفوتونات أن تقلل من جرعة الأشعة السينية للأطفال، إلا أنها غالبًا ما تنتج صورًا مشوشة؛ حيث تعلم نظام mViT إزالة التشويش من الفحوصات مباشرة، مما يجعل الشرايين والأنسجة أوضح دون التمويه الناتج عن أساليب تقليل الضوضاء القديمة binaryverseai.com binaryverseai.com. وأظهرت الاختبارات التي أُجريت على 20 مريضًا صغيرًا أن الذكاء الاصطناعي تفوق باستمرار على المرشحات التقليدية، مما يسمح على الأرجح بالحصول على فحوصات أكثر وضوحًا وأقل جرعة إشعاعية – وهو مكسب لسلامة المرضى الأطفال مع حصول أجهزة الأشعة المقطعية الجديدة على موافقة إدارة الغذاء والدواء الأمريكية binaryverseai.com.

الاختراقات في علم الأحياء والمواد: تدفع الذكاء الاصطناعي أيضًا العلوم الأساسية إلى الأمام. وصفت دراسة جديدة في Nature Communications كيف يمكن لثلاثة شبكات عصبية الآن تحديد توقيت تطور الأجنة بدقة إلى الدقيقة، وهو إنجاز قد يغير مجال علم الأحياء التطوري binaryverseai.com. من خلال تدريب شبكات عصبية التففية على صور عالية الدقة لأجنة ذبابة الفاكهة، تعلم النظام تحديد الإشارات البصرية الدقيقة لدورات انقسام الخلايا. يمكنه معرفة عمر الجنين (بدقة ±1 دقيقة) دون استخدام علامات فلورية تدخلية – محققًا دقة 98–100% في الأجنة في المراحل المبكرة binaryverseai.com binaryverseai.com. هذا “ساعة الجنين” بالذكاء الاصطناعي مكنت الفريق من رسم خرائط طفرات تنشيط الجينات بدقة زمنية غير مسبوقة، مما يوفر لعلماء الأحياء أداة قوية جديدة لدراسة كيفية تشكل الأعضاء. في علم المواد، قدم باحثون من المملكة المتحدة نموذج “CrystalGPT”، المدرب على 706,000 بنية بلورية، للتنبؤ بخصائص المواد. من خلال فهمه لـ”لغة” البلورات الجزيئية (عبر ألغاز الذرات المخفية وتحديات التناظر)، يمكن لـ CrystalGPT التنبؤ بكثافة أو مسامية أو استقرار مركب جديد بسرعة أكبر بكثير من المحاكاة التقليدية binaryverseai.com binaryverseai.com. يشيد الخبراء بشفافيته – حيث تُبرز الذكاء الاصطناعي حتى أي الأحياء الذرية أثرت أكثر في التنبؤ – ما يمنح الكيميائيين الثقة بدلاً من تخمين الصندوق الأسود binaryverseai.com. يمكن أن تسرع النمذجة البلورية الأسرع التقدم في البطاريات والعوامل المساعدة ومواد أشباه الموصلات، مما يقلل أوقات وتكاليف البحث والتطوير.

الذكاء الاصطناعي للبرمجة – مع بعض التحفظات: لم تكن جميع الأبحاث وردية؛ فقد قدمت دراسة واحدة رؤية واقعية حول مساعدي البرمجة بالذكاء الاصطناعي. ففي تجربة محكومة، استغرق مطورو البرمجيات ذوو الخبرة وقتاً أطول بنسبة 19% في إنجاز مهمة باستخدام مساعد ذكاء اصطناعي مقارنةً بمجموعة ضابطة بدون ذكاء اصطناعي ts2.tech. كان المبرمجون المتمرسون يتوقعون أن يساعدهم الذكاء الاصطناعي (أداة اقتراح الشيفرة) على إنجاز العمل بشكل أسرع، لكنه غالباً ما كان يعطي شيفرات “صحيحة من حيث التوجه العام، لكنها ليست بالضبط ما هو مطلوبts2.tech. وقد أُهدر الوقت في مراجعة هذه الاقتراحات وتصحيحها. في المقابل، أظهرت دراسات سابقة زيادات كبيرة في السرعة للمبرمجين الأقل خبرة في المهام الأسهل. “إنه أشبه بتحرير مقالة أكثر من كونه كتابة من البداية،” قال أحد المبرمجين المخضرمين حول أسلوب العمل بمساعدة الذكاء الاصطناعي – ربما أكثر استرخاءً، لكنه أبطأ ts2.tech. وخلص الباحثون في METR إلى أن المساعدات الذكية الحالية ليست عصا سحرية لزيادة إنتاجية الخبراء في البرمجة المعقدة، وأن هناك حاجة لمزيد من التحسين والمراقبة البشرية ts2.tech. هذا الاستنتاج المتوازن يهدئ من الاندفاع نحو نشر الذكاء الاصطناعي المولّد للشيفرات لجميع المبرمجين.

التطلع داخل “عقل” الذكاء الاصطناعي: نشر اتحاد من كبار علماء الذكاء الاصطناعي (من OpenAI وDeepMind وAnthropic وأفضل الجامعات) ورقة بحثية بارزة يدعون فيها إلى ابتكار تقنيات جديدة لـمراقبة “تَسَلْسُل التفكير” في الذكاء الاصطناعي – وهي في الأساس خطوات التفكير الخفية التي يولدها نماذج الذكاء الاصطناعي داخليًا ts2.tech. ومع تحول أنظمة الذكاء الاصطناعي إلى المزيد من الاستقلالية (كما هي الحال مع العملاء الذين يظهرون الآن)، يجادل المؤلفون بأن القدرة على الاطلاع على تلك الأفكار الوسيطة قد يكون أمرًا حيويًا للسلامة ts2.tech. فمن خلال مراقبة تسلسل تفكير الذكاء الاصطناعي خطوة بخطوة، قد يتمكن المطورون من اكتشاف الأخطاء أو الميل إلى طرق خطرة قبل أن يتصرف الذكاء الاصطناعي. ومع ذلك، تحذر الورقة من أنه مع تزايد تعقيد النماذج، “لا يوجد ضمان بأن درجة الشفافية الحالية ستستمر” – فقد تقوم نماذج الذكاء الاصطناعي المستقبلية بإضمار تفكيرها بشكل لا يمكن تتبعه بسهولة ts2.tech. وقد حث الفريق المجتمع العلمي على “الاستفادة القصوى من إمكانية مراقبة تسلسل التفكير” الآن والسعي إلى الحفاظ على الشفافية مستقبلًا ts2.tech. ومن الجدير بالذكر أن هذه الدعوة للعمل شارك في توقيعها مجموعة من كبار علماء الذكاء الاصطناعي – بمن فيهم جيفري هينتون، والعالم الرئيسي في OpenAI إيليا سوتسكيفر (ورئيس التوافق جان ليك)، والمؤسس المشارك لـDeepMind شين ليج، وآخرون ts2.tech. إنه عرض نادر للوحدة بين مختبرات متنافسة، يعكس قلقًا مشتركًا: مع اقتراب أنظمة الذكاء الاصطناعي من مستوى التفكير البشري، يجب ألا نسمح لها بأن تصبح “صناديق سوداء” لا يمكن فهمها. البحث في “فحوصات دماغ الذكاء الاصطناعي” – قراءة فكر الذكاء الاصطناعي – قد يصبح ضروريًا بقدر أهمية إنشاء الذكاء الاصطناعي نفسه.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

التمويل، الأعمال والاستثمار في الذكاء الاصطناعي

الذكاء الاصطناعي المصمم للقطاع المالي: شهد القطاع المالي اختراقات متزايدة للذكاء الاصطناعي في المنتجات والأرباح. أطلقت شركة Anthropic خدمة Claude للخدمات المالية، وهو إصدار من مساعد الذكاء الاصطناعي Claude-4 مخصص لمحللي السوق والمصرفيين. وتدعي Anthropic أن Claude-4 يتفوق على النماذج المتقدمة الأخرى في مهام التمويل، استنادًا إلى معايير الصناعة anthropic.com. يمكن للمنصة الاتصال بالبيانات المباشرة للأسواق (عبر شركاء مثل بلومبرغ وFactSet وغيرهم) والتعامل مع أحمال العمل الكبيرة من نمذجة المخاطر حتى الأعمال الورقية للامتثال. ويبلغ المستخدمون الأوائل عن مكاسب كبيرة – على سبيل المثال، قال الرئيس التنفيذي لصندوق الثروة السيادي النرويجي البالغ قيمته 1.4 تريليون دولار (NBIM) إن Claude قد “غير بشكل جذري” سير العمل لديهم، حيث وفر ما يقدر بـزيادة في الإنتاجية بنسبة 20% (حوالي 213,000 ساعة عمل تم توفيرها) من خلال تمكين الموظفين من استعلام البيانات وتحليل مكالمات الأرباح بشكل أكثر كفاءة anthropic.com. وأشار إلى أن Claude أصبح “لا غنى عنه” بالنسبة لمحللي ومديري المخاطر في تلك الشركة anthropic.com. كما تستكشف البنوك والصناديق الكبرى المساعدين الذكاء الاصطناعي لتسريع الأبحاث مع تتبع كامل للمراجعات وتلقائية للمهام الروتينية التي عادة ما تعيق عمل الفرق المالية.

وول ستريت تراهن على شركات الذكاء الاصطناعي الناشئة: يواصل المستثمرون ضخ الأموال في مشاريع الذكاء الاصطناعي بقيم مذهلة. وجاءت أخبار هذا الأسبوع بأن Perplexity AI، الشركة الناشئة المعروفة بروبوت الدردشة البحثي المعتمد على الذكاء الاصطناعي، جمعت جولة تمويل جديدة بقيمة 100 مليون دولار، لترتفع قيمتها إلى نحو 18 مليار دولار theindependent.sg. (للمقارنة، كانت قيمة Perplexity تقارب 14 مليار دولار فقط قبل شهرين، ومليار دولار واحد في العام الماضي، مما يعكس الارتفاع الصاروخي في ثروات الذكاء الاصطناعي التوليدي theindependent.sg.) كما ظهرت صناديق جديدة تركز على الذكاء الاصطناعي: فمثلاً، أطلق أحد أوائل المستثمرين في Instacart صندوق “Verified Capital” بمبلغ 175 مليون دولار مخصص لشركات الذكاء الاصطناعي الناشئة (أُعلن عنه في 20 يوليو). وفي مجال الحوسبة السحابية، بدأت الشركات التقليدية في التكيف مع عصر الذكاء الاصطناعي – أحيانًا بشكل مؤلم. فقد أكدت أمازون أنها خفضت عدة مئات من وظائف AWS (معظمها في أدوار الدعم السحابي)، بعد أن حذّر الرئيس التنفيذي آندي جاسي من أن كفاءات الذكاء الاصطناعي ستقلص بعض الوظائف في “طبقة الوسطى” binaryverseai.com. وأشارت رسائل بريد إلكتروني داخلية هذا الأسبوع إلى أن بعض فرق نقل البيانات المتخصصة أصبحت زائدة عن الحاجة – “الدليل المرئي الأول داخل AWS” على الأتمتة المدفوعة بالذكاء الاصطناعي، كما أشارت رويترز binaryverseai.com binaryverseai.com. وقال المحللون إن حتى وحدات التكنولوجيا ذات الهوامش المرتفعة ليست محصنة: “الذكاء الاصطناعي يلتهم المهام التي يتقنها، ثم تقوم الشركات بإعادة توزيع أو الاستغناء عن الموظفين،” كما لاحظ أحدهم بتهكم binaryverseai.com. وعلى الرغم من الأرباح القوية، تواصل عملاق الحوسبة السحابية إعادة الهيكلة، مما يوضح كيف أن مكاسب الإنتاجية من الذكاء الاصطناعي قد تؤدي أيضًا إلى تقليص القوى العاملة فعليًا.

اختراقات في العلوم والرعاية الصحية

تسريع التحليل الطبي: في مجال الرعاية الصحية، تعد اختراقات الذكاء الاصطناعي بتشخيصات أسرع وإجراءات أكثر أمانًا. كشف باحثون من جامعة إنديانا ومستشفيات شريكة عن خط أنابيب “معلوماتية السرطان” مدعوم بالذكاء الاصطناعي يمكنه فحص شرائح علم الأمراض الرقمية والسجلات الصحية الإلكترونية وبيانات الجينوم للإشارة إلى احتمالية الإصابة بالسرطان واقتراح مرحلة الورم. وبحسب الباحث الرئيسي سبيريدون باكاس، فقد قلل نظام الذكاء الاصطناعي بعض إجراءات التشخيص “من أيام إلى ثوانٍ”، حيث صنّف الحالات بسرعة تفوق البشر binaryverseai.com binaryverseai.com. كما كشف الأداة عن ترابطات دقيقة عبر بيانات متعددة الأنماط قد يغفل عنها البشر، على الرغم من إصرار الفريق على أن أطباء علم الأمراض يظلون ضروريين للحالات الصعبة والأحكام النهائية binaryverseai.com. يجسد هذا المشروع اتجاهًا أوسع نحو الطب متعدد الأنماط بالذكاء الاصطناعي الذي يمكنه استيعاب أنواع عديدة من البيانات مرة واحدة. وبالمثل، أفاد أطباء الأشعة بنجاحهم في استخدام نموذج ذكاء اصطناعي يُدعى mViT (محول رؤي معدل) لتحسين فحوصات الأشعة المقطعية للأطفال binaryverseai.com binaryverseai.com. يمكن لأجهزة الأشعة المقطعية التي تعتمد تقنية عدّ الفوتونات أن تقلل من جرعة الأشعة السينية للأطفال، إلا أنها غالبًا ما تنتج صورًا مشوشة؛ حيث تعلم نظام mViT إزالة التشويش من الفحوصات مباشرة، مما يجعل الشرايين والأنسجة أوضح دون التمويه الناتج عن أساليب تقليل الضوضاء القديمة binaryverseai.com binaryverseai.com. وأظهرت الاختبارات التي أُجريت على 20 مريضًا صغيرًا أن الذكاء الاصطناعي تفوق باستمرار على المرشحات التقليدية، مما يسمح على الأرجح بالحصول على فحوصات أكثر وضوحًا وأقل جرعة إشعاعية – وهو مكسب لسلامة المرضى الأطفال مع حصول أجهزة الأشعة المقطعية الجديدة على موافقة إدارة الغذاء والدواء الأمريكية binaryverseai.com.

الاختراقات في علم الأحياء والمواد: تدفع الذكاء الاصطناعي أيضًا العلوم الأساسية إلى الأمام. وصفت دراسة جديدة في Nature Communications كيف يمكن لثلاثة شبكات عصبية الآن تحديد توقيت تطور الأجنة بدقة إلى الدقيقة، وهو إنجاز قد يغير مجال علم الأحياء التطوري binaryverseai.com. من خلال تدريب شبكات عصبية التففية على صور عالية الدقة لأجنة ذبابة الفاكهة، تعلم النظام تحديد الإشارات البصرية الدقيقة لدورات انقسام الخلايا. يمكنه معرفة عمر الجنين (بدقة ±1 دقيقة) دون استخدام علامات فلورية تدخلية – محققًا دقة 98–100% في الأجنة في المراحل المبكرة binaryverseai.com binaryverseai.com. هذا “ساعة الجنين” بالذكاء الاصطناعي مكنت الفريق من رسم خرائط طفرات تنشيط الجينات بدقة زمنية غير مسبوقة، مما يوفر لعلماء الأحياء أداة قوية جديدة لدراسة كيفية تشكل الأعضاء. في علم المواد، قدم باحثون من المملكة المتحدة نموذج “CrystalGPT”، المدرب على 706,000 بنية بلورية، للتنبؤ بخصائص المواد. من خلال فهمه لـ”لغة” البلورات الجزيئية (عبر ألغاز الذرات المخفية وتحديات التناظر)، يمكن لـ CrystalGPT التنبؤ بكثافة أو مسامية أو استقرار مركب جديد بسرعة أكبر بكثير من المحاكاة التقليدية binaryverseai.com binaryverseai.com. يشيد الخبراء بشفافيته – حيث تُبرز الذكاء الاصطناعي حتى أي الأحياء الذرية أثرت أكثر في التنبؤ – ما يمنح الكيميائيين الثقة بدلاً من تخمين الصندوق الأسود binaryverseai.com. يمكن أن تسرع النمذجة البلورية الأسرع التقدم في البطاريات والعوامل المساعدة ومواد أشباه الموصلات، مما يقلل أوقات وتكاليف البحث والتطوير.

الذكاء الاصطناعي للبرمجة – مع بعض التحفظات: لم تكن جميع الأبحاث وردية؛ فقد قدمت دراسة واحدة رؤية واقعية حول مساعدي البرمجة بالذكاء الاصطناعي. ففي تجربة محكومة، استغرق مطورو البرمجيات ذوو الخبرة وقتاً أطول بنسبة 19% في إنجاز مهمة باستخدام مساعد ذكاء اصطناعي مقارنةً بمجموعة ضابطة بدون ذكاء اصطناعي ts2.tech. كان المبرمجون المتمرسون يتوقعون أن يساعدهم الذكاء الاصطناعي (أداة اقتراح الشيفرة) على إنجاز العمل بشكل أسرع، لكنه غالباً ما كان يعطي شيفرات “صحيحة من حيث التوجه العام، لكنها ليست بالضبط ما هو مطلوبts2.tech. وقد أُهدر الوقت في مراجعة هذه الاقتراحات وتصحيحها. في المقابل، أظهرت دراسات سابقة زيادات كبيرة في السرعة للمبرمجين الأقل خبرة في المهام الأسهل. “إنه أشبه بتحرير مقالة أكثر من كونه كتابة من البداية،” قال أحد المبرمجين المخضرمين حول أسلوب العمل بمساعدة الذكاء الاصطناعي – ربما أكثر استرخاءً، لكنه أبطأ ts2.tech. وخلص الباحثون في METR إلى أن المساعدات الذكية الحالية ليست عصا سحرية لزيادة إنتاجية الخبراء في البرمجة المعقدة، وأن هناك حاجة لمزيد من التحسين والمراقبة البشرية ts2.tech. هذا الاستنتاج المتوازن يهدئ من الاندفاع نحو نشر الذكاء الاصطناعي المولّد للشيفرات لجميع المبرمجين.

التطلع داخل “عقل” الذكاء الاصطناعي: نشر اتحاد من كبار علماء الذكاء الاصطناعي (من OpenAI وDeepMind وAnthropic وأفضل الجامعات) ورقة بحثية بارزة يدعون فيها إلى ابتكار تقنيات جديدة لـمراقبة “تَسَلْسُل التفكير” في الذكاء الاصطناعي – وهي في الأساس خطوات التفكير الخفية التي يولدها نماذج الذكاء الاصطناعي داخليًا ts2.tech. ومع تحول أنظمة الذكاء الاصطناعي إلى المزيد من الاستقلالية (كما هي الحال مع العملاء الذين يظهرون الآن)، يجادل المؤلفون بأن القدرة على الاطلاع على تلك الأفكار الوسيطة قد يكون أمرًا حيويًا للسلامة ts2.tech. فمن خلال مراقبة تسلسل تفكير الذكاء الاصطناعي خطوة بخطوة، قد يتمكن المطورون من اكتشاف الأخطاء أو الميل إلى طرق خطرة قبل أن يتصرف الذكاء الاصطناعي. ومع ذلك، تحذر الورقة من أنه مع تزايد تعقيد النماذج، “لا يوجد ضمان بأن درجة الشفافية الحالية ستستمر” – فقد تقوم نماذج الذكاء الاصطناعي المستقبلية بإضمار تفكيرها بشكل لا يمكن تتبعه بسهولة ts2.tech. وقد حث الفريق المجتمع العلمي على “الاستفادة القصوى من إمكانية مراقبة تسلسل التفكير” الآن والسعي إلى الحفاظ على الشفافية مستقبلًا ts2.tech. ومن الجدير بالذكر أن هذه الدعوة للعمل شارك في توقيعها مجموعة من كبار علماء الذكاء الاصطناعي – بمن فيهم جيفري هينتون، والعالم الرئيسي في OpenAI إيليا سوتسكيفر (ورئيس التوافق جان ليك)، والمؤسس المشارك لـDeepMind شين ليج، وآخرون ts2.tech. إنه عرض نادر للوحدة بين مختبرات متنافسة، يعكس قلقًا مشتركًا: مع اقتراب أنظمة الذكاء الاصطناعي من مستوى التفكير البشري، يجب ألا نسمح لها بأن تصبح “صناديق سوداء” لا يمكن فهمها. البحث في “فحوصات دماغ الذكاء الاصطناعي” – قراءة فكر الذكاء الاصطناعي – قد يصبح ضروريًا بقدر أهمية إنشاء الذكاء الاصطناعي نفسه.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

الذكاء الاصطناعي في الإعلام، الترفيه والصناعات الإبداعية

نتفليكس تتبنى الذكاء الاصطناعي في المؤثرات البصرية: شهدت هوليوود سابقة ملحوظة: فقد كشفت نتفليكس في مكالمة الأرباح الخاصة بها أنها بدأت في استخدام الذكاء الاصطناعي التوليدي في إنتاج المحتوى، بما في ذلك لقطات تم إنشاؤها بالكامل بالذكاء الاصطناعي لأول مرة في عرض من عروض نتفليكس ts2.tech. في السلسلة الأرجنتينية الخيالية العلمية “El Eternauta”، تم إنشاء مشهد كامل لانهيار مبنى باستخدام الذكاء الاصطناعي – وقد تم إنجازه أسرع بعشر مرات وبتكلفة أقل مقارنة باستخدام المؤثرات البصرية التقليدية techcrunch.com. شدد الرئيس التنفيذي المشارك تيد ساراندوس على أن الذكاء الاصطناعي يُستخدم لتمكين المبدعين وليس لاستبدالهم، قائلاً: “الذكاء الاصطناعي يمثل فرصة مذهلة لمساعدة المبدعين على صنع أفلام ومسلسلات أفضل، وليس فقط أرخص … هؤلاء أشخاص حقيقيون ينفذون عملاً حقيقياً بأدوات أفضل.” techcrunch.com وأشار إلى أن فناني نتفليكس يرون بالفعل فوائد في مرحلة التصور المسبق وتخطيط المشاهد. كما تطبق نتفليكس الذكاء الاصطناعي التوليدي خارج نطاق المؤثرات البصرية – حيث تستخدمه لاكتشاف المحتوى بشكل شخصي، وتستعد لإطلاق إعلانات تفاعلية مدعومة بالذكاء الاصطناعي في وقت لاحق من هذا العام techcrunch.com.

الموضة التوليدية وسحر الفيديو: امتدت لمسة الذكاء الاصطناعي الإبداعية إلى عالم الموضة والفيديو. أجرى باحثون في كوريا الجنوبية تجارب على “الموضة التوليدية”، حيث استخدموا ChatGPT للتنبؤ باتجاهات الموضة القادمة وDALL·E 3 لإنشاء أكثر من 100 زي افتراضي لمجموعة خريف/شتاء binaryverseai.com binaryverseai.com. توافقت حوالي ثلثي التصاميم التي أنشأها الذكاء الاصطناعي مع الأنماط السائدة في العالم الواقعي، ما يشير إلى أن النماذج التوليدية قد تكشف عن الاتجاهات قبل المصممين أنفسهم. (لكن الذكاء الاصطناعي تعثر في مفاهيم مُجرّدة مثل التصاميم ذات الهوية الجندرية السائلة، مما يؤكد أن المصممين البشر لا يزالون يمسكون بالبوصلة الإبداعية binaryverseai.com.) وفي تكنولوجيا صناعة الأفلام، كشفت NVIDIA وشركاؤها الجامعيون عن DiffusionRenderer، وهو نظام ذكاء اصطناعي من مرحلتين يدمج بين العرض المعكوس والمتقدم لجعل التأثيرات البصرية المتقدمة متاحة للمبدعين المستقلين binaryverseai.com binaryverseai.com. في أحد العروض التوضيحية، تمكن المستخدم من تصوير مشهد بسيط ثم إدخال تنين رسوم متحركة ينتج ظلالاً واقعية تماماً دون الحاجة إلى حساسات معقدة أو إعدادات إضاءة يدوية – فقد تعلم الذكاء الاصطناعي هندسة وإضاءة المشهد من اللقطات نفسها binaryverseai.com binaryverseai.com. والنتيجة تضيق الفجوة بين استوديوهات الإنتاج الكبرى والمبدعين الصغار، وتلمّح لمستقبل تحرير فيديو يكاد يكون “سحرياً” متاحاً للجميع.

التمويل، الأعمال والاستثمار في الذكاء الاصطناعي

الذكاء الاصطناعي المصمم للقطاع المالي: شهد القطاع المالي اختراقات متزايدة للذكاء الاصطناعي في المنتجات والأرباح. أطلقت شركة Anthropic خدمة Claude للخدمات المالية، وهو إصدار من مساعد الذكاء الاصطناعي Claude-4 مخصص لمحللي السوق والمصرفيين. وتدعي Anthropic أن Claude-4 يتفوق على النماذج المتقدمة الأخرى في مهام التمويل، استنادًا إلى معايير الصناعة anthropic.com. يمكن للمنصة الاتصال بالبيانات المباشرة للأسواق (عبر شركاء مثل بلومبرغ وFactSet وغيرهم) والتعامل مع أحمال العمل الكبيرة من نمذجة المخاطر حتى الأعمال الورقية للامتثال. ويبلغ المستخدمون الأوائل عن مكاسب كبيرة – على سبيل المثال، قال الرئيس التنفيذي لصندوق الثروة السيادي النرويجي البالغ قيمته 1.4 تريليون دولار (NBIM) إن Claude قد “غير بشكل جذري” سير العمل لديهم، حيث وفر ما يقدر بـزيادة في الإنتاجية بنسبة 20% (حوالي 213,000 ساعة عمل تم توفيرها) من خلال تمكين الموظفين من استعلام البيانات وتحليل مكالمات الأرباح بشكل أكثر كفاءة anthropic.com. وأشار إلى أن Claude أصبح “لا غنى عنه” بالنسبة لمحللي ومديري المخاطر في تلك الشركة anthropic.com. كما تستكشف البنوك والصناديق الكبرى المساعدين الذكاء الاصطناعي لتسريع الأبحاث مع تتبع كامل للمراجعات وتلقائية للمهام الروتينية التي عادة ما تعيق عمل الفرق المالية.

وول ستريت تراهن على شركات الذكاء الاصطناعي الناشئة: يواصل المستثمرون ضخ الأموال في مشاريع الذكاء الاصطناعي بقيم مذهلة. وجاءت أخبار هذا الأسبوع بأن Perplexity AI، الشركة الناشئة المعروفة بروبوت الدردشة البحثي المعتمد على الذكاء الاصطناعي، جمعت جولة تمويل جديدة بقيمة 100 مليون دولار، لترتفع قيمتها إلى نحو 18 مليار دولار theindependent.sg. (للمقارنة، كانت قيمة Perplexity تقارب 14 مليار دولار فقط قبل شهرين، ومليار دولار واحد في العام الماضي، مما يعكس الارتفاع الصاروخي في ثروات الذكاء الاصطناعي التوليدي theindependent.sg.) كما ظهرت صناديق جديدة تركز على الذكاء الاصطناعي: فمثلاً، أطلق أحد أوائل المستثمرين في Instacart صندوق “Verified Capital” بمبلغ 175 مليون دولار مخصص لشركات الذكاء الاصطناعي الناشئة (أُعلن عنه في 20 يوليو). وفي مجال الحوسبة السحابية، بدأت الشركات التقليدية في التكيف مع عصر الذكاء الاصطناعي – أحيانًا بشكل مؤلم. فقد أكدت أمازون أنها خفضت عدة مئات من وظائف AWS (معظمها في أدوار الدعم السحابي)، بعد أن حذّر الرئيس التنفيذي آندي جاسي من أن كفاءات الذكاء الاصطناعي ستقلص بعض الوظائف في “طبقة الوسطى” binaryverseai.com. وأشارت رسائل بريد إلكتروني داخلية هذا الأسبوع إلى أن بعض فرق نقل البيانات المتخصصة أصبحت زائدة عن الحاجة – “الدليل المرئي الأول داخل AWS” على الأتمتة المدفوعة بالذكاء الاصطناعي، كما أشارت رويترز binaryverseai.com binaryverseai.com. وقال المحللون إن حتى وحدات التكنولوجيا ذات الهوامش المرتفعة ليست محصنة: “الذكاء الاصطناعي يلتهم المهام التي يتقنها، ثم تقوم الشركات بإعادة توزيع أو الاستغناء عن الموظفين،” كما لاحظ أحدهم بتهكم binaryverseai.com. وعلى الرغم من الأرباح القوية، تواصل عملاق الحوسبة السحابية إعادة الهيكلة، مما يوضح كيف أن مكاسب الإنتاجية من الذكاء الاصطناعي قد تؤدي أيضًا إلى تقليص القوى العاملة فعليًا.

اختراقات في العلوم والرعاية الصحية

تسريع التحليل الطبي: في مجال الرعاية الصحية، تعد اختراقات الذكاء الاصطناعي بتشخيصات أسرع وإجراءات أكثر أمانًا. كشف باحثون من جامعة إنديانا ومستشفيات شريكة عن خط أنابيب “معلوماتية السرطان” مدعوم بالذكاء الاصطناعي يمكنه فحص شرائح علم الأمراض الرقمية والسجلات الصحية الإلكترونية وبيانات الجينوم للإشارة إلى احتمالية الإصابة بالسرطان واقتراح مرحلة الورم. وبحسب الباحث الرئيسي سبيريدون باكاس، فقد قلل نظام الذكاء الاصطناعي بعض إجراءات التشخيص “من أيام إلى ثوانٍ”، حيث صنّف الحالات بسرعة تفوق البشر binaryverseai.com binaryverseai.com. كما كشف الأداة عن ترابطات دقيقة عبر بيانات متعددة الأنماط قد يغفل عنها البشر، على الرغم من إصرار الفريق على أن أطباء علم الأمراض يظلون ضروريين للحالات الصعبة والأحكام النهائية binaryverseai.com. يجسد هذا المشروع اتجاهًا أوسع نحو الطب متعدد الأنماط بالذكاء الاصطناعي الذي يمكنه استيعاب أنواع عديدة من البيانات مرة واحدة. وبالمثل، أفاد أطباء الأشعة بنجاحهم في استخدام نموذج ذكاء اصطناعي يُدعى mViT (محول رؤي معدل) لتحسين فحوصات الأشعة المقطعية للأطفال binaryverseai.com binaryverseai.com. يمكن لأجهزة الأشعة المقطعية التي تعتمد تقنية عدّ الفوتونات أن تقلل من جرعة الأشعة السينية للأطفال، إلا أنها غالبًا ما تنتج صورًا مشوشة؛ حيث تعلم نظام mViT إزالة التشويش من الفحوصات مباشرة، مما يجعل الشرايين والأنسجة أوضح دون التمويه الناتج عن أساليب تقليل الضوضاء القديمة binaryverseai.com binaryverseai.com. وأظهرت الاختبارات التي أُجريت على 20 مريضًا صغيرًا أن الذكاء الاصطناعي تفوق باستمرار على المرشحات التقليدية، مما يسمح على الأرجح بالحصول على فحوصات أكثر وضوحًا وأقل جرعة إشعاعية – وهو مكسب لسلامة المرضى الأطفال مع حصول أجهزة الأشعة المقطعية الجديدة على موافقة إدارة الغذاء والدواء الأمريكية binaryverseai.com.

الاختراقات في علم الأحياء والمواد: تدفع الذكاء الاصطناعي أيضًا العلوم الأساسية إلى الأمام. وصفت دراسة جديدة في Nature Communications كيف يمكن لثلاثة شبكات عصبية الآن تحديد توقيت تطور الأجنة بدقة إلى الدقيقة، وهو إنجاز قد يغير مجال علم الأحياء التطوري binaryverseai.com. من خلال تدريب شبكات عصبية التففية على صور عالية الدقة لأجنة ذبابة الفاكهة، تعلم النظام تحديد الإشارات البصرية الدقيقة لدورات انقسام الخلايا. يمكنه معرفة عمر الجنين (بدقة ±1 دقيقة) دون استخدام علامات فلورية تدخلية – محققًا دقة 98–100% في الأجنة في المراحل المبكرة binaryverseai.com binaryverseai.com. هذا “ساعة الجنين” بالذكاء الاصطناعي مكنت الفريق من رسم خرائط طفرات تنشيط الجينات بدقة زمنية غير مسبوقة، مما يوفر لعلماء الأحياء أداة قوية جديدة لدراسة كيفية تشكل الأعضاء. في علم المواد، قدم باحثون من المملكة المتحدة نموذج “CrystalGPT”، المدرب على 706,000 بنية بلورية، للتنبؤ بخصائص المواد. من خلال فهمه لـ”لغة” البلورات الجزيئية (عبر ألغاز الذرات المخفية وتحديات التناظر)، يمكن لـ CrystalGPT التنبؤ بكثافة أو مسامية أو استقرار مركب جديد بسرعة أكبر بكثير من المحاكاة التقليدية binaryverseai.com binaryverseai.com. يشيد الخبراء بشفافيته – حيث تُبرز الذكاء الاصطناعي حتى أي الأحياء الذرية أثرت أكثر في التنبؤ – ما يمنح الكيميائيين الثقة بدلاً من تخمين الصندوق الأسود binaryverseai.com. يمكن أن تسرع النمذجة البلورية الأسرع التقدم في البطاريات والعوامل المساعدة ومواد أشباه الموصلات، مما يقلل أوقات وتكاليف البحث والتطوير.

الذكاء الاصطناعي للبرمجة – مع بعض التحفظات: لم تكن جميع الأبحاث وردية؛ فقد قدمت دراسة واحدة رؤية واقعية حول مساعدي البرمجة بالذكاء الاصطناعي. ففي تجربة محكومة، استغرق مطورو البرمجيات ذوو الخبرة وقتاً أطول بنسبة 19% في إنجاز مهمة باستخدام مساعد ذكاء اصطناعي مقارنةً بمجموعة ضابطة بدون ذكاء اصطناعي ts2.tech. كان المبرمجون المتمرسون يتوقعون أن يساعدهم الذكاء الاصطناعي (أداة اقتراح الشيفرة) على إنجاز العمل بشكل أسرع، لكنه غالباً ما كان يعطي شيفرات “صحيحة من حيث التوجه العام، لكنها ليست بالضبط ما هو مطلوبts2.tech. وقد أُهدر الوقت في مراجعة هذه الاقتراحات وتصحيحها. في المقابل، أظهرت دراسات سابقة زيادات كبيرة في السرعة للمبرمجين الأقل خبرة في المهام الأسهل. “إنه أشبه بتحرير مقالة أكثر من كونه كتابة من البداية،” قال أحد المبرمجين المخضرمين حول أسلوب العمل بمساعدة الذكاء الاصطناعي – ربما أكثر استرخاءً، لكنه أبطأ ts2.tech. وخلص الباحثون في METR إلى أن المساعدات الذكية الحالية ليست عصا سحرية لزيادة إنتاجية الخبراء في البرمجة المعقدة، وأن هناك حاجة لمزيد من التحسين والمراقبة البشرية ts2.tech. هذا الاستنتاج المتوازن يهدئ من الاندفاع نحو نشر الذكاء الاصطناعي المولّد للشيفرات لجميع المبرمجين.

التطلع داخل “عقل” الذكاء الاصطناعي: نشر اتحاد من كبار علماء الذكاء الاصطناعي (من OpenAI وDeepMind وAnthropic وأفضل الجامعات) ورقة بحثية بارزة يدعون فيها إلى ابتكار تقنيات جديدة لـمراقبة “تَسَلْسُل التفكير” في الذكاء الاصطناعي – وهي في الأساس خطوات التفكير الخفية التي يولدها نماذج الذكاء الاصطناعي داخليًا ts2.tech. ومع تحول أنظمة الذكاء الاصطناعي إلى المزيد من الاستقلالية (كما هي الحال مع العملاء الذين يظهرون الآن)، يجادل المؤلفون بأن القدرة على الاطلاع على تلك الأفكار الوسيطة قد يكون أمرًا حيويًا للسلامة ts2.tech. فمن خلال مراقبة تسلسل تفكير الذكاء الاصطناعي خطوة بخطوة، قد يتمكن المطورون من اكتشاف الأخطاء أو الميل إلى طرق خطرة قبل أن يتصرف الذكاء الاصطناعي. ومع ذلك، تحذر الورقة من أنه مع تزايد تعقيد النماذج، “لا يوجد ضمان بأن درجة الشفافية الحالية ستستمر” – فقد تقوم نماذج الذكاء الاصطناعي المستقبلية بإضمار تفكيرها بشكل لا يمكن تتبعه بسهولة ts2.tech. وقد حث الفريق المجتمع العلمي على “الاستفادة القصوى من إمكانية مراقبة تسلسل التفكير” الآن والسعي إلى الحفاظ على الشفافية مستقبلًا ts2.tech. ومن الجدير بالذكر أن هذه الدعوة للعمل شارك في توقيعها مجموعة من كبار علماء الذكاء الاصطناعي – بمن فيهم جيفري هينتون، والعالم الرئيسي في OpenAI إيليا سوتسكيفر (ورئيس التوافق جان ليك)، والمؤسس المشارك لـDeepMind شين ليج، وآخرون ts2.tech. إنه عرض نادر للوحدة بين مختبرات متنافسة، يعكس قلقًا مشتركًا: مع اقتراب أنظمة الذكاء الاصطناعي من مستوى التفكير البشري، يجب ألا نسمح لها بأن تصبح “صناديق سوداء” لا يمكن فهمها. البحث في “فحوصات دماغ الذكاء الاصطناعي” – قراءة فكر الذكاء الاصطناعي – قد يصبح ضروريًا بقدر أهمية إنشاء الذكاء الاصطناعي نفسه.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

الذكاء الاصطناعي في الإعلام، الترفيه والصناعات الإبداعية

نتفليكس تتبنى الذكاء الاصطناعي في المؤثرات البصرية: شهدت هوليوود سابقة ملحوظة: فقد كشفت نتفليكس في مكالمة الأرباح الخاصة بها أنها بدأت في استخدام الذكاء الاصطناعي التوليدي في إنتاج المحتوى، بما في ذلك لقطات تم إنشاؤها بالكامل بالذكاء الاصطناعي لأول مرة في عرض من عروض نتفليكس ts2.tech. في السلسلة الأرجنتينية الخيالية العلمية “El Eternauta”، تم إنشاء مشهد كامل لانهيار مبنى باستخدام الذكاء الاصطناعي – وقد تم إنجازه أسرع بعشر مرات وبتكلفة أقل مقارنة باستخدام المؤثرات البصرية التقليدية techcrunch.com. شدد الرئيس التنفيذي المشارك تيد ساراندوس على أن الذكاء الاصطناعي يُستخدم لتمكين المبدعين وليس لاستبدالهم، قائلاً: “الذكاء الاصطناعي يمثل فرصة مذهلة لمساعدة المبدعين على صنع أفلام ومسلسلات أفضل، وليس فقط أرخص … هؤلاء أشخاص حقيقيون ينفذون عملاً حقيقياً بأدوات أفضل.” techcrunch.com وأشار إلى أن فناني نتفليكس يرون بالفعل فوائد في مرحلة التصور المسبق وتخطيط المشاهد. كما تطبق نتفليكس الذكاء الاصطناعي التوليدي خارج نطاق المؤثرات البصرية – حيث تستخدمه لاكتشاف المحتوى بشكل شخصي، وتستعد لإطلاق إعلانات تفاعلية مدعومة بالذكاء الاصطناعي في وقت لاحق من هذا العام techcrunch.com.

الموضة التوليدية وسحر الفيديو: امتدت لمسة الذكاء الاصطناعي الإبداعية إلى عالم الموضة والفيديو. أجرى باحثون في كوريا الجنوبية تجارب على “الموضة التوليدية”، حيث استخدموا ChatGPT للتنبؤ باتجاهات الموضة القادمة وDALL·E 3 لإنشاء أكثر من 100 زي افتراضي لمجموعة خريف/شتاء binaryverseai.com binaryverseai.com. توافقت حوالي ثلثي التصاميم التي أنشأها الذكاء الاصطناعي مع الأنماط السائدة في العالم الواقعي، ما يشير إلى أن النماذج التوليدية قد تكشف عن الاتجاهات قبل المصممين أنفسهم. (لكن الذكاء الاصطناعي تعثر في مفاهيم مُجرّدة مثل التصاميم ذات الهوية الجندرية السائلة، مما يؤكد أن المصممين البشر لا يزالون يمسكون بالبوصلة الإبداعية binaryverseai.com.) وفي تكنولوجيا صناعة الأفلام، كشفت NVIDIA وشركاؤها الجامعيون عن DiffusionRenderer، وهو نظام ذكاء اصطناعي من مرحلتين يدمج بين العرض المعكوس والمتقدم لجعل التأثيرات البصرية المتقدمة متاحة للمبدعين المستقلين binaryverseai.com binaryverseai.com. في أحد العروض التوضيحية، تمكن المستخدم من تصوير مشهد بسيط ثم إدخال تنين رسوم متحركة ينتج ظلالاً واقعية تماماً دون الحاجة إلى حساسات معقدة أو إعدادات إضاءة يدوية – فقد تعلم الذكاء الاصطناعي هندسة وإضاءة المشهد من اللقطات نفسها binaryverseai.com binaryverseai.com. والنتيجة تضيق الفجوة بين استوديوهات الإنتاج الكبرى والمبدعين الصغار، وتلمّح لمستقبل تحرير فيديو يكاد يكون “سحرياً” متاحاً للجميع.

التمويل، الأعمال والاستثمار في الذكاء الاصطناعي

الذكاء الاصطناعي المصمم للقطاع المالي: شهد القطاع المالي اختراقات متزايدة للذكاء الاصطناعي في المنتجات والأرباح. أطلقت شركة Anthropic خدمة Claude للخدمات المالية، وهو إصدار من مساعد الذكاء الاصطناعي Claude-4 مخصص لمحللي السوق والمصرفيين. وتدعي Anthropic أن Claude-4 يتفوق على النماذج المتقدمة الأخرى في مهام التمويل، استنادًا إلى معايير الصناعة anthropic.com. يمكن للمنصة الاتصال بالبيانات المباشرة للأسواق (عبر شركاء مثل بلومبرغ وFactSet وغيرهم) والتعامل مع أحمال العمل الكبيرة من نمذجة المخاطر حتى الأعمال الورقية للامتثال. ويبلغ المستخدمون الأوائل عن مكاسب كبيرة – على سبيل المثال، قال الرئيس التنفيذي لصندوق الثروة السيادي النرويجي البالغ قيمته 1.4 تريليون دولار (NBIM) إن Claude قد “غير بشكل جذري” سير العمل لديهم، حيث وفر ما يقدر بـزيادة في الإنتاجية بنسبة 20% (حوالي 213,000 ساعة عمل تم توفيرها) من خلال تمكين الموظفين من استعلام البيانات وتحليل مكالمات الأرباح بشكل أكثر كفاءة anthropic.com. وأشار إلى أن Claude أصبح “لا غنى عنه” بالنسبة لمحللي ومديري المخاطر في تلك الشركة anthropic.com. كما تستكشف البنوك والصناديق الكبرى المساعدين الذكاء الاصطناعي لتسريع الأبحاث مع تتبع كامل للمراجعات وتلقائية للمهام الروتينية التي عادة ما تعيق عمل الفرق المالية.

وول ستريت تراهن على شركات الذكاء الاصطناعي الناشئة: يواصل المستثمرون ضخ الأموال في مشاريع الذكاء الاصطناعي بقيم مذهلة. وجاءت أخبار هذا الأسبوع بأن Perplexity AI، الشركة الناشئة المعروفة بروبوت الدردشة البحثي المعتمد على الذكاء الاصطناعي، جمعت جولة تمويل جديدة بقيمة 100 مليون دولار، لترتفع قيمتها إلى نحو 18 مليار دولار theindependent.sg. (للمقارنة، كانت قيمة Perplexity تقارب 14 مليار دولار فقط قبل شهرين، ومليار دولار واحد في العام الماضي، مما يعكس الارتفاع الصاروخي في ثروات الذكاء الاصطناعي التوليدي theindependent.sg.) كما ظهرت صناديق جديدة تركز على الذكاء الاصطناعي: فمثلاً، أطلق أحد أوائل المستثمرين في Instacart صندوق “Verified Capital” بمبلغ 175 مليون دولار مخصص لشركات الذكاء الاصطناعي الناشئة (أُعلن عنه في 20 يوليو). وفي مجال الحوسبة السحابية، بدأت الشركات التقليدية في التكيف مع عصر الذكاء الاصطناعي – أحيانًا بشكل مؤلم. فقد أكدت أمازون أنها خفضت عدة مئات من وظائف AWS (معظمها في أدوار الدعم السحابي)، بعد أن حذّر الرئيس التنفيذي آندي جاسي من أن كفاءات الذكاء الاصطناعي ستقلص بعض الوظائف في “طبقة الوسطى” binaryverseai.com. وأشارت رسائل بريد إلكتروني داخلية هذا الأسبوع إلى أن بعض فرق نقل البيانات المتخصصة أصبحت زائدة عن الحاجة – “الدليل المرئي الأول داخل AWS” على الأتمتة المدفوعة بالذكاء الاصطناعي، كما أشارت رويترز binaryverseai.com binaryverseai.com. وقال المحللون إن حتى وحدات التكنولوجيا ذات الهوامش المرتفعة ليست محصنة: “الذكاء الاصطناعي يلتهم المهام التي يتقنها، ثم تقوم الشركات بإعادة توزيع أو الاستغناء عن الموظفين،” كما لاحظ أحدهم بتهكم binaryverseai.com. وعلى الرغم من الأرباح القوية، تواصل عملاق الحوسبة السحابية إعادة الهيكلة، مما يوضح كيف أن مكاسب الإنتاجية من الذكاء الاصطناعي قد تؤدي أيضًا إلى تقليص القوى العاملة فعليًا.

اختراقات في العلوم والرعاية الصحية

تسريع التحليل الطبي: في مجال الرعاية الصحية، تعد اختراقات الذكاء الاصطناعي بتشخيصات أسرع وإجراءات أكثر أمانًا. كشف باحثون من جامعة إنديانا ومستشفيات شريكة عن خط أنابيب “معلوماتية السرطان” مدعوم بالذكاء الاصطناعي يمكنه فحص شرائح علم الأمراض الرقمية والسجلات الصحية الإلكترونية وبيانات الجينوم للإشارة إلى احتمالية الإصابة بالسرطان واقتراح مرحلة الورم. وبحسب الباحث الرئيسي سبيريدون باكاس، فقد قلل نظام الذكاء الاصطناعي بعض إجراءات التشخيص “من أيام إلى ثوانٍ”، حيث صنّف الحالات بسرعة تفوق البشر binaryverseai.com binaryverseai.com. كما كشف الأداة عن ترابطات دقيقة عبر بيانات متعددة الأنماط قد يغفل عنها البشر، على الرغم من إصرار الفريق على أن أطباء علم الأمراض يظلون ضروريين للحالات الصعبة والأحكام النهائية binaryverseai.com. يجسد هذا المشروع اتجاهًا أوسع نحو الطب متعدد الأنماط بالذكاء الاصطناعي الذي يمكنه استيعاب أنواع عديدة من البيانات مرة واحدة. وبالمثل، أفاد أطباء الأشعة بنجاحهم في استخدام نموذج ذكاء اصطناعي يُدعى mViT (محول رؤي معدل) لتحسين فحوصات الأشعة المقطعية للأطفال binaryverseai.com binaryverseai.com. يمكن لأجهزة الأشعة المقطعية التي تعتمد تقنية عدّ الفوتونات أن تقلل من جرعة الأشعة السينية للأطفال، إلا أنها غالبًا ما تنتج صورًا مشوشة؛ حيث تعلم نظام mViT إزالة التشويش من الفحوصات مباشرة، مما يجعل الشرايين والأنسجة أوضح دون التمويه الناتج عن أساليب تقليل الضوضاء القديمة binaryverseai.com binaryverseai.com. وأظهرت الاختبارات التي أُجريت على 20 مريضًا صغيرًا أن الذكاء الاصطناعي تفوق باستمرار على المرشحات التقليدية، مما يسمح على الأرجح بالحصول على فحوصات أكثر وضوحًا وأقل جرعة إشعاعية – وهو مكسب لسلامة المرضى الأطفال مع حصول أجهزة الأشعة المقطعية الجديدة على موافقة إدارة الغذاء والدواء الأمريكية binaryverseai.com.

الاختراقات في علم الأحياء والمواد: تدفع الذكاء الاصطناعي أيضًا العلوم الأساسية إلى الأمام. وصفت دراسة جديدة في Nature Communications كيف يمكن لثلاثة شبكات عصبية الآن تحديد توقيت تطور الأجنة بدقة إلى الدقيقة، وهو إنجاز قد يغير مجال علم الأحياء التطوري binaryverseai.com. من خلال تدريب شبكات عصبية التففية على صور عالية الدقة لأجنة ذبابة الفاكهة، تعلم النظام تحديد الإشارات البصرية الدقيقة لدورات انقسام الخلايا. يمكنه معرفة عمر الجنين (بدقة ±1 دقيقة) دون استخدام علامات فلورية تدخلية – محققًا دقة 98–100% في الأجنة في المراحل المبكرة binaryverseai.com binaryverseai.com. هذا “ساعة الجنين” بالذكاء الاصطناعي مكنت الفريق من رسم خرائط طفرات تنشيط الجينات بدقة زمنية غير مسبوقة، مما يوفر لعلماء الأحياء أداة قوية جديدة لدراسة كيفية تشكل الأعضاء. في علم المواد، قدم باحثون من المملكة المتحدة نموذج “CrystalGPT”، المدرب على 706,000 بنية بلورية، للتنبؤ بخصائص المواد. من خلال فهمه لـ”لغة” البلورات الجزيئية (عبر ألغاز الذرات المخفية وتحديات التناظر)، يمكن لـ CrystalGPT التنبؤ بكثافة أو مسامية أو استقرار مركب جديد بسرعة أكبر بكثير من المحاكاة التقليدية binaryverseai.com binaryverseai.com. يشيد الخبراء بشفافيته – حيث تُبرز الذكاء الاصطناعي حتى أي الأحياء الذرية أثرت أكثر في التنبؤ – ما يمنح الكيميائيين الثقة بدلاً من تخمين الصندوق الأسود binaryverseai.com. يمكن أن تسرع النمذجة البلورية الأسرع التقدم في البطاريات والعوامل المساعدة ومواد أشباه الموصلات، مما يقلل أوقات وتكاليف البحث والتطوير.

الذكاء الاصطناعي للبرمجة – مع بعض التحفظات: لم تكن جميع الأبحاث وردية؛ فقد قدمت دراسة واحدة رؤية واقعية حول مساعدي البرمجة بالذكاء الاصطناعي. ففي تجربة محكومة، استغرق مطورو البرمجيات ذوو الخبرة وقتاً أطول بنسبة 19% في إنجاز مهمة باستخدام مساعد ذكاء اصطناعي مقارنةً بمجموعة ضابطة بدون ذكاء اصطناعي ts2.tech. كان المبرمجون المتمرسون يتوقعون أن يساعدهم الذكاء الاصطناعي (أداة اقتراح الشيفرة) على إنجاز العمل بشكل أسرع، لكنه غالباً ما كان يعطي شيفرات “صحيحة من حيث التوجه العام، لكنها ليست بالضبط ما هو مطلوبts2.tech. وقد أُهدر الوقت في مراجعة هذه الاقتراحات وتصحيحها. في المقابل، أظهرت دراسات سابقة زيادات كبيرة في السرعة للمبرمجين الأقل خبرة في المهام الأسهل. “إنه أشبه بتحرير مقالة أكثر من كونه كتابة من البداية،” قال أحد المبرمجين المخضرمين حول أسلوب العمل بمساعدة الذكاء الاصطناعي – ربما أكثر استرخاءً، لكنه أبطأ ts2.tech. وخلص الباحثون في METR إلى أن المساعدات الذكية الحالية ليست عصا سحرية لزيادة إنتاجية الخبراء في البرمجة المعقدة، وأن هناك حاجة لمزيد من التحسين والمراقبة البشرية ts2.tech. هذا الاستنتاج المتوازن يهدئ من الاندفاع نحو نشر الذكاء الاصطناعي المولّد للشيفرات لجميع المبرمجين.

التطلع داخل “عقل” الذكاء الاصطناعي: نشر اتحاد من كبار علماء الذكاء الاصطناعي (من OpenAI وDeepMind وAnthropic وأفضل الجامعات) ورقة بحثية بارزة يدعون فيها إلى ابتكار تقنيات جديدة لـمراقبة “تَسَلْسُل التفكير” في الذكاء الاصطناعي – وهي في الأساس خطوات التفكير الخفية التي يولدها نماذج الذكاء الاصطناعي داخليًا ts2.tech. ومع تحول أنظمة الذكاء الاصطناعي إلى المزيد من الاستقلالية (كما هي الحال مع العملاء الذين يظهرون الآن)، يجادل المؤلفون بأن القدرة على الاطلاع على تلك الأفكار الوسيطة قد يكون أمرًا حيويًا للسلامة ts2.tech. فمن خلال مراقبة تسلسل تفكير الذكاء الاصطناعي خطوة بخطوة، قد يتمكن المطورون من اكتشاف الأخطاء أو الميل إلى طرق خطرة قبل أن يتصرف الذكاء الاصطناعي. ومع ذلك، تحذر الورقة من أنه مع تزايد تعقيد النماذج، “لا يوجد ضمان بأن درجة الشفافية الحالية ستستمر” – فقد تقوم نماذج الذكاء الاصطناعي المستقبلية بإضمار تفكيرها بشكل لا يمكن تتبعه بسهولة ts2.tech. وقد حث الفريق المجتمع العلمي على “الاستفادة القصوى من إمكانية مراقبة تسلسل التفكير” الآن والسعي إلى الحفاظ على الشفافية مستقبلًا ts2.tech. ومن الجدير بالذكر أن هذه الدعوة للعمل شارك في توقيعها مجموعة من كبار علماء الذكاء الاصطناعي – بمن فيهم جيفري هينتون، والعالم الرئيسي في OpenAI إيليا سوتسكيفر (ورئيس التوافق جان ليك)، والمؤسس المشارك لـDeepMind شين ليج، وآخرون ts2.tech. إنه عرض نادر للوحدة بين مختبرات متنافسة، يعكس قلقًا مشتركًا: مع اقتراب أنظمة الذكاء الاصطناعي من مستوى التفكير البشري، يجب ألا نسمح لها بأن تصبح “صناديق سوداء” لا يمكن فهمها. البحث في “فحوصات دماغ الذكاء الاصطناعي” – قراءة فكر الذكاء الاصطناعي – قد يصبح ضروريًا بقدر أهمية إنشاء الذكاء الاصطناعي نفسه.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

الذكاء الاصطناعي في الإعلام، الترفيه والصناعات الإبداعية

نتفليكس تتبنى الذكاء الاصطناعي في المؤثرات البصرية: شهدت هوليوود سابقة ملحوظة: فقد كشفت نتفليكس في مكالمة الأرباح الخاصة بها أنها بدأت في استخدام الذكاء الاصطناعي التوليدي في إنتاج المحتوى، بما في ذلك لقطات تم إنشاؤها بالكامل بالذكاء الاصطناعي لأول مرة في عرض من عروض نتفليكس ts2.tech. في السلسلة الأرجنتينية الخيالية العلمية “El Eternauta”، تم إنشاء مشهد كامل لانهيار مبنى باستخدام الذكاء الاصطناعي – وقد تم إنجازه أسرع بعشر مرات وبتكلفة أقل مقارنة باستخدام المؤثرات البصرية التقليدية techcrunch.com. شدد الرئيس التنفيذي المشارك تيد ساراندوس على أن الذكاء الاصطناعي يُستخدم لتمكين المبدعين وليس لاستبدالهم، قائلاً: “الذكاء الاصطناعي يمثل فرصة مذهلة لمساعدة المبدعين على صنع أفلام ومسلسلات أفضل، وليس فقط أرخص … هؤلاء أشخاص حقيقيون ينفذون عملاً حقيقياً بأدوات أفضل.” techcrunch.com وأشار إلى أن فناني نتفليكس يرون بالفعل فوائد في مرحلة التصور المسبق وتخطيط المشاهد. كما تطبق نتفليكس الذكاء الاصطناعي التوليدي خارج نطاق المؤثرات البصرية – حيث تستخدمه لاكتشاف المحتوى بشكل شخصي، وتستعد لإطلاق إعلانات تفاعلية مدعومة بالذكاء الاصطناعي في وقت لاحق من هذا العام techcrunch.com.

الموضة التوليدية وسحر الفيديو: امتدت لمسة الذكاء الاصطناعي الإبداعية إلى عالم الموضة والفيديو. أجرى باحثون في كوريا الجنوبية تجارب على “الموضة التوليدية”، حيث استخدموا ChatGPT للتنبؤ باتجاهات الموضة القادمة وDALL·E 3 لإنشاء أكثر من 100 زي افتراضي لمجموعة خريف/شتاء binaryverseai.com binaryverseai.com. توافقت حوالي ثلثي التصاميم التي أنشأها الذكاء الاصطناعي مع الأنماط السائدة في العالم الواقعي، ما يشير إلى أن النماذج التوليدية قد تكشف عن الاتجاهات قبل المصممين أنفسهم. (لكن الذكاء الاصطناعي تعثر في مفاهيم مُجرّدة مثل التصاميم ذات الهوية الجندرية السائلة، مما يؤكد أن المصممين البشر لا يزالون يمسكون بالبوصلة الإبداعية binaryverseai.com.) وفي تكنولوجيا صناعة الأفلام، كشفت NVIDIA وشركاؤها الجامعيون عن DiffusionRenderer، وهو نظام ذكاء اصطناعي من مرحلتين يدمج بين العرض المعكوس والمتقدم لجعل التأثيرات البصرية المتقدمة متاحة للمبدعين المستقلين binaryverseai.com binaryverseai.com. في أحد العروض التوضيحية، تمكن المستخدم من تصوير مشهد بسيط ثم إدخال تنين رسوم متحركة ينتج ظلالاً واقعية تماماً دون الحاجة إلى حساسات معقدة أو إعدادات إضاءة يدوية – فقد تعلم الذكاء الاصطناعي هندسة وإضاءة المشهد من اللقطات نفسها binaryverseai.com binaryverseai.com. والنتيجة تضيق الفجوة بين استوديوهات الإنتاج الكبرى والمبدعين الصغار، وتلمّح لمستقبل تحرير فيديو يكاد يكون “سحرياً” متاحاً للجميع.

التمويل، الأعمال والاستثمار في الذكاء الاصطناعي

الذكاء الاصطناعي المصمم للقطاع المالي: شهد القطاع المالي اختراقات متزايدة للذكاء الاصطناعي في المنتجات والأرباح. أطلقت شركة Anthropic خدمة Claude للخدمات المالية، وهو إصدار من مساعد الذكاء الاصطناعي Claude-4 مخصص لمحللي السوق والمصرفيين. وتدعي Anthropic أن Claude-4 يتفوق على النماذج المتقدمة الأخرى في مهام التمويل، استنادًا إلى معايير الصناعة anthropic.com. يمكن للمنصة الاتصال بالبيانات المباشرة للأسواق (عبر شركاء مثل بلومبرغ وFactSet وغيرهم) والتعامل مع أحمال العمل الكبيرة من نمذجة المخاطر حتى الأعمال الورقية للامتثال. ويبلغ المستخدمون الأوائل عن مكاسب كبيرة – على سبيل المثال، قال الرئيس التنفيذي لصندوق الثروة السيادي النرويجي البالغ قيمته 1.4 تريليون دولار (NBIM) إن Claude قد “غير بشكل جذري” سير العمل لديهم، حيث وفر ما يقدر بـزيادة في الإنتاجية بنسبة 20% (حوالي 213,000 ساعة عمل تم توفيرها) من خلال تمكين الموظفين من استعلام البيانات وتحليل مكالمات الأرباح بشكل أكثر كفاءة anthropic.com. وأشار إلى أن Claude أصبح “لا غنى عنه” بالنسبة لمحللي ومديري المخاطر في تلك الشركة anthropic.com. كما تستكشف البنوك والصناديق الكبرى المساعدين الذكاء الاصطناعي لتسريع الأبحاث مع تتبع كامل للمراجعات وتلقائية للمهام الروتينية التي عادة ما تعيق عمل الفرق المالية.

وول ستريت تراهن على شركات الذكاء الاصطناعي الناشئة: يواصل المستثمرون ضخ الأموال في مشاريع الذكاء الاصطناعي بقيم مذهلة. وجاءت أخبار هذا الأسبوع بأن Perplexity AI، الشركة الناشئة المعروفة بروبوت الدردشة البحثي المعتمد على الذكاء الاصطناعي، جمعت جولة تمويل جديدة بقيمة 100 مليون دولار، لترتفع قيمتها إلى نحو 18 مليار دولار theindependent.sg. (للمقارنة، كانت قيمة Perplexity تقارب 14 مليار دولار فقط قبل شهرين، ومليار دولار واحد في العام الماضي، مما يعكس الارتفاع الصاروخي في ثروات الذكاء الاصطناعي التوليدي theindependent.sg.) كما ظهرت صناديق جديدة تركز على الذكاء الاصطناعي: فمثلاً، أطلق أحد أوائل المستثمرين في Instacart صندوق “Verified Capital” بمبلغ 175 مليون دولار مخصص لشركات الذكاء الاصطناعي الناشئة (أُعلن عنه في 20 يوليو). وفي مجال الحوسبة السحابية، بدأت الشركات التقليدية في التكيف مع عصر الذكاء الاصطناعي – أحيانًا بشكل مؤلم. فقد أكدت أمازون أنها خفضت عدة مئات من وظائف AWS (معظمها في أدوار الدعم السحابي)، بعد أن حذّر الرئيس التنفيذي آندي جاسي من أن كفاءات الذكاء الاصطناعي ستقلص بعض الوظائف في “طبقة الوسطى” binaryverseai.com. وأشارت رسائل بريد إلكتروني داخلية هذا الأسبوع إلى أن بعض فرق نقل البيانات المتخصصة أصبحت زائدة عن الحاجة – “الدليل المرئي الأول داخل AWS” على الأتمتة المدفوعة بالذكاء الاصطناعي، كما أشارت رويترز binaryverseai.com binaryverseai.com. وقال المحللون إن حتى وحدات التكنولوجيا ذات الهوامش المرتفعة ليست محصنة: “الذكاء الاصطناعي يلتهم المهام التي يتقنها، ثم تقوم الشركات بإعادة توزيع أو الاستغناء عن الموظفين،” كما لاحظ أحدهم بتهكم binaryverseai.com. وعلى الرغم من الأرباح القوية، تواصل عملاق الحوسبة السحابية إعادة الهيكلة، مما يوضح كيف أن مكاسب الإنتاجية من الذكاء الاصطناعي قد تؤدي أيضًا إلى تقليص القوى العاملة فعليًا.

اختراقات في العلوم والرعاية الصحية

تسريع التحليل الطبي: في مجال الرعاية الصحية، تعد اختراقات الذكاء الاصطناعي بتشخيصات أسرع وإجراءات أكثر أمانًا. كشف باحثون من جامعة إنديانا ومستشفيات شريكة عن خط أنابيب “معلوماتية السرطان” مدعوم بالذكاء الاصطناعي يمكنه فحص شرائح علم الأمراض الرقمية والسجلات الصحية الإلكترونية وبيانات الجينوم للإشارة إلى احتمالية الإصابة بالسرطان واقتراح مرحلة الورم. وبحسب الباحث الرئيسي سبيريدون باكاس، فقد قلل نظام الذكاء الاصطناعي بعض إجراءات التشخيص “من أيام إلى ثوانٍ”، حيث صنّف الحالات بسرعة تفوق البشر binaryverseai.com binaryverseai.com. كما كشف الأداة عن ترابطات دقيقة عبر بيانات متعددة الأنماط قد يغفل عنها البشر، على الرغم من إصرار الفريق على أن أطباء علم الأمراض يظلون ضروريين للحالات الصعبة والأحكام النهائية binaryverseai.com. يجسد هذا المشروع اتجاهًا أوسع نحو الطب متعدد الأنماط بالذكاء الاصطناعي الذي يمكنه استيعاب أنواع عديدة من البيانات مرة واحدة. وبالمثل، أفاد أطباء الأشعة بنجاحهم في استخدام نموذج ذكاء اصطناعي يُدعى mViT (محول رؤي معدل) لتحسين فحوصات الأشعة المقطعية للأطفال binaryverseai.com binaryverseai.com. يمكن لأجهزة الأشعة المقطعية التي تعتمد تقنية عدّ الفوتونات أن تقلل من جرعة الأشعة السينية للأطفال، إلا أنها غالبًا ما تنتج صورًا مشوشة؛ حيث تعلم نظام mViT إزالة التشويش من الفحوصات مباشرة، مما يجعل الشرايين والأنسجة أوضح دون التمويه الناتج عن أساليب تقليل الضوضاء القديمة binaryverseai.com binaryverseai.com. وأظهرت الاختبارات التي أُجريت على 20 مريضًا صغيرًا أن الذكاء الاصطناعي تفوق باستمرار على المرشحات التقليدية، مما يسمح على الأرجح بالحصول على فحوصات أكثر وضوحًا وأقل جرعة إشعاعية – وهو مكسب لسلامة المرضى الأطفال مع حصول أجهزة الأشعة المقطعية الجديدة على موافقة إدارة الغذاء والدواء الأمريكية binaryverseai.com.

الاختراقات في علم الأحياء والمواد: تدفع الذكاء الاصطناعي أيضًا العلوم الأساسية إلى الأمام. وصفت دراسة جديدة في Nature Communications كيف يمكن لثلاثة شبكات عصبية الآن تحديد توقيت تطور الأجنة بدقة إلى الدقيقة، وهو إنجاز قد يغير مجال علم الأحياء التطوري binaryverseai.com. من خلال تدريب شبكات عصبية التففية على صور عالية الدقة لأجنة ذبابة الفاكهة، تعلم النظام تحديد الإشارات البصرية الدقيقة لدورات انقسام الخلايا. يمكنه معرفة عمر الجنين (بدقة ±1 دقيقة) دون استخدام علامات فلورية تدخلية – محققًا دقة 98–100% في الأجنة في المراحل المبكرة binaryverseai.com binaryverseai.com. هذا “ساعة الجنين” بالذكاء الاصطناعي مكنت الفريق من رسم خرائط طفرات تنشيط الجينات بدقة زمنية غير مسبوقة، مما يوفر لعلماء الأحياء أداة قوية جديدة لدراسة كيفية تشكل الأعضاء. في علم المواد، قدم باحثون من المملكة المتحدة نموذج “CrystalGPT”، المدرب على 706,000 بنية بلورية، للتنبؤ بخصائص المواد. من خلال فهمه لـ”لغة” البلورات الجزيئية (عبر ألغاز الذرات المخفية وتحديات التناظر)، يمكن لـ CrystalGPT التنبؤ بكثافة أو مسامية أو استقرار مركب جديد بسرعة أكبر بكثير من المحاكاة التقليدية binaryverseai.com binaryverseai.com. يشيد الخبراء بشفافيته – حيث تُبرز الذكاء الاصطناعي حتى أي الأحياء الذرية أثرت أكثر في التنبؤ – ما يمنح الكيميائيين الثقة بدلاً من تخمين الصندوق الأسود binaryverseai.com. يمكن أن تسرع النمذجة البلورية الأسرع التقدم في البطاريات والعوامل المساعدة ومواد أشباه الموصلات، مما يقلل أوقات وتكاليف البحث والتطوير.

الذكاء الاصطناعي للبرمجة – مع بعض التحفظات: لم تكن جميع الأبحاث وردية؛ فقد قدمت دراسة واحدة رؤية واقعية حول مساعدي البرمجة بالذكاء الاصطناعي. ففي تجربة محكومة، استغرق مطورو البرمجيات ذوو الخبرة وقتاً أطول بنسبة 19% في إنجاز مهمة باستخدام مساعد ذكاء اصطناعي مقارنةً بمجموعة ضابطة بدون ذكاء اصطناعي ts2.tech. كان المبرمجون المتمرسون يتوقعون أن يساعدهم الذكاء الاصطناعي (أداة اقتراح الشيفرة) على إنجاز العمل بشكل أسرع، لكنه غالباً ما كان يعطي شيفرات “صحيحة من حيث التوجه العام، لكنها ليست بالضبط ما هو مطلوبts2.tech. وقد أُهدر الوقت في مراجعة هذه الاقتراحات وتصحيحها. في المقابل، أظهرت دراسات سابقة زيادات كبيرة في السرعة للمبرمجين الأقل خبرة في المهام الأسهل. “إنه أشبه بتحرير مقالة أكثر من كونه كتابة من البداية،” قال أحد المبرمجين المخضرمين حول أسلوب العمل بمساعدة الذكاء الاصطناعي – ربما أكثر استرخاءً، لكنه أبطأ ts2.tech. وخلص الباحثون في METR إلى أن المساعدات الذكية الحالية ليست عصا سحرية لزيادة إنتاجية الخبراء في البرمجة المعقدة، وأن هناك حاجة لمزيد من التحسين والمراقبة البشرية ts2.tech. هذا الاستنتاج المتوازن يهدئ من الاندفاع نحو نشر الذكاء الاصطناعي المولّد للشيفرات لجميع المبرمجين.

التطلع داخل “عقل” الذكاء الاصطناعي: نشر اتحاد من كبار علماء الذكاء الاصطناعي (من OpenAI وDeepMind وAnthropic وأفضل الجامعات) ورقة بحثية بارزة يدعون فيها إلى ابتكار تقنيات جديدة لـمراقبة “تَسَلْسُل التفكير” في الذكاء الاصطناعي – وهي في الأساس خطوات التفكير الخفية التي يولدها نماذج الذكاء الاصطناعي داخليًا ts2.tech. ومع تحول أنظمة الذكاء الاصطناعي إلى المزيد من الاستقلالية (كما هي الحال مع العملاء الذين يظهرون الآن)، يجادل المؤلفون بأن القدرة على الاطلاع على تلك الأفكار الوسيطة قد يكون أمرًا حيويًا للسلامة ts2.tech. فمن خلال مراقبة تسلسل تفكير الذكاء الاصطناعي خطوة بخطوة، قد يتمكن المطورون من اكتشاف الأخطاء أو الميل إلى طرق خطرة قبل أن يتصرف الذكاء الاصطناعي. ومع ذلك، تحذر الورقة من أنه مع تزايد تعقيد النماذج، “لا يوجد ضمان بأن درجة الشفافية الحالية ستستمر” – فقد تقوم نماذج الذكاء الاصطناعي المستقبلية بإضمار تفكيرها بشكل لا يمكن تتبعه بسهولة ts2.tech. وقد حث الفريق المجتمع العلمي على “الاستفادة القصوى من إمكانية مراقبة تسلسل التفكير” الآن والسعي إلى الحفاظ على الشفافية مستقبلًا ts2.tech. ومن الجدير بالذكر أن هذه الدعوة للعمل شارك في توقيعها مجموعة من كبار علماء الذكاء الاصطناعي – بمن فيهم جيفري هينتون، والعالم الرئيسي في OpenAI إيليا سوتسكيفر (ورئيس التوافق جان ليك)، والمؤسس المشارك لـDeepMind شين ليج، وآخرون ts2.tech. إنه عرض نادر للوحدة بين مختبرات متنافسة، يعكس قلقًا مشتركًا: مع اقتراب أنظمة الذكاء الاصطناعي من مستوى التفكير البشري، يجب ألا نسمح لها بأن تصبح “صناديق سوداء” لا يمكن فهمها. البحث في “فحوصات دماغ الذكاء الاصطناعي” – قراءة فكر الذكاء الاصطناعي – قد يصبح ضروريًا بقدر أهمية إنشاء الذكاء الاصطناعي نفسه.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

الذكاء الاصطناعي في الإعلام، الترفيه والصناعات الإبداعية

نتفليكس تتبنى الذكاء الاصطناعي في المؤثرات البصرية: شهدت هوليوود سابقة ملحوظة: فقد كشفت نتفليكس في مكالمة الأرباح الخاصة بها أنها بدأت في استخدام الذكاء الاصطناعي التوليدي في إنتاج المحتوى، بما في ذلك لقطات تم إنشاؤها بالكامل بالذكاء الاصطناعي لأول مرة في عرض من عروض نتفليكس ts2.tech. في السلسلة الأرجنتينية الخيالية العلمية “El Eternauta”، تم إنشاء مشهد كامل لانهيار مبنى باستخدام الذكاء الاصطناعي – وقد تم إنجازه أسرع بعشر مرات وبتكلفة أقل مقارنة باستخدام المؤثرات البصرية التقليدية techcrunch.com. شدد الرئيس التنفيذي المشارك تيد ساراندوس على أن الذكاء الاصطناعي يُستخدم لتمكين المبدعين وليس لاستبدالهم، قائلاً: “الذكاء الاصطناعي يمثل فرصة مذهلة لمساعدة المبدعين على صنع أفلام ومسلسلات أفضل، وليس فقط أرخص … هؤلاء أشخاص حقيقيون ينفذون عملاً حقيقياً بأدوات أفضل.” techcrunch.com وأشار إلى أن فناني نتفليكس يرون بالفعل فوائد في مرحلة التصور المسبق وتخطيط المشاهد. كما تطبق نتفليكس الذكاء الاصطناعي التوليدي خارج نطاق المؤثرات البصرية – حيث تستخدمه لاكتشاف المحتوى بشكل شخصي، وتستعد لإطلاق إعلانات تفاعلية مدعومة بالذكاء الاصطناعي في وقت لاحق من هذا العام techcrunch.com.

الموضة التوليدية وسحر الفيديو: امتدت لمسة الذكاء الاصطناعي الإبداعية إلى عالم الموضة والفيديو. أجرى باحثون في كوريا الجنوبية تجارب على “الموضة التوليدية”، حيث استخدموا ChatGPT للتنبؤ باتجاهات الموضة القادمة وDALL·E 3 لإنشاء أكثر من 100 زي افتراضي لمجموعة خريف/شتاء binaryverseai.com binaryverseai.com. توافقت حوالي ثلثي التصاميم التي أنشأها الذكاء الاصطناعي مع الأنماط السائدة في العالم الواقعي، ما يشير إلى أن النماذج التوليدية قد تكشف عن الاتجاهات قبل المصممين أنفسهم. (لكن الذكاء الاصطناعي تعثر في مفاهيم مُجرّدة مثل التصاميم ذات الهوية الجندرية السائلة، مما يؤكد أن المصممين البشر لا يزالون يمسكون بالبوصلة الإبداعية binaryverseai.com.) وفي تكنولوجيا صناعة الأفلام، كشفت NVIDIA وشركاؤها الجامعيون عن DiffusionRenderer، وهو نظام ذكاء اصطناعي من مرحلتين يدمج بين العرض المعكوس والمتقدم لجعل التأثيرات البصرية المتقدمة متاحة للمبدعين المستقلين binaryverseai.com binaryverseai.com. في أحد العروض التوضيحية، تمكن المستخدم من تصوير مشهد بسيط ثم إدخال تنين رسوم متحركة ينتج ظلالاً واقعية تماماً دون الحاجة إلى حساسات معقدة أو إعدادات إضاءة يدوية – فقد تعلم الذكاء الاصطناعي هندسة وإضاءة المشهد من اللقطات نفسها binaryverseai.com binaryverseai.com. والنتيجة تضيق الفجوة بين استوديوهات الإنتاج الكبرى والمبدعين الصغار، وتلمّح لمستقبل تحرير فيديو يكاد يكون “سحرياً” متاحاً للجميع.

التمويل، الأعمال والاستثمار في الذكاء الاصطناعي

الذكاء الاصطناعي المصمم للقطاع المالي: شهد القطاع المالي اختراقات متزايدة للذكاء الاصطناعي في المنتجات والأرباح. أطلقت شركة Anthropic خدمة Claude للخدمات المالية، وهو إصدار من مساعد الذكاء الاصطناعي Claude-4 مخصص لمحللي السوق والمصرفيين. وتدعي Anthropic أن Claude-4 يتفوق على النماذج المتقدمة الأخرى في مهام التمويل، استنادًا إلى معايير الصناعة anthropic.com. يمكن للمنصة الاتصال بالبيانات المباشرة للأسواق (عبر شركاء مثل بلومبرغ وFactSet وغيرهم) والتعامل مع أحمال العمل الكبيرة من نمذجة المخاطر حتى الأعمال الورقية للامتثال. ويبلغ المستخدمون الأوائل عن مكاسب كبيرة – على سبيل المثال، قال الرئيس التنفيذي لصندوق الثروة السيادي النرويجي البالغ قيمته 1.4 تريليون دولار (NBIM) إن Claude قد “غير بشكل جذري” سير العمل لديهم، حيث وفر ما يقدر بـزيادة في الإنتاجية بنسبة 20% (حوالي 213,000 ساعة عمل تم توفيرها) من خلال تمكين الموظفين من استعلام البيانات وتحليل مكالمات الأرباح بشكل أكثر كفاءة anthropic.com. وأشار إلى أن Claude أصبح “لا غنى عنه” بالنسبة لمحللي ومديري المخاطر في تلك الشركة anthropic.com. كما تستكشف البنوك والصناديق الكبرى المساعدين الذكاء الاصطناعي لتسريع الأبحاث مع تتبع كامل للمراجعات وتلقائية للمهام الروتينية التي عادة ما تعيق عمل الفرق المالية.

وول ستريت تراهن على شركات الذكاء الاصطناعي الناشئة: يواصل المستثمرون ضخ الأموال في مشاريع الذكاء الاصطناعي بقيم مذهلة. وجاءت أخبار هذا الأسبوع بأن Perplexity AI، الشركة الناشئة المعروفة بروبوت الدردشة البحثي المعتمد على الذكاء الاصطناعي، جمعت جولة تمويل جديدة بقيمة 100 مليون دولار، لترتفع قيمتها إلى نحو 18 مليار دولار theindependent.sg. (للمقارنة، كانت قيمة Perplexity تقارب 14 مليار دولار فقط قبل شهرين، ومليار دولار واحد في العام الماضي، مما يعكس الارتفاع الصاروخي في ثروات الذكاء الاصطناعي التوليدي theindependent.sg.) كما ظهرت صناديق جديدة تركز على الذكاء الاصطناعي: فمثلاً، أطلق أحد أوائل المستثمرين في Instacart صندوق “Verified Capital” بمبلغ 175 مليون دولار مخصص لشركات الذكاء الاصطناعي الناشئة (أُعلن عنه في 20 يوليو). وفي مجال الحوسبة السحابية، بدأت الشركات التقليدية في التكيف مع عصر الذكاء الاصطناعي – أحيانًا بشكل مؤلم. فقد أكدت أمازون أنها خفضت عدة مئات من وظائف AWS (معظمها في أدوار الدعم السحابي)، بعد أن حذّر الرئيس التنفيذي آندي جاسي من أن كفاءات الذكاء الاصطناعي ستقلص بعض الوظائف في “طبقة الوسطى” binaryverseai.com. وأشارت رسائل بريد إلكتروني داخلية هذا الأسبوع إلى أن بعض فرق نقل البيانات المتخصصة أصبحت زائدة عن الحاجة – “الدليل المرئي الأول داخل AWS” على الأتمتة المدفوعة بالذكاء الاصطناعي، كما أشارت رويترز binaryverseai.com binaryverseai.com. وقال المحللون إن حتى وحدات التكنولوجيا ذات الهوامش المرتفعة ليست محصنة: “الذكاء الاصطناعي يلتهم المهام التي يتقنها، ثم تقوم الشركات بإعادة توزيع أو الاستغناء عن الموظفين،” كما لاحظ أحدهم بتهكم binaryverseai.com. وعلى الرغم من الأرباح القوية، تواصل عملاق الحوسبة السحابية إعادة الهيكلة، مما يوضح كيف أن مكاسب الإنتاجية من الذكاء الاصطناعي قد تؤدي أيضًا إلى تقليص القوى العاملة فعليًا.

اختراقات في العلوم والرعاية الصحية

تسريع التحليل الطبي: في مجال الرعاية الصحية، تعد اختراقات الذكاء الاصطناعي بتشخيصات أسرع وإجراءات أكثر أمانًا. كشف باحثون من جامعة إنديانا ومستشفيات شريكة عن خط أنابيب “معلوماتية السرطان” مدعوم بالذكاء الاصطناعي يمكنه فحص شرائح علم الأمراض الرقمية والسجلات الصحية الإلكترونية وبيانات الجينوم للإشارة إلى احتمالية الإصابة بالسرطان واقتراح مرحلة الورم. وبحسب الباحث الرئيسي سبيريدون باكاس، فقد قلل نظام الذكاء الاصطناعي بعض إجراءات التشخيص “من أيام إلى ثوانٍ”، حيث صنّف الحالات بسرعة تفوق البشر binaryverseai.com binaryverseai.com. كما كشف الأداة عن ترابطات دقيقة عبر بيانات متعددة الأنماط قد يغفل عنها البشر، على الرغم من إصرار الفريق على أن أطباء علم الأمراض يظلون ضروريين للحالات الصعبة والأحكام النهائية binaryverseai.com. يجسد هذا المشروع اتجاهًا أوسع نحو الطب متعدد الأنماط بالذكاء الاصطناعي الذي يمكنه استيعاب أنواع عديدة من البيانات مرة واحدة. وبالمثل، أفاد أطباء الأشعة بنجاحهم في استخدام نموذج ذكاء اصطناعي يُدعى mViT (محول رؤي معدل) لتحسين فحوصات الأشعة المقطعية للأطفال binaryverseai.com binaryverseai.com. يمكن لأجهزة الأشعة المقطعية التي تعتمد تقنية عدّ الفوتونات أن تقلل من جرعة الأشعة السينية للأطفال، إلا أنها غالبًا ما تنتج صورًا مشوشة؛ حيث تعلم نظام mViT إزالة التشويش من الفحوصات مباشرة، مما يجعل الشرايين والأنسجة أوضح دون التمويه الناتج عن أساليب تقليل الضوضاء القديمة binaryverseai.com binaryverseai.com. وأظهرت الاختبارات التي أُجريت على 20 مريضًا صغيرًا أن الذكاء الاصطناعي تفوق باستمرار على المرشحات التقليدية، مما يسمح على الأرجح بالحصول على فحوصات أكثر وضوحًا وأقل جرعة إشعاعية – وهو مكسب لسلامة المرضى الأطفال مع حصول أجهزة الأشعة المقطعية الجديدة على موافقة إدارة الغذاء والدواء الأمريكية binaryverseai.com.

الاختراقات في علم الأحياء والمواد: تدفع الذكاء الاصطناعي أيضًا العلوم الأساسية إلى الأمام. وصفت دراسة جديدة في Nature Communications كيف يمكن لثلاثة شبكات عصبية الآن تحديد توقيت تطور الأجنة بدقة إلى الدقيقة، وهو إنجاز قد يغير مجال علم الأحياء التطوري binaryverseai.com. من خلال تدريب شبكات عصبية التففية على صور عالية الدقة لأجنة ذبابة الفاكهة، تعلم النظام تحديد الإشارات البصرية الدقيقة لدورات انقسام الخلايا. يمكنه معرفة عمر الجنين (بدقة ±1 دقيقة) دون استخدام علامات فلورية تدخلية – محققًا دقة 98–100% في الأجنة في المراحل المبكرة binaryverseai.com binaryverseai.com. هذا “ساعة الجنين” بالذكاء الاصطناعي مكنت الفريق من رسم خرائط طفرات تنشيط الجينات بدقة زمنية غير مسبوقة، مما يوفر لعلماء الأحياء أداة قوية جديدة لدراسة كيفية تشكل الأعضاء. في علم المواد، قدم باحثون من المملكة المتحدة نموذج “CrystalGPT”، المدرب على 706,000 بنية بلورية، للتنبؤ بخصائص المواد. من خلال فهمه لـ”لغة” البلورات الجزيئية (عبر ألغاز الذرات المخفية وتحديات التناظر)، يمكن لـ CrystalGPT التنبؤ بكثافة أو مسامية أو استقرار مركب جديد بسرعة أكبر بكثير من المحاكاة التقليدية binaryverseai.com binaryverseai.com. يشيد الخبراء بشفافيته – حيث تُبرز الذكاء الاصطناعي حتى أي الأحياء الذرية أثرت أكثر في التنبؤ – ما يمنح الكيميائيين الثقة بدلاً من تخمين الصندوق الأسود binaryverseai.com. يمكن أن تسرع النمذجة البلورية الأسرع التقدم في البطاريات والعوامل المساعدة ومواد أشباه الموصلات، مما يقلل أوقات وتكاليف البحث والتطوير.

الذكاء الاصطناعي للبرمجة – مع بعض التحفظات: لم تكن جميع الأبحاث وردية؛ فقد قدمت دراسة واحدة رؤية واقعية حول مساعدي البرمجة بالذكاء الاصطناعي. ففي تجربة محكومة، استغرق مطورو البرمجيات ذوو الخبرة وقتاً أطول بنسبة 19% في إنجاز مهمة باستخدام مساعد ذكاء اصطناعي مقارنةً بمجموعة ضابطة بدون ذكاء اصطناعي ts2.tech. كان المبرمجون المتمرسون يتوقعون أن يساعدهم الذكاء الاصطناعي (أداة اقتراح الشيفرة) على إنجاز العمل بشكل أسرع، لكنه غالباً ما كان يعطي شيفرات “صحيحة من حيث التوجه العام، لكنها ليست بالضبط ما هو مطلوبts2.tech. وقد أُهدر الوقت في مراجعة هذه الاقتراحات وتصحيحها. في المقابل، أظهرت دراسات سابقة زيادات كبيرة في السرعة للمبرمجين الأقل خبرة في المهام الأسهل. “إنه أشبه بتحرير مقالة أكثر من كونه كتابة من البداية،” قال أحد المبرمجين المخضرمين حول أسلوب العمل بمساعدة الذكاء الاصطناعي – ربما أكثر استرخاءً، لكنه أبطأ ts2.tech. وخلص الباحثون في METR إلى أن المساعدات الذكية الحالية ليست عصا سحرية لزيادة إنتاجية الخبراء في البرمجة المعقدة، وأن هناك حاجة لمزيد من التحسين والمراقبة البشرية ts2.tech. هذا الاستنتاج المتوازن يهدئ من الاندفاع نحو نشر الذكاء الاصطناعي المولّد للشيفرات لجميع المبرمجين.

التطلع داخل “عقل” الذكاء الاصطناعي: نشر اتحاد من كبار علماء الذكاء الاصطناعي (من OpenAI وDeepMind وAnthropic وأفضل الجامعات) ورقة بحثية بارزة يدعون فيها إلى ابتكار تقنيات جديدة لـمراقبة “تَسَلْسُل التفكير” في الذكاء الاصطناعي – وهي في الأساس خطوات التفكير الخفية التي يولدها نماذج الذكاء الاصطناعي داخليًا ts2.tech. ومع تحول أنظمة الذكاء الاصطناعي إلى المزيد من الاستقلالية (كما هي الحال مع العملاء الذين يظهرون الآن)، يجادل المؤلفون بأن القدرة على الاطلاع على تلك الأفكار الوسيطة قد يكون أمرًا حيويًا للسلامة ts2.tech. فمن خلال مراقبة تسلسل تفكير الذكاء الاصطناعي خطوة بخطوة، قد يتمكن المطورون من اكتشاف الأخطاء أو الميل إلى طرق خطرة قبل أن يتصرف الذكاء الاصطناعي. ومع ذلك، تحذر الورقة من أنه مع تزايد تعقيد النماذج، “لا يوجد ضمان بأن درجة الشفافية الحالية ستستمر” – فقد تقوم نماذج الذكاء الاصطناعي المستقبلية بإضمار تفكيرها بشكل لا يمكن تتبعه بسهولة ts2.tech. وقد حث الفريق المجتمع العلمي على “الاستفادة القصوى من إمكانية مراقبة تسلسل التفكير” الآن والسعي إلى الحفاظ على الشفافية مستقبلًا ts2.tech. ومن الجدير بالذكر أن هذه الدعوة للعمل شارك في توقيعها مجموعة من كبار علماء الذكاء الاصطناعي – بمن فيهم جيفري هينتون، والعالم الرئيسي في OpenAI إيليا سوتسكيفر (ورئيس التوافق جان ليك)، والمؤسس المشارك لـDeepMind شين ليج، وآخرون ts2.tech. إنه عرض نادر للوحدة بين مختبرات متنافسة، يعكس قلقًا مشتركًا: مع اقتراب أنظمة الذكاء الاصطناعي من مستوى التفكير البشري، يجب ألا نسمح لها بأن تصبح “صناديق سوداء” لا يمكن فهمها. البحث في “فحوصات دماغ الذكاء الاصطناعي” – قراءة فكر الذكاء الاصطناعي – قد يصبح ضروريًا بقدر أهمية إنشاء الذكاء الاصطناعي نفسه.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

اختراقات في العلوم والرعاية الصحية

تسريع التحليل الطبي: في مجال الرعاية الصحية، تعد اختراقات الذكاء الاصطناعي بتشخيصات أسرع وإجراءات أكثر أمانًا. كشف باحثون من جامعة إنديانا ومستشفيات شريكة عن خط أنابيب “معلوماتية السرطان” مدعوم بالذكاء الاصطناعي يمكنه فحص شرائح علم الأمراض الرقمية والسجلات الصحية الإلكترونية وبيانات الجينوم للإشارة إلى احتمالية الإصابة بالسرطان واقتراح مرحلة الورم. وبحسب الباحث الرئيسي سبيريدون باكاس، فقد قلل نظام الذكاء الاصطناعي بعض إجراءات التشخيص “من أيام إلى ثوانٍ”، حيث صنّف الحالات بسرعة تفوق البشر binaryverseai.com binaryverseai.com. كما كشف الأداة عن ترابطات دقيقة عبر بيانات متعددة الأنماط قد يغفل عنها البشر، على الرغم من إصرار الفريق على أن أطباء علم الأمراض يظلون ضروريين للحالات الصعبة والأحكام النهائية binaryverseai.com. يجسد هذا المشروع اتجاهًا أوسع نحو الطب متعدد الأنماط بالذكاء الاصطناعي الذي يمكنه استيعاب أنواع عديدة من البيانات مرة واحدة. وبالمثل، أفاد أطباء الأشعة بنجاحهم في استخدام نموذج ذكاء اصطناعي يُدعى mViT (محول رؤي معدل) لتحسين فحوصات الأشعة المقطعية للأطفال binaryverseai.com binaryverseai.com. يمكن لأجهزة الأشعة المقطعية التي تعتمد تقنية عدّ الفوتونات أن تقلل من جرعة الأشعة السينية للأطفال، إلا أنها غالبًا ما تنتج صورًا مشوشة؛ حيث تعلم نظام mViT إزالة التشويش من الفحوصات مباشرة، مما يجعل الشرايين والأنسجة أوضح دون التمويه الناتج عن أساليب تقليل الضوضاء القديمة binaryverseai.com binaryverseai.com. وأظهرت الاختبارات التي أُجريت على 20 مريضًا صغيرًا أن الذكاء الاصطناعي تفوق باستمرار على المرشحات التقليدية، مما يسمح على الأرجح بالحصول على فحوصات أكثر وضوحًا وأقل جرعة إشعاعية – وهو مكسب لسلامة المرضى الأطفال مع حصول أجهزة الأشعة المقطعية الجديدة على موافقة إدارة الغذاء والدواء الأمريكية binaryverseai.com.

الاختراقات في علم الأحياء والمواد: تدفع الذكاء الاصطناعي أيضًا العلوم الأساسية إلى الأمام. وصفت دراسة جديدة في Nature Communications كيف يمكن لثلاثة شبكات عصبية الآن تحديد توقيت تطور الأجنة بدقة إلى الدقيقة، وهو إنجاز قد يغير مجال علم الأحياء التطوري binaryverseai.com. من خلال تدريب شبكات عصبية التففية على صور عالية الدقة لأجنة ذبابة الفاكهة، تعلم النظام تحديد الإشارات البصرية الدقيقة لدورات انقسام الخلايا. يمكنه معرفة عمر الجنين (بدقة ±1 دقيقة) دون استخدام علامات فلورية تدخلية – محققًا دقة 98–100% في الأجنة في المراحل المبكرة binaryverseai.com binaryverseai.com. هذا “ساعة الجنين” بالذكاء الاصطناعي مكنت الفريق من رسم خرائط طفرات تنشيط الجينات بدقة زمنية غير مسبوقة، مما يوفر لعلماء الأحياء أداة قوية جديدة لدراسة كيفية تشكل الأعضاء. في علم المواد، قدم باحثون من المملكة المتحدة نموذج “CrystalGPT”، المدرب على 706,000 بنية بلورية، للتنبؤ بخصائص المواد. من خلال فهمه لـ”لغة” البلورات الجزيئية (عبر ألغاز الذرات المخفية وتحديات التناظر)، يمكن لـ CrystalGPT التنبؤ بكثافة أو مسامية أو استقرار مركب جديد بسرعة أكبر بكثير من المحاكاة التقليدية binaryverseai.com binaryverseai.com. يشيد الخبراء بشفافيته – حيث تُبرز الذكاء الاصطناعي حتى أي الأحياء الذرية أثرت أكثر في التنبؤ – ما يمنح الكيميائيين الثقة بدلاً من تخمين الصندوق الأسود binaryverseai.com. يمكن أن تسرع النمذجة البلورية الأسرع التقدم في البطاريات والعوامل المساعدة ومواد أشباه الموصلات، مما يقلل أوقات وتكاليف البحث والتطوير.

الذكاء الاصطناعي للبرمجة – مع بعض التحفظات: لم تكن جميع الأبحاث وردية؛ فقد قدمت دراسة واحدة رؤية واقعية حول مساعدي البرمجة بالذكاء الاصطناعي. ففي تجربة محكومة، استغرق مطورو البرمجيات ذوو الخبرة وقتاً أطول بنسبة 19% في إنجاز مهمة باستخدام مساعد ذكاء اصطناعي مقارنةً بمجموعة ضابطة بدون ذكاء اصطناعي ts2.tech. كان المبرمجون المتمرسون يتوقعون أن يساعدهم الذكاء الاصطناعي (أداة اقتراح الشيفرة) على إنجاز العمل بشكل أسرع، لكنه غالباً ما كان يعطي شيفرات “صحيحة من حيث التوجه العام، لكنها ليست بالضبط ما هو مطلوبts2.tech. وقد أُهدر الوقت في مراجعة هذه الاقتراحات وتصحيحها. في المقابل، أظهرت دراسات سابقة زيادات كبيرة في السرعة للمبرمجين الأقل خبرة في المهام الأسهل. “إنه أشبه بتحرير مقالة أكثر من كونه كتابة من البداية،” قال أحد المبرمجين المخضرمين حول أسلوب العمل بمساعدة الذكاء الاصطناعي – ربما أكثر استرخاءً، لكنه أبطأ ts2.tech. وخلص الباحثون في METR إلى أن المساعدات الذكية الحالية ليست عصا سحرية لزيادة إنتاجية الخبراء في البرمجة المعقدة، وأن هناك حاجة لمزيد من التحسين والمراقبة البشرية ts2.tech. هذا الاستنتاج المتوازن يهدئ من الاندفاع نحو نشر الذكاء الاصطناعي المولّد للشيفرات لجميع المبرمجين.

التطلع داخل “عقل” الذكاء الاصطناعي: نشر اتحاد من كبار علماء الذكاء الاصطناعي (من OpenAI وDeepMind وAnthropic وأفضل الجامعات) ورقة بحثية بارزة يدعون فيها إلى ابتكار تقنيات جديدة لـمراقبة “تَسَلْسُل التفكير” في الذكاء الاصطناعي – وهي في الأساس خطوات التفكير الخفية التي يولدها نماذج الذكاء الاصطناعي داخليًا ts2.tech. ومع تحول أنظمة الذكاء الاصطناعي إلى المزيد من الاستقلالية (كما هي الحال مع العملاء الذين يظهرون الآن)، يجادل المؤلفون بأن القدرة على الاطلاع على تلك الأفكار الوسيطة قد يكون أمرًا حيويًا للسلامة ts2.tech. فمن خلال مراقبة تسلسل تفكير الذكاء الاصطناعي خطوة بخطوة، قد يتمكن المطورون من اكتشاف الأخطاء أو الميل إلى طرق خطرة قبل أن يتصرف الذكاء الاصطناعي. ومع ذلك، تحذر الورقة من أنه مع تزايد تعقيد النماذج، “لا يوجد ضمان بأن درجة الشفافية الحالية ستستمر” – فقد تقوم نماذج الذكاء الاصطناعي المستقبلية بإضمار تفكيرها بشكل لا يمكن تتبعه بسهولة ts2.tech. وقد حث الفريق المجتمع العلمي على “الاستفادة القصوى من إمكانية مراقبة تسلسل التفكير” الآن والسعي إلى الحفاظ على الشفافية مستقبلًا ts2.tech. ومن الجدير بالذكر أن هذه الدعوة للعمل شارك في توقيعها مجموعة من كبار علماء الذكاء الاصطناعي – بمن فيهم جيفري هينتون، والعالم الرئيسي في OpenAI إيليا سوتسكيفر (ورئيس التوافق جان ليك)، والمؤسس المشارك لـDeepMind شين ليج، وآخرون ts2.tech. إنه عرض نادر للوحدة بين مختبرات متنافسة، يعكس قلقًا مشتركًا: مع اقتراب أنظمة الذكاء الاصطناعي من مستوى التفكير البشري، يجب ألا نسمح لها بأن تصبح “صناديق سوداء” لا يمكن فهمها. البحث في “فحوصات دماغ الذكاء الاصطناعي” – قراءة فكر الذكاء الاصطناعي – قد يصبح ضروريًا بقدر أهمية إنشاء الذكاء الاصطناعي نفسه.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

الذكاء الاصطناعي في الإعلام، الترفيه والصناعات الإبداعية

نتفليكس تتبنى الذكاء الاصطناعي في المؤثرات البصرية: شهدت هوليوود سابقة ملحوظة: فقد كشفت نتفليكس في مكالمة الأرباح الخاصة بها أنها بدأت في استخدام الذكاء الاصطناعي التوليدي في إنتاج المحتوى، بما في ذلك لقطات تم إنشاؤها بالكامل بالذكاء الاصطناعي لأول مرة في عرض من عروض نتفليكس ts2.tech. في السلسلة الأرجنتينية الخيالية العلمية “El Eternauta”، تم إنشاء مشهد كامل لانهيار مبنى باستخدام الذكاء الاصطناعي – وقد تم إنجازه أسرع بعشر مرات وبتكلفة أقل مقارنة باستخدام المؤثرات البصرية التقليدية techcrunch.com. شدد الرئيس التنفيذي المشارك تيد ساراندوس على أن الذكاء الاصطناعي يُستخدم لتمكين المبدعين وليس لاستبدالهم، قائلاً: “الذكاء الاصطناعي يمثل فرصة مذهلة لمساعدة المبدعين على صنع أفلام ومسلسلات أفضل، وليس فقط أرخص … هؤلاء أشخاص حقيقيون ينفذون عملاً حقيقياً بأدوات أفضل.” techcrunch.com وأشار إلى أن فناني نتفليكس يرون بالفعل فوائد في مرحلة التصور المسبق وتخطيط المشاهد. كما تطبق نتفليكس الذكاء الاصطناعي التوليدي خارج نطاق المؤثرات البصرية – حيث تستخدمه لاكتشاف المحتوى بشكل شخصي، وتستعد لإطلاق إعلانات تفاعلية مدعومة بالذكاء الاصطناعي في وقت لاحق من هذا العام techcrunch.com.

الموضة التوليدية وسحر الفيديو: امتدت لمسة الذكاء الاصطناعي الإبداعية إلى عالم الموضة والفيديو. أجرى باحثون في كوريا الجنوبية تجارب على “الموضة التوليدية”، حيث استخدموا ChatGPT للتنبؤ باتجاهات الموضة القادمة وDALL·E 3 لإنشاء أكثر من 100 زي افتراضي لمجموعة خريف/شتاء binaryverseai.com binaryverseai.com. توافقت حوالي ثلثي التصاميم التي أنشأها الذكاء الاصطناعي مع الأنماط السائدة في العالم الواقعي، ما يشير إلى أن النماذج التوليدية قد تكشف عن الاتجاهات قبل المصممين أنفسهم. (لكن الذكاء الاصطناعي تعثر في مفاهيم مُجرّدة مثل التصاميم ذات الهوية الجندرية السائلة، مما يؤكد أن المصممين البشر لا يزالون يمسكون بالبوصلة الإبداعية binaryverseai.com.) وفي تكنولوجيا صناعة الأفلام، كشفت NVIDIA وشركاؤها الجامعيون عن DiffusionRenderer، وهو نظام ذكاء اصطناعي من مرحلتين يدمج بين العرض المعكوس والمتقدم لجعل التأثيرات البصرية المتقدمة متاحة للمبدعين المستقلين binaryverseai.com binaryverseai.com. في أحد العروض التوضيحية، تمكن المستخدم من تصوير مشهد بسيط ثم إدخال تنين رسوم متحركة ينتج ظلالاً واقعية تماماً دون الحاجة إلى حساسات معقدة أو إعدادات إضاءة يدوية – فقد تعلم الذكاء الاصطناعي هندسة وإضاءة المشهد من اللقطات نفسها binaryverseai.com binaryverseai.com. والنتيجة تضيق الفجوة بين استوديوهات الإنتاج الكبرى والمبدعين الصغار، وتلمّح لمستقبل تحرير فيديو يكاد يكون “سحرياً” متاحاً للجميع.

التمويل، الأعمال والاستثمار في الذكاء الاصطناعي

الذكاء الاصطناعي المصمم للقطاع المالي: شهد القطاع المالي اختراقات متزايدة للذكاء الاصطناعي في المنتجات والأرباح. أطلقت شركة Anthropic خدمة Claude للخدمات المالية، وهو إصدار من مساعد الذكاء الاصطناعي Claude-4 مخصص لمحللي السوق والمصرفيين. وتدعي Anthropic أن Claude-4 يتفوق على النماذج المتقدمة الأخرى في مهام التمويل، استنادًا إلى معايير الصناعة anthropic.com. يمكن للمنصة الاتصال بالبيانات المباشرة للأسواق (عبر شركاء مثل بلومبرغ وFactSet وغيرهم) والتعامل مع أحمال العمل الكبيرة من نمذجة المخاطر حتى الأعمال الورقية للامتثال. ويبلغ المستخدمون الأوائل عن مكاسب كبيرة – على سبيل المثال، قال الرئيس التنفيذي لصندوق الثروة السيادي النرويجي البالغ قيمته 1.4 تريليون دولار (NBIM) إن Claude قد “غير بشكل جذري” سير العمل لديهم، حيث وفر ما يقدر بـزيادة في الإنتاجية بنسبة 20% (حوالي 213,000 ساعة عمل تم توفيرها) من خلال تمكين الموظفين من استعلام البيانات وتحليل مكالمات الأرباح بشكل أكثر كفاءة anthropic.com. وأشار إلى أن Claude أصبح “لا غنى عنه” بالنسبة لمحللي ومديري المخاطر في تلك الشركة anthropic.com. كما تستكشف البنوك والصناديق الكبرى المساعدين الذكاء الاصطناعي لتسريع الأبحاث مع تتبع كامل للمراجعات وتلقائية للمهام الروتينية التي عادة ما تعيق عمل الفرق المالية.

وول ستريت تراهن على شركات الذكاء الاصطناعي الناشئة: يواصل المستثمرون ضخ الأموال في مشاريع الذكاء الاصطناعي بقيم مذهلة. وجاءت أخبار هذا الأسبوع بأن Perplexity AI، الشركة الناشئة المعروفة بروبوت الدردشة البحثي المعتمد على الذكاء الاصطناعي، جمعت جولة تمويل جديدة بقيمة 100 مليون دولار، لترتفع قيمتها إلى نحو 18 مليار دولار theindependent.sg. (للمقارنة، كانت قيمة Perplexity تقارب 14 مليار دولار فقط قبل شهرين، ومليار دولار واحد في العام الماضي، مما يعكس الارتفاع الصاروخي في ثروات الذكاء الاصطناعي التوليدي theindependent.sg.) كما ظهرت صناديق جديدة تركز على الذكاء الاصطناعي: فمثلاً، أطلق أحد أوائل المستثمرين في Instacart صندوق “Verified Capital” بمبلغ 175 مليون دولار مخصص لشركات الذكاء الاصطناعي الناشئة (أُعلن عنه في 20 يوليو). وفي مجال الحوسبة السحابية، بدأت الشركات التقليدية في التكيف مع عصر الذكاء الاصطناعي – أحيانًا بشكل مؤلم. فقد أكدت أمازون أنها خفضت عدة مئات من وظائف AWS (معظمها في أدوار الدعم السحابي)، بعد أن حذّر الرئيس التنفيذي آندي جاسي من أن كفاءات الذكاء الاصطناعي ستقلص بعض الوظائف في “طبقة الوسطى” binaryverseai.com. وأشارت رسائل بريد إلكتروني داخلية هذا الأسبوع إلى أن بعض فرق نقل البيانات المتخصصة أصبحت زائدة عن الحاجة – “الدليل المرئي الأول داخل AWS” على الأتمتة المدفوعة بالذكاء الاصطناعي، كما أشارت رويترز binaryverseai.com binaryverseai.com. وقال المحللون إن حتى وحدات التكنولوجيا ذات الهوامش المرتفعة ليست محصنة: “الذكاء الاصطناعي يلتهم المهام التي يتقنها، ثم تقوم الشركات بإعادة توزيع أو الاستغناء عن الموظفين،” كما لاحظ أحدهم بتهكم binaryverseai.com. وعلى الرغم من الأرباح القوية، تواصل عملاق الحوسبة السحابية إعادة الهيكلة، مما يوضح كيف أن مكاسب الإنتاجية من الذكاء الاصطناعي قد تؤدي أيضًا إلى تقليص القوى العاملة فعليًا.

اختراقات في العلوم والرعاية الصحية

تسريع التحليل الطبي: في مجال الرعاية الصحية، تعد اختراقات الذكاء الاصطناعي بتشخيصات أسرع وإجراءات أكثر أمانًا. كشف باحثون من جامعة إنديانا ومستشفيات شريكة عن خط أنابيب “معلوماتية السرطان” مدعوم بالذكاء الاصطناعي يمكنه فحص شرائح علم الأمراض الرقمية والسجلات الصحية الإلكترونية وبيانات الجينوم للإشارة إلى احتمالية الإصابة بالسرطان واقتراح مرحلة الورم. وبحسب الباحث الرئيسي سبيريدون باكاس، فقد قلل نظام الذكاء الاصطناعي بعض إجراءات التشخيص “من أيام إلى ثوانٍ”، حيث صنّف الحالات بسرعة تفوق البشر binaryverseai.com binaryverseai.com. كما كشف الأداة عن ترابطات دقيقة عبر بيانات متعددة الأنماط قد يغفل عنها البشر، على الرغم من إصرار الفريق على أن أطباء علم الأمراض يظلون ضروريين للحالات الصعبة والأحكام النهائية binaryverseai.com. يجسد هذا المشروع اتجاهًا أوسع نحو الطب متعدد الأنماط بالذكاء الاصطناعي الذي يمكنه استيعاب أنواع عديدة من البيانات مرة واحدة. وبالمثل، أفاد أطباء الأشعة بنجاحهم في استخدام نموذج ذكاء اصطناعي يُدعى mViT (محول رؤي معدل) لتحسين فحوصات الأشعة المقطعية للأطفال binaryverseai.com binaryverseai.com. يمكن لأجهزة الأشعة المقطعية التي تعتمد تقنية عدّ الفوتونات أن تقلل من جرعة الأشعة السينية للأطفال، إلا أنها غالبًا ما تنتج صورًا مشوشة؛ حيث تعلم نظام mViT إزالة التشويش من الفحوصات مباشرة، مما يجعل الشرايين والأنسجة أوضح دون التمويه الناتج عن أساليب تقليل الضوضاء القديمة binaryverseai.com binaryverseai.com. وأظهرت الاختبارات التي أُجريت على 20 مريضًا صغيرًا أن الذكاء الاصطناعي تفوق باستمرار على المرشحات التقليدية، مما يسمح على الأرجح بالحصول على فحوصات أكثر وضوحًا وأقل جرعة إشعاعية – وهو مكسب لسلامة المرضى الأطفال مع حصول أجهزة الأشعة المقطعية الجديدة على موافقة إدارة الغذاء والدواء الأمريكية binaryverseai.com.

الاختراقات في علم الأحياء والمواد: تدفع الذكاء الاصطناعي أيضًا العلوم الأساسية إلى الأمام. وصفت دراسة جديدة في Nature Communications كيف يمكن لثلاثة شبكات عصبية الآن تحديد توقيت تطور الأجنة بدقة إلى الدقيقة، وهو إنجاز قد يغير مجال علم الأحياء التطوري binaryverseai.com. من خلال تدريب شبكات عصبية التففية على صور عالية الدقة لأجنة ذبابة الفاكهة، تعلم النظام تحديد الإشارات البصرية الدقيقة لدورات انقسام الخلايا. يمكنه معرفة عمر الجنين (بدقة ±1 دقيقة) دون استخدام علامات فلورية تدخلية – محققًا دقة 98–100% في الأجنة في المراحل المبكرة binaryverseai.com binaryverseai.com. هذا “ساعة الجنين” بالذكاء الاصطناعي مكنت الفريق من رسم خرائط طفرات تنشيط الجينات بدقة زمنية غير مسبوقة، مما يوفر لعلماء الأحياء أداة قوية جديدة لدراسة كيفية تشكل الأعضاء. في علم المواد، قدم باحثون من المملكة المتحدة نموذج “CrystalGPT”، المدرب على 706,000 بنية بلورية، للتنبؤ بخصائص المواد. من خلال فهمه لـ”لغة” البلورات الجزيئية (عبر ألغاز الذرات المخفية وتحديات التناظر)، يمكن لـ CrystalGPT التنبؤ بكثافة أو مسامية أو استقرار مركب جديد بسرعة أكبر بكثير من المحاكاة التقليدية binaryverseai.com binaryverseai.com. يشيد الخبراء بشفافيته – حيث تُبرز الذكاء الاصطناعي حتى أي الأحياء الذرية أثرت أكثر في التنبؤ – ما يمنح الكيميائيين الثقة بدلاً من تخمين الصندوق الأسود binaryverseai.com. يمكن أن تسرع النمذجة البلورية الأسرع التقدم في البطاريات والعوامل المساعدة ومواد أشباه الموصلات، مما يقلل أوقات وتكاليف البحث والتطوير.

الذكاء الاصطناعي للبرمجة – مع بعض التحفظات: لم تكن جميع الأبحاث وردية؛ فقد قدمت دراسة واحدة رؤية واقعية حول مساعدي البرمجة بالذكاء الاصطناعي. ففي تجربة محكومة، استغرق مطورو البرمجيات ذوو الخبرة وقتاً أطول بنسبة 19% في إنجاز مهمة باستخدام مساعد ذكاء اصطناعي مقارنةً بمجموعة ضابطة بدون ذكاء اصطناعي ts2.tech. كان المبرمجون المتمرسون يتوقعون أن يساعدهم الذكاء الاصطناعي (أداة اقتراح الشيفرة) على إنجاز العمل بشكل أسرع، لكنه غالباً ما كان يعطي شيفرات “صحيحة من حيث التوجه العام، لكنها ليست بالضبط ما هو مطلوبts2.tech. وقد أُهدر الوقت في مراجعة هذه الاقتراحات وتصحيحها. في المقابل، أظهرت دراسات سابقة زيادات كبيرة في السرعة للمبرمجين الأقل خبرة في المهام الأسهل. “إنه أشبه بتحرير مقالة أكثر من كونه كتابة من البداية،” قال أحد المبرمجين المخضرمين حول أسلوب العمل بمساعدة الذكاء الاصطناعي – ربما أكثر استرخاءً، لكنه أبطأ ts2.tech. وخلص الباحثون في METR إلى أن المساعدات الذكية الحالية ليست عصا سحرية لزيادة إنتاجية الخبراء في البرمجة المعقدة، وأن هناك حاجة لمزيد من التحسين والمراقبة البشرية ts2.tech. هذا الاستنتاج المتوازن يهدئ من الاندفاع نحو نشر الذكاء الاصطناعي المولّد للشيفرات لجميع المبرمجين.

التطلع داخل “عقل” الذكاء الاصطناعي: نشر اتحاد من كبار علماء الذكاء الاصطناعي (من OpenAI وDeepMind وAnthropic وأفضل الجامعات) ورقة بحثية بارزة يدعون فيها إلى ابتكار تقنيات جديدة لـمراقبة “تَسَلْسُل التفكير” في الذكاء الاصطناعي – وهي في الأساس خطوات التفكير الخفية التي يولدها نماذج الذكاء الاصطناعي داخليًا ts2.tech. ومع تحول أنظمة الذكاء الاصطناعي إلى المزيد من الاستقلالية (كما هي الحال مع العملاء الذين يظهرون الآن)، يجادل المؤلفون بأن القدرة على الاطلاع على تلك الأفكار الوسيطة قد يكون أمرًا حيويًا للسلامة ts2.tech. فمن خلال مراقبة تسلسل تفكير الذكاء الاصطناعي خطوة بخطوة، قد يتمكن المطورون من اكتشاف الأخطاء أو الميل إلى طرق خطرة قبل أن يتصرف الذكاء الاصطناعي. ومع ذلك، تحذر الورقة من أنه مع تزايد تعقيد النماذج، “لا يوجد ضمان بأن درجة الشفافية الحالية ستستمر” – فقد تقوم نماذج الذكاء الاصطناعي المستقبلية بإضمار تفكيرها بشكل لا يمكن تتبعه بسهولة ts2.tech. وقد حث الفريق المجتمع العلمي على “الاستفادة القصوى من إمكانية مراقبة تسلسل التفكير” الآن والسعي إلى الحفاظ على الشفافية مستقبلًا ts2.tech. ومن الجدير بالذكر أن هذه الدعوة للعمل شارك في توقيعها مجموعة من كبار علماء الذكاء الاصطناعي – بمن فيهم جيفري هينتون، والعالم الرئيسي في OpenAI إيليا سوتسكيفر (ورئيس التوافق جان ليك)، والمؤسس المشارك لـDeepMind شين ليج، وآخرون ts2.tech. إنه عرض نادر للوحدة بين مختبرات متنافسة، يعكس قلقًا مشتركًا: مع اقتراب أنظمة الذكاء الاصطناعي من مستوى التفكير البشري، يجب ألا نسمح لها بأن تصبح “صناديق سوداء” لا يمكن فهمها. البحث في “فحوصات دماغ الذكاء الاصطناعي” – قراءة فكر الذكاء الاصطناعي – قد يصبح ضروريًا بقدر أهمية إنشاء الذكاء الاصطناعي نفسه.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

التمويل، الأعمال والاستثمار في الذكاء الاصطناعي

الذكاء الاصطناعي المصمم للقطاع المالي: شهد القطاع المالي اختراقات متزايدة للذكاء الاصطناعي في المنتجات والأرباح. أطلقت شركة Anthropic خدمة Claude للخدمات المالية، وهو إصدار من مساعد الذكاء الاصطناعي Claude-4 مخصص لمحللي السوق والمصرفيين. وتدعي Anthropic أن Claude-4 يتفوق على النماذج المتقدمة الأخرى في مهام التمويل، استنادًا إلى معايير الصناعة anthropic.com. يمكن للمنصة الاتصال بالبيانات المباشرة للأسواق (عبر شركاء مثل بلومبرغ وFactSet وغيرهم) والتعامل مع أحمال العمل الكبيرة من نمذجة المخاطر حتى الأعمال الورقية للامتثال. ويبلغ المستخدمون الأوائل عن مكاسب كبيرة – على سبيل المثال، قال الرئيس التنفيذي لصندوق الثروة السيادي النرويجي البالغ قيمته 1.4 تريليون دولار (NBIM) إن Claude قد “غير بشكل جذري” سير العمل لديهم، حيث وفر ما يقدر بـزيادة في الإنتاجية بنسبة 20% (حوالي 213,000 ساعة عمل تم توفيرها) من خلال تمكين الموظفين من استعلام البيانات وتحليل مكالمات الأرباح بشكل أكثر كفاءة anthropic.com. وأشار إلى أن Claude أصبح “لا غنى عنه” بالنسبة لمحللي ومديري المخاطر في تلك الشركة anthropic.com. كما تستكشف البنوك والصناديق الكبرى المساعدين الذكاء الاصطناعي لتسريع الأبحاث مع تتبع كامل للمراجعات وتلقائية للمهام الروتينية التي عادة ما تعيق عمل الفرق المالية.

وول ستريت تراهن على شركات الذكاء الاصطناعي الناشئة: يواصل المستثمرون ضخ الأموال في مشاريع الذكاء الاصطناعي بقيم مذهلة. وجاءت أخبار هذا الأسبوع بأن Perplexity AI، الشركة الناشئة المعروفة بروبوت الدردشة البحثي المعتمد على الذكاء الاصطناعي، جمعت جولة تمويل جديدة بقيمة 100 مليون دولار، لترتفع قيمتها إلى نحو 18 مليار دولار theindependent.sg. (للمقارنة، كانت قيمة Perplexity تقارب 14 مليار دولار فقط قبل شهرين، ومليار دولار واحد في العام الماضي، مما يعكس الارتفاع الصاروخي في ثروات الذكاء الاصطناعي التوليدي theindependent.sg.) كما ظهرت صناديق جديدة تركز على الذكاء الاصطناعي: فمثلاً، أطلق أحد أوائل المستثمرين في Instacart صندوق “Verified Capital” بمبلغ 175 مليون دولار مخصص لشركات الذكاء الاصطناعي الناشئة (أُعلن عنه في 20 يوليو). وفي مجال الحوسبة السحابية، بدأت الشركات التقليدية في التكيف مع عصر الذكاء الاصطناعي – أحيانًا بشكل مؤلم. فقد أكدت أمازون أنها خفضت عدة مئات من وظائف AWS (معظمها في أدوار الدعم السحابي)، بعد أن حذّر الرئيس التنفيذي آندي جاسي من أن كفاءات الذكاء الاصطناعي ستقلص بعض الوظائف في “طبقة الوسطى” binaryverseai.com. وأشارت رسائل بريد إلكتروني داخلية هذا الأسبوع إلى أن بعض فرق نقل البيانات المتخصصة أصبحت زائدة عن الحاجة – “الدليل المرئي الأول داخل AWS” على الأتمتة المدفوعة بالذكاء الاصطناعي، كما أشارت رويترز binaryverseai.com binaryverseai.com. وقال المحللون إن حتى وحدات التكنولوجيا ذات الهوامش المرتفعة ليست محصنة: “الذكاء الاصطناعي يلتهم المهام التي يتقنها، ثم تقوم الشركات بإعادة توزيع أو الاستغناء عن الموظفين،” كما لاحظ أحدهم بتهكم binaryverseai.com. وعلى الرغم من الأرباح القوية، تواصل عملاق الحوسبة السحابية إعادة الهيكلة، مما يوضح كيف أن مكاسب الإنتاجية من الذكاء الاصطناعي قد تؤدي أيضًا إلى تقليص القوى العاملة فعليًا.

اختراقات في العلوم والرعاية الصحية

تسريع التحليل الطبي: في مجال الرعاية الصحية، تعد اختراقات الذكاء الاصطناعي بتشخيصات أسرع وإجراءات أكثر أمانًا. كشف باحثون من جامعة إنديانا ومستشفيات شريكة عن خط أنابيب “معلوماتية السرطان” مدعوم بالذكاء الاصطناعي يمكنه فحص شرائح علم الأمراض الرقمية والسجلات الصحية الإلكترونية وبيانات الجينوم للإشارة إلى احتمالية الإصابة بالسرطان واقتراح مرحلة الورم. وبحسب الباحث الرئيسي سبيريدون باكاس، فقد قلل نظام الذكاء الاصطناعي بعض إجراءات التشخيص “من أيام إلى ثوانٍ”، حيث صنّف الحالات بسرعة تفوق البشر binaryverseai.com binaryverseai.com. كما كشف الأداة عن ترابطات دقيقة عبر بيانات متعددة الأنماط قد يغفل عنها البشر، على الرغم من إصرار الفريق على أن أطباء علم الأمراض يظلون ضروريين للحالات الصعبة والأحكام النهائية binaryverseai.com. يجسد هذا المشروع اتجاهًا أوسع نحو الطب متعدد الأنماط بالذكاء الاصطناعي الذي يمكنه استيعاب أنواع عديدة من البيانات مرة واحدة. وبالمثل، أفاد أطباء الأشعة بنجاحهم في استخدام نموذج ذكاء اصطناعي يُدعى mViT (محول رؤي معدل) لتحسين فحوصات الأشعة المقطعية للأطفال binaryverseai.com binaryverseai.com. يمكن لأجهزة الأشعة المقطعية التي تعتمد تقنية عدّ الفوتونات أن تقلل من جرعة الأشعة السينية للأطفال، إلا أنها غالبًا ما تنتج صورًا مشوشة؛ حيث تعلم نظام mViT إزالة التشويش من الفحوصات مباشرة، مما يجعل الشرايين والأنسجة أوضح دون التمويه الناتج عن أساليب تقليل الضوضاء القديمة binaryverseai.com binaryverseai.com. وأظهرت الاختبارات التي أُجريت على 20 مريضًا صغيرًا أن الذكاء الاصطناعي تفوق باستمرار على المرشحات التقليدية، مما يسمح على الأرجح بالحصول على فحوصات أكثر وضوحًا وأقل جرعة إشعاعية – وهو مكسب لسلامة المرضى الأطفال مع حصول أجهزة الأشعة المقطعية الجديدة على موافقة إدارة الغذاء والدواء الأمريكية binaryverseai.com.

الاختراقات في علم الأحياء والمواد: تدفع الذكاء الاصطناعي أيضًا العلوم الأساسية إلى الأمام. وصفت دراسة جديدة في Nature Communications كيف يمكن لثلاثة شبكات عصبية الآن تحديد توقيت تطور الأجنة بدقة إلى الدقيقة، وهو إنجاز قد يغير مجال علم الأحياء التطوري binaryverseai.com. من خلال تدريب شبكات عصبية التففية على صور عالية الدقة لأجنة ذبابة الفاكهة، تعلم النظام تحديد الإشارات البصرية الدقيقة لدورات انقسام الخلايا. يمكنه معرفة عمر الجنين (بدقة ±1 دقيقة) دون استخدام علامات فلورية تدخلية – محققًا دقة 98–100% في الأجنة في المراحل المبكرة binaryverseai.com binaryverseai.com. هذا “ساعة الجنين” بالذكاء الاصطناعي مكنت الفريق من رسم خرائط طفرات تنشيط الجينات بدقة زمنية غير مسبوقة، مما يوفر لعلماء الأحياء أداة قوية جديدة لدراسة كيفية تشكل الأعضاء. في علم المواد، قدم باحثون من المملكة المتحدة نموذج “CrystalGPT”، المدرب على 706,000 بنية بلورية، للتنبؤ بخصائص المواد. من خلال فهمه لـ”لغة” البلورات الجزيئية (عبر ألغاز الذرات المخفية وتحديات التناظر)، يمكن لـ CrystalGPT التنبؤ بكثافة أو مسامية أو استقرار مركب جديد بسرعة أكبر بكثير من المحاكاة التقليدية binaryverseai.com binaryverseai.com. يشيد الخبراء بشفافيته – حيث تُبرز الذكاء الاصطناعي حتى أي الأحياء الذرية أثرت أكثر في التنبؤ – ما يمنح الكيميائيين الثقة بدلاً من تخمين الصندوق الأسود binaryverseai.com. يمكن أن تسرع النمذجة البلورية الأسرع التقدم في البطاريات والعوامل المساعدة ومواد أشباه الموصلات، مما يقلل أوقات وتكاليف البحث والتطوير.

الذكاء الاصطناعي للبرمجة – مع بعض التحفظات: لم تكن جميع الأبحاث وردية؛ فقد قدمت دراسة واحدة رؤية واقعية حول مساعدي البرمجة بالذكاء الاصطناعي. ففي تجربة محكومة، استغرق مطورو البرمجيات ذوو الخبرة وقتاً أطول بنسبة 19% في إنجاز مهمة باستخدام مساعد ذكاء اصطناعي مقارنةً بمجموعة ضابطة بدون ذكاء اصطناعي ts2.tech. كان المبرمجون المتمرسون يتوقعون أن يساعدهم الذكاء الاصطناعي (أداة اقتراح الشيفرة) على إنجاز العمل بشكل أسرع، لكنه غالباً ما كان يعطي شيفرات “صحيحة من حيث التوجه العام، لكنها ليست بالضبط ما هو مطلوبts2.tech. وقد أُهدر الوقت في مراجعة هذه الاقتراحات وتصحيحها. في المقابل، أظهرت دراسات سابقة زيادات كبيرة في السرعة للمبرمجين الأقل خبرة في المهام الأسهل. “إنه أشبه بتحرير مقالة أكثر من كونه كتابة من البداية،” قال أحد المبرمجين المخضرمين حول أسلوب العمل بمساعدة الذكاء الاصطناعي – ربما أكثر استرخاءً، لكنه أبطأ ts2.tech. وخلص الباحثون في METR إلى أن المساعدات الذكية الحالية ليست عصا سحرية لزيادة إنتاجية الخبراء في البرمجة المعقدة، وأن هناك حاجة لمزيد من التحسين والمراقبة البشرية ts2.tech. هذا الاستنتاج المتوازن يهدئ من الاندفاع نحو نشر الذكاء الاصطناعي المولّد للشيفرات لجميع المبرمجين.

التطلع داخل “عقل” الذكاء الاصطناعي: نشر اتحاد من كبار علماء الذكاء الاصطناعي (من OpenAI وDeepMind وAnthropic وأفضل الجامعات) ورقة بحثية بارزة يدعون فيها إلى ابتكار تقنيات جديدة لـمراقبة “تَسَلْسُل التفكير” في الذكاء الاصطناعي – وهي في الأساس خطوات التفكير الخفية التي يولدها نماذج الذكاء الاصطناعي داخليًا ts2.tech. ومع تحول أنظمة الذكاء الاصطناعي إلى المزيد من الاستقلالية (كما هي الحال مع العملاء الذين يظهرون الآن)، يجادل المؤلفون بأن القدرة على الاطلاع على تلك الأفكار الوسيطة قد يكون أمرًا حيويًا للسلامة ts2.tech. فمن خلال مراقبة تسلسل تفكير الذكاء الاصطناعي خطوة بخطوة، قد يتمكن المطورون من اكتشاف الأخطاء أو الميل إلى طرق خطرة قبل أن يتصرف الذكاء الاصطناعي. ومع ذلك، تحذر الورقة من أنه مع تزايد تعقيد النماذج، “لا يوجد ضمان بأن درجة الشفافية الحالية ستستمر” – فقد تقوم نماذج الذكاء الاصطناعي المستقبلية بإضمار تفكيرها بشكل لا يمكن تتبعه بسهولة ts2.tech. وقد حث الفريق المجتمع العلمي على “الاستفادة القصوى من إمكانية مراقبة تسلسل التفكير” الآن والسعي إلى الحفاظ على الشفافية مستقبلًا ts2.tech. ومن الجدير بالذكر أن هذه الدعوة للعمل شارك في توقيعها مجموعة من كبار علماء الذكاء الاصطناعي – بمن فيهم جيفري هينتون، والعالم الرئيسي في OpenAI إيليا سوتسكيفر (ورئيس التوافق جان ليك)، والمؤسس المشارك لـDeepMind شين ليج، وآخرون ts2.tech. إنه عرض نادر للوحدة بين مختبرات متنافسة، يعكس قلقًا مشتركًا: مع اقتراب أنظمة الذكاء الاصطناعي من مستوى التفكير البشري، يجب ألا نسمح لها بأن تصبح “صناديق سوداء” لا يمكن فهمها. البحث في “فحوصات دماغ الذكاء الاصطناعي” – قراءة فكر الذكاء الاصطناعي – قد يصبح ضروريًا بقدر أهمية إنشاء الذكاء الاصطناعي نفسه.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

الذكاء الاصطناعي في الإعلام، الترفيه والصناعات الإبداعية

نتفليكس تتبنى الذكاء الاصطناعي في المؤثرات البصرية: شهدت هوليوود سابقة ملحوظة: فقد كشفت نتفليكس في مكالمة الأرباح الخاصة بها أنها بدأت في استخدام الذكاء الاصطناعي التوليدي في إنتاج المحتوى، بما في ذلك لقطات تم إنشاؤها بالكامل بالذكاء الاصطناعي لأول مرة في عرض من عروض نتفليكس ts2.tech. في السلسلة الأرجنتينية الخيالية العلمية “El Eternauta”، تم إنشاء مشهد كامل لانهيار مبنى باستخدام الذكاء الاصطناعي – وقد تم إنجازه أسرع بعشر مرات وبتكلفة أقل مقارنة باستخدام المؤثرات البصرية التقليدية techcrunch.com. شدد الرئيس التنفيذي المشارك تيد ساراندوس على أن الذكاء الاصطناعي يُستخدم لتمكين المبدعين وليس لاستبدالهم، قائلاً: “الذكاء الاصطناعي يمثل فرصة مذهلة لمساعدة المبدعين على صنع أفلام ومسلسلات أفضل، وليس فقط أرخص … هؤلاء أشخاص حقيقيون ينفذون عملاً حقيقياً بأدوات أفضل.” techcrunch.com وأشار إلى أن فناني نتفليكس يرون بالفعل فوائد في مرحلة التصور المسبق وتخطيط المشاهد. كما تطبق نتفليكس الذكاء الاصطناعي التوليدي خارج نطاق المؤثرات البصرية – حيث تستخدمه لاكتشاف المحتوى بشكل شخصي، وتستعد لإطلاق إعلانات تفاعلية مدعومة بالذكاء الاصطناعي في وقت لاحق من هذا العام techcrunch.com.

الموضة التوليدية وسحر الفيديو: امتدت لمسة الذكاء الاصطناعي الإبداعية إلى عالم الموضة والفيديو. أجرى باحثون في كوريا الجنوبية تجارب على “الموضة التوليدية”، حيث استخدموا ChatGPT للتنبؤ باتجاهات الموضة القادمة وDALL·E 3 لإنشاء أكثر من 100 زي افتراضي لمجموعة خريف/شتاء binaryverseai.com binaryverseai.com. توافقت حوالي ثلثي التصاميم التي أنشأها الذكاء الاصطناعي مع الأنماط السائدة في العالم الواقعي، ما يشير إلى أن النماذج التوليدية قد تكشف عن الاتجاهات قبل المصممين أنفسهم. (لكن الذكاء الاصطناعي تعثر في مفاهيم مُجرّدة مثل التصاميم ذات الهوية الجندرية السائلة، مما يؤكد أن المصممين البشر لا يزالون يمسكون بالبوصلة الإبداعية binaryverseai.com.) وفي تكنولوجيا صناعة الأفلام، كشفت NVIDIA وشركاؤها الجامعيون عن DiffusionRenderer، وهو نظام ذكاء اصطناعي من مرحلتين يدمج بين العرض المعكوس والمتقدم لجعل التأثيرات البصرية المتقدمة متاحة للمبدعين المستقلين binaryverseai.com binaryverseai.com. في أحد العروض التوضيحية، تمكن المستخدم من تصوير مشهد بسيط ثم إدخال تنين رسوم متحركة ينتج ظلالاً واقعية تماماً دون الحاجة إلى حساسات معقدة أو إعدادات إضاءة يدوية – فقد تعلم الذكاء الاصطناعي هندسة وإضاءة المشهد من اللقطات نفسها binaryverseai.com binaryverseai.com. والنتيجة تضيق الفجوة بين استوديوهات الإنتاج الكبرى والمبدعين الصغار، وتلمّح لمستقبل تحرير فيديو يكاد يكون “سحرياً” متاحاً للجميع.

التمويل، الأعمال والاستثمار في الذكاء الاصطناعي

الذكاء الاصطناعي المصمم للقطاع المالي: شهد القطاع المالي اختراقات متزايدة للذكاء الاصطناعي في المنتجات والأرباح. أطلقت شركة Anthropic خدمة Claude للخدمات المالية، وهو إصدار من مساعد الذكاء الاصطناعي Claude-4 مخصص لمحللي السوق والمصرفيين. وتدعي Anthropic أن Claude-4 يتفوق على النماذج المتقدمة الأخرى في مهام التمويل، استنادًا إلى معايير الصناعة anthropic.com. يمكن للمنصة الاتصال بالبيانات المباشرة للأسواق (عبر شركاء مثل بلومبرغ وFactSet وغيرهم) والتعامل مع أحمال العمل الكبيرة من نمذجة المخاطر حتى الأعمال الورقية للامتثال. ويبلغ المستخدمون الأوائل عن مكاسب كبيرة – على سبيل المثال، قال الرئيس التنفيذي لصندوق الثروة السيادي النرويجي البالغ قيمته 1.4 تريليون دولار (NBIM) إن Claude قد “غير بشكل جذري” سير العمل لديهم، حيث وفر ما يقدر بـزيادة في الإنتاجية بنسبة 20% (حوالي 213,000 ساعة عمل تم توفيرها) من خلال تمكين الموظفين من استعلام البيانات وتحليل مكالمات الأرباح بشكل أكثر كفاءة anthropic.com. وأشار إلى أن Claude أصبح “لا غنى عنه” بالنسبة لمحللي ومديري المخاطر في تلك الشركة anthropic.com. كما تستكشف البنوك والصناديق الكبرى المساعدين الذكاء الاصطناعي لتسريع الأبحاث مع تتبع كامل للمراجعات وتلقائية للمهام الروتينية التي عادة ما تعيق عمل الفرق المالية.

وول ستريت تراهن على شركات الذكاء الاصطناعي الناشئة: يواصل المستثمرون ضخ الأموال في مشاريع الذكاء الاصطناعي بقيم مذهلة. وجاءت أخبار هذا الأسبوع بأن Perplexity AI، الشركة الناشئة المعروفة بروبوت الدردشة البحثي المعتمد على الذكاء الاصطناعي، جمعت جولة تمويل جديدة بقيمة 100 مليون دولار، لترتفع قيمتها إلى نحو 18 مليار دولار theindependent.sg. (للمقارنة، كانت قيمة Perplexity تقارب 14 مليار دولار فقط قبل شهرين، ومليار دولار واحد في العام الماضي، مما يعكس الارتفاع الصاروخي في ثروات الذكاء الاصطناعي التوليدي theindependent.sg.) كما ظهرت صناديق جديدة تركز على الذكاء الاصطناعي: فمثلاً، أطلق أحد أوائل المستثمرين في Instacart صندوق “Verified Capital” بمبلغ 175 مليون دولار مخصص لشركات الذكاء الاصطناعي الناشئة (أُعلن عنه في 20 يوليو). وفي مجال الحوسبة السحابية، بدأت الشركات التقليدية في التكيف مع عصر الذكاء الاصطناعي – أحيانًا بشكل مؤلم. فقد أكدت أمازون أنها خفضت عدة مئات من وظائف AWS (معظمها في أدوار الدعم السحابي)، بعد أن حذّر الرئيس التنفيذي آندي جاسي من أن كفاءات الذكاء الاصطناعي ستقلص بعض الوظائف في “طبقة الوسطى” binaryverseai.com. وأشارت رسائل بريد إلكتروني داخلية هذا الأسبوع إلى أن بعض فرق نقل البيانات المتخصصة أصبحت زائدة عن الحاجة – “الدليل المرئي الأول داخل AWS” على الأتمتة المدفوعة بالذكاء الاصطناعي، كما أشارت رويترز binaryverseai.com binaryverseai.com. وقال المحللون إن حتى وحدات التكنولوجيا ذات الهوامش المرتفعة ليست محصنة: “الذكاء الاصطناعي يلتهم المهام التي يتقنها، ثم تقوم الشركات بإعادة توزيع أو الاستغناء عن الموظفين،” كما لاحظ أحدهم بتهكم binaryverseai.com. وعلى الرغم من الأرباح القوية، تواصل عملاق الحوسبة السحابية إعادة الهيكلة، مما يوضح كيف أن مكاسب الإنتاجية من الذكاء الاصطناعي قد تؤدي أيضًا إلى تقليص القوى العاملة فعليًا.

اختراقات في العلوم والرعاية الصحية

تسريع التحليل الطبي: في مجال الرعاية الصحية، تعد اختراقات الذكاء الاصطناعي بتشخيصات أسرع وإجراءات أكثر أمانًا. كشف باحثون من جامعة إنديانا ومستشفيات شريكة عن خط أنابيب “معلوماتية السرطان” مدعوم بالذكاء الاصطناعي يمكنه فحص شرائح علم الأمراض الرقمية والسجلات الصحية الإلكترونية وبيانات الجينوم للإشارة إلى احتمالية الإصابة بالسرطان واقتراح مرحلة الورم. وبحسب الباحث الرئيسي سبيريدون باكاس، فقد قلل نظام الذكاء الاصطناعي بعض إجراءات التشخيص “من أيام إلى ثوانٍ”، حيث صنّف الحالات بسرعة تفوق البشر binaryverseai.com binaryverseai.com. كما كشف الأداة عن ترابطات دقيقة عبر بيانات متعددة الأنماط قد يغفل عنها البشر، على الرغم من إصرار الفريق على أن أطباء علم الأمراض يظلون ضروريين للحالات الصعبة والأحكام النهائية binaryverseai.com. يجسد هذا المشروع اتجاهًا أوسع نحو الطب متعدد الأنماط بالذكاء الاصطناعي الذي يمكنه استيعاب أنواع عديدة من البيانات مرة واحدة. وبالمثل، أفاد أطباء الأشعة بنجاحهم في استخدام نموذج ذكاء اصطناعي يُدعى mViT (محول رؤي معدل) لتحسين فحوصات الأشعة المقطعية للأطفال binaryverseai.com binaryverseai.com. يمكن لأجهزة الأشعة المقطعية التي تعتمد تقنية عدّ الفوتونات أن تقلل من جرعة الأشعة السينية للأطفال، إلا أنها غالبًا ما تنتج صورًا مشوشة؛ حيث تعلم نظام mViT إزالة التشويش من الفحوصات مباشرة، مما يجعل الشرايين والأنسجة أوضح دون التمويه الناتج عن أساليب تقليل الضوضاء القديمة binaryverseai.com binaryverseai.com. وأظهرت الاختبارات التي أُجريت على 20 مريضًا صغيرًا أن الذكاء الاصطناعي تفوق باستمرار على المرشحات التقليدية، مما يسمح على الأرجح بالحصول على فحوصات أكثر وضوحًا وأقل جرعة إشعاعية – وهو مكسب لسلامة المرضى الأطفال مع حصول أجهزة الأشعة المقطعية الجديدة على موافقة إدارة الغذاء والدواء الأمريكية binaryverseai.com.

الاختراقات في علم الأحياء والمواد: تدفع الذكاء الاصطناعي أيضًا العلوم الأساسية إلى الأمام. وصفت دراسة جديدة في Nature Communications كيف يمكن لثلاثة شبكات عصبية الآن تحديد توقيت تطور الأجنة بدقة إلى الدقيقة، وهو إنجاز قد يغير مجال علم الأحياء التطوري binaryverseai.com. من خلال تدريب شبكات عصبية التففية على صور عالية الدقة لأجنة ذبابة الفاكهة، تعلم النظام تحديد الإشارات البصرية الدقيقة لدورات انقسام الخلايا. يمكنه معرفة عمر الجنين (بدقة ±1 دقيقة) دون استخدام علامات فلورية تدخلية – محققًا دقة 98–100% في الأجنة في المراحل المبكرة binaryverseai.com binaryverseai.com. هذا “ساعة الجنين” بالذكاء الاصطناعي مكنت الفريق من رسم خرائط طفرات تنشيط الجينات بدقة زمنية غير مسبوقة، مما يوفر لعلماء الأحياء أداة قوية جديدة لدراسة كيفية تشكل الأعضاء. في علم المواد، قدم باحثون من المملكة المتحدة نموذج “CrystalGPT”، المدرب على 706,000 بنية بلورية، للتنبؤ بخصائص المواد. من خلال فهمه لـ”لغة” البلورات الجزيئية (عبر ألغاز الذرات المخفية وتحديات التناظر)، يمكن لـ CrystalGPT التنبؤ بكثافة أو مسامية أو استقرار مركب جديد بسرعة أكبر بكثير من المحاكاة التقليدية binaryverseai.com binaryverseai.com. يشيد الخبراء بشفافيته – حيث تُبرز الذكاء الاصطناعي حتى أي الأحياء الذرية أثرت أكثر في التنبؤ – ما يمنح الكيميائيين الثقة بدلاً من تخمين الصندوق الأسود binaryverseai.com. يمكن أن تسرع النمذجة البلورية الأسرع التقدم في البطاريات والعوامل المساعدة ومواد أشباه الموصلات، مما يقلل أوقات وتكاليف البحث والتطوير.

الذكاء الاصطناعي للبرمجة – مع بعض التحفظات: لم تكن جميع الأبحاث وردية؛ فقد قدمت دراسة واحدة رؤية واقعية حول مساعدي البرمجة بالذكاء الاصطناعي. ففي تجربة محكومة، استغرق مطورو البرمجيات ذوو الخبرة وقتاً أطول بنسبة 19% في إنجاز مهمة باستخدام مساعد ذكاء اصطناعي مقارنةً بمجموعة ضابطة بدون ذكاء اصطناعي ts2.tech. كان المبرمجون المتمرسون يتوقعون أن يساعدهم الذكاء الاصطناعي (أداة اقتراح الشيفرة) على إنجاز العمل بشكل أسرع، لكنه غالباً ما كان يعطي شيفرات “صحيحة من حيث التوجه العام، لكنها ليست بالضبط ما هو مطلوبts2.tech. وقد أُهدر الوقت في مراجعة هذه الاقتراحات وتصحيحها. في المقابل، أظهرت دراسات سابقة زيادات كبيرة في السرعة للمبرمجين الأقل خبرة في المهام الأسهل. “إنه أشبه بتحرير مقالة أكثر من كونه كتابة من البداية،” قال أحد المبرمجين المخضرمين حول أسلوب العمل بمساعدة الذكاء الاصطناعي – ربما أكثر استرخاءً، لكنه أبطأ ts2.tech. وخلص الباحثون في METR إلى أن المساعدات الذكية الحالية ليست عصا سحرية لزيادة إنتاجية الخبراء في البرمجة المعقدة، وأن هناك حاجة لمزيد من التحسين والمراقبة البشرية ts2.tech. هذا الاستنتاج المتوازن يهدئ من الاندفاع نحو نشر الذكاء الاصطناعي المولّد للشيفرات لجميع المبرمجين.

التطلع داخل “عقل” الذكاء الاصطناعي: نشر اتحاد من كبار علماء الذكاء الاصطناعي (من OpenAI وDeepMind وAnthropic وأفضل الجامعات) ورقة بحثية بارزة يدعون فيها إلى ابتكار تقنيات جديدة لـمراقبة “تَسَلْسُل التفكير” في الذكاء الاصطناعي – وهي في الأساس خطوات التفكير الخفية التي يولدها نماذج الذكاء الاصطناعي داخليًا ts2.tech. ومع تحول أنظمة الذكاء الاصطناعي إلى المزيد من الاستقلالية (كما هي الحال مع العملاء الذين يظهرون الآن)، يجادل المؤلفون بأن القدرة على الاطلاع على تلك الأفكار الوسيطة قد يكون أمرًا حيويًا للسلامة ts2.tech. فمن خلال مراقبة تسلسل تفكير الذكاء الاصطناعي خطوة بخطوة، قد يتمكن المطورون من اكتشاف الأخطاء أو الميل إلى طرق خطرة قبل أن يتصرف الذكاء الاصطناعي. ومع ذلك، تحذر الورقة من أنه مع تزايد تعقيد النماذج، “لا يوجد ضمان بأن درجة الشفافية الحالية ستستمر” – فقد تقوم نماذج الذكاء الاصطناعي المستقبلية بإضمار تفكيرها بشكل لا يمكن تتبعه بسهولة ts2.tech. وقد حث الفريق المجتمع العلمي على “الاستفادة القصوى من إمكانية مراقبة تسلسل التفكير” الآن والسعي إلى الحفاظ على الشفافية مستقبلًا ts2.tech. ومن الجدير بالذكر أن هذه الدعوة للعمل شارك في توقيعها مجموعة من كبار علماء الذكاء الاصطناعي – بمن فيهم جيفري هينتون، والعالم الرئيسي في OpenAI إيليا سوتسكيفر (ورئيس التوافق جان ليك)، والمؤسس المشارك لـDeepMind شين ليج، وآخرون ts2.tech. إنه عرض نادر للوحدة بين مختبرات متنافسة، يعكس قلقًا مشتركًا: مع اقتراب أنظمة الذكاء الاصطناعي من مستوى التفكير البشري، يجب ألا نسمح لها بأن تصبح “صناديق سوداء” لا يمكن فهمها. البحث في “فحوصات دماغ الذكاء الاصطناعي” – قراءة فكر الذكاء الاصطناعي – قد يصبح ضروريًا بقدر أهمية إنشاء الذكاء الاصطناعي نفسه.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

التمويل، الأعمال والاستثمار في الذكاء الاصطناعي

الذكاء الاصطناعي المصمم للقطاع المالي: شهد القطاع المالي اختراقات متزايدة للذكاء الاصطناعي في المنتجات والأرباح. أطلقت شركة Anthropic خدمة Claude للخدمات المالية، وهو إصدار من مساعد الذكاء الاصطناعي Claude-4 مخصص لمحللي السوق والمصرفيين. وتدعي Anthropic أن Claude-4 يتفوق على النماذج المتقدمة الأخرى في مهام التمويل، استنادًا إلى معايير الصناعة anthropic.com. يمكن للمنصة الاتصال بالبيانات المباشرة للأسواق (عبر شركاء مثل بلومبرغ وFactSet وغيرهم) والتعامل مع أحمال العمل الكبيرة من نمذجة المخاطر حتى الأعمال الورقية للامتثال. ويبلغ المستخدمون الأوائل عن مكاسب كبيرة – على سبيل المثال، قال الرئيس التنفيذي لصندوق الثروة السيادي النرويجي البالغ قيمته 1.4 تريليون دولار (NBIM) إن Claude قد “غير بشكل جذري” سير العمل لديهم، حيث وفر ما يقدر بـزيادة في الإنتاجية بنسبة 20% (حوالي 213,000 ساعة عمل تم توفيرها) من خلال تمكين الموظفين من استعلام البيانات وتحليل مكالمات الأرباح بشكل أكثر كفاءة anthropic.com. وأشار إلى أن Claude أصبح “لا غنى عنه” بالنسبة لمحللي ومديري المخاطر في تلك الشركة anthropic.com. كما تستكشف البنوك والصناديق الكبرى المساعدين الذكاء الاصطناعي لتسريع الأبحاث مع تتبع كامل للمراجعات وتلقائية للمهام الروتينية التي عادة ما تعيق عمل الفرق المالية.

وول ستريت تراهن على شركات الذكاء الاصطناعي الناشئة: يواصل المستثمرون ضخ الأموال في مشاريع الذكاء الاصطناعي بقيم مذهلة. وجاءت أخبار هذا الأسبوع بأن Perplexity AI، الشركة الناشئة المعروفة بروبوت الدردشة البحثي المعتمد على الذكاء الاصطناعي، جمعت جولة تمويل جديدة بقيمة 100 مليون دولار، لترتفع قيمتها إلى نحو 18 مليار دولار theindependent.sg. (للمقارنة، كانت قيمة Perplexity تقارب 14 مليار دولار فقط قبل شهرين، ومليار دولار واحد في العام الماضي، مما يعكس الارتفاع الصاروخي في ثروات الذكاء الاصطناعي التوليدي theindependent.sg.) كما ظهرت صناديق جديدة تركز على الذكاء الاصطناعي: فمثلاً، أطلق أحد أوائل المستثمرين في Instacart صندوق “Verified Capital” بمبلغ 175 مليون دولار مخصص لشركات الذكاء الاصطناعي الناشئة (أُعلن عنه في 20 يوليو). وفي مجال الحوسبة السحابية، بدأت الشركات التقليدية في التكيف مع عصر الذكاء الاصطناعي – أحيانًا بشكل مؤلم. فقد أكدت أمازون أنها خفضت عدة مئات من وظائف AWS (معظمها في أدوار الدعم السحابي)، بعد أن حذّر الرئيس التنفيذي آندي جاسي من أن كفاءات الذكاء الاصطناعي ستقلص بعض الوظائف في “طبقة الوسطى” binaryverseai.com. وأشارت رسائل بريد إلكتروني داخلية هذا الأسبوع إلى أن بعض فرق نقل البيانات المتخصصة أصبحت زائدة عن الحاجة – “الدليل المرئي الأول داخل AWS” على الأتمتة المدفوعة بالذكاء الاصطناعي، كما أشارت رويترز binaryverseai.com binaryverseai.com. وقال المحللون إن حتى وحدات التكنولوجيا ذات الهوامش المرتفعة ليست محصنة: “الذكاء الاصطناعي يلتهم المهام التي يتقنها، ثم تقوم الشركات بإعادة توزيع أو الاستغناء عن الموظفين،” كما لاحظ أحدهم بتهكم binaryverseai.com. وعلى الرغم من الأرباح القوية، تواصل عملاق الحوسبة السحابية إعادة الهيكلة، مما يوضح كيف أن مكاسب الإنتاجية من الذكاء الاصطناعي قد تؤدي أيضًا إلى تقليص القوى العاملة فعليًا.

اختراقات في العلوم والرعاية الصحية

تسريع التحليل الطبي: في مجال الرعاية الصحية، تعد اختراقات الذكاء الاصطناعي بتشخيصات أسرع وإجراءات أكثر أمانًا. كشف باحثون من جامعة إنديانا ومستشفيات شريكة عن خط أنابيب “معلوماتية السرطان” مدعوم بالذكاء الاصطناعي يمكنه فحص شرائح علم الأمراض الرقمية والسجلات الصحية الإلكترونية وبيانات الجينوم للإشارة إلى احتمالية الإصابة بالسرطان واقتراح مرحلة الورم. وبحسب الباحث الرئيسي سبيريدون باكاس، فقد قلل نظام الذكاء الاصطناعي بعض إجراءات التشخيص “من أيام إلى ثوانٍ”، حيث صنّف الحالات بسرعة تفوق البشر binaryverseai.com binaryverseai.com. كما كشف الأداة عن ترابطات دقيقة عبر بيانات متعددة الأنماط قد يغفل عنها البشر، على الرغم من إصرار الفريق على أن أطباء علم الأمراض يظلون ضروريين للحالات الصعبة والأحكام النهائية binaryverseai.com. يجسد هذا المشروع اتجاهًا أوسع نحو الطب متعدد الأنماط بالذكاء الاصطناعي الذي يمكنه استيعاب أنواع عديدة من البيانات مرة واحدة. وبالمثل، أفاد أطباء الأشعة بنجاحهم في استخدام نموذج ذكاء اصطناعي يُدعى mViT (محول رؤي معدل) لتحسين فحوصات الأشعة المقطعية للأطفال binaryverseai.com binaryverseai.com. يمكن لأجهزة الأشعة المقطعية التي تعتمد تقنية عدّ الفوتونات أن تقلل من جرعة الأشعة السينية للأطفال، إلا أنها غالبًا ما تنتج صورًا مشوشة؛ حيث تعلم نظام mViT إزالة التشويش من الفحوصات مباشرة، مما يجعل الشرايين والأنسجة أوضح دون التمويه الناتج عن أساليب تقليل الضوضاء القديمة binaryverseai.com binaryverseai.com. وأظهرت الاختبارات التي أُجريت على 20 مريضًا صغيرًا أن الذكاء الاصطناعي تفوق باستمرار على المرشحات التقليدية، مما يسمح على الأرجح بالحصول على فحوصات أكثر وضوحًا وأقل جرعة إشعاعية – وهو مكسب لسلامة المرضى الأطفال مع حصول أجهزة الأشعة المقطعية الجديدة على موافقة إدارة الغذاء والدواء الأمريكية binaryverseai.com.

الاختراقات في علم الأحياء والمواد: تدفع الذكاء الاصطناعي أيضًا العلوم الأساسية إلى الأمام. وصفت دراسة جديدة في Nature Communications كيف يمكن لثلاثة شبكات عصبية الآن تحديد توقيت تطور الأجنة بدقة إلى الدقيقة، وهو إنجاز قد يغير مجال علم الأحياء التطوري binaryverseai.com. من خلال تدريب شبكات عصبية التففية على صور عالية الدقة لأجنة ذبابة الفاكهة، تعلم النظام تحديد الإشارات البصرية الدقيقة لدورات انقسام الخلايا. يمكنه معرفة عمر الجنين (بدقة ±1 دقيقة) دون استخدام علامات فلورية تدخلية – محققًا دقة 98–100% في الأجنة في المراحل المبكرة binaryverseai.com binaryverseai.com. هذا “ساعة الجنين” بالذكاء الاصطناعي مكنت الفريق من رسم خرائط طفرات تنشيط الجينات بدقة زمنية غير مسبوقة، مما يوفر لعلماء الأحياء أداة قوية جديدة لدراسة كيفية تشكل الأعضاء. في علم المواد، قدم باحثون من المملكة المتحدة نموذج “CrystalGPT”، المدرب على 706,000 بنية بلورية، للتنبؤ بخصائص المواد. من خلال فهمه لـ”لغة” البلورات الجزيئية (عبر ألغاز الذرات المخفية وتحديات التناظر)، يمكن لـ CrystalGPT التنبؤ بكثافة أو مسامية أو استقرار مركب جديد بسرعة أكبر بكثير من المحاكاة التقليدية binaryverseai.com binaryverseai.com. يشيد الخبراء بشفافيته – حيث تُبرز الذكاء الاصطناعي حتى أي الأحياء الذرية أثرت أكثر في التنبؤ – ما يمنح الكيميائيين الثقة بدلاً من تخمين الصندوق الأسود binaryverseai.com. يمكن أن تسرع النمذجة البلورية الأسرع التقدم في البطاريات والعوامل المساعدة ومواد أشباه الموصلات، مما يقلل أوقات وتكاليف البحث والتطوير.

الذكاء الاصطناعي للبرمجة – مع بعض التحفظات: لم تكن جميع الأبحاث وردية؛ فقد قدمت دراسة واحدة رؤية واقعية حول مساعدي البرمجة بالذكاء الاصطناعي. ففي تجربة محكومة، استغرق مطورو البرمجيات ذوو الخبرة وقتاً أطول بنسبة 19% في إنجاز مهمة باستخدام مساعد ذكاء اصطناعي مقارنةً بمجموعة ضابطة بدون ذكاء اصطناعي ts2.tech. كان المبرمجون المتمرسون يتوقعون أن يساعدهم الذكاء الاصطناعي (أداة اقتراح الشيفرة) على إنجاز العمل بشكل أسرع، لكنه غالباً ما كان يعطي شيفرات “صحيحة من حيث التوجه العام، لكنها ليست بالضبط ما هو مطلوبts2.tech. وقد أُهدر الوقت في مراجعة هذه الاقتراحات وتصحيحها. في المقابل، أظهرت دراسات سابقة زيادات كبيرة في السرعة للمبرمجين الأقل خبرة في المهام الأسهل. “إنه أشبه بتحرير مقالة أكثر من كونه كتابة من البداية،” قال أحد المبرمجين المخضرمين حول أسلوب العمل بمساعدة الذكاء الاصطناعي – ربما أكثر استرخاءً، لكنه أبطأ ts2.tech. وخلص الباحثون في METR إلى أن المساعدات الذكية الحالية ليست عصا سحرية لزيادة إنتاجية الخبراء في البرمجة المعقدة، وأن هناك حاجة لمزيد من التحسين والمراقبة البشرية ts2.tech. هذا الاستنتاج المتوازن يهدئ من الاندفاع نحو نشر الذكاء الاصطناعي المولّد للشيفرات لجميع المبرمجين.

التطلع داخل “عقل” الذكاء الاصطناعي: نشر اتحاد من كبار علماء الذكاء الاصطناعي (من OpenAI وDeepMind وAnthropic وأفضل الجامعات) ورقة بحثية بارزة يدعون فيها إلى ابتكار تقنيات جديدة لـمراقبة “تَسَلْسُل التفكير” في الذكاء الاصطناعي – وهي في الأساس خطوات التفكير الخفية التي يولدها نماذج الذكاء الاصطناعي داخليًا ts2.tech. ومع تحول أنظمة الذكاء الاصطناعي إلى المزيد من الاستقلالية (كما هي الحال مع العملاء الذين يظهرون الآن)، يجادل المؤلفون بأن القدرة على الاطلاع على تلك الأفكار الوسيطة قد يكون أمرًا حيويًا للسلامة ts2.tech. فمن خلال مراقبة تسلسل تفكير الذكاء الاصطناعي خطوة بخطوة، قد يتمكن المطورون من اكتشاف الأخطاء أو الميل إلى طرق خطرة قبل أن يتصرف الذكاء الاصطناعي. ومع ذلك، تحذر الورقة من أنه مع تزايد تعقيد النماذج، “لا يوجد ضمان بأن درجة الشفافية الحالية ستستمر” – فقد تقوم نماذج الذكاء الاصطناعي المستقبلية بإضمار تفكيرها بشكل لا يمكن تتبعه بسهولة ts2.tech. وقد حث الفريق المجتمع العلمي على “الاستفادة القصوى من إمكانية مراقبة تسلسل التفكير” الآن والسعي إلى الحفاظ على الشفافية مستقبلًا ts2.tech. ومن الجدير بالذكر أن هذه الدعوة للعمل شارك في توقيعها مجموعة من كبار علماء الذكاء الاصطناعي – بمن فيهم جيفري هينتون، والعالم الرئيسي في OpenAI إيليا سوتسكيفر (ورئيس التوافق جان ليك)، والمؤسس المشارك لـDeepMind شين ليج، وآخرون ts2.tech. إنه عرض نادر للوحدة بين مختبرات متنافسة، يعكس قلقًا مشتركًا: مع اقتراب أنظمة الذكاء الاصطناعي من مستوى التفكير البشري، يجب ألا نسمح لها بأن تصبح “صناديق سوداء” لا يمكن فهمها. البحث في “فحوصات دماغ الذكاء الاصطناعي” – قراءة فكر الذكاء الاصطناعي – قد يصبح ضروريًا بقدر أهمية إنشاء الذكاء الاصطناعي نفسه.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

الذكاء الاصطناعي في الإعلام، الترفيه والصناعات الإبداعية

نتفليكس تتبنى الذكاء الاصطناعي في المؤثرات البصرية: شهدت هوليوود سابقة ملحوظة: فقد كشفت نتفليكس في مكالمة الأرباح الخاصة بها أنها بدأت في استخدام الذكاء الاصطناعي التوليدي في إنتاج المحتوى، بما في ذلك لقطات تم إنشاؤها بالكامل بالذكاء الاصطناعي لأول مرة في عرض من عروض نتفليكس ts2.tech. في السلسلة الأرجنتينية الخيالية العلمية “El Eternauta”، تم إنشاء مشهد كامل لانهيار مبنى باستخدام الذكاء الاصطناعي – وقد تم إنجازه أسرع بعشر مرات وبتكلفة أقل مقارنة باستخدام المؤثرات البصرية التقليدية techcrunch.com. شدد الرئيس التنفيذي المشارك تيد ساراندوس على أن الذكاء الاصطناعي يُستخدم لتمكين المبدعين وليس لاستبدالهم، قائلاً: “الذكاء الاصطناعي يمثل فرصة مذهلة لمساعدة المبدعين على صنع أفلام ومسلسلات أفضل، وليس فقط أرخص … هؤلاء أشخاص حقيقيون ينفذون عملاً حقيقياً بأدوات أفضل.” techcrunch.com وأشار إلى أن فناني نتفليكس يرون بالفعل فوائد في مرحلة التصور المسبق وتخطيط المشاهد. كما تطبق نتفليكس الذكاء الاصطناعي التوليدي خارج نطاق المؤثرات البصرية – حيث تستخدمه لاكتشاف المحتوى بشكل شخصي، وتستعد لإطلاق إعلانات تفاعلية مدعومة بالذكاء الاصطناعي في وقت لاحق من هذا العام techcrunch.com.

الموضة التوليدية وسحر الفيديو: امتدت لمسة الذكاء الاصطناعي الإبداعية إلى عالم الموضة والفيديو. أجرى باحثون في كوريا الجنوبية تجارب على “الموضة التوليدية”، حيث استخدموا ChatGPT للتنبؤ باتجاهات الموضة القادمة وDALL·E 3 لإنشاء أكثر من 100 زي افتراضي لمجموعة خريف/شتاء binaryverseai.com binaryverseai.com. توافقت حوالي ثلثي التصاميم التي أنشأها الذكاء الاصطناعي مع الأنماط السائدة في العالم الواقعي، ما يشير إلى أن النماذج التوليدية قد تكشف عن الاتجاهات قبل المصممين أنفسهم. (لكن الذكاء الاصطناعي تعثر في مفاهيم مُجرّدة مثل التصاميم ذات الهوية الجندرية السائلة، مما يؤكد أن المصممين البشر لا يزالون يمسكون بالبوصلة الإبداعية binaryverseai.com.) وفي تكنولوجيا صناعة الأفلام، كشفت NVIDIA وشركاؤها الجامعيون عن DiffusionRenderer، وهو نظام ذكاء اصطناعي من مرحلتين يدمج بين العرض المعكوس والمتقدم لجعل التأثيرات البصرية المتقدمة متاحة للمبدعين المستقلين binaryverseai.com binaryverseai.com. في أحد العروض التوضيحية، تمكن المستخدم من تصوير مشهد بسيط ثم إدخال تنين رسوم متحركة ينتج ظلالاً واقعية تماماً دون الحاجة إلى حساسات معقدة أو إعدادات إضاءة يدوية – فقد تعلم الذكاء الاصطناعي هندسة وإضاءة المشهد من اللقطات نفسها binaryverseai.com binaryverseai.com. والنتيجة تضيق الفجوة بين استوديوهات الإنتاج الكبرى والمبدعين الصغار، وتلمّح لمستقبل تحرير فيديو يكاد يكون “سحرياً” متاحاً للجميع.

التمويل، الأعمال والاستثمار في الذكاء الاصطناعي

الذكاء الاصطناعي المصمم للقطاع المالي: شهد القطاع المالي اختراقات متزايدة للذكاء الاصطناعي في المنتجات والأرباح. أطلقت شركة Anthropic خدمة Claude للخدمات المالية، وهو إصدار من مساعد الذكاء الاصطناعي Claude-4 مخصص لمحللي السوق والمصرفيين. وتدعي Anthropic أن Claude-4 يتفوق على النماذج المتقدمة الأخرى في مهام التمويل، استنادًا إلى معايير الصناعة anthropic.com. يمكن للمنصة الاتصال بالبيانات المباشرة للأسواق (عبر شركاء مثل بلومبرغ وFactSet وغيرهم) والتعامل مع أحمال العمل الكبيرة من نمذجة المخاطر حتى الأعمال الورقية للامتثال. ويبلغ المستخدمون الأوائل عن مكاسب كبيرة – على سبيل المثال، قال الرئيس التنفيذي لصندوق الثروة السيادي النرويجي البالغ قيمته 1.4 تريليون دولار (NBIM) إن Claude قد “غير بشكل جذري” سير العمل لديهم، حيث وفر ما يقدر بـزيادة في الإنتاجية بنسبة 20% (حوالي 213,000 ساعة عمل تم توفيرها) من خلال تمكين الموظفين من استعلام البيانات وتحليل مكالمات الأرباح بشكل أكثر كفاءة anthropic.com. وأشار إلى أن Claude أصبح “لا غنى عنه” بالنسبة لمحللي ومديري المخاطر في تلك الشركة anthropic.com. كما تستكشف البنوك والصناديق الكبرى المساعدين الذكاء الاصطناعي لتسريع الأبحاث مع تتبع كامل للمراجعات وتلقائية للمهام الروتينية التي عادة ما تعيق عمل الفرق المالية.

وول ستريت تراهن على شركات الذكاء الاصطناعي الناشئة: يواصل المستثمرون ضخ الأموال في مشاريع الذكاء الاصطناعي بقيم مذهلة. وجاءت أخبار هذا الأسبوع بأن Perplexity AI، الشركة الناشئة المعروفة بروبوت الدردشة البحثي المعتمد على الذكاء الاصطناعي، جمعت جولة تمويل جديدة بقيمة 100 مليون دولار، لترتفع قيمتها إلى نحو 18 مليار دولار theindependent.sg. (للمقارنة، كانت قيمة Perplexity تقارب 14 مليار دولار فقط قبل شهرين، ومليار دولار واحد في العام الماضي، مما يعكس الارتفاع الصاروخي في ثروات الذكاء الاصطناعي التوليدي theindependent.sg.) كما ظهرت صناديق جديدة تركز على الذكاء الاصطناعي: فمثلاً، أطلق أحد أوائل المستثمرين في Instacart صندوق “Verified Capital” بمبلغ 175 مليون دولار مخصص لشركات الذكاء الاصطناعي الناشئة (أُعلن عنه في 20 يوليو). وفي مجال الحوسبة السحابية، بدأت الشركات التقليدية في التكيف مع عصر الذكاء الاصطناعي – أحيانًا بشكل مؤلم. فقد أكدت أمازون أنها خفضت عدة مئات من وظائف AWS (معظمها في أدوار الدعم السحابي)، بعد أن حذّر الرئيس التنفيذي آندي جاسي من أن كفاءات الذكاء الاصطناعي ستقلص بعض الوظائف في “طبقة الوسطى” binaryverseai.com. وأشارت رسائل بريد إلكتروني داخلية هذا الأسبوع إلى أن بعض فرق نقل البيانات المتخصصة أصبحت زائدة عن الحاجة – “الدليل المرئي الأول داخل AWS” على الأتمتة المدفوعة بالذكاء الاصطناعي، كما أشارت رويترز binaryverseai.com binaryverseai.com. وقال المحللون إن حتى وحدات التكنولوجيا ذات الهوامش المرتفعة ليست محصنة: “الذكاء الاصطناعي يلتهم المهام التي يتقنها، ثم تقوم الشركات بإعادة توزيع أو الاستغناء عن الموظفين،” كما لاحظ أحدهم بتهكم binaryverseai.com. وعلى الرغم من الأرباح القوية، تواصل عملاق الحوسبة السحابية إعادة الهيكلة، مما يوضح كيف أن مكاسب الإنتاجية من الذكاء الاصطناعي قد تؤدي أيضًا إلى تقليص القوى العاملة فعليًا.

اختراقات في العلوم والرعاية الصحية

تسريع التحليل الطبي: في مجال الرعاية الصحية، تعد اختراقات الذكاء الاصطناعي بتشخيصات أسرع وإجراءات أكثر أمانًا. كشف باحثون من جامعة إنديانا ومستشفيات شريكة عن خط أنابيب “معلوماتية السرطان” مدعوم بالذكاء الاصطناعي يمكنه فحص شرائح علم الأمراض الرقمية والسجلات الصحية الإلكترونية وبيانات الجينوم للإشارة إلى احتمالية الإصابة بالسرطان واقتراح مرحلة الورم. وبحسب الباحث الرئيسي سبيريدون باكاس، فقد قلل نظام الذكاء الاصطناعي بعض إجراءات التشخيص “من أيام إلى ثوانٍ”، حيث صنّف الحالات بسرعة تفوق البشر binaryverseai.com binaryverseai.com. كما كشف الأداة عن ترابطات دقيقة عبر بيانات متعددة الأنماط قد يغفل عنها البشر، على الرغم من إصرار الفريق على أن أطباء علم الأمراض يظلون ضروريين للحالات الصعبة والأحكام النهائية binaryverseai.com. يجسد هذا المشروع اتجاهًا أوسع نحو الطب متعدد الأنماط بالذكاء الاصطناعي الذي يمكنه استيعاب أنواع عديدة من البيانات مرة واحدة. وبالمثل، أفاد أطباء الأشعة بنجاحهم في استخدام نموذج ذكاء اصطناعي يُدعى mViT (محول رؤي معدل) لتحسين فحوصات الأشعة المقطعية للأطفال binaryverseai.com binaryverseai.com. يمكن لأجهزة الأشعة المقطعية التي تعتمد تقنية عدّ الفوتونات أن تقلل من جرعة الأشعة السينية للأطفال، إلا أنها غالبًا ما تنتج صورًا مشوشة؛ حيث تعلم نظام mViT إزالة التشويش من الفحوصات مباشرة، مما يجعل الشرايين والأنسجة أوضح دون التمويه الناتج عن أساليب تقليل الضوضاء القديمة binaryverseai.com binaryverseai.com. وأظهرت الاختبارات التي أُجريت على 20 مريضًا صغيرًا أن الذكاء الاصطناعي تفوق باستمرار على المرشحات التقليدية، مما يسمح على الأرجح بالحصول على فحوصات أكثر وضوحًا وأقل جرعة إشعاعية – وهو مكسب لسلامة المرضى الأطفال مع حصول أجهزة الأشعة المقطعية الجديدة على موافقة إدارة الغذاء والدواء الأمريكية binaryverseai.com.

الاختراقات في علم الأحياء والمواد: تدفع الذكاء الاصطناعي أيضًا العلوم الأساسية إلى الأمام. وصفت دراسة جديدة في Nature Communications كيف يمكن لثلاثة شبكات عصبية الآن تحديد توقيت تطور الأجنة بدقة إلى الدقيقة، وهو إنجاز قد يغير مجال علم الأحياء التطوري binaryverseai.com. من خلال تدريب شبكات عصبية التففية على صور عالية الدقة لأجنة ذبابة الفاكهة، تعلم النظام تحديد الإشارات البصرية الدقيقة لدورات انقسام الخلايا. يمكنه معرفة عمر الجنين (بدقة ±1 دقيقة) دون استخدام علامات فلورية تدخلية – محققًا دقة 98–100% في الأجنة في المراحل المبكرة binaryverseai.com binaryverseai.com. هذا “ساعة الجنين” بالذكاء الاصطناعي مكنت الفريق من رسم خرائط طفرات تنشيط الجينات بدقة زمنية غير مسبوقة، مما يوفر لعلماء الأحياء أداة قوية جديدة لدراسة كيفية تشكل الأعضاء. في علم المواد، قدم باحثون من المملكة المتحدة نموذج “CrystalGPT”، المدرب على 706,000 بنية بلورية، للتنبؤ بخصائص المواد. من خلال فهمه لـ”لغة” البلورات الجزيئية (عبر ألغاز الذرات المخفية وتحديات التناظر)، يمكن لـ CrystalGPT التنبؤ بكثافة أو مسامية أو استقرار مركب جديد بسرعة أكبر بكثير من المحاكاة التقليدية binaryverseai.com binaryverseai.com. يشيد الخبراء بشفافيته – حيث تُبرز الذكاء الاصطناعي حتى أي الأحياء الذرية أثرت أكثر في التنبؤ – ما يمنح الكيميائيين الثقة بدلاً من تخمين الصندوق الأسود binaryverseai.com. يمكن أن تسرع النمذجة البلورية الأسرع التقدم في البطاريات والعوامل المساعدة ومواد أشباه الموصلات، مما يقلل أوقات وتكاليف البحث والتطوير.

الذكاء الاصطناعي للبرمجة – مع بعض التحفظات: لم تكن جميع الأبحاث وردية؛ فقد قدمت دراسة واحدة رؤية واقعية حول مساعدي البرمجة بالذكاء الاصطناعي. ففي تجربة محكومة، استغرق مطورو البرمجيات ذوو الخبرة وقتاً أطول بنسبة 19% في إنجاز مهمة باستخدام مساعد ذكاء اصطناعي مقارنةً بمجموعة ضابطة بدون ذكاء اصطناعي ts2.tech. كان المبرمجون المتمرسون يتوقعون أن يساعدهم الذكاء الاصطناعي (أداة اقتراح الشيفرة) على إنجاز العمل بشكل أسرع، لكنه غالباً ما كان يعطي شيفرات “صحيحة من حيث التوجه العام، لكنها ليست بالضبط ما هو مطلوبts2.tech. وقد أُهدر الوقت في مراجعة هذه الاقتراحات وتصحيحها. في المقابل، أظهرت دراسات سابقة زيادات كبيرة في السرعة للمبرمجين الأقل خبرة في المهام الأسهل. “إنه أشبه بتحرير مقالة أكثر من كونه كتابة من البداية،” قال أحد المبرمجين المخضرمين حول أسلوب العمل بمساعدة الذكاء الاصطناعي – ربما أكثر استرخاءً، لكنه أبطأ ts2.tech. وخلص الباحثون في METR إلى أن المساعدات الذكية الحالية ليست عصا سحرية لزيادة إنتاجية الخبراء في البرمجة المعقدة، وأن هناك حاجة لمزيد من التحسين والمراقبة البشرية ts2.tech. هذا الاستنتاج المتوازن يهدئ من الاندفاع نحو نشر الذكاء الاصطناعي المولّد للشيفرات لجميع المبرمجين.

التطلع داخل “عقل” الذكاء الاصطناعي: نشر اتحاد من كبار علماء الذكاء الاصطناعي (من OpenAI وDeepMind وAnthropic وأفضل الجامعات) ورقة بحثية بارزة يدعون فيها إلى ابتكار تقنيات جديدة لـمراقبة “تَسَلْسُل التفكير” في الذكاء الاصطناعي – وهي في الأساس خطوات التفكير الخفية التي يولدها نماذج الذكاء الاصطناعي داخليًا ts2.tech. ومع تحول أنظمة الذكاء الاصطناعي إلى المزيد من الاستقلالية (كما هي الحال مع العملاء الذين يظهرون الآن)، يجادل المؤلفون بأن القدرة على الاطلاع على تلك الأفكار الوسيطة قد يكون أمرًا حيويًا للسلامة ts2.tech. فمن خلال مراقبة تسلسل تفكير الذكاء الاصطناعي خطوة بخطوة، قد يتمكن المطورون من اكتشاف الأخطاء أو الميل إلى طرق خطرة قبل أن يتصرف الذكاء الاصطناعي. ومع ذلك، تحذر الورقة من أنه مع تزايد تعقيد النماذج، “لا يوجد ضمان بأن درجة الشفافية الحالية ستستمر” – فقد تقوم نماذج الذكاء الاصطناعي المستقبلية بإضمار تفكيرها بشكل لا يمكن تتبعه بسهولة ts2.tech. وقد حث الفريق المجتمع العلمي على “الاستفادة القصوى من إمكانية مراقبة تسلسل التفكير” الآن والسعي إلى الحفاظ على الشفافية مستقبلًا ts2.tech. ومن الجدير بالذكر أن هذه الدعوة للعمل شارك في توقيعها مجموعة من كبار علماء الذكاء الاصطناعي – بمن فيهم جيفري هينتون، والعالم الرئيسي في OpenAI إيليا سوتسكيفر (ورئيس التوافق جان ليك)، والمؤسس المشارك لـDeepMind شين ليج، وآخرون ts2.tech. إنه عرض نادر للوحدة بين مختبرات متنافسة، يعكس قلقًا مشتركًا: مع اقتراب أنظمة الذكاء الاصطناعي من مستوى التفكير البشري، يجب ألا نسمح لها بأن تصبح “صناديق سوداء” لا يمكن فهمها. البحث في “فحوصات دماغ الذكاء الاصطناعي” – قراءة فكر الذكاء الاصطناعي – قد يصبح ضروريًا بقدر أهمية إنشاء الذكاء الاصطناعي نفسه.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

التمويل، الأعمال والاستثمار في الذكاء الاصطناعي

الذكاء الاصطناعي المصمم للقطاع المالي: شهد القطاع المالي اختراقات متزايدة للذكاء الاصطناعي في المنتجات والأرباح. أطلقت شركة Anthropic خدمة Claude للخدمات المالية، وهو إصدار من مساعد الذكاء الاصطناعي Claude-4 مخصص لمحللي السوق والمصرفيين. وتدعي Anthropic أن Claude-4 يتفوق على النماذج المتقدمة الأخرى في مهام التمويل، استنادًا إلى معايير الصناعة anthropic.com. يمكن للمنصة الاتصال بالبيانات المباشرة للأسواق (عبر شركاء مثل بلومبرغ وFactSet وغيرهم) والتعامل مع أحمال العمل الكبيرة من نمذجة المخاطر حتى الأعمال الورقية للامتثال. ويبلغ المستخدمون الأوائل عن مكاسب كبيرة – على سبيل المثال، قال الرئيس التنفيذي لصندوق الثروة السيادي النرويجي البالغ قيمته 1.4 تريليون دولار (NBIM) إن Claude قد “غير بشكل جذري” سير العمل لديهم، حيث وفر ما يقدر بـزيادة في الإنتاجية بنسبة 20% (حوالي 213,000 ساعة عمل تم توفيرها) من خلال تمكين الموظفين من استعلام البيانات وتحليل مكالمات الأرباح بشكل أكثر كفاءة anthropic.com. وأشار إلى أن Claude أصبح “لا غنى عنه” بالنسبة لمحللي ومديري المخاطر في تلك الشركة anthropic.com. كما تستكشف البنوك والصناديق الكبرى المساعدين الذكاء الاصطناعي لتسريع الأبحاث مع تتبع كامل للمراجعات وتلقائية للمهام الروتينية التي عادة ما تعيق عمل الفرق المالية.

وول ستريت تراهن على شركات الذكاء الاصطناعي الناشئة: يواصل المستثمرون ضخ الأموال في مشاريع الذكاء الاصطناعي بقيم مذهلة. وجاءت أخبار هذا الأسبوع بأن Perplexity AI، الشركة الناشئة المعروفة بروبوت الدردشة البحثي المعتمد على الذكاء الاصطناعي، جمعت جولة تمويل جديدة بقيمة 100 مليون دولار، لترتفع قيمتها إلى نحو 18 مليار دولار theindependent.sg. (للمقارنة، كانت قيمة Perplexity تقارب 14 مليار دولار فقط قبل شهرين، ومليار دولار واحد في العام الماضي، مما يعكس الارتفاع الصاروخي في ثروات الذكاء الاصطناعي التوليدي theindependent.sg.) كما ظهرت صناديق جديدة تركز على الذكاء الاصطناعي: فمثلاً، أطلق أحد أوائل المستثمرين في Instacart صندوق “Verified Capital” بمبلغ 175 مليون دولار مخصص لشركات الذكاء الاصطناعي الناشئة (أُعلن عنه في 20 يوليو). وفي مجال الحوسبة السحابية، بدأت الشركات التقليدية في التكيف مع عصر الذكاء الاصطناعي – أحيانًا بشكل مؤلم. فقد أكدت أمازون أنها خفضت عدة مئات من وظائف AWS (معظمها في أدوار الدعم السحابي)، بعد أن حذّر الرئيس التنفيذي آندي جاسي من أن كفاءات الذكاء الاصطناعي ستقلص بعض الوظائف في “طبقة الوسطى” binaryverseai.com. وأشارت رسائل بريد إلكتروني داخلية هذا الأسبوع إلى أن بعض فرق نقل البيانات المتخصصة أصبحت زائدة عن الحاجة – “الدليل المرئي الأول داخل AWS” على الأتمتة المدفوعة بالذكاء الاصطناعي، كما أشارت رويترز binaryverseai.com binaryverseai.com. وقال المحللون إن حتى وحدات التكنولوجيا ذات الهوامش المرتفعة ليست محصنة: “الذكاء الاصطناعي يلتهم المهام التي يتقنها، ثم تقوم الشركات بإعادة توزيع أو الاستغناء عن الموظفين،” كما لاحظ أحدهم بتهكم binaryverseai.com. وعلى الرغم من الأرباح القوية، تواصل عملاق الحوسبة السحابية إعادة الهيكلة، مما يوضح كيف أن مكاسب الإنتاجية من الذكاء الاصطناعي قد تؤدي أيضًا إلى تقليص القوى العاملة فعليًا.

اختراقات في العلوم والرعاية الصحية

تسريع التحليل الطبي: في مجال الرعاية الصحية، تعد اختراقات الذكاء الاصطناعي بتشخيصات أسرع وإجراءات أكثر أمانًا. كشف باحثون من جامعة إنديانا ومستشفيات شريكة عن خط أنابيب “معلوماتية السرطان” مدعوم بالذكاء الاصطناعي يمكنه فحص شرائح علم الأمراض الرقمية والسجلات الصحية الإلكترونية وبيانات الجينوم للإشارة إلى احتمالية الإصابة بالسرطان واقتراح مرحلة الورم. وبحسب الباحث الرئيسي سبيريدون باكاس، فقد قلل نظام الذكاء الاصطناعي بعض إجراءات التشخيص “من أيام إلى ثوانٍ”، حيث صنّف الحالات بسرعة تفوق البشر binaryverseai.com binaryverseai.com. كما كشف الأداة عن ترابطات دقيقة عبر بيانات متعددة الأنماط قد يغفل عنها البشر، على الرغم من إصرار الفريق على أن أطباء علم الأمراض يظلون ضروريين للحالات الصعبة والأحكام النهائية binaryverseai.com. يجسد هذا المشروع اتجاهًا أوسع نحو الطب متعدد الأنماط بالذكاء الاصطناعي الذي يمكنه استيعاب أنواع عديدة من البيانات مرة واحدة. وبالمثل، أفاد أطباء الأشعة بنجاحهم في استخدام نموذج ذكاء اصطناعي يُدعى mViT (محول رؤي معدل) لتحسين فحوصات الأشعة المقطعية للأطفال binaryverseai.com binaryverseai.com. يمكن لأجهزة الأشعة المقطعية التي تعتمد تقنية عدّ الفوتونات أن تقلل من جرعة الأشعة السينية للأطفال، إلا أنها غالبًا ما تنتج صورًا مشوشة؛ حيث تعلم نظام mViT إزالة التشويش من الفحوصات مباشرة، مما يجعل الشرايين والأنسجة أوضح دون التمويه الناتج عن أساليب تقليل الضوضاء القديمة binaryverseai.com binaryverseai.com. وأظهرت الاختبارات التي أُجريت على 20 مريضًا صغيرًا أن الذكاء الاصطناعي تفوق باستمرار على المرشحات التقليدية، مما يسمح على الأرجح بالحصول على فحوصات أكثر وضوحًا وأقل جرعة إشعاعية – وهو مكسب لسلامة المرضى الأطفال مع حصول أجهزة الأشعة المقطعية الجديدة على موافقة إدارة الغذاء والدواء الأمريكية binaryverseai.com.

الاختراقات في علم الأحياء والمواد: تدفع الذكاء الاصطناعي أيضًا العلوم الأساسية إلى الأمام. وصفت دراسة جديدة في Nature Communications كيف يمكن لثلاثة شبكات عصبية الآن تحديد توقيت تطور الأجنة بدقة إلى الدقيقة، وهو إنجاز قد يغير مجال علم الأحياء التطوري binaryverseai.com. من خلال تدريب شبكات عصبية التففية على صور عالية الدقة لأجنة ذبابة الفاكهة، تعلم النظام تحديد الإشارات البصرية الدقيقة لدورات انقسام الخلايا. يمكنه معرفة عمر الجنين (بدقة ±1 دقيقة) دون استخدام علامات فلورية تدخلية – محققًا دقة 98–100% في الأجنة في المراحل المبكرة binaryverseai.com binaryverseai.com. هذا “ساعة الجنين” بالذكاء الاصطناعي مكنت الفريق من رسم خرائط طفرات تنشيط الجينات بدقة زمنية غير مسبوقة، مما يوفر لعلماء الأحياء أداة قوية جديدة لدراسة كيفية تشكل الأعضاء. في علم المواد، قدم باحثون من المملكة المتحدة نموذج “CrystalGPT”، المدرب على 706,000 بنية بلورية، للتنبؤ بخصائص المواد. من خلال فهمه لـ”لغة” البلورات الجزيئية (عبر ألغاز الذرات المخفية وتحديات التناظر)، يمكن لـ CrystalGPT التنبؤ بكثافة أو مسامية أو استقرار مركب جديد بسرعة أكبر بكثير من المحاكاة التقليدية binaryverseai.com binaryverseai.com. يشيد الخبراء بشفافيته – حيث تُبرز الذكاء الاصطناعي حتى أي الأحياء الذرية أثرت أكثر في التنبؤ – ما يمنح الكيميائيين الثقة بدلاً من تخمين الصندوق الأسود binaryverseai.com. يمكن أن تسرع النمذجة البلورية الأسرع التقدم في البطاريات والعوامل المساعدة ومواد أشباه الموصلات، مما يقلل أوقات وتكاليف البحث والتطوير.

الذكاء الاصطناعي للبرمجة – مع بعض التحفظات: لم تكن جميع الأبحاث وردية؛ فقد قدمت دراسة واحدة رؤية واقعية حول مساعدي البرمجة بالذكاء الاصطناعي. ففي تجربة محكومة، استغرق مطورو البرمجيات ذوو الخبرة وقتاً أطول بنسبة 19% في إنجاز مهمة باستخدام مساعد ذكاء اصطناعي مقارنةً بمجموعة ضابطة بدون ذكاء اصطناعي ts2.tech. كان المبرمجون المتمرسون يتوقعون أن يساعدهم الذكاء الاصطناعي (أداة اقتراح الشيفرة) على إنجاز العمل بشكل أسرع، لكنه غالباً ما كان يعطي شيفرات “صحيحة من حيث التوجه العام، لكنها ليست بالضبط ما هو مطلوبts2.tech. وقد أُهدر الوقت في مراجعة هذه الاقتراحات وتصحيحها. في المقابل، أظهرت دراسات سابقة زيادات كبيرة في السرعة للمبرمجين الأقل خبرة في المهام الأسهل. “إنه أشبه بتحرير مقالة أكثر من كونه كتابة من البداية،” قال أحد المبرمجين المخضرمين حول أسلوب العمل بمساعدة الذكاء الاصطناعي – ربما أكثر استرخاءً، لكنه أبطأ ts2.tech. وخلص الباحثون في METR إلى أن المساعدات الذكية الحالية ليست عصا سحرية لزيادة إنتاجية الخبراء في البرمجة المعقدة، وأن هناك حاجة لمزيد من التحسين والمراقبة البشرية ts2.tech. هذا الاستنتاج المتوازن يهدئ من الاندفاع نحو نشر الذكاء الاصطناعي المولّد للشيفرات لجميع المبرمجين.

التطلع داخل “عقل” الذكاء الاصطناعي: نشر اتحاد من كبار علماء الذكاء الاصطناعي (من OpenAI وDeepMind وAnthropic وأفضل الجامعات) ورقة بحثية بارزة يدعون فيها إلى ابتكار تقنيات جديدة لـمراقبة “تَسَلْسُل التفكير” في الذكاء الاصطناعي – وهي في الأساس خطوات التفكير الخفية التي يولدها نماذج الذكاء الاصطناعي داخليًا ts2.tech. ومع تحول أنظمة الذكاء الاصطناعي إلى المزيد من الاستقلالية (كما هي الحال مع العملاء الذين يظهرون الآن)، يجادل المؤلفون بأن القدرة على الاطلاع على تلك الأفكار الوسيطة قد يكون أمرًا حيويًا للسلامة ts2.tech. فمن خلال مراقبة تسلسل تفكير الذكاء الاصطناعي خطوة بخطوة، قد يتمكن المطورون من اكتشاف الأخطاء أو الميل إلى طرق خطرة قبل أن يتصرف الذكاء الاصطناعي. ومع ذلك، تحذر الورقة من أنه مع تزايد تعقيد النماذج، “لا يوجد ضمان بأن درجة الشفافية الحالية ستستمر” – فقد تقوم نماذج الذكاء الاصطناعي المستقبلية بإضمار تفكيرها بشكل لا يمكن تتبعه بسهولة ts2.tech. وقد حث الفريق المجتمع العلمي على “الاستفادة القصوى من إمكانية مراقبة تسلسل التفكير” الآن والسعي إلى الحفاظ على الشفافية مستقبلًا ts2.tech. ومن الجدير بالذكر أن هذه الدعوة للعمل شارك في توقيعها مجموعة من كبار علماء الذكاء الاصطناعي – بمن فيهم جيفري هينتون، والعالم الرئيسي في OpenAI إيليا سوتسكيفر (ورئيس التوافق جان ليك)، والمؤسس المشارك لـDeepMind شين ليج، وآخرون ts2.tech. إنه عرض نادر للوحدة بين مختبرات متنافسة، يعكس قلقًا مشتركًا: مع اقتراب أنظمة الذكاء الاصطناعي من مستوى التفكير البشري، يجب ألا نسمح لها بأن تصبح “صناديق سوداء” لا يمكن فهمها. البحث في “فحوصات دماغ الذكاء الاصطناعي” – قراءة فكر الذكاء الاصطناعي – قد يصبح ضروريًا بقدر أهمية إنشاء الذكاء الاصطناعي نفسه.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

الذكاء الاصطناعي في الإعلام، الترفيه والصناعات الإبداعية

نتفليكس تتبنى الذكاء الاصطناعي في المؤثرات البصرية: شهدت هوليوود سابقة ملحوظة: فقد كشفت نتفليكس في مكالمة الأرباح الخاصة بها أنها بدأت في استخدام الذكاء الاصطناعي التوليدي في إنتاج المحتوى، بما في ذلك لقطات تم إنشاؤها بالكامل بالذكاء الاصطناعي لأول مرة في عرض من عروض نتفليكس ts2.tech. في السلسلة الأرجنتينية الخيالية العلمية “El Eternauta”، تم إنشاء مشهد كامل لانهيار مبنى باستخدام الذكاء الاصطناعي – وقد تم إنجازه أسرع بعشر مرات وبتكلفة أقل مقارنة باستخدام المؤثرات البصرية التقليدية techcrunch.com. شدد الرئيس التنفيذي المشارك تيد ساراندوس على أن الذكاء الاصطناعي يُستخدم لتمكين المبدعين وليس لاستبدالهم، قائلاً: “الذكاء الاصطناعي يمثل فرصة مذهلة لمساعدة المبدعين على صنع أفلام ومسلسلات أفضل، وليس فقط أرخص … هؤلاء أشخاص حقيقيون ينفذون عملاً حقيقياً بأدوات أفضل.” techcrunch.com وأشار إلى أن فناني نتفليكس يرون بالفعل فوائد في مرحلة التصور المسبق وتخطيط المشاهد. كما تطبق نتفليكس الذكاء الاصطناعي التوليدي خارج نطاق المؤثرات البصرية – حيث تستخدمه لاكتشاف المحتوى بشكل شخصي، وتستعد لإطلاق إعلانات تفاعلية مدعومة بالذكاء الاصطناعي في وقت لاحق من هذا العام techcrunch.com.

الموضة التوليدية وسحر الفيديو: امتدت لمسة الذكاء الاصطناعي الإبداعية إلى عالم الموضة والفيديو. أجرى باحثون في كوريا الجنوبية تجارب على “الموضة التوليدية”، حيث استخدموا ChatGPT للتنبؤ باتجاهات الموضة القادمة وDALL·E 3 لإنشاء أكثر من 100 زي افتراضي لمجموعة خريف/شتاء binaryverseai.com binaryverseai.com. توافقت حوالي ثلثي التصاميم التي أنشأها الذكاء الاصطناعي مع الأنماط السائدة في العالم الواقعي، ما يشير إلى أن النماذج التوليدية قد تكشف عن الاتجاهات قبل المصممين أنفسهم. (لكن الذكاء الاصطناعي تعثر في مفاهيم مُجرّدة مثل التصاميم ذات الهوية الجندرية السائلة، مما يؤكد أن المصممين البشر لا يزالون يمسكون بالبوصلة الإبداعية binaryverseai.com.) وفي تكنولوجيا صناعة الأفلام، كشفت NVIDIA وشركاؤها الجامعيون عن DiffusionRenderer، وهو نظام ذكاء اصطناعي من مرحلتين يدمج بين العرض المعكوس والمتقدم لجعل التأثيرات البصرية المتقدمة متاحة للمبدعين المستقلين binaryverseai.com binaryverseai.com. في أحد العروض التوضيحية، تمكن المستخدم من تصوير مشهد بسيط ثم إدخال تنين رسوم متحركة ينتج ظلالاً واقعية تماماً دون الحاجة إلى حساسات معقدة أو إعدادات إضاءة يدوية – فقد تعلم الذكاء الاصطناعي هندسة وإضاءة المشهد من اللقطات نفسها binaryverseai.com binaryverseai.com. والنتيجة تضيق الفجوة بين استوديوهات الإنتاج الكبرى والمبدعين الصغار، وتلمّح لمستقبل تحرير فيديو يكاد يكون “سحرياً” متاحاً للجميع.

التمويل، الأعمال والاستثمار في الذكاء الاصطناعي

الذكاء الاصطناعي المصمم للقطاع المالي: شهد القطاع المالي اختراقات متزايدة للذكاء الاصطناعي في المنتجات والأرباح. أطلقت شركة Anthropic خدمة Claude للخدمات المالية، وهو إصدار من مساعد الذكاء الاصطناعي Claude-4 مخصص لمحللي السوق والمصرفيين. وتدعي Anthropic أن Claude-4 يتفوق على النماذج المتقدمة الأخرى في مهام التمويل، استنادًا إلى معايير الصناعة anthropic.com. يمكن للمنصة الاتصال بالبيانات المباشرة للأسواق (عبر شركاء مثل بلومبرغ وFactSet وغيرهم) والتعامل مع أحمال العمل الكبيرة من نمذجة المخاطر حتى الأعمال الورقية للامتثال. ويبلغ المستخدمون الأوائل عن مكاسب كبيرة – على سبيل المثال، قال الرئيس التنفيذي لصندوق الثروة السيادي النرويجي البالغ قيمته 1.4 تريليون دولار (NBIM) إن Claude قد “غير بشكل جذري” سير العمل لديهم، حيث وفر ما يقدر بـزيادة في الإنتاجية بنسبة 20% (حوالي 213,000 ساعة عمل تم توفيرها) من خلال تمكين الموظفين من استعلام البيانات وتحليل مكالمات الأرباح بشكل أكثر كفاءة anthropic.com. وأشار إلى أن Claude أصبح “لا غنى عنه” بالنسبة لمحللي ومديري المخاطر في تلك الشركة anthropic.com. كما تستكشف البنوك والصناديق الكبرى المساعدين الذكاء الاصطناعي لتسريع الأبحاث مع تتبع كامل للمراجعات وتلقائية للمهام الروتينية التي عادة ما تعيق عمل الفرق المالية.

وول ستريت تراهن على شركات الذكاء الاصطناعي الناشئة: يواصل المستثمرون ضخ الأموال في مشاريع الذكاء الاصطناعي بقيم مذهلة. وجاءت أخبار هذا الأسبوع بأن Perplexity AI، الشركة الناشئة المعروفة بروبوت الدردشة البحثي المعتمد على الذكاء الاصطناعي، جمعت جولة تمويل جديدة بقيمة 100 مليون دولار، لترتفع قيمتها إلى نحو 18 مليار دولار theindependent.sg. (للمقارنة، كانت قيمة Perplexity تقارب 14 مليار دولار فقط قبل شهرين، ومليار دولار واحد في العام الماضي، مما يعكس الارتفاع الصاروخي في ثروات الذكاء الاصطناعي التوليدي theindependent.sg.) كما ظهرت صناديق جديدة تركز على الذكاء الاصطناعي: فمثلاً، أطلق أحد أوائل المستثمرين في Instacart صندوق “Verified Capital” بمبلغ 175 مليون دولار مخصص لشركات الذكاء الاصطناعي الناشئة (أُعلن عنه في 20 يوليو). وفي مجال الحوسبة السحابية، بدأت الشركات التقليدية في التكيف مع عصر الذكاء الاصطناعي – أحيانًا بشكل مؤلم. فقد أكدت أمازون أنها خفضت عدة مئات من وظائف AWS (معظمها في أدوار الدعم السحابي)، بعد أن حذّر الرئيس التنفيذي آندي جاسي من أن كفاءات الذكاء الاصطناعي ستقلص بعض الوظائف في “طبقة الوسطى” binaryverseai.com. وأشارت رسائل بريد إلكتروني داخلية هذا الأسبوع إلى أن بعض فرق نقل البيانات المتخصصة أصبحت زائدة عن الحاجة – “الدليل المرئي الأول داخل AWS” على الأتمتة المدفوعة بالذكاء الاصطناعي، كما أشارت رويترز binaryverseai.com binaryverseai.com. وقال المحللون إن حتى وحدات التكنولوجيا ذات الهوامش المرتفعة ليست محصنة: “الذكاء الاصطناعي يلتهم المهام التي يتقنها، ثم تقوم الشركات بإعادة توزيع أو الاستغناء عن الموظفين،” كما لاحظ أحدهم بتهكم binaryverseai.com. وعلى الرغم من الأرباح القوية، تواصل عملاق الحوسبة السحابية إعادة الهيكلة، مما يوضح كيف أن مكاسب الإنتاجية من الذكاء الاصطناعي قد تؤدي أيضًا إلى تقليص القوى العاملة فعليًا.

اختراقات في العلوم والرعاية الصحية

تسريع التحليل الطبي: في مجال الرعاية الصحية، تعد اختراقات الذكاء الاصطناعي بتشخيصات أسرع وإجراءات أكثر أمانًا. كشف باحثون من جامعة إنديانا ومستشفيات شريكة عن خط أنابيب “معلوماتية السرطان” مدعوم بالذكاء الاصطناعي يمكنه فحص شرائح علم الأمراض الرقمية والسجلات الصحية الإلكترونية وبيانات الجينوم للإشارة إلى احتمالية الإصابة بالسرطان واقتراح مرحلة الورم. وبحسب الباحث الرئيسي سبيريدون باكاس، فقد قلل نظام الذكاء الاصطناعي بعض إجراءات التشخيص “من أيام إلى ثوانٍ”، حيث صنّف الحالات بسرعة تفوق البشر binaryverseai.com binaryverseai.com. كما كشف الأداة عن ترابطات دقيقة عبر بيانات متعددة الأنماط قد يغفل عنها البشر، على الرغم من إصرار الفريق على أن أطباء علم الأمراض يظلون ضروريين للحالات الصعبة والأحكام النهائية binaryverseai.com. يجسد هذا المشروع اتجاهًا أوسع نحو الطب متعدد الأنماط بالذكاء الاصطناعي الذي يمكنه استيعاب أنواع عديدة من البيانات مرة واحدة. وبالمثل، أفاد أطباء الأشعة بنجاحهم في استخدام نموذج ذكاء اصطناعي يُدعى mViT (محول رؤي معدل) لتحسين فحوصات الأشعة المقطعية للأطفال binaryverseai.com binaryverseai.com. يمكن لأجهزة الأشعة المقطعية التي تعتمد تقنية عدّ الفوتونات أن تقلل من جرعة الأشعة السينية للأطفال، إلا أنها غالبًا ما تنتج صورًا مشوشة؛ حيث تعلم نظام mViT إزالة التشويش من الفحوصات مباشرة، مما يجعل الشرايين والأنسجة أوضح دون التمويه الناتج عن أساليب تقليل الضوضاء القديمة binaryverseai.com binaryverseai.com. وأظهرت الاختبارات التي أُجريت على 20 مريضًا صغيرًا أن الذكاء الاصطناعي تفوق باستمرار على المرشحات التقليدية، مما يسمح على الأرجح بالحصول على فحوصات أكثر وضوحًا وأقل جرعة إشعاعية – وهو مكسب لسلامة المرضى الأطفال مع حصول أجهزة الأشعة المقطعية الجديدة على موافقة إدارة الغذاء والدواء الأمريكية binaryverseai.com.

الاختراقات في علم الأحياء والمواد: تدفع الذكاء الاصطناعي أيضًا العلوم الأساسية إلى الأمام. وصفت دراسة جديدة في Nature Communications كيف يمكن لثلاثة شبكات عصبية الآن تحديد توقيت تطور الأجنة بدقة إلى الدقيقة، وهو إنجاز قد يغير مجال علم الأحياء التطوري binaryverseai.com. من خلال تدريب شبكات عصبية التففية على صور عالية الدقة لأجنة ذبابة الفاكهة، تعلم النظام تحديد الإشارات البصرية الدقيقة لدورات انقسام الخلايا. يمكنه معرفة عمر الجنين (بدقة ±1 دقيقة) دون استخدام علامات فلورية تدخلية – محققًا دقة 98–100% في الأجنة في المراحل المبكرة binaryverseai.com binaryverseai.com. هذا “ساعة الجنين” بالذكاء الاصطناعي مكنت الفريق من رسم خرائط طفرات تنشيط الجينات بدقة زمنية غير مسبوقة، مما يوفر لعلماء الأحياء أداة قوية جديدة لدراسة كيفية تشكل الأعضاء. في علم المواد، قدم باحثون من المملكة المتحدة نموذج “CrystalGPT”، المدرب على 706,000 بنية بلورية، للتنبؤ بخصائص المواد. من خلال فهمه لـ”لغة” البلورات الجزيئية (عبر ألغاز الذرات المخفية وتحديات التناظر)، يمكن لـ CrystalGPT التنبؤ بكثافة أو مسامية أو استقرار مركب جديد بسرعة أكبر بكثير من المحاكاة التقليدية binaryverseai.com binaryverseai.com. يشيد الخبراء بشفافيته – حيث تُبرز الذكاء الاصطناعي حتى أي الأحياء الذرية أثرت أكثر في التنبؤ – ما يمنح الكيميائيين الثقة بدلاً من تخمين الصندوق الأسود binaryverseai.com. يمكن أن تسرع النمذجة البلورية الأسرع التقدم في البطاريات والعوامل المساعدة ومواد أشباه الموصلات، مما يقلل أوقات وتكاليف البحث والتطوير.

الذكاء الاصطناعي للبرمجة – مع بعض التحفظات: لم تكن جميع الأبحاث وردية؛ فقد قدمت دراسة واحدة رؤية واقعية حول مساعدي البرمجة بالذكاء الاصطناعي. ففي تجربة محكومة، استغرق مطورو البرمجيات ذوو الخبرة وقتاً أطول بنسبة 19% في إنجاز مهمة باستخدام مساعد ذكاء اصطناعي مقارنةً بمجموعة ضابطة بدون ذكاء اصطناعي ts2.tech. كان المبرمجون المتمرسون يتوقعون أن يساعدهم الذكاء الاصطناعي (أداة اقتراح الشيفرة) على إنجاز العمل بشكل أسرع، لكنه غالباً ما كان يعطي شيفرات “صحيحة من حيث التوجه العام، لكنها ليست بالضبط ما هو مطلوبts2.tech. وقد أُهدر الوقت في مراجعة هذه الاقتراحات وتصحيحها. في المقابل، أظهرت دراسات سابقة زيادات كبيرة في السرعة للمبرمجين الأقل خبرة في المهام الأسهل. “إنه أشبه بتحرير مقالة أكثر من كونه كتابة من البداية،” قال أحد المبرمجين المخضرمين حول أسلوب العمل بمساعدة الذكاء الاصطناعي – ربما أكثر استرخاءً، لكنه أبطأ ts2.tech. وخلص الباحثون في METR إلى أن المساعدات الذكية الحالية ليست عصا سحرية لزيادة إنتاجية الخبراء في البرمجة المعقدة، وأن هناك حاجة لمزيد من التحسين والمراقبة البشرية ts2.tech. هذا الاستنتاج المتوازن يهدئ من الاندفاع نحو نشر الذكاء الاصطناعي المولّد للشيفرات لجميع المبرمجين.

التطلع داخل “عقل” الذكاء الاصطناعي: نشر اتحاد من كبار علماء الذكاء الاصطناعي (من OpenAI وDeepMind وAnthropic وأفضل الجامعات) ورقة بحثية بارزة يدعون فيها إلى ابتكار تقنيات جديدة لـمراقبة “تَسَلْسُل التفكير” في الذكاء الاصطناعي – وهي في الأساس خطوات التفكير الخفية التي يولدها نماذج الذكاء الاصطناعي داخليًا ts2.tech. ومع تحول أنظمة الذكاء الاصطناعي إلى المزيد من الاستقلالية (كما هي الحال مع العملاء الذين يظهرون الآن)، يجادل المؤلفون بأن القدرة على الاطلاع على تلك الأفكار الوسيطة قد يكون أمرًا حيويًا للسلامة ts2.tech. فمن خلال مراقبة تسلسل تفكير الذكاء الاصطناعي خطوة بخطوة، قد يتمكن المطورون من اكتشاف الأخطاء أو الميل إلى طرق خطرة قبل أن يتصرف الذكاء الاصطناعي. ومع ذلك، تحذر الورقة من أنه مع تزايد تعقيد النماذج، “لا يوجد ضمان بأن درجة الشفافية الحالية ستستمر” – فقد تقوم نماذج الذكاء الاصطناعي المستقبلية بإضمار تفكيرها بشكل لا يمكن تتبعه بسهولة ts2.tech. وقد حث الفريق المجتمع العلمي على “الاستفادة القصوى من إمكانية مراقبة تسلسل التفكير” الآن والسعي إلى الحفاظ على الشفافية مستقبلًا ts2.tech. ومن الجدير بالذكر أن هذه الدعوة للعمل شارك في توقيعها مجموعة من كبار علماء الذكاء الاصطناعي – بمن فيهم جيفري هينتون، والعالم الرئيسي في OpenAI إيليا سوتسكيفر (ورئيس التوافق جان ليك)، والمؤسس المشارك لـDeepMind شين ليج، وآخرون ts2.tech. إنه عرض نادر للوحدة بين مختبرات متنافسة، يعكس قلقًا مشتركًا: مع اقتراب أنظمة الذكاء الاصطناعي من مستوى التفكير البشري، يجب ألا نسمح لها بأن تصبح “صناديق سوداء” لا يمكن فهمها. البحث في “فحوصات دماغ الذكاء الاصطناعي” – قراءة فكر الذكاء الاصطناعي – قد يصبح ضروريًا بقدر أهمية إنشاء الذكاء الاصطناعي نفسه.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

التمويل، الأعمال والاستثمار في الذكاء الاصطناعي

الذكاء الاصطناعي المصمم للقطاع المالي: شهد القطاع المالي اختراقات متزايدة للذكاء الاصطناعي في المنتجات والأرباح. أطلقت شركة Anthropic خدمة Claude للخدمات المالية، وهو إصدار من مساعد الذكاء الاصطناعي Claude-4 مخصص لمحللي السوق والمصرفيين. وتدعي Anthropic أن Claude-4 يتفوق على النماذج المتقدمة الأخرى في مهام التمويل، استنادًا إلى معايير الصناعة anthropic.com. يمكن للمنصة الاتصال بالبيانات المباشرة للأسواق (عبر شركاء مثل بلومبرغ وFactSet وغيرهم) والتعامل مع أحمال العمل الكبيرة من نمذجة المخاطر حتى الأعمال الورقية للامتثال. ويبلغ المستخدمون الأوائل عن مكاسب كبيرة – على سبيل المثال، قال الرئيس التنفيذي لصندوق الثروة السيادي النرويجي البالغ قيمته 1.4 تريليون دولار (NBIM) إن Claude قد “غير بشكل جذري” سير العمل لديهم، حيث وفر ما يقدر بـزيادة في الإنتاجية بنسبة 20% (حوالي 213,000 ساعة عمل تم توفيرها) من خلال تمكين الموظفين من استعلام البيانات وتحليل مكالمات الأرباح بشكل أكثر كفاءة anthropic.com. وأشار إلى أن Claude أصبح “لا غنى عنه” بالنسبة لمحللي ومديري المخاطر في تلك الشركة anthropic.com. كما تستكشف البنوك والصناديق الكبرى المساعدين الذكاء الاصطناعي لتسريع الأبحاث مع تتبع كامل للمراجعات وتلقائية للمهام الروتينية التي عادة ما تعيق عمل الفرق المالية.

وول ستريت تراهن على شركات الذكاء الاصطناعي الناشئة: يواصل المستثمرون ضخ الأموال في مشاريع الذكاء الاصطناعي بقيم مذهلة. وجاءت أخبار هذا الأسبوع بأن Perplexity AI، الشركة الناشئة المعروفة بروبوت الدردشة البحثي المعتمد على الذكاء الاصطناعي، جمعت جولة تمويل جديدة بقيمة 100 مليون دولار، لترتفع قيمتها إلى نحو 18 مليار دولار theindependent.sg. (للمقارنة، كانت قيمة Perplexity تقارب 14 مليار دولار فقط قبل شهرين، ومليار دولار واحد في العام الماضي، مما يعكس الارتفاع الصاروخي في ثروات الذكاء الاصطناعي التوليدي theindependent.sg.) كما ظهرت صناديق جديدة تركز على الذكاء الاصطناعي: فمثلاً، أطلق أحد أوائل المستثمرين في Instacart صندوق “Verified Capital” بمبلغ 175 مليون دولار مخصص لشركات الذكاء الاصطناعي الناشئة (أُعلن عنه في 20 يوليو). وفي مجال الحوسبة السحابية، بدأت الشركات التقليدية في التكيف مع عصر الذكاء الاصطناعي – أحيانًا بشكل مؤلم. فقد أكدت أمازون أنها خفضت عدة مئات من وظائف AWS (معظمها في أدوار الدعم السحابي)، بعد أن حذّر الرئيس التنفيذي آندي جاسي من أن كفاءات الذكاء الاصطناعي ستقلص بعض الوظائف في “طبقة الوسطى” binaryverseai.com. وأشارت رسائل بريد إلكتروني داخلية هذا الأسبوع إلى أن بعض فرق نقل البيانات المتخصصة أصبحت زائدة عن الحاجة – “الدليل المرئي الأول داخل AWS” على الأتمتة المدفوعة بالذكاء الاصطناعي، كما أشارت رويترز binaryverseai.com binaryverseai.com. وقال المحللون إن حتى وحدات التكنولوجيا ذات الهوامش المرتفعة ليست محصنة: “الذكاء الاصطناعي يلتهم المهام التي يتقنها، ثم تقوم الشركات بإعادة توزيع أو الاستغناء عن الموظفين،” كما لاحظ أحدهم بتهكم binaryverseai.com. وعلى الرغم من الأرباح القوية، تواصل عملاق الحوسبة السحابية إعادة الهيكلة، مما يوضح كيف أن مكاسب الإنتاجية من الذكاء الاصطناعي قد تؤدي أيضًا إلى تقليص القوى العاملة فعليًا.

اختراقات في العلوم والرعاية الصحية

تسريع التحليل الطبي: في مجال الرعاية الصحية، تعد اختراقات الذكاء الاصطناعي بتشخيصات أسرع وإجراءات أكثر أمانًا. كشف باحثون من جامعة إنديانا ومستشفيات شريكة عن خط أنابيب “معلوماتية السرطان” مدعوم بالذكاء الاصطناعي يمكنه فحص شرائح علم الأمراض الرقمية والسجلات الصحية الإلكترونية وبيانات الجينوم للإشارة إلى احتمالية الإصابة بالسرطان واقتراح مرحلة الورم. وبحسب الباحث الرئيسي سبيريدون باكاس، فقد قلل نظام الذكاء الاصطناعي بعض إجراءات التشخيص “من أيام إلى ثوانٍ”، حيث صنّف الحالات بسرعة تفوق البشر binaryverseai.com binaryverseai.com. كما كشف الأداة عن ترابطات دقيقة عبر بيانات متعددة الأنماط قد يغفل عنها البشر، على الرغم من إصرار الفريق على أن أطباء علم الأمراض يظلون ضروريين للحالات الصعبة والأحكام النهائية binaryverseai.com. يجسد هذا المشروع اتجاهًا أوسع نحو الطب متعدد الأنماط بالذكاء الاصطناعي الذي يمكنه استيعاب أنواع عديدة من البيانات مرة واحدة. وبالمثل، أفاد أطباء الأشعة بنجاحهم في استخدام نموذج ذكاء اصطناعي يُدعى mViT (محول رؤي معدل) لتحسين فحوصات الأشعة المقطعية للأطفال binaryverseai.com binaryverseai.com. يمكن لأجهزة الأشعة المقطعية التي تعتمد تقنية عدّ الفوتونات أن تقلل من جرعة الأشعة السينية للأطفال، إلا أنها غالبًا ما تنتج صورًا مشوشة؛ حيث تعلم نظام mViT إزالة التشويش من الفحوصات مباشرة، مما يجعل الشرايين والأنسجة أوضح دون التمويه الناتج عن أساليب تقليل الضوضاء القديمة binaryverseai.com binaryverseai.com. وأظهرت الاختبارات التي أُجريت على 20 مريضًا صغيرًا أن الذكاء الاصطناعي تفوق باستمرار على المرشحات التقليدية، مما يسمح على الأرجح بالحصول على فحوصات أكثر وضوحًا وأقل جرعة إشعاعية – وهو مكسب لسلامة المرضى الأطفال مع حصول أجهزة الأشعة المقطعية الجديدة على موافقة إدارة الغذاء والدواء الأمريكية binaryverseai.com.

الاختراقات في علم الأحياء والمواد: تدفع الذكاء الاصطناعي أيضًا العلوم الأساسية إلى الأمام. وصفت دراسة جديدة في Nature Communications كيف يمكن لثلاثة شبكات عصبية الآن تحديد توقيت تطور الأجنة بدقة إلى الدقيقة، وهو إنجاز قد يغير مجال علم الأحياء التطوري binaryverseai.com. من خلال تدريب شبكات عصبية التففية على صور عالية الدقة لأجنة ذبابة الفاكهة، تعلم النظام تحديد الإشارات البصرية الدقيقة لدورات انقسام الخلايا. يمكنه معرفة عمر الجنين (بدقة ±1 دقيقة) دون استخدام علامات فلورية تدخلية – محققًا دقة 98–100% في الأجنة في المراحل المبكرة binaryverseai.com binaryverseai.com. هذا “ساعة الجنين” بالذكاء الاصطناعي مكنت الفريق من رسم خرائط طفرات تنشيط الجينات بدقة زمنية غير مسبوقة، مما يوفر لعلماء الأحياء أداة قوية جديدة لدراسة كيفية تشكل الأعضاء. في علم المواد، قدم باحثون من المملكة المتحدة نموذج “CrystalGPT”، المدرب على 706,000 بنية بلورية، للتنبؤ بخصائص المواد. من خلال فهمه لـ”لغة” البلورات الجزيئية (عبر ألغاز الذرات المخفية وتحديات التناظر)، يمكن لـ CrystalGPT التنبؤ بكثافة أو مسامية أو استقرار مركب جديد بسرعة أكبر بكثير من المحاكاة التقليدية binaryverseai.com binaryverseai.com. يشيد الخبراء بشفافيته – حيث تُبرز الذكاء الاصطناعي حتى أي الأحياء الذرية أثرت أكثر في التنبؤ – ما يمنح الكيميائيين الثقة بدلاً من تخمين الصندوق الأسود binaryverseai.com. يمكن أن تسرع النمذجة البلورية الأسرع التقدم في البطاريات والعوامل المساعدة ومواد أشباه الموصلات، مما يقلل أوقات وتكاليف البحث والتطوير.

الذكاء الاصطناعي للبرمجة – مع بعض التحفظات: لم تكن جميع الأبحاث وردية؛ فقد قدمت دراسة واحدة رؤية واقعية حول مساعدي البرمجة بالذكاء الاصطناعي. ففي تجربة محكومة، استغرق مطورو البرمجيات ذوو الخبرة وقتاً أطول بنسبة 19% في إنجاز مهمة باستخدام مساعد ذكاء اصطناعي مقارنةً بمجموعة ضابطة بدون ذكاء اصطناعي ts2.tech. كان المبرمجون المتمرسون يتوقعون أن يساعدهم الذكاء الاصطناعي (أداة اقتراح الشيفرة) على إنجاز العمل بشكل أسرع، لكنه غالباً ما كان يعطي شيفرات “صحيحة من حيث التوجه العام، لكنها ليست بالضبط ما هو مطلوبts2.tech. وقد أُهدر الوقت في مراجعة هذه الاقتراحات وتصحيحها. في المقابل، أظهرت دراسات سابقة زيادات كبيرة في السرعة للمبرمجين الأقل خبرة في المهام الأسهل. “إنه أشبه بتحرير مقالة أكثر من كونه كتابة من البداية،” قال أحد المبرمجين المخضرمين حول أسلوب العمل بمساعدة الذكاء الاصطناعي – ربما أكثر استرخاءً، لكنه أبطأ ts2.tech. وخلص الباحثون في METR إلى أن المساعدات الذكية الحالية ليست عصا سحرية لزيادة إنتاجية الخبراء في البرمجة المعقدة، وأن هناك حاجة لمزيد من التحسين والمراقبة البشرية ts2.tech. هذا الاستنتاج المتوازن يهدئ من الاندفاع نحو نشر الذكاء الاصطناعي المولّد للشيفرات لجميع المبرمجين.

التطلع داخل “عقل” الذكاء الاصطناعي: نشر اتحاد من كبار علماء الذكاء الاصطناعي (من OpenAI وDeepMind وAnthropic وأفضل الجامعات) ورقة بحثية بارزة يدعون فيها إلى ابتكار تقنيات جديدة لـمراقبة “تَسَلْسُل التفكير” في الذكاء الاصطناعي – وهي في الأساس خطوات التفكير الخفية التي يولدها نماذج الذكاء الاصطناعي داخليًا ts2.tech. ومع تحول أنظمة الذكاء الاصطناعي إلى المزيد من الاستقلالية (كما هي الحال مع العملاء الذين يظهرون الآن)، يجادل المؤلفون بأن القدرة على الاطلاع على تلك الأفكار الوسيطة قد يكون أمرًا حيويًا للسلامة ts2.tech. فمن خلال مراقبة تسلسل تفكير الذكاء الاصطناعي خطوة بخطوة، قد يتمكن المطورون من اكتشاف الأخطاء أو الميل إلى طرق خطرة قبل أن يتصرف الذكاء الاصطناعي. ومع ذلك، تحذر الورقة من أنه مع تزايد تعقيد النماذج، “لا يوجد ضمان بأن درجة الشفافية الحالية ستستمر” – فقد تقوم نماذج الذكاء الاصطناعي المستقبلية بإضمار تفكيرها بشكل لا يمكن تتبعه بسهولة ts2.tech. وقد حث الفريق المجتمع العلمي على “الاستفادة القصوى من إمكانية مراقبة تسلسل التفكير” الآن والسعي إلى الحفاظ على الشفافية مستقبلًا ts2.tech. ومن الجدير بالذكر أن هذه الدعوة للعمل شارك في توقيعها مجموعة من كبار علماء الذكاء الاصطناعي – بمن فيهم جيفري هينتون، والعالم الرئيسي في OpenAI إيليا سوتسكيفر (ورئيس التوافق جان ليك)، والمؤسس المشارك لـDeepMind شين ليج، وآخرون ts2.tech. إنه عرض نادر للوحدة بين مختبرات متنافسة، يعكس قلقًا مشتركًا: مع اقتراب أنظمة الذكاء الاصطناعي من مستوى التفكير البشري، يجب ألا نسمح لها بأن تصبح “صناديق سوداء” لا يمكن فهمها. البحث في “فحوصات دماغ الذكاء الاصطناعي” – قراءة فكر الذكاء الاصطناعي – قد يصبح ضروريًا بقدر أهمية إنشاء الذكاء الاصطناعي نفسه.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

الذكاء الاصطناعي في الإعلام، الترفيه والصناعات الإبداعية

نتفليكس تتبنى الذكاء الاصطناعي في المؤثرات البصرية: شهدت هوليوود سابقة ملحوظة: فقد كشفت نتفليكس في مكالمة الأرباح الخاصة بها أنها بدأت في استخدام الذكاء الاصطناعي التوليدي في إنتاج المحتوى، بما في ذلك لقطات تم إنشاؤها بالكامل بالذكاء الاصطناعي لأول مرة في عرض من عروض نتفليكس ts2.tech. في السلسلة الأرجنتينية الخيالية العلمية “El Eternauta”، تم إنشاء مشهد كامل لانهيار مبنى باستخدام الذكاء الاصطناعي – وقد تم إنجازه أسرع بعشر مرات وبتكلفة أقل مقارنة باستخدام المؤثرات البصرية التقليدية techcrunch.com. شدد الرئيس التنفيذي المشارك تيد ساراندوس على أن الذكاء الاصطناعي يُستخدم لتمكين المبدعين وليس لاستبدالهم، قائلاً: “الذكاء الاصطناعي يمثل فرصة مذهلة لمساعدة المبدعين على صنع أفلام ومسلسلات أفضل، وليس فقط أرخص … هؤلاء أشخاص حقيقيون ينفذون عملاً حقيقياً بأدوات أفضل.” techcrunch.com وأشار إلى أن فناني نتفليكس يرون بالفعل فوائد في مرحلة التصور المسبق وتخطيط المشاهد. كما تطبق نتفليكس الذكاء الاصطناعي التوليدي خارج نطاق المؤثرات البصرية – حيث تستخدمه لاكتشاف المحتوى بشكل شخصي، وتستعد لإطلاق إعلانات تفاعلية مدعومة بالذكاء الاصطناعي في وقت لاحق من هذا العام techcrunch.com.

الموضة التوليدية وسحر الفيديو: امتدت لمسة الذكاء الاصطناعي الإبداعية إلى عالم الموضة والفيديو. أجرى باحثون في كوريا الجنوبية تجارب على “الموضة التوليدية”، حيث استخدموا ChatGPT للتنبؤ باتجاهات الموضة القادمة وDALL·E 3 لإنشاء أكثر من 100 زي افتراضي لمجموعة خريف/شتاء binaryverseai.com binaryverseai.com. توافقت حوالي ثلثي التصاميم التي أنشأها الذكاء الاصطناعي مع الأنماط السائدة في العالم الواقعي، ما يشير إلى أن النماذج التوليدية قد تكشف عن الاتجاهات قبل المصممين أنفسهم. (لكن الذكاء الاصطناعي تعثر في مفاهيم مُجرّدة مثل التصاميم ذات الهوية الجندرية السائلة، مما يؤكد أن المصممين البشر لا يزالون يمسكون بالبوصلة الإبداعية binaryverseai.com.) وفي تكنولوجيا صناعة الأفلام، كشفت NVIDIA وشركاؤها الجامعيون عن DiffusionRenderer، وهو نظام ذكاء اصطناعي من مرحلتين يدمج بين العرض المعكوس والمتقدم لجعل التأثيرات البصرية المتقدمة متاحة للمبدعين المستقلين binaryverseai.com binaryverseai.com. في أحد العروض التوضيحية، تمكن المستخدم من تصوير مشهد بسيط ثم إدخال تنين رسوم متحركة ينتج ظلالاً واقعية تماماً دون الحاجة إلى حساسات معقدة أو إعدادات إضاءة يدوية – فقد تعلم الذكاء الاصطناعي هندسة وإضاءة المشهد من اللقطات نفسها binaryverseai.com binaryverseai.com. والنتيجة تضيق الفجوة بين استوديوهات الإنتاج الكبرى والمبدعين الصغار، وتلمّح لمستقبل تحرير فيديو يكاد يكون “سحرياً” متاحاً للجميع.

التمويل، الأعمال والاستثمار في الذكاء الاصطناعي

الذكاء الاصطناعي المصمم للقطاع المالي: شهد القطاع المالي اختراقات متزايدة للذكاء الاصطناعي في المنتجات والأرباح. أطلقت شركة Anthropic خدمة Claude للخدمات المالية، وهو إصدار من مساعد الذكاء الاصطناعي Claude-4 مخصص لمحللي السوق والمصرفيين. وتدعي Anthropic أن Claude-4 يتفوق على النماذج المتقدمة الأخرى في مهام التمويل، استنادًا إلى معايير الصناعة anthropic.com. يمكن للمنصة الاتصال بالبيانات المباشرة للأسواق (عبر شركاء مثل بلومبرغ وFactSet وغيرهم) والتعامل مع أحمال العمل الكبيرة من نمذجة المخاطر حتى الأعمال الورقية للامتثال. ويبلغ المستخدمون الأوائل عن مكاسب كبيرة – على سبيل المثال، قال الرئيس التنفيذي لصندوق الثروة السيادي النرويجي البالغ قيمته 1.4 تريليون دولار (NBIM) إن Claude قد “غير بشكل جذري” سير العمل لديهم، حيث وفر ما يقدر بـزيادة في الإنتاجية بنسبة 20% (حوالي 213,000 ساعة عمل تم توفيرها) من خلال تمكين الموظفين من استعلام البيانات وتحليل مكالمات الأرباح بشكل أكثر كفاءة anthropic.com. وأشار إلى أن Claude أصبح “لا غنى عنه” بالنسبة لمحللي ومديري المخاطر في تلك الشركة anthropic.com. كما تستكشف البنوك والصناديق الكبرى المساعدين الذكاء الاصطناعي لتسريع الأبحاث مع تتبع كامل للمراجعات وتلقائية للمهام الروتينية التي عادة ما تعيق عمل الفرق المالية.

وول ستريت تراهن على شركات الذكاء الاصطناعي الناشئة: يواصل المستثمرون ضخ الأموال في مشاريع الذكاء الاصطناعي بقيم مذهلة. وجاءت أخبار هذا الأسبوع بأن Perplexity AI، الشركة الناشئة المعروفة بروبوت الدردشة البحثي المعتمد على الذكاء الاصطناعي، جمعت جولة تمويل جديدة بقيمة 100 مليون دولار، لترتفع قيمتها إلى نحو 18 مليار دولار theindependent.sg. (للمقارنة، كانت قيمة Perplexity تقارب 14 مليار دولار فقط قبل شهرين، ومليار دولار واحد في العام الماضي، مما يعكس الارتفاع الصاروخي في ثروات الذكاء الاصطناعي التوليدي theindependent.sg.) كما ظهرت صناديق جديدة تركز على الذكاء الاصطناعي: فمثلاً، أطلق أحد أوائل المستثمرين في Instacart صندوق “Verified Capital” بمبلغ 175 مليون دولار مخصص لشركات الذكاء الاصطناعي الناشئة (أُعلن عنه في 20 يوليو). وفي مجال الحوسبة السحابية، بدأت الشركات التقليدية في التكيف مع عصر الذكاء الاصطناعي – أحيانًا بشكل مؤلم. فقد أكدت أمازون أنها خفضت عدة مئات من وظائف AWS (معظمها في أدوار الدعم السحابي)، بعد أن حذّر الرئيس التنفيذي آندي جاسي من أن كفاءات الذكاء الاصطناعي ستقلص بعض الوظائف في “طبقة الوسطى” binaryverseai.com. وأشارت رسائل بريد إلكتروني داخلية هذا الأسبوع إلى أن بعض فرق نقل البيانات المتخصصة أصبحت زائدة عن الحاجة – “الدليل المرئي الأول داخل AWS” على الأتمتة المدفوعة بالذكاء الاصطناعي، كما أشارت رويترز binaryverseai.com binaryverseai.com. وقال المحللون إن حتى وحدات التكنولوجيا ذات الهوامش المرتفعة ليست محصنة: “الذكاء الاصطناعي يلتهم المهام التي يتقنها، ثم تقوم الشركات بإعادة توزيع أو الاستغناء عن الموظفين،” كما لاحظ أحدهم بتهكم binaryverseai.com. وعلى الرغم من الأرباح القوية، تواصل عملاق الحوسبة السحابية إعادة الهيكلة، مما يوضح كيف أن مكاسب الإنتاجية من الذكاء الاصطناعي قد تؤدي أيضًا إلى تقليص القوى العاملة فعليًا.

اختراقات في العلوم والرعاية الصحية

تسريع التحليل الطبي: في مجال الرعاية الصحية، تعد اختراقات الذكاء الاصطناعي بتشخيصات أسرع وإجراءات أكثر أمانًا. كشف باحثون من جامعة إنديانا ومستشفيات شريكة عن خط أنابيب “معلوماتية السرطان” مدعوم بالذكاء الاصطناعي يمكنه فحص شرائح علم الأمراض الرقمية والسجلات الصحية الإلكترونية وبيانات الجينوم للإشارة إلى احتمالية الإصابة بالسرطان واقتراح مرحلة الورم. وبحسب الباحث الرئيسي سبيريدون باكاس، فقد قلل نظام الذكاء الاصطناعي بعض إجراءات التشخيص “من أيام إلى ثوانٍ”، حيث صنّف الحالات بسرعة تفوق البشر binaryverseai.com binaryverseai.com. كما كشف الأداة عن ترابطات دقيقة عبر بيانات متعددة الأنماط قد يغفل عنها البشر، على الرغم من إصرار الفريق على أن أطباء علم الأمراض يظلون ضروريين للحالات الصعبة والأحكام النهائية binaryverseai.com. يجسد هذا المشروع اتجاهًا أوسع نحو الطب متعدد الأنماط بالذكاء الاصطناعي الذي يمكنه استيعاب أنواع عديدة من البيانات مرة واحدة. وبالمثل، أفاد أطباء الأشعة بنجاحهم في استخدام نموذج ذكاء اصطناعي يُدعى mViT (محول رؤي معدل) لتحسين فحوصات الأشعة المقطعية للأطفال binaryverseai.com binaryverseai.com. يمكن لأجهزة الأشعة المقطعية التي تعتمد تقنية عدّ الفوتونات أن تقلل من جرعة الأشعة السينية للأطفال، إلا أنها غالبًا ما تنتج صورًا مشوشة؛ حيث تعلم نظام mViT إزالة التشويش من الفحوصات مباشرة، مما يجعل الشرايين والأنسجة أوضح دون التمويه الناتج عن أساليب تقليل الضوضاء القديمة binaryverseai.com binaryverseai.com. وأظهرت الاختبارات التي أُجريت على 20 مريضًا صغيرًا أن الذكاء الاصطناعي تفوق باستمرار على المرشحات التقليدية، مما يسمح على الأرجح بالحصول على فحوصات أكثر وضوحًا وأقل جرعة إشعاعية – وهو مكسب لسلامة المرضى الأطفال مع حصول أجهزة الأشعة المقطعية الجديدة على موافقة إدارة الغذاء والدواء الأمريكية binaryverseai.com.

الاختراقات في علم الأحياء والمواد: تدفع الذكاء الاصطناعي أيضًا العلوم الأساسية إلى الأمام. وصفت دراسة جديدة في Nature Communications كيف يمكن لثلاثة شبكات عصبية الآن تحديد توقيت تطور الأجنة بدقة إلى الدقيقة، وهو إنجاز قد يغير مجال علم الأحياء التطوري binaryverseai.com. من خلال تدريب شبكات عصبية التففية على صور عالية الدقة لأجنة ذبابة الفاكهة، تعلم النظام تحديد الإشارات البصرية الدقيقة لدورات انقسام الخلايا. يمكنه معرفة عمر الجنين (بدقة ±1 دقيقة) دون استخدام علامات فلورية تدخلية – محققًا دقة 98–100% في الأجنة في المراحل المبكرة binaryverseai.com binaryverseai.com. هذا “ساعة الجنين” بالذكاء الاصطناعي مكنت الفريق من رسم خرائط طفرات تنشيط الجينات بدقة زمنية غير مسبوقة، مما يوفر لعلماء الأحياء أداة قوية جديدة لدراسة كيفية تشكل الأعضاء. في علم المواد، قدم باحثون من المملكة المتحدة نموذج “CrystalGPT”، المدرب على 706,000 بنية بلورية، للتنبؤ بخصائص المواد. من خلال فهمه لـ”لغة” البلورات الجزيئية (عبر ألغاز الذرات المخفية وتحديات التناظر)، يمكن لـ CrystalGPT التنبؤ بكثافة أو مسامية أو استقرار مركب جديد بسرعة أكبر بكثير من المحاكاة التقليدية binaryverseai.com binaryverseai.com. يشيد الخبراء بشفافيته – حيث تُبرز الذكاء الاصطناعي حتى أي الأحياء الذرية أثرت أكثر في التنبؤ – ما يمنح الكيميائيين الثقة بدلاً من تخمين الصندوق الأسود binaryverseai.com. يمكن أن تسرع النمذجة البلورية الأسرع التقدم في البطاريات والعوامل المساعدة ومواد أشباه الموصلات، مما يقلل أوقات وتكاليف البحث والتطوير.

الذكاء الاصطناعي للبرمجة – مع بعض التحفظات: لم تكن جميع الأبحاث وردية؛ فقد قدمت دراسة واحدة رؤية واقعية حول مساعدي البرمجة بالذكاء الاصطناعي. ففي تجربة محكومة، استغرق مطورو البرمجيات ذوو الخبرة وقتاً أطول بنسبة 19% في إنجاز مهمة باستخدام مساعد ذكاء اصطناعي مقارنةً بمجموعة ضابطة بدون ذكاء اصطناعي ts2.tech. كان المبرمجون المتمرسون يتوقعون أن يساعدهم الذكاء الاصطناعي (أداة اقتراح الشيفرة) على إنجاز العمل بشكل أسرع، لكنه غالباً ما كان يعطي شيفرات “صحيحة من حيث التوجه العام، لكنها ليست بالضبط ما هو مطلوبts2.tech. وقد أُهدر الوقت في مراجعة هذه الاقتراحات وتصحيحها. في المقابل، أظهرت دراسات سابقة زيادات كبيرة في السرعة للمبرمجين الأقل خبرة في المهام الأسهل. “إنه أشبه بتحرير مقالة أكثر من كونه كتابة من البداية،” قال أحد المبرمجين المخضرمين حول أسلوب العمل بمساعدة الذكاء الاصطناعي – ربما أكثر استرخاءً، لكنه أبطأ ts2.tech. وخلص الباحثون في METR إلى أن المساعدات الذكية الحالية ليست عصا سحرية لزيادة إنتاجية الخبراء في البرمجة المعقدة، وأن هناك حاجة لمزيد من التحسين والمراقبة البشرية ts2.tech. هذا الاستنتاج المتوازن يهدئ من الاندفاع نحو نشر الذكاء الاصطناعي المولّد للشيفرات لجميع المبرمجين.

التطلع داخل “عقل” الذكاء الاصطناعي: نشر اتحاد من كبار علماء الذكاء الاصطناعي (من OpenAI وDeepMind وAnthropic وأفضل الجامعات) ورقة بحثية بارزة يدعون فيها إلى ابتكار تقنيات جديدة لـمراقبة “تَسَلْسُل التفكير” في الذكاء الاصطناعي – وهي في الأساس خطوات التفكير الخفية التي يولدها نماذج الذكاء الاصطناعي داخليًا ts2.tech. ومع تحول أنظمة الذكاء الاصطناعي إلى المزيد من الاستقلالية (كما هي الحال مع العملاء الذين يظهرون الآن)، يجادل المؤلفون بأن القدرة على الاطلاع على تلك الأفكار الوسيطة قد يكون أمرًا حيويًا للسلامة ts2.tech. فمن خلال مراقبة تسلسل تفكير الذكاء الاصطناعي خطوة بخطوة، قد يتمكن المطورون من اكتشاف الأخطاء أو الميل إلى طرق خطرة قبل أن يتصرف الذكاء الاصطناعي. ومع ذلك، تحذر الورقة من أنه مع تزايد تعقيد النماذج، “لا يوجد ضمان بأن درجة الشفافية الحالية ستستمر” – فقد تقوم نماذج الذكاء الاصطناعي المستقبلية بإضمار تفكيرها بشكل لا يمكن تتبعه بسهولة ts2.tech. وقد حث الفريق المجتمع العلمي على “الاستفادة القصوى من إمكانية مراقبة تسلسل التفكير” الآن والسعي إلى الحفاظ على الشفافية مستقبلًا ts2.tech. ومن الجدير بالذكر أن هذه الدعوة للعمل شارك في توقيعها مجموعة من كبار علماء الذكاء الاصطناعي – بمن فيهم جيفري هينتون، والعالم الرئيسي في OpenAI إيليا سوتسكيفر (ورئيس التوافق جان ليك)، والمؤسس المشارك لـDeepMind شين ليج، وآخرون ts2.tech. إنه عرض نادر للوحدة بين مختبرات متنافسة، يعكس قلقًا مشتركًا: مع اقتراب أنظمة الذكاء الاصطناعي من مستوى التفكير البشري، يجب ألا نسمح لها بأن تصبح “صناديق سوداء” لا يمكن فهمها. البحث في “فحوصات دماغ الذكاء الاصطناعي” – قراءة فكر الذكاء الاصطناعي – قد يصبح ضروريًا بقدر أهمية إنشاء الذكاء الاصطناعي نفسه.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

اختراقات في العلوم والرعاية الصحية

تسريع التحليل الطبي: في مجال الرعاية الصحية، تعد اختراقات الذكاء الاصطناعي بتشخيصات أسرع وإجراءات أكثر أمانًا. كشف باحثون من جامعة إنديانا ومستشفيات شريكة عن خط أنابيب “معلوماتية السرطان” مدعوم بالذكاء الاصطناعي يمكنه فحص شرائح علم الأمراض الرقمية والسجلات الصحية الإلكترونية وبيانات الجينوم للإشارة إلى احتمالية الإصابة بالسرطان واقتراح مرحلة الورم. وبحسب الباحث الرئيسي سبيريدون باكاس، فقد قلل نظام الذكاء الاصطناعي بعض إجراءات التشخيص “من أيام إلى ثوانٍ”، حيث صنّف الحالات بسرعة تفوق البشر binaryverseai.com binaryverseai.com. كما كشف الأداة عن ترابطات دقيقة عبر بيانات متعددة الأنماط قد يغفل عنها البشر، على الرغم من إصرار الفريق على أن أطباء علم الأمراض يظلون ضروريين للحالات الصعبة والأحكام النهائية binaryverseai.com. يجسد هذا المشروع اتجاهًا أوسع نحو الطب متعدد الأنماط بالذكاء الاصطناعي الذي يمكنه استيعاب أنواع عديدة من البيانات مرة واحدة. وبالمثل، أفاد أطباء الأشعة بنجاحهم في استخدام نموذج ذكاء اصطناعي يُدعى mViT (محول رؤي معدل) لتحسين فحوصات الأشعة المقطعية للأطفال binaryverseai.com binaryverseai.com. يمكن لأجهزة الأشعة المقطعية التي تعتمد تقنية عدّ الفوتونات أن تقلل من جرعة الأشعة السينية للأطفال، إلا أنها غالبًا ما تنتج صورًا مشوشة؛ حيث تعلم نظام mViT إزالة التشويش من الفحوصات مباشرة، مما يجعل الشرايين والأنسجة أوضح دون التمويه الناتج عن أساليب تقليل الضوضاء القديمة binaryverseai.com binaryverseai.com. وأظهرت الاختبارات التي أُجريت على 20 مريضًا صغيرًا أن الذكاء الاصطناعي تفوق باستمرار على المرشحات التقليدية، مما يسمح على الأرجح بالحصول على فحوصات أكثر وضوحًا وأقل جرعة إشعاعية – وهو مكسب لسلامة المرضى الأطفال مع حصول أجهزة الأشعة المقطعية الجديدة على موافقة إدارة الغذاء والدواء الأمريكية binaryverseai.com.

الاختراقات في علم الأحياء والمواد: تدفع الذكاء الاصطناعي أيضًا العلوم الأساسية إلى الأمام. وصفت دراسة جديدة في Nature Communications كيف يمكن لثلاثة شبكات عصبية الآن تحديد توقيت تطور الأجنة بدقة إلى الدقيقة، وهو إنجاز قد يغير مجال علم الأحياء التطوري binaryverseai.com. من خلال تدريب شبكات عصبية التففية على صور عالية الدقة لأجنة ذبابة الفاكهة، تعلم النظام تحديد الإشارات البصرية الدقيقة لدورات انقسام الخلايا. يمكنه معرفة عمر الجنين (بدقة ±1 دقيقة) دون استخدام علامات فلورية تدخلية – محققًا دقة 98–100% في الأجنة في المراحل المبكرة binaryverseai.com binaryverseai.com. هذا “ساعة الجنين” بالذكاء الاصطناعي مكنت الفريق من رسم خرائط طفرات تنشيط الجينات بدقة زمنية غير مسبوقة، مما يوفر لعلماء الأحياء أداة قوية جديدة لدراسة كيفية تشكل الأعضاء. في علم المواد، قدم باحثون من المملكة المتحدة نموذج “CrystalGPT”، المدرب على 706,000 بنية بلورية، للتنبؤ بخصائص المواد. من خلال فهمه لـ”لغة” البلورات الجزيئية (عبر ألغاز الذرات المخفية وتحديات التناظر)، يمكن لـ CrystalGPT التنبؤ بكثافة أو مسامية أو استقرار مركب جديد بسرعة أكبر بكثير من المحاكاة التقليدية binaryverseai.com binaryverseai.com. يشيد الخبراء بشفافيته – حيث تُبرز الذكاء الاصطناعي حتى أي الأحياء الذرية أثرت أكثر في التنبؤ – ما يمنح الكيميائيين الثقة بدلاً من تخمين الصندوق الأسود binaryverseai.com. يمكن أن تسرع النمذجة البلورية الأسرع التقدم في البطاريات والعوامل المساعدة ومواد أشباه الموصلات، مما يقلل أوقات وتكاليف البحث والتطوير.

الذكاء الاصطناعي للبرمجة – مع بعض التحفظات: لم تكن جميع الأبحاث وردية؛ فقد قدمت دراسة واحدة رؤية واقعية حول مساعدي البرمجة بالذكاء الاصطناعي. ففي تجربة محكومة، استغرق مطورو البرمجيات ذوو الخبرة وقتاً أطول بنسبة 19% في إنجاز مهمة باستخدام مساعد ذكاء اصطناعي مقارنةً بمجموعة ضابطة بدون ذكاء اصطناعي ts2.tech. كان المبرمجون المتمرسون يتوقعون أن يساعدهم الذكاء الاصطناعي (أداة اقتراح الشيفرة) على إنجاز العمل بشكل أسرع، لكنه غالباً ما كان يعطي شيفرات “صحيحة من حيث التوجه العام، لكنها ليست بالضبط ما هو مطلوبts2.tech. وقد أُهدر الوقت في مراجعة هذه الاقتراحات وتصحيحها. في المقابل، أظهرت دراسات سابقة زيادات كبيرة في السرعة للمبرمجين الأقل خبرة في المهام الأسهل. “إنه أشبه بتحرير مقالة أكثر من كونه كتابة من البداية،” قال أحد المبرمجين المخضرمين حول أسلوب العمل بمساعدة الذكاء الاصطناعي – ربما أكثر استرخاءً، لكنه أبطأ ts2.tech. وخلص الباحثون في METR إلى أن المساعدات الذكية الحالية ليست عصا سحرية لزيادة إنتاجية الخبراء في البرمجة المعقدة، وأن هناك حاجة لمزيد من التحسين والمراقبة البشرية ts2.tech. هذا الاستنتاج المتوازن يهدئ من الاندفاع نحو نشر الذكاء الاصطناعي المولّد للشيفرات لجميع المبرمجين.

التطلع داخل “عقل” الذكاء الاصطناعي: نشر اتحاد من كبار علماء الذكاء الاصطناعي (من OpenAI وDeepMind وAnthropic وأفضل الجامعات) ورقة بحثية بارزة يدعون فيها إلى ابتكار تقنيات جديدة لـمراقبة “تَسَلْسُل التفكير” في الذكاء الاصطناعي – وهي في الأساس خطوات التفكير الخفية التي يولدها نماذج الذكاء الاصطناعي داخليًا ts2.tech. ومع تحول أنظمة الذكاء الاصطناعي إلى المزيد من الاستقلالية (كما هي الحال مع العملاء الذين يظهرون الآن)، يجادل المؤلفون بأن القدرة على الاطلاع على تلك الأفكار الوسيطة قد يكون أمرًا حيويًا للسلامة ts2.tech. فمن خلال مراقبة تسلسل تفكير الذكاء الاصطناعي خطوة بخطوة، قد يتمكن المطورون من اكتشاف الأخطاء أو الميل إلى طرق خطرة قبل أن يتصرف الذكاء الاصطناعي. ومع ذلك، تحذر الورقة من أنه مع تزايد تعقيد النماذج، “لا يوجد ضمان بأن درجة الشفافية الحالية ستستمر” – فقد تقوم نماذج الذكاء الاصطناعي المستقبلية بإضمار تفكيرها بشكل لا يمكن تتبعه بسهولة ts2.tech. وقد حث الفريق المجتمع العلمي على “الاستفادة القصوى من إمكانية مراقبة تسلسل التفكير” الآن والسعي إلى الحفاظ على الشفافية مستقبلًا ts2.tech. ومن الجدير بالذكر أن هذه الدعوة للعمل شارك في توقيعها مجموعة من كبار علماء الذكاء الاصطناعي – بمن فيهم جيفري هينتون، والعالم الرئيسي في OpenAI إيليا سوتسكيفر (ورئيس التوافق جان ليك)، والمؤسس المشارك لـDeepMind شين ليج، وآخرون ts2.tech. إنه عرض نادر للوحدة بين مختبرات متنافسة، يعكس قلقًا مشتركًا: مع اقتراب أنظمة الذكاء الاصطناعي من مستوى التفكير البشري، يجب ألا نسمح لها بأن تصبح “صناديق سوداء” لا يمكن فهمها. البحث في “فحوصات دماغ الذكاء الاصطناعي” – قراءة فكر الذكاء الاصطناعي – قد يصبح ضروريًا بقدر أهمية إنشاء الذكاء الاصطناعي نفسه.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

التمويل، الأعمال والاستثمار في الذكاء الاصطناعي

الذكاء الاصطناعي المصمم للقطاع المالي: شهد القطاع المالي اختراقات متزايدة للذكاء الاصطناعي في المنتجات والأرباح. أطلقت شركة Anthropic خدمة Claude للخدمات المالية، وهو إصدار من مساعد الذكاء الاصطناعي Claude-4 مخصص لمحللي السوق والمصرفيين. وتدعي Anthropic أن Claude-4 يتفوق على النماذج المتقدمة الأخرى في مهام التمويل، استنادًا إلى معايير الصناعة anthropic.com. يمكن للمنصة الاتصال بالبيانات المباشرة للأسواق (عبر شركاء مثل بلومبرغ وFactSet وغيرهم) والتعامل مع أحمال العمل الكبيرة من نمذجة المخاطر حتى الأعمال الورقية للامتثال. ويبلغ المستخدمون الأوائل عن مكاسب كبيرة – على سبيل المثال، قال الرئيس التنفيذي لصندوق الثروة السيادي النرويجي البالغ قيمته 1.4 تريليون دولار (NBIM) إن Claude قد “غير بشكل جذري” سير العمل لديهم، حيث وفر ما يقدر بـزيادة في الإنتاجية بنسبة 20% (حوالي 213,000 ساعة عمل تم توفيرها) من خلال تمكين الموظفين من استعلام البيانات وتحليل مكالمات الأرباح بشكل أكثر كفاءة anthropic.com. وأشار إلى أن Claude أصبح “لا غنى عنه” بالنسبة لمحللي ومديري المخاطر في تلك الشركة anthropic.com. كما تستكشف البنوك والصناديق الكبرى المساعدين الذكاء الاصطناعي لتسريع الأبحاث مع تتبع كامل للمراجعات وتلقائية للمهام الروتينية التي عادة ما تعيق عمل الفرق المالية.

وول ستريت تراهن على شركات الذكاء الاصطناعي الناشئة: يواصل المستثمرون ضخ الأموال في مشاريع الذكاء الاصطناعي بقيم مذهلة. وجاءت أخبار هذا الأسبوع بأن Perplexity AI، الشركة الناشئة المعروفة بروبوت الدردشة البحثي المعتمد على الذكاء الاصطناعي، جمعت جولة تمويل جديدة بقيمة 100 مليون دولار، لترتفع قيمتها إلى نحو 18 مليار دولار theindependent.sg. (للمقارنة، كانت قيمة Perplexity تقارب 14 مليار دولار فقط قبل شهرين، ومليار دولار واحد في العام الماضي، مما يعكس الارتفاع الصاروخي في ثروات الذكاء الاصطناعي التوليدي theindependent.sg.) كما ظهرت صناديق جديدة تركز على الذكاء الاصطناعي: فمثلاً، أطلق أحد أوائل المستثمرين في Instacart صندوق “Verified Capital” بمبلغ 175 مليون دولار مخصص لشركات الذكاء الاصطناعي الناشئة (أُعلن عنه في 20 يوليو). وفي مجال الحوسبة السحابية، بدأت الشركات التقليدية في التكيف مع عصر الذكاء الاصطناعي – أحيانًا بشكل مؤلم. فقد أكدت أمازون أنها خفضت عدة مئات من وظائف AWS (معظمها في أدوار الدعم السحابي)، بعد أن حذّر الرئيس التنفيذي آندي جاسي من أن كفاءات الذكاء الاصطناعي ستقلص بعض الوظائف في “طبقة الوسطى” binaryverseai.com. وأشارت رسائل بريد إلكتروني داخلية هذا الأسبوع إلى أن بعض فرق نقل البيانات المتخصصة أصبحت زائدة عن الحاجة – “الدليل المرئي الأول داخل AWS” على الأتمتة المدفوعة بالذكاء الاصطناعي، كما أشارت رويترز binaryverseai.com binaryverseai.com. وقال المحللون إن حتى وحدات التكنولوجيا ذات الهوامش المرتفعة ليست محصنة: “الذكاء الاصطناعي يلتهم المهام التي يتقنها، ثم تقوم الشركات بإعادة توزيع أو الاستغناء عن الموظفين،” كما لاحظ أحدهم بتهكم binaryverseai.com. وعلى الرغم من الأرباح القوية، تواصل عملاق الحوسبة السحابية إعادة الهيكلة، مما يوضح كيف أن مكاسب الإنتاجية من الذكاء الاصطناعي قد تؤدي أيضًا إلى تقليص القوى العاملة فعليًا.

اختراقات في العلوم والرعاية الصحية

تسريع التحليل الطبي: في مجال الرعاية الصحية، تعد اختراقات الذكاء الاصطناعي بتشخيصات أسرع وإجراءات أكثر أمانًا. كشف باحثون من جامعة إنديانا ومستشفيات شريكة عن خط أنابيب “معلوماتية السرطان” مدعوم بالذكاء الاصطناعي يمكنه فحص شرائح علم الأمراض الرقمية والسجلات الصحية الإلكترونية وبيانات الجينوم للإشارة إلى احتمالية الإصابة بالسرطان واقتراح مرحلة الورم. وبحسب الباحث الرئيسي سبيريدون باكاس، فقد قلل نظام الذكاء الاصطناعي بعض إجراءات التشخيص “من أيام إلى ثوانٍ”، حيث صنّف الحالات بسرعة تفوق البشر binaryverseai.com binaryverseai.com. كما كشف الأداة عن ترابطات دقيقة عبر بيانات متعددة الأنماط قد يغفل عنها البشر، على الرغم من إصرار الفريق على أن أطباء علم الأمراض يظلون ضروريين للحالات الصعبة والأحكام النهائية binaryverseai.com. يجسد هذا المشروع اتجاهًا أوسع نحو الطب متعدد الأنماط بالذكاء الاصطناعي الذي يمكنه استيعاب أنواع عديدة من البيانات مرة واحدة. وبالمثل، أفاد أطباء الأشعة بنجاحهم في استخدام نموذج ذكاء اصطناعي يُدعى mViT (محول رؤي معدل) لتحسين فحوصات الأشعة المقطعية للأطفال binaryverseai.com binaryverseai.com. يمكن لأجهزة الأشعة المقطعية التي تعتمد تقنية عدّ الفوتونات أن تقلل من جرعة الأشعة السينية للأطفال، إلا أنها غالبًا ما تنتج صورًا مشوشة؛ حيث تعلم نظام mViT إزالة التشويش من الفحوصات مباشرة، مما يجعل الشرايين والأنسجة أوضح دون التمويه الناتج عن أساليب تقليل الضوضاء القديمة binaryverseai.com binaryverseai.com. وأظهرت الاختبارات التي أُجريت على 20 مريضًا صغيرًا أن الذكاء الاصطناعي تفوق باستمرار على المرشحات التقليدية، مما يسمح على الأرجح بالحصول على فحوصات أكثر وضوحًا وأقل جرعة إشعاعية – وهو مكسب لسلامة المرضى الأطفال مع حصول أجهزة الأشعة المقطعية الجديدة على موافقة إدارة الغذاء والدواء الأمريكية binaryverseai.com.

الاختراقات في علم الأحياء والمواد: تدفع الذكاء الاصطناعي أيضًا العلوم الأساسية إلى الأمام. وصفت دراسة جديدة في Nature Communications كيف يمكن لثلاثة شبكات عصبية الآن تحديد توقيت تطور الأجنة بدقة إلى الدقيقة، وهو إنجاز قد يغير مجال علم الأحياء التطوري binaryverseai.com. من خلال تدريب شبكات عصبية التففية على صور عالية الدقة لأجنة ذبابة الفاكهة، تعلم النظام تحديد الإشارات البصرية الدقيقة لدورات انقسام الخلايا. يمكنه معرفة عمر الجنين (بدقة ±1 دقيقة) دون استخدام علامات فلورية تدخلية – محققًا دقة 98–100% في الأجنة في المراحل المبكرة binaryverseai.com binaryverseai.com. هذا “ساعة الجنين” بالذكاء الاصطناعي مكنت الفريق من رسم خرائط طفرات تنشيط الجينات بدقة زمنية غير مسبوقة، مما يوفر لعلماء الأحياء أداة قوية جديدة لدراسة كيفية تشكل الأعضاء. في علم المواد، قدم باحثون من المملكة المتحدة نموذج “CrystalGPT”، المدرب على 706,000 بنية بلورية، للتنبؤ بخصائص المواد. من خلال فهمه لـ”لغة” البلورات الجزيئية (عبر ألغاز الذرات المخفية وتحديات التناظر)، يمكن لـ CrystalGPT التنبؤ بكثافة أو مسامية أو استقرار مركب جديد بسرعة أكبر بكثير من المحاكاة التقليدية binaryverseai.com binaryverseai.com. يشيد الخبراء بشفافيته – حيث تُبرز الذكاء الاصطناعي حتى أي الأحياء الذرية أثرت أكثر في التنبؤ – ما يمنح الكيميائيين الثقة بدلاً من تخمين الصندوق الأسود binaryverseai.com. يمكن أن تسرع النمذجة البلورية الأسرع التقدم في البطاريات والعوامل المساعدة ومواد أشباه الموصلات، مما يقلل أوقات وتكاليف البحث والتطوير.

الذكاء الاصطناعي للبرمجة – مع بعض التحفظات: لم تكن جميع الأبحاث وردية؛ فقد قدمت دراسة واحدة رؤية واقعية حول مساعدي البرمجة بالذكاء الاصطناعي. ففي تجربة محكومة، استغرق مطورو البرمجيات ذوو الخبرة وقتاً أطول بنسبة 19% في إنجاز مهمة باستخدام مساعد ذكاء اصطناعي مقارنةً بمجموعة ضابطة بدون ذكاء اصطناعي ts2.tech. كان المبرمجون المتمرسون يتوقعون أن يساعدهم الذكاء الاصطناعي (أداة اقتراح الشيفرة) على إنجاز العمل بشكل أسرع، لكنه غالباً ما كان يعطي شيفرات “صحيحة من حيث التوجه العام، لكنها ليست بالضبط ما هو مطلوبts2.tech. وقد أُهدر الوقت في مراجعة هذه الاقتراحات وتصحيحها. في المقابل، أظهرت دراسات سابقة زيادات كبيرة في السرعة للمبرمجين الأقل خبرة في المهام الأسهل. “إنه أشبه بتحرير مقالة أكثر من كونه كتابة من البداية،” قال أحد المبرمجين المخضرمين حول أسلوب العمل بمساعدة الذكاء الاصطناعي – ربما أكثر استرخاءً، لكنه أبطأ ts2.tech. وخلص الباحثون في METR إلى أن المساعدات الذكية الحالية ليست عصا سحرية لزيادة إنتاجية الخبراء في البرمجة المعقدة، وأن هناك حاجة لمزيد من التحسين والمراقبة البشرية ts2.tech. هذا الاستنتاج المتوازن يهدئ من الاندفاع نحو نشر الذكاء الاصطناعي المولّد للشيفرات لجميع المبرمجين.

التطلع داخل “عقل” الذكاء الاصطناعي: نشر اتحاد من كبار علماء الذكاء الاصطناعي (من OpenAI وDeepMind وAnthropic وأفضل الجامعات) ورقة بحثية بارزة يدعون فيها إلى ابتكار تقنيات جديدة لـمراقبة “تَسَلْسُل التفكير” في الذكاء الاصطناعي – وهي في الأساس خطوات التفكير الخفية التي يولدها نماذج الذكاء الاصطناعي داخليًا ts2.tech. ومع تحول أنظمة الذكاء الاصطناعي إلى المزيد من الاستقلالية (كما هي الحال مع العملاء الذين يظهرون الآن)، يجادل المؤلفون بأن القدرة على الاطلاع على تلك الأفكار الوسيطة قد يكون أمرًا حيويًا للسلامة ts2.tech. فمن خلال مراقبة تسلسل تفكير الذكاء الاصطناعي خطوة بخطوة، قد يتمكن المطورون من اكتشاف الأخطاء أو الميل إلى طرق خطرة قبل أن يتصرف الذكاء الاصطناعي. ومع ذلك، تحذر الورقة من أنه مع تزايد تعقيد النماذج، “لا يوجد ضمان بأن درجة الشفافية الحالية ستستمر” – فقد تقوم نماذج الذكاء الاصطناعي المستقبلية بإضمار تفكيرها بشكل لا يمكن تتبعه بسهولة ts2.tech. وقد حث الفريق المجتمع العلمي على “الاستفادة القصوى من إمكانية مراقبة تسلسل التفكير” الآن والسعي إلى الحفاظ على الشفافية مستقبلًا ts2.tech. ومن الجدير بالذكر أن هذه الدعوة للعمل شارك في توقيعها مجموعة من كبار علماء الذكاء الاصطناعي – بمن فيهم جيفري هينتون، والعالم الرئيسي في OpenAI إيليا سوتسكيفر (ورئيس التوافق جان ليك)، والمؤسس المشارك لـDeepMind شين ليج، وآخرون ts2.tech. إنه عرض نادر للوحدة بين مختبرات متنافسة، يعكس قلقًا مشتركًا: مع اقتراب أنظمة الذكاء الاصطناعي من مستوى التفكير البشري، يجب ألا نسمح لها بأن تصبح “صناديق سوداء” لا يمكن فهمها. البحث في “فحوصات دماغ الذكاء الاصطناعي” – قراءة فكر الذكاء الاصطناعي – قد يصبح ضروريًا بقدر أهمية إنشاء الذكاء الاصطناعي نفسه.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

الذكاء الاصطناعي في الإعلام، الترفيه والصناعات الإبداعية

نتفليكس تتبنى الذكاء الاصطناعي في المؤثرات البصرية: شهدت هوليوود سابقة ملحوظة: فقد كشفت نتفليكس في مكالمة الأرباح الخاصة بها أنها بدأت في استخدام الذكاء الاصطناعي التوليدي في إنتاج المحتوى، بما في ذلك لقطات تم إنشاؤها بالكامل بالذكاء الاصطناعي لأول مرة في عرض من عروض نتفليكس ts2.tech. في السلسلة الأرجنتينية الخيالية العلمية “El Eternauta”، تم إنشاء مشهد كامل لانهيار مبنى باستخدام الذكاء الاصطناعي – وقد تم إنجازه أسرع بعشر مرات وبتكلفة أقل مقارنة باستخدام المؤثرات البصرية التقليدية techcrunch.com. شدد الرئيس التنفيذي المشارك تيد ساراندوس على أن الذكاء الاصطناعي يُستخدم لتمكين المبدعين وليس لاستبدالهم، قائلاً: “الذكاء الاصطناعي يمثل فرصة مذهلة لمساعدة المبدعين على صنع أفلام ومسلسلات أفضل، وليس فقط أرخص … هؤلاء أشخاص حقيقيون ينفذون عملاً حقيقياً بأدوات أفضل.” techcrunch.com وأشار إلى أن فناني نتفليكس يرون بالفعل فوائد في مرحلة التصور المسبق وتخطيط المشاهد. كما تطبق نتفليكس الذكاء الاصطناعي التوليدي خارج نطاق المؤثرات البصرية – حيث تستخدمه لاكتشاف المحتوى بشكل شخصي، وتستعد لإطلاق إعلانات تفاعلية مدعومة بالذكاء الاصطناعي في وقت لاحق من هذا العام techcrunch.com.

الموضة التوليدية وسحر الفيديو: امتدت لمسة الذكاء الاصطناعي الإبداعية إلى عالم الموضة والفيديو. أجرى باحثون في كوريا الجنوبية تجارب على “الموضة التوليدية”، حيث استخدموا ChatGPT للتنبؤ باتجاهات الموضة القادمة وDALL·E 3 لإنشاء أكثر من 100 زي افتراضي لمجموعة خريف/شتاء binaryverseai.com binaryverseai.com. توافقت حوالي ثلثي التصاميم التي أنشأها الذكاء الاصطناعي مع الأنماط السائدة في العالم الواقعي، ما يشير إلى أن النماذج التوليدية قد تكشف عن الاتجاهات قبل المصممين أنفسهم. (لكن الذكاء الاصطناعي تعثر في مفاهيم مُجرّدة مثل التصاميم ذات الهوية الجندرية السائلة، مما يؤكد أن المصممين البشر لا يزالون يمسكون بالبوصلة الإبداعية binaryverseai.com.) وفي تكنولوجيا صناعة الأفلام، كشفت NVIDIA وشركاؤها الجامعيون عن DiffusionRenderer، وهو نظام ذكاء اصطناعي من مرحلتين يدمج بين العرض المعكوس والمتقدم لجعل التأثيرات البصرية المتقدمة متاحة للمبدعين المستقلين binaryverseai.com binaryverseai.com. في أحد العروض التوضيحية، تمكن المستخدم من تصوير مشهد بسيط ثم إدخال تنين رسوم متحركة ينتج ظلالاً واقعية تماماً دون الحاجة إلى حساسات معقدة أو إعدادات إضاءة يدوية – فقد تعلم الذكاء الاصطناعي هندسة وإضاءة المشهد من اللقطات نفسها binaryverseai.com binaryverseai.com. والنتيجة تضيق الفجوة بين استوديوهات الإنتاج الكبرى والمبدعين الصغار، وتلمّح لمستقبل تحرير فيديو يكاد يكون “سحرياً” متاحاً للجميع.

التمويل، الأعمال والاستثمار في الذكاء الاصطناعي

الذكاء الاصطناعي المصمم للقطاع المالي: شهد القطاع المالي اختراقات متزايدة للذكاء الاصطناعي في المنتجات والأرباح. أطلقت شركة Anthropic خدمة Claude للخدمات المالية، وهو إصدار من مساعد الذكاء الاصطناعي Claude-4 مخصص لمحللي السوق والمصرفيين. وتدعي Anthropic أن Claude-4 يتفوق على النماذج المتقدمة الأخرى في مهام التمويل، استنادًا إلى معايير الصناعة anthropic.com. يمكن للمنصة الاتصال بالبيانات المباشرة للأسواق (عبر شركاء مثل بلومبرغ وFactSet وغيرهم) والتعامل مع أحمال العمل الكبيرة من نمذجة المخاطر حتى الأعمال الورقية للامتثال. ويبلغ المستخدمون الأوائل عن مكاسب كبيرة – على سبيل المثال، قال الرئيس التنفيذي لصندوق الثروة السيادي النرويجي البالغ قيمته 1.4 تريليون دولار (NBIM) إن Claude قد “غير بشكل جذري” سير العمل لديهم، حيث وفر ما يقدر بـزيادة في الإنتاجية بنسبة 20% (حوالي 213,000 ساعة عمل تم توفيرها) من خلال تمكين الموظفين من استعلام البيانات وتحليل مكالمات الأرباح بشكل أكثر كفاءة anthropic.com. وأشار إلى أن Claude أصبح “لا غنى عنه” بالنسبة لمحللي ومديري المخاطر في تلك الشركة anthropic.com. كما تستكشف البنوك والصناديق الكبرى المساعدين الذكاء الاصطناعي لتسريع الأبحاث مع تتبع كامل للمراجعات وتلقائية للمهام الروتينية التي عادة ما تعيق عمل الفرق المالية.

وول ستريت تراهن على شركات الذكاء الاصطناعي الناشئة: يواصل المستثمرون ضخ الأموال في مشاريع الذكاء الاصطناعي بقيم مذهلة. وجاءت أخبار هذا الأسبوع بأن Perplexity AI، الشركة الناشئة المعروفة بروبوت الدردشة البحثي المعتمد على الذكاء الاصطناعي، جمعت جولة تمويل جديدة بقيمة 100 مليون دولار، لترتفع قيمتها إلى نحو 18 مليار دولار theindependent.sg. (للمقارنة، كانت قيمة Perplexity تقارب 14 مليار دولار فقط قبل شهرين، ومليار دولار واحد في العام الماضي، مما يعكس الارتفاع الصاروخي في ثروات الذكاء الاصطناعي التوليدي theindependent.sg.) كما ظهرت صناديق جديدة تركز على الذكاء الاصطناعي: فمثلاً، أطلق أحد أوائل المستثمرين في Instacart صندوق “Verified Capital” بمبلغ 175 مليون دولار مخصص لشركات الذكاء الاصطناعي الناشئة (أُعلن عنه في 20 يوليو). وفي مجال الحوسبة السحابية، بدأت الشركات التقليدية في التكيف مع عصر الذكاء الاصطناعي – أحيانًا بشكل مؤلم. فقد أكدت أمازون أنها خفضت عدة مئات من وظائف AWS (معظمها في أدوار الدعم السحابي)، بعد أن حذّر الرئيس التنفيذي آندي جاسي من أن كفاءات الذكاء الاصطناعي ستقلص بعض الوظائف في “طبقة الوسطى” binaryverseai.com. وأشارت رسائل بريد إلكتروني داخلية هذا الأسبوع إلى أن بعض فرق نقل البيانات المتخصصة أصبحت زائدة عن الحاجة – “الدليل المرئي الأول داخل AWS” على الأتمتة المدفوعة بالذكاء الاصطناعي، كما أشارت رويترز binaryverseai.com binaryverseai.com. وقال المحللون إن حتى وحدات التكنولوجيا ذات الهوامش المرتفعة ليست محصنة: “الذكاء الاصطناعي يلتهم المهام التي يتقنها، ثم تقوم الشركات بإعادة توزيع أو الاستغناء عن الموظفين،” كما لاحظ أحدهم بتهكم binaryverseai.com. وعلى الرغم من الأرباح القوية، تواصل عملاق الحوسبة السحابية إعادة الهيكلة، مما يوضح كيف أن مكاسب الإنتاجية من الذكاء الاصطناعي قد تؤدي أيضًا إلى تقليص القوى العاملة فعليًا.

اختراقات في العلوم والرعاية الصحية

تسريع التحليل الطبي: في مجال الرعاية الصحية، تعد اختراقات الذكاء الاصطناعي بتشخيصات أسرع وإجراءات أكثر أمانًا. كشف باحثون من جامعة إنديانا ومستشفيات شريكة عن خط أنابيب “معلوماتية السرطان” مدعوم بالذكاء الاصطناعي يمكنه فحص شرائح علم الأمراض الرقمية والسجلات الصحية الإلكترونية وبيانات الجينوم للإشارة إلى احتمالية الإصابة بالسرطان واقتراح مرحلة الورم. وبحسب الباحث الرئيسي سبيريدون باكاس، فقد قلل نظام الذكاء الاصطناعي بعض إجراءات التشخيص “من أيام إلى ثوانٍ”، حيث صنّف الحالات بسرعة تفوق البشر binaryverseai.com binaryverseai.com. كما كشف الأداة عن ترابطات دقيقة عبر بيانات متعددة الأنماط قد يغفل عنها البشر، على الرغم من إصرار الفريق على أن أطباء علم الأمراض يظلون ضروريين للحالات الصعبة والأحكام النهائية binaryverseai.com. يجسد هذا المشروع اتجاهًا أوسع نحو الطب متعدد الأنماط بالذكاء الاصطناعي الذي يمكنه استيعاب أنواع عديدة من البيانات مرة واحدة. وبالمثل، أفاد أطباء الأشعة بنجاحهم في استخدام نموذج ذكاء اصطناعي يُدعى mViT (محول رؤي معدل) لتحسين فحوصات الأشعة المقطعية للأطفال binaryverseai.com binaryverseai.com. يمكن لأجهزة الأشعة المقطعية التي تعتمد تقنية عدّ الفوتونات أن تقلل من جرعة الأشعة السينية للأطفال، إلا أنها غالبًا ما تنتج صورًا مشوشة؛ حيث تعلم نظام mViT إزالة التشويش من الفحوصات مباشرة، مما يجعل الشرايين والأنسجة أوضح دون التمويه الناتج عن أساليب تقليل الضوضاء القديمة binaryverseai.com binaryverseai.com. وأظهرت الاختبارات التي أُجريت على 20 مريضًا صغيرًا أن الذكاء الاصطناعي تفوق باستمرار على المرشحات التقليدية، مما يسمح على الأرجح بالحصول على فحوصات أكثر وضوحًا وأقل جرعة إشعاعية – وهو مكسب لسلامة المرضى الأطفال مع حصول أجهزة الأشعة المقطعية الجديدة على موافقة إدارة الغذاء والدواء الأمريكية binaryverseai.com.

الاختراقات في علم الأحياء والمواد: تدفع الذكاء الاصطناعي أيضًا العلوم الأساسية إلى الأمام. وصفت دراسة جديدة في Nature Communications كيف يمكن لثلاثة شبكات عصبية الآن تحديد توقيت تطور الأجنة بدقة إلى الدقيقة، وهو إنجاز قد يغير مجال علم الأحياء التطوري binaryverseai.com. من خلال تدريب شبكات عصبية التففية على صور عالية الدقة لأجنة ذبابة الفاكهة، تعلم النظام تحديد الإشارات البصرية الدقيقة لدورات انقسام الخلايا. يمكنه معرفة عمر الجنين (بدقة ±1 دقيقة) دون استخدام علامات فلورية تدخلية – محققًا دقة 98–100% في الأجنة في المراحل المبكرة binaryverseai.com binaryverseai.com. هذا “ساعة الجنين” بالذكاء الاصطناعي مكنت الفريق من رسم خرائط طفرات تنشيط الجينات بدقة زمنية غير مسبوقة، مما يوفر لعلماء الأحياء أداة قوية جديدة لدراسة كيفية تشكل الأعضاء. في علم المواد، قدم باحثون من المملكة المتحدة نموذج “CrystalGPT”، المدرب على 706,000 بنية بلورية، للتنبؤ بخصائص المواد. من خلال فهمه لـ”لغة” البلورات الجزيئية (عبر ألغاز الذرات المخفية وتحديات التناظر)، يمكن لـ CrystalGPT التنبؤ بكثافة أو مسامية أو استقرار مركب جديد بسرعة أكبر بكثير من المحاكاة التقليدية binaryverseai.com binaryverseai.com. يشيد الخبراء بشفافيته – حيث تُبرز الذكاء الاصطناعي حتى أي الأحياء الذرية أثرت أكثر في التنبؤ – ما يمنح الكيميائيين الثقة بدلاً من تخمين الصندوق الأسود binaryverseai.com. يمكن أن تسرع النمذجة البلورية الأسرع التقدم في البطاريات والعوامل المساعدة ومواد أشباه الموصلات، مما يقلل أوقات وتكاليف البحث والتطوير.

الذكاء الاصطناعي للبرمجة – مع بعض التحفظات: لم تكن جميع الأبحاث وردية؛ فقد قدمت دراسة واحدة رؤية واقعية حول مساعدي البرمجة بالذكاء الاصطناعي. ففي تجربة محكومة، استغرق مطورو البرمجيات ذوو الخبرة وقتاً أطول بنسبة 19% في إنجاز مهمة باستخدام مساعد ذكاء اصطناعي مقارنةً بمجموعة ضابطة بدون ذكاء اصطناعي ts2.tech. كان المبرمجون المتمرسون يتوقعون أن يساعدهم الذكاء الاصطناعي (أداة اقتراح الشيفرة) على إنجاز العمل بشكل أسرع، لكنه غالباً ما كان يعطي شيفرات “صحيحة من حيث التوجه العام، لكنها ليست بالضبط ما هو مطلوبts2.tech. وقد أُهدر الوقت في مراجعة هذه الاقتراحات وتصحيحها. في المقابل، أظهرت دراسات سابقة زيادات كبيرة في السرعة للمبرمجين الأقل خبرة في المهام الأسهل. “إنه أشبه بتحرير مقالة أكثر من كونه كتابة من البداية،” قال أحد المبرمجين المخضرمين حول أسلوب العمل بمساعدة الذكاء الاصطناعي – ربما أكثر استرخاءً، لكنه أبطأ ts2.tech. وخلص الباحثون في METR إلى أن المساعدات الذكية الحالية ليست عصا سحرية لزيادة إنتاجية الخبراء في البرمجة المعقدة، وأن هناك حاجة لمزيد من التحسين والمراقبة البشرية ts2.tech. هذا الاستنتاج المتوازن يهدئ من الاندفاع نحو نشر الذكاء الاصطناعي المولّد للشيفرات لجميع المبرمجين.

التطلع داخل “عقل” الذكاء الاصطناعي: نشر اتحاد من كبار علماء الذكاء الاصطناعي (من OpenAI وDeepMind وAnthropic وأفضل الجامعات) ورقة بحثية بارزة يدعون فيها إلى ابتكار تقنيات جديدة لـمراقبة “تَسَلْسُل التفكير” في الذكاء الاصطناعي – وهي في الأساس خطوات التفكير الخفية التي يولدها نماذج الذكاء الاصطناعي داخليًا ts2.tech. ومع تحول أنظمة الذكاء الاصطناعي إلى المزيد من الاستقلالية (كما هي الحال مع العملاء الذين يظهرون الآن)، يجادل المؤلفون بأن القدرة على الاطلاع على تلك الأفكار الوسيطة قد يكون أمرًا حيويًا للسلامة ts2.tech. فمن خلال مراقبة تسلسل تفكير الذكاء الاصطناعي خطوة بخطوة، قد يتمكن المطورون من اكتشاف الأخطاء أو الميل إلى طرق خطرة قبل أن يتصرف الذكاء الاصطناعي. ومع ذلك، تحذر الورقة من أنه مع تزايد تعقيد النماذج، “لا يوجد ضمان بأن درجة الشفافية الحالية ستستمر” – فقد تقوم نماذج الذكاء الاصطناعي المستقبلية بإضمار تفكيرها بشكل لا يمكن تتبعه بسهولة ts2.tech. وقد حث الفريق المجتمع العلمي على “الاستفادة القصوى من إمكانية مراقبة تسلسل التفكير” الآن والسعي إلى الحفاظ على الشفافية مستقبلًا ts2.tech. ومن الجدير بالذكر أن هذه الدعوة للعمل شارك في توقيعها مجموعة من كبار علماء الذكاء الاصطناعي – بمن فيهم جيفري هينتون، والعالم الرئيسي في OpenAI إيليا سوتسكيفر (ورئيس التوافق جان ليك)، والمؤسس المشارك لـDeepMind شين ليج، وآخرون ts2.tech. إنه عرض نادر للوحدة بين مختبرات متنافسة، يعكس قلقًا مشتركًا: مع اقتراب أنظمة الذكاء الاصطناعي من مستوى التفكير البشري، يجب ألا نسمح لها بأن تصبح “صناديق سوداء” لا يمكن فهمها. البحث في “فحوصات دماغ الذكاء الاصطناعي” – قراءة فكر الذكاء الاصطناعي – قد يصبح ضروريًا بقدر أهمية إنشاء الذكاء الاصطناعي نفسه.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

اختراقات في العلوم والرعاية الصحية

تسريع التحليل الطبي: في مجال الرعاية الصحية، تعد اختراقات الذكاء الاصطناعي بتشخيصات أسرع وإجراءات أكثر أمانًا. كشف باحثون من جامعة إنديانا ومستشفيات شريكة عن خط أنابيب “معلوماتية السرطان” مدعوم بالذكاء الاصطناعي يمكنه فحص شرائح علم الأمراض الرقمية والسجلات الصحية الإلكترونية وبيانات الجينوم للإشارة إلى احتمالية الإصابة بالسرطان واقتراح مرحلة الورم. وبحسب الباحث الرئيسي سبيريدون باكاس، فقد قلل نظام الذكاء الاصطناعي بعض إجراءات التشخيص “من أيام إلى ثوانٍ”، حيث صنّف الحالات بسرعة تفوق البشر binaryverseai.com binaryverseai.com. كما كشف الأداة عن ترابطات دقيقة عبر بيانات متعددة الأنماط قد يغفل عنها البشر، على الرغم من إصرار الفريق على أن أطباء علم الأمراض يظلون ضروريين للحالات الصعبة والأحكام النهائية binaryverseai.com. يجسد هذا المشروع اتجاهًا أوسع نحو الطب متعدد الأنماط بالذكاء الاصطناعي الذي يمكنه استيعاب أنواع عديدة من البيانات مرة واحدة. وبالمثل، أفاد أطباء الأشعة بنجاحهم في استخدام نموذج ذكاء اصطناعي يُدعى mViT (محول رؤي معدل) لتحسين فحوصات الأشعة المقطعية للأطفال binaryverseai.com binaryverseai.com. يمكن لأجهزة الأشعة المقطعية التي تعتمد تقنية عدّ الفوتونات أن تقلل من جرعة الأشعة السينية للأطفال، إلا أنها غالبًا ما تنتج صورًا مشوشة؛ حيث تعلم نظام mViT إزالة التشويش من الفحوصات مباشرة، مما يجعل الشرايين والأنسجة أوضح دون التمويه الناتج عن أساليب تقليل الضوضاء القديمة binaryverseai.com binaryverseai.com. وأظهرت الاختبارات التي أُجريت على 20 مريضًا صغيرًا أن الذكاء الاصطناعي تفوق باستمرار على المرشحات التقليدية، مما يسمح على الأرجح بالحصول على فحوصات أكثر وضوحًا وأقل جرعة إشعاعية – وهو مكسب لسلامة المرضى الأطفال مع حصول أجهزة الأشعة المقطعية الجديدة على موافقة إدارة الغذاء والدواء الأمريكية binaryverseai.com.

الاختراقات في علم الأحياء والمواد: تدفع الذكاء الاصطناعي أيضًا العلوم الأساسية إلى الأمام. وصفت دراسة جديدة في Nature Communications كيف يمكن لثلاثة شبكات عصبية الآن تحديد توقيت تطور الأجنة بدقة إلى الدقيقة، وهو إنجاز قد يغير مجال علم الأحياء التطوري binaryverseai.com. من خلال تدريب شبكات عصبية التففية على صور عالية الدقة لأجنة ذبابة الفاكهة، تعلم النظام تحديد الإشارات البصرية الدقيقة لدورات انقسام الخلايا. يمكنه معرفة عمر الجنين (بدقة ±1 دقيقة) دون استخدام علامات فلورية تدخلية – محققًا دقة 98–100% في الأجنة في المراحل المبكرة binaryverseai.com binaryverseai.com. هذا “ساعة الجنين” بالذكاء الاصطناعي مكنت الفريق من رسم خرائط طفرات تنشيط الجينات بدقة زمنية غير مسبوقة، مما يوفر لعلماء الأحياء أداة قوية جديدة لدراسة كيفية تشكل الأعضاء. في علم المواد، قدم باحثون من المملكة المتحدة نموذج “CrystalGPT”، المدرب على 706,000 بنية بلورية، للتنبؤ بخصائص المواد. من خلال فهمه لـ”لغة” البلورات الجزيئية (عبر ألغاز الذرات المخفية وتحديات التناظر)، يمكن لـ CrystalGPT التنبؤ بكثافة أو مسامية أو استقرار مركب جديد بسرعة أكبر بكثير من المحاكاة التقليدية binaryverseai.com binaryverseai.com. يشيد الخبراء بشفافيته – حيث تُبرز الذكاء الاصطناعي حتى أي الأحياء الذرية أثرت أكثر في التنبؤ – ما يمنح الكيميائيين الثقة بدلاً من تخمين الصندوق الأسود binaryverseai.com. يمكن أن تسرع النمذجة البلورية الأسرع التقدم في البطاريات والعوامل المساعدة ومواد أشباه الموصلات، مما يقلل أوقات وتكاليف البحث والتطوير.

الذكاء الاصطناعي للبرمجة – مع بعض التحفظات: لم تكن جميع الأبحاث وردية؛ فقد قدمت دراسة واحدة رؤية واقعية حول مساعدي البرمجة بالذكاء الاصطناعي. ففي تجربة محكومة، استغرق مطورو البرمجيات ذوو الخبرة وقتاً أطول بنسبة 19% في إنجاز مهمة باستخدام مساعد ذكاء اصطناعي مقارنةً بمجموعة ضابطة بدون ذكاء اصطناعي ts2.tech. كان المبرمجون المتمرسون يتوقعون أن يساعدهم الذكاء الاصطناعي (أداة اقتراح الشيفرة) على إنجاز العمل بشكل أسرع، لكنه غالباً ما كان يعطي شيفرات “صحيحة من حيث التوجه العام، لكنها ليست بالضبط ما هو مطلوبts2.tech. وقد أُهدر الوقت في مراجعة هذه الاقتراحات وتصحيحها. في المقابل، أظهرت دراسات سابقة زيادات كبيرة في السرعة للمبرمجين الأقل خبرة في المهام الأسهل. “إنه أشبه بتحرير مقالة أكثر من كونه كتابة من البداية،” قال أحد المبرمجين المخضرمين حول أسلوب العمل بمساعدة الذكاء الاصطناعي – ربما أكثر استرخاءً، لكنه أبطأ ts2.tech. وخلص الباحثون في METR إلى أن المساعدات الذكية الحالية ليست عصا سحرية لزيادة إنتاجية الخبراء في البرمجة المعقدة، وأن هناك حاجة لمزيد من التحسين والمراقبة البشرية ts2.tech. هذا الاستنتاج المتوازن يهدئ من الاندفاع نحو نشر الذكاء الاصطناعي المولّد للشيفرات لجميع المبرمجين.

التطلع داخل “عقل” الذكاء الاصطناعي: نشر اتحاد من كبار علماء الذكاء الاصطناعي (من OpenAI وDeepMind وAnthropic وأفضل الجامعات) ورقة بحثية بارزة يدعون فيها إلى ابتكار تقنيات جديدة لـمراقبة “تَسَلْسُل التفكير” في الذكاء الاصطناعي – وهي في الأساس خطوات التفكير الخفية التي يولدها نماذج الذكاء الاصطناعي داخليًا ts2.tech. ومع تحول أنظمة الذكاء الاصطناعي إلى المزيد من الاستقلالية (كما هي الحال مع العملاء الذين يظهرون الآن)، يجادل المؤلفون بأن القدرة على الاطلاع على تلك الأفكار الوسيطة قد يكون أمرًا حيويًا للسلامة ts2.tech. فمن خلال مراقبة تسلسل تفكير الذكاء الاصطناعي خطوة بخطوة، قد يتمكن المطورون من اكتشاف الأخطاء أو الميل إلى طرق خطرة قبل أن يتصرف الذكاء الاصطناعي. ومع ذلك، تحذر الورقة من أنه مع تزايد تعقيد النماذج، “لا يوجد ضمان بأن درجة الشفافية الحالية ستستمر” – فقد تقوم نماذج الذكاء الاصطناعي المستقبلية بإضمار تفكيرها بشكل لا يمكن تتبعه بسهولة ts2.tech. وقد حث الفريق المجتمع العلمي على “الاستفادة القصوى من إمكانية مراقبة تسلسل التفكير” الآن والسعي إلى الحفاظ على الشفافية مستقبلًا ts2.tech. ومن الجدير بالذكر أن هذه الدعوة للعمل شارك في توقيعها مجموعة من كبار علماء الذكاء الاصطناعي – بمن فيهم جيفري هينتون، والعالم الرئيسي في OpenAI إيليا سوتسكيفر (ورئيس التوافق جان ليك)، والمؤسس المشارك لـDeepMind شين ليج، وآخرون ts2.tech. إنه عرض نادر للوحدة بين مختبرات متنافسة، يعكس قلقًا مشتركًا: مع اقتراب أنظمة الذكاء الاصطناعي من مستوى التفكير البشري، يجب ألا نسمح لها بأن تصبح “صناديق سوداء” لا يمكن فهمها. البحث في “فحوصات دماغ الذكاء الاصطناعي” – قراءة فكر الذكاء الاصطناعي – قد يصبح ضروريًا بقدر أهمية إنشاء الذكاء الاصطناعي نفسه.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

التمويل، الأعمال والاستثمار في الذكاء الاصطناعي

الذكاء الاصطناعي المصمم للقطاع المالي: شهد القطاع المالي اختراقات متزايدة للذكاء الاصطناعي في المنتجات والأرباح. أطلقت شركة Anthropic خدمة Claude للخدمات المالية، وهو إصدار من مساعد الذكاء الاصطناعي Claude-4 مخصص لمحللي السوق والمصرفيين. وتدعي Anthropic أن Claude-4 يتفوق على النماذج المتقدمة الأخرى في مهام التمويل، استنادًا إلى معايير الصناعة anthropic.com. يمكن للمنصة الاتصال بالبيانات المباشرة للأسواق (عبر شركاء مثل بلومبرغ وFactSet وغيرهم) والتعامل مع أحمال العمل الكبيرة من نمذجة المخاطر حتى الأعمال الورقية للامتثال. ويبلغ المستخدمون الأوائل عن مكاسب كبيرة – على سبيل المثال، قال الرئيس التنفيذي لصندوق الثروة السيادي النرويجي البالغ قيمته 1.4 تريليون دولار (NBIM) إن Claude قد “غير بشكل جذري” سير العمل لديهم، حيث وفر ما يقدر بـزيادة في الإنتاجية بنسبة 20% (حوالي 213,000 ساعة عمل تم توفيرها) من خلال تمكين الموظفين من استعلام البيانات وتحليل مكالمات الأرباح بشكل أكثر كفاءة anthropic.com. وأشار إلى أن Claude أصبح “لا غنى عنه” بالنسبة لمحللي ومديري المخاطر في تلك الشركة anthropic.com. كما تستكشف البنوك والصناديق الكبرى المساعدين الذكاء الاصطناعي لتسريع الأبحاث مع تتبع كامل للمراجعات وتلقائية للمهام الروتينية التي عادة ما تعيق عمل الفرق المالية.

وول ستريت تراهن على شركات الذكاء الاصطناعي الناشئة: يواصل المستثمرون ضخ الأموال في مشاريع الذكاء الاصطناعي بقيم مذهلة. وجاءت أخبار هذا الأسبوع بأن Perplexity AI، الشركة الناشئة المعروفة بروبوت الدردشة البحثي المعتمد على الذكاء الاصطناعي، جمعت جولة تمويل جديدة بقيمة 100 مليون دولار، لترتفع قيمتها إلى نحو 18 مليار دولار theindependent.sg. (للمقارنة، كانت قيمة Perplexity تقارب 14 مليار دولار فقط قبل شهرين، ومليار دولار واحد في العام الماضي، مما يعكس الارتفاع الصاروخي في ثروات الذكاء الاصطناعي التوليدي theindependent.sg.) كما ظهرت صناديق جديدة تركز على الذكاء الاصطناعي: فمثلاً، أطلق أحد أوائل المستثمرين في Instacart صندوق “Verified Capital” بمبلغ 175 مليون دولار مخصص لشركات الذكاء الاصطناعي الناشئة (أُعلن عنه في 20 يوليو). وفي مجال الحوسبة السحابية، بدأت الشركات التقليدية في التكيف مع عصر الذكاء الاصطناعي – أحيانًا بشكل مؤلم. فقد أكدت أمازون أنها خفضت عدة مئات من وظائف AWS (معظمها في أدوار الدعم السحابي)، بعد أن حذّر الرئيس التنفيذي آندي جاسي من أن كفاءات الذكاء الاصطناعي ستقلص بعض الوظائف في “طبقة الوسطى” binaryverseai.com. وأشارت رسائل بريد إلكتروني داخلية هذا الأسبوع إلى أن بعض فرق نقل البيانات المتخصصة أصبحت زائدة عن الحاجة – “الدليل المرئي الأول داخل AWS” على الأتمتة المدفوعة بالذكاء الاصطناعي، كما أشارت رويترز binaryverseai.com binaryverseai.com. وقال المحللون إن حتى وحدات التكنولوجيا ذات الهوامش المرتفعة ليست محصنة: “الذكاء الاصطناعي يلتهم المهام التي يتقنها، ثم تقوم الشركات بإعادة توزيع أو الاستغناء عن الموظفين،” كما لاحظ أحدهم بتهكم binaryverseai.com. وعلى الرغم من الأرباح القوية، تواصل عملاق الحوسبة السحابية إعادة الهيكلة، مما يوضح كيف أن مكاسب الإنتاجية من الذكاء الاصطناعي قد تؤدي أيضًا إلى تقليص القوى العاملة فعليًا.

اختراقات في العلوم والرعاية الصحية

تسريع التحليل الطبي: في مجال الرعاية الصحية، تعد اختراقات الذكاء الاصطناعي بتشخيصات أسرع وإجراءات أكثر أمانًا. كشف باحثون من جامعة إنديانا ومستشفيات شريكة عن خط أنابيب “معلوماتية السرطان” مدعوم بالذكاء الاصطناعي يمكنه فحص شرائح علم الأمراض الرقمية والسجلات الصحية الإلكترونية وبيانات الجينوم للإشارة إلى احتمالية الإصابة بالسرطان واقتراح مرحلة الورم. وبحسب الباحث الرئيسي سبيريدون باكاس، فقد قلل نظام الذكاء الاصطناعي بعض إجراءات التشخيص “من أيام إلى ثوانٍ”، حيث صنّف الحالات بسرعة تفوق البشر binaryverseai.com binaryverseai.com. كما كشف الأداة عن ترابطات دقيقة عبر بيانات متعددة الأنماط قد يغفل عنها البشر، على الرغم من إصرار الفريق على أن أطباء علم الأمراض يظلون ضروريين للحالات الصعبة والأحكام النهائية binaryverseai.com. يجسد هذا المشروع اتجاهًا أوسع نحو الطب متعدد الأنماط بالذكاء الاصطناعي الذي يمكنه استيعاب أنواع عديدة من البيانات مرة واحدة. وبالمثل، أفاد أطباء الأشعة بنجاحهم في استخدام نموذج ذكاء اصطناعي يُدعى mViT (محول رؤي معدل) لتحسين فحوصات الأشعة المقطعية للأطفال binaryverseai.com binaryverseai.com. يمكن لأجهزة الأشعة المقطعية التي تعتمد تقنية عدّ الفوتونات أن تقلل من جرعة الأشعة السينية للأطفال، إلا أنها غالبًا ما تنتج صورًا مشوشة؛ حيث تعلم نظام mViT إزالة التشويش من الفحوصات مباشرة، مما يجعل الشرايين والأنسجة أوضح دون التمويه الناتج عن أساليب تقليل الضوضاء القديمة binaryverseai.com binaryverseai.com. وأظهرت الاختبارات التي أُجريت على 20 مريضًا صغيرًا أن الذكاء الاصطناعي تفوق باستمرار على المرشحات التقليدية، مما يسمح على الأرجح بالحصول على فحوصات أكثر وضوحًا وأقل جرعة إشعاعية – وهو مكسب لسلامة المرضى الأطفال مع حصول أجهزة الأشعة المقطعية الجديدة على موافقة إدارة الغذاء والدواء الأمريكية binaryverseai.com.

الاختراقات في علم الأحياء والمواد: تدفع الذكاء الاصطناعي أيضًا العلوم الأساسية إلى الأمام. وصفت دراسة جديدة في Nature Communications كيف يمكن لثلاثة شبكات عصبية الآن تحديد توقيت تطور الأجنة بدقة إلى الدقيقة، وهو إنجاز قد يغير مجال علم الأحياء التطوري binaryverseai.com. من خلال تدريب شبكات عصبية التففية على صور عالية الدقة لأجنة ذبابة الفاكهة، تعلم النظام تحديد الإشارات البصرية الدقيقة لدورات انقسام الخلايا. يمكنه معرفة عمر الجنين (بدقة ±1 دقيقة) دون استخدام علامات فلورية تدخلية – محققًا دقة 98–100% في الأجنة في المراحل المبكرة binaryverseai.com binaryverseai.com. هذا “ساعة الجنين” بالذكاء الاصطناعي مكنت الفريق من رسم خرائط طفرات تنشيط الجينات بدقة زمنية غير مسبوقة، مما يوفر لعلماء الأحياء أداة قوية جديدة لدراسة كيفية تشكل الأعضاء. في علم المواد، قدم باحثون من المملكة المتحدة نموذج “CrystalGPT”، المدرب على 706,000 بنية بلورية، للتنبؤ بخصائص المواد. من خلال فهمه لـ”لغة” البلورات الجزيئية (عبر ألغاز الذرات المخفية وتحديات التناظر)، يمكن لـ CrystalGPT التنبؤ بكثافة أو مسامية أو استقرار مركب جديد بسرعة أكبر بكثير من المحاكاة التقليدية binaryverseai.com binaryverseai.com. يشيد الخبراء بشفافيته – حيث تُبرز الذكاء الاصطناعي حتى أي الأحياء الذرية أثرت أكثر في التنبؤ – ما يمنح الكيميائيين الثقة بدلاً من تخمين الصندوق الأسود binaryverseai.com. يمكن أن تسرع النمذجة البلورية الأسرع التقدم في البطاريات والعوامل المساعدة ومواد أشباه الموصلات، مما يقلل أوقات وتكاليف البحث والتطوير.

الذكاء الاصطناعي للبرمجة – مع بعض التحفظات: لم تكن جميع الأبحاث وردية؛ فقد قدمت دراسة واحدة رؤية واقعية حول مساعدي البرمجة بالذكاء الاصطناعي. ففي تجربة محكومة، استغرق مطورو البرمجيات ذوو الخبرة وقتاً أطول بنسبة 19% في إنجاز مهمة باستخدام مساعد ذكاء اصطناعي مقارنةً بمجموعة ضابطة بدون ذكاء اصطناعي ts2.tech. كان المبرمجون المتمرسون يتوقعون أن يساعدهم الذكاء الاصطناعي (أداة اقتراح الشيفرة) على إنجاز العمل بشكل أسرع، لكنه غالباً ما كان يعطي شيفرات “صحيحة من حيث التوجه العام، لكنها ليست بالضبط ما هو مطلوبts2.tech. وقد أُهدر الوقت في مراجعة هذه الاقتراحات وتصحيحها. في المقابل، أظهرت دراسات سابقة زيادات كبيرة في السرعة للمبرمجين الأقل خبرة في المهام الأسهل. “إنه أشبه بتحرير مقالة أكثر من كونه كتابة من البداية،” قال أحد المبرمجين المخضرمين حول أسلوب العمل بمساعدة الذكاء الاصطناعي – ربما أكثر استرخاءً، لكنه أبطأ ts2.tech. وخلص الباحثون في METR إلى أن المساعدات الذكية الحالية ليست عصا سحرية لزيادة إنتاجية الخبراء في البرمجة المعقدة، وأن هناك حاجة لمزيد من التحسين والمراقبة البشرية ts2.tech. هذا الاستنتاج المتوازن يهدئ من الاندفاع نحو نشر الذكاء الاصطناعي المولّد للشيفرات لجميع المبرمجين.

التطلع داخل “عقل” الذكاء الاصطناعي: نشر اتحاد من كبار علماء الذكاء الاصطناعي (من OpenAI وDeepMind وAnthropic وأفضل الجامعات) ورقة بحثية بارزة يدعون فيها إلى ابتكار تقنيات جديدة لـمراقبة “تَسَلْسُل التفكير” في الذكاء الاصطناعي – وهي في الأساس خطوات التفكير الخفية التي يولدها نماذج الذكاء الاصطناعي داخليًا ts2.tech. ومع تحول أنظمة الذكاء الاصطناعي إلى المزيد من الاستقلالية (كما هي الحال مع العملاء الذين يظهرون الآن)، يجادل المؤلفون بأن القدرة على الاطلاع على تلك الأفكار الوسيطة قد يكون أمرًا حيويًا للسلامة ts2.tech. فمن خلال مراقبة تسلسل تفكير الذكاء الاصطناعي خطوة بخطوة، قد يتمكن المطورون من اكتشاف الأخطاء أو الميل إلى طرق خطرة قبل أن يتصرف الذكاء الاصطناعي. ومع ذلك، تحذر الورقة من أنه مع تزايد تعقيد النماذج، “لا يوجد ضمان بأن درجة الشفافية الحالية ستستمر” – فقد تقوم نماذج الذكاء الاصطناعي المستقبلية بإضمار تفكيرها بشكل لا يمكن تتبعه بسهولة ts2.tech. وقد حث الفريق المجتمع العلمي على “الاستفادة القصوى من إمكانية مراقبة تسلسل التفكير” الآن والسعي إلى الحفاظ على الشفافية مستقبلًا ts2.tech. ومن الجدير بالذكر أن هذه الدعوة للعمل شارك في توقيعها مجموعة من كبار علماء الذكاء الاصطناعي – بمن فيهم جيفري هينتون، والعالم الرئيسي في OpenAI إيليا سوتسكيفر (ورئيس التوافق جان ليك)، والمؤسس المشارك لـDeepMind شين ليج، وآخرون ts2.tech. إنه عرض نادر للوحدة بين مختبرات متنافسة، يعكس قلقًا مشتركًا: مع اقتراب أنظمة الذكاء الاصطناعي من مستوى التفكير البشري، يجب ألا نسمح لها بأن تصبح “صناديق سوداء” لا يمكن فهمها. البحث في “فحوصات دماغ الذكاء الاصطناعي” – قراءة فكر الذكاء الاصطناعي – قد يصبح ضروريًا بقدر أهمية إنشاء الذكاء الاصطناعي نفسه.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

الذكاء الاصطناعي في الإعلام، الترفيه والصناعات الإبداعية

نتفليكس تتبنى الذكاء الاصطناعي في المؤثرات البصرية: شهدت هوليوود سابقة ملحوظة: فقد كشفت نتفليكس في مكالمة الأرباح الخاصة بها أنها بدأت في استخدام الذكاء الاصطناعي التوليدي في إنتاج المحتوى، بما في ذلك لقطات تم إنشاؤها بالكامل بالذكاء الاصطناعي لأول مرة في عرض من عروض نتفليكس ts2.tech. في السلسلة الأرجنتينية الخيالية العلمية “El Eternauta”، تم إنشاء مشهد كامل لانهيار مبنى باستخدام الذكاء الاصطناعي – وقد تم إنجازه أسرع بعشر مرات وبتكلفة أقل مقارنة باستخدام المؤثرات البصرية التقليدية techcrunch.com. شدد الرئيس التنفيذي المشارك تيد ساراندوس على أن الذكاء الاصطناعي يُستخدم لتمكين المبدعين وليس لاستبدالهم، قائلاً: “الذكاء الاصطناعي يمثل فرصة مذهلة لمساعدة المبدعين على صنع أفلام ومسلسلات أفضل، وليس فقط أرخص … هؤلاء أشخاص حقيقيون ينفذون عملاً حقيقياً بأدوات أفضل.” techcrunch.com وأشار إلى أن فناني نتفليكس يرون بالفعل فوائد في مرحلة التصور المسبق وتخطيط المشاهد. كما تطبق نتفليكس الذكاء الاصطناعي التوليدي خارج نطاق المؤثرات البصرية – حيث تستخدمه لاكتشاف المحتوى بشكل شخصي، وتستعد لإطلاق إعلانات تفاعلية مدعومة بالذكاء الاصطناعي في وقت لاحق من هذا العام techcrunch.com.

الموضة التوليدية وسحر الفيديو: امتدت لمسة الذكاء الاصطناعي الإبداعية إلى عالم الموضة والفيديو. أجرى باحثون في كوريا الجنوبية تجارب على “الموضة التوليدية”، حيث استخدموا ChatGPT للتنبؤ باتجاهات الموضة القادمة وDALL·E 3 لإنشاء أكثر من 100 زي افتراضي لمجموعة خريف/شتاء binaryverseai.com binaryverseai.com. توافقت حوالي ثلثي التصاميم التي أنشأها الذكاء الاصطناعي مع الأنماط السائدة في العالم الواقعي، ما يشير إلى أن النماذج التوليدية قد تكشف عن الاتجاهات قبل المصممين أنفسهم. (لكن الذكاء الاصطناعي تعثر في مفاهيم مُجرّدة مثل التصاميم ذات الهوية الجندرية السائلة، مما يؤكد أن المصممين البشر لا يزالون يمسكون بالبوصلة الإبداعية binaryverseai.com.) وفي تكنولوجيا صناعة الأفلام، كشفت NVIDIA وشركاؤها الجامعيون عن DiffusionRenderer، وهو نظام ذكاء اصطناعي من مرحلتين يدمج بين العرض المعكوس والمتقدم لجعل التأثيرات البصرية المتقدمة متاحة للمبدعين المستقلين binaryverseai.com binaryverseai.com. في أحد العروض التوضيحية، تمكن المستخدم من تصوير مشهد بسيط ثم إدخال تنين رسوم متحركة ينتج ظلالاً واقعية تماماً دون الحاجة إلى حساسات معقدة أو إعدادات إضاءة يدوية – فقد تعلم الذكاء الاصطناعي هندسة وإضاءة المشهد من اللقطات نفسها binaryverseai.com binaryverseai.com. والنتيجة تضيق الفجوة بين استوديوهات الإنتاج الكبرى والمبدعين الصغار، وتلمّح لمستقبل تحرير فيديو يكاد يكون “سحرياً” متاحاً للجميع.

التمويل، الأعمال والاستثمار في الذكاء الاصطناعي

الذكاء الاصطناعي المصمم للقطاع المالي: شهد القطاع المالي اختراقات متزايدة للذكاء الاصطناعي في المنتجات والأرباح. أطلقت شركة Anthropic خدمة Claude للخدمات المالية، وهو إصدار من مساعد الذكاء الاصطناعي Claude-4 مخصص لمحللي السوق والمصرفيين. وتدعي Anthropic أن Claude-4 يتفوق على النماذج المتقدمة الأخرى في مهام التمويل، استنادًا إلى معايير الصناعة anthropic.com. يمكن للمنصة الاتصال بالبيانات المباشرة للأسواق (عبر شركاء مثل بلومبرغ وFactSet وغيرهم) والتعامل مع أحمال العمل الكبيرة من نمذجة المخاطر حتى الأعمال الورقية للامتثال. ويبلغ المستخدمون الأوائل عن مكاسب كبيرة – على سبيل المثال، قال الرئيس التنفيذي لصندوق الثروة السيادي النرويجي البالغ قيمته 1.4 تريليون دولار (NBIM) إن Claude قد “غير بشكل جذري” سير العمل لديهم، حيث وفر ما يقدر بـزيادة في الإنتاجية بنسبة 20% (حوالي 213,000 ساعة عمل تم توفيرها) من خلال تمكين الموظفين من استعلام البيانات وتحليل مكالمات الأرباح بشكل أكثر كفاءة anthropic.com. وأشار إلى أن Claude أصبح “لا غنى عنه” بالنسبة لمحللي ومديري المخاطر في تلك الشركة anthropic.com. كما تستكشف البنوك والصناديق الكبرى المساعدين الذكاء الاصطناعي لتسريع الأبحاث مع تتبع كامل للمراجعات وتلقائية للمهام الروتينية التي عادة ما تعيق عمل الفرق المالية.

وول ستريت تراهن على شركات الذكاء الاصطناعي الناشئة: يواصل المستثمرون ضخ الأموال في مشاريع الذكاء الاصطناعي بقيم مذهلة. وجاءت أخبار هذا الأسبوع بأن Perplexity AI، الشركة الناشئة المعروفة بروبوت الدردشة البحثي المعتمد على الذكاء الاصطناعي، جمعت جولة تمويل جديدة بقيمة 100 مليون دولار، لترتفع قيمتها إلى نحو 18 مليار دولار theindependent.sg. (للمقارنة، كانت قيمة Perplexity تقارب 14 مليار دولار فقط قبل شهرين، ومليار دولار واحد في العام الماضي، مما يعكس الارتفاع الصاروخي في ثروات الذكاء الاصطناعي التوليدي theindependent.sg.) كما ظهرت صناديق جديدة تركز على الذكاء الاصطناعي: فمثلاً، أطلق أحد أوائل المستثمرين في Instacart صندوق “Verified Capital” بمبلغ 175 مليون دولار مخصص لشركات الذكاء الاصطناعي الناشئة (أُعلن عنه في 20 يوليو). وفي مجال الحوسبة السحابية، بدأت الشركات التقليدية في التكيف مع عصر الذكاء الاصطناعي – أحيانًا بشكل مؤلم. فقد أكدت أمازون أنها خفضت عدة مئات من وظائف AWS (معظمها في أدوار الدعم السحابي)، بعد أن حذّر الرئيس التنفيذي آندي جاسي من أن كفاءات الذكاء الاصطناعي ستقلص بعض الوظائف في “طبقة الوسطى” binaryverseai.com. وأشارت رسائل بريد إلكتروني داخلية هذا الأسبوع إلى أن بعض فرق نقل البيانات المتخصصة أصبحت زائدة عن الحاجة – “الدليل المرئي الأول داخل AWS” على الأتمتة المدفوعة بالذكاء الاصطناعي، كما أشارت رويترز binaryverseai.com binaryverseai.com. وقال المحللون إن حتى وحدات التكنولوجيا ذات الهوامش المرتفعة ليست محصنة: “الذكاء الاصطناعي يلتهم المهام التي يتقنها، ثم تقوم الشركات بإعادة توزيع أو الاستغناء عن الموظفين،” كما لاحظ أحدهم بتهكم binaryverseai.com. وعلى الرغم من الأرباح القوية، تواصل عملاق الحوسبة السحابية إعادة الهيكلة، مما يوضح كيف أن مكاسب الإنتاجية من الذكاء الاصطناعي قد تؤدي أيضًا إلى تقليص القوى العاملة فعليًا.

اختراقات في العلوم والرعاية الصحية

تسريع التحليل الطبي: في مجال الرعاية الصحية، تعد اختراقات الذكاء الاصطناعي بتشخيصات أسرع وإجراءات أكثر أمانًا. كشف باحثون من جامعة إنديانا ومستشفيات شريكة عن خط أنابيب “معلوماتية السرطان” مدعوم بالذكاء الاصطناعي يمكنه فحص شرائح علم الأمراض الرقمية والسجلات الصحية الإلكترونية وبيانات الجينوم للإشارة إلى احتمالية الإصابة بالسرطان واقتراح مرحلة الورم. وبحسب الباحث الرئيسي سبيريدون باكاس، فقد قلل نظام الذكاء الاصطناعي بعض إجراءات التشخيص “من أيام إلى ثوانٍ”، حيث صنّف الحالات بسرعة تفوق البشر binaryverseai.com binaryverseai.com. كما كشف الأداة عن ترابطات دقيقة عبر بيانات متعددة الأنماط قد يغفل عنها البشر، على الرغم من إصرار الفريق على أن أطباء علم الأمراض يظلون ضروريين للحالات الصعبة والأحكام النهائية binaryverseai.com. يجسد هذا المشروع اتجاهًا أوسع نحو الطب متعدد الأنماط بالذكاء الاصطناعي الذي يمكنه استيعاب أنواع عديدة من البيانات مرة واحدة. وبالمثل، أفاد أطباء الأشعة بنجاحهم في استخدام نموذج ذكاء اصطناعي يُدعى mViT (محول رؤي معدل) لتحسين فحوصات الأشعة المقطعية للأطفال binaryverseai.com binaryverseai.com. يمكن لأجهزة الأشعة المقطعية التي تعتمد تقنية عدّ الفوتونات أن تقلل من جرعة الأشعة السينية للأطفال، إلا أنها غالبًا ما تنتج صورًا مشوشة؛ حيث تعلم نظام mViT إزالة التشويش من الفحوصات مباشرة، مما يجعل الشرايين والأنسجة أوضح دون التمويه الناتج عن أساليب تقليل الضوضاء القديمة binaryverseai.com binaryverseai.com. وأظهرت الاختبارات التي أُجريت على 20 مريضًا صغيرًا أن الذكاء الاصطناعي تفوق باستمرار على المرشحات التقليدية، مما يسمح على الأرجح بالحصول على فحوصات أكثر وضوحًا وأقل جرعة إشعاعية – وهو مكسب لسلامة المرضى الأطفال مع حصول أجهزة الأشعة المقطعية الجديدة على موافقة إدارة الغذاء والدواء الأمريكية binaryverseai.com.

الاختراقات في علم الأحياء والمواد: تدفع الذكاء الاصطناعي أيضًا العلوم الأساسية إلى الأمام. وصفت دراسة جديدة في Nature Communications كيف يمكن لثلاثة شبكات عصبية الآن تحديد توقيت تطور الأجنة بدقة إلى الدقيقة، وهو إنجاز قد يغير مجال علم الأحياء التطوري binaryverseai.com. من خلال تدريب شبكات عصبية التففية على صور عالية الدقة لأجنة ذبابة الفاكهة، تعلم النظام تحديد الإشارات البصرية الدقيقة لدورات انقسام الخلايا. يمكنه معرفة عمر الجنين (بدقة ±1 دقيقة) دون استخدام علامات فلورية تدخلية – محققًا دقة 98–100% في الأجنة في المراحل المبكرة binaryverseai.com binaryverseai.com. هذا “ساعة الجنين” بالذكاء الاصطناعي مكنت الفريق من رسم خرائط طفرات تنشيط الجينات بدقة زمنية غير مسبوقة، مما يوفر لعلماء الأحياء أداة قوية جديدة لدراسة كيفية تشكل الأعضاء. في علم المواد، قدم باحثون من المملكة المتحدة نموذج “CrystalGPT”، المدرب على 706,000 بنية بلورية، للتنبؤ بخصائص المواد. من خلال فهمه لـ”لغة” البلورات الجزيئية (عبر ألغاز الذرات المخفية وتحديات التناظر)، يمكن لـ CrystalGPT التنبؤ بكثافة أو مسامية أو استقرار مركب جديد بسرعة أكبر بكثير من المحاكاة التقليدية binaryverseai.com binaryverseai.com. يشيد الخبراء بشفافيته – حيث تُبرز الذكاء الاصطناعي حتى أي الأحياء الذرية أثرت أكثر في التنبؤ – ما يمنح الكيميائيين الثقة بدلاً من تخمين الصندوق الأسود binaryverseai.com. يمكن أن تسرع النمذجة البلورية الأسرع التقدم في البطاريات والعوامل المساعدة ومواد أشباه الموصلات، مما يقلل أوقات وتكاليف البحث والتطوير.

الذكاء الاصطناعي للبرمجة – مع بعض التحفظات: لم تكن جميع الأبحاث وردية؛ فقد قدمت دراسة واحدة رؤية واقعية حول مساعدي البرمجة بالذكاء الاصطناعي. ففي تجربة محكومة، استغرق مطورو البرمجيات ذوو الخبرة وقتاً أطول بنسبة 19% في إنجاز مهمة باستخدام مساعد ذكاء اصطناعي مقارنةً بمجموعة ضابطة بدون ذكاء اصطناعي ts2.tech. كان المبرمجون المتمرسون يتوقعون أن يساعدهم الذكاء الاصطناعي (أداة اقتراح الشيفرة) على إنجاز العمل بشكل أسرع، لكنه غالباً ما كان يعطي شيفرات “صحيحة من حيث التوجه العام، لكنها ليست بالضبط ما هو مطلوبts2.tech. وقد أُهدر الوقت في مراجعة هذه الاقتراحات وتصحيحها. في المقابل، أظهرت دراسات سابقة زيادات كبيرة في السرعة للمبرمجين الأقل خبرة في المهام الأسهل. “إنه أشبه بتحرير مقالة أكثر من كونه كتابة من البداية،” قال أحد المبرمجين المخضرمين حول أسلوب العمل بمساعدة الذكاء الاصطناعي – ربما أكثر استرخاءً، لكنه أبطأ ts2.tech. وخلص الباحثون في METR إلى أن المساعدات الذكية الحالية ليست عصا سحرية لزيادة إنتاجية الخبراء في البرمجة المعقدة، وأن هناك حاجة لمزيد من التحسين والمراقبة البشرية ts2.tech. هذا الاستنتاج المتوازن يهدئ من الاندفاع نحو نشر الذكاء الاصطناعي المولّد للشيفرات لجميع المبرمجين.

التطلع داخل “عقل” الذكاء الاصطناعي: نشر اتحاد من كبار علماء الذكاء الاصطناعي (من OpenAI وDeepMind وAnthropic وأفضل الجامعات) ورقة بحثية بارزة يدعون فيها إلى ابتكار تقنيات جديدة لـمراقبة “تَسَلْسُل التفكير” في الذكاء الاصطناعي – وهي في الأساس خطوات التفكير الخفية التي يولدها نماذج الذكاء الاصطناعي داخليًا ts2.tech. ومع تحول أنظمة الذكاء الاصطناعي إلى المزيد من الاستقلالية (كما هي الحال مع العملاء الذين يظهرون الآن)، يجادل المؤلفون بأن القدرة على الاطلاع على تلك الأفكار الوسيطة قد يكون أمرًا حيويًا للسلامة ts2.tech. فمن خلال مراقبة تسلسل تفكير الذكاء الاصطناعي خطوة بخطوة، قد يتمكن المطورون من اكتشاف الأخطاء أو الميل إلى طرق خطرة قبل أن يتصرف الذكاء الاصطناعي. ومع ذلك، تحذر الورقة من أنه مع تزايد تعقيد النماذج، “لا يوجد ضمان بأن درجة الشفافية الحالية ستستمر” – فقد تقوم نماذج الذكاء الاصطناعي المستقبلية بإضمار تفكيرها بشكل لا يمكن تتبعه بسهولة ts2.tech. وقد حث الفريق المجتمع العلمي على “الاستفادة القصوى من إمكانية مراقبة تسلسل التفكير” الآن والسعي إلى الحفاظ على الشفافية مستقبلًا ts2.tech. ومن الجدير بالذكر أن هذه الدعوة للعمل شارك في توقيعها مجموعة من كبار علماء الذكاء الاصطناعي – بمن فيهم جيفري هينتون، والعالم الرئيسي في OpenAI إيليا سوتسكيفر (ورئيس التوافق جان ليك)، والمؤسس المشارك لـDeepMind شين ليج، وآخرون ts2.tech. إنه عرض نادر للوحدة بين مختبرات متنافسة، يعكس قلقًا مشتركًا: مع اقتراب أنظمة الذكاء الاصطناعي من مستوى التفكير البشري، يجب ألا نسمح لها بأن تصبح “صناديق سوداء” لا يمكن فهمها. البحث في “فحوصات دماغ الذكاء الاصطناعي” – قراءة فكر الذكاء الاصطناعي – قد يصبح ضروريًا بقدر أهمية إنشاء الذكاء الاصطناعي نفسه.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

اختراقات في العلوم والرعاية الصحية

تسريع التحليل الطبي: في مجال الرعاية الصحية، تعد اختراقات الذكاء الاصطناعي بتشخيصات أسرع وإجراءات أكثر أمانًا. كشف باحثون من جامعة إنديانا ومستشفيات شريكة عن خط أنابيب “معلوماتية السرطان” مدعوم بالذكاء الاصطناعي يمكنه فحص شرائح علم الأمراض الرقمية والسجلات الصحية الإلكترونية وبيانات الجينوم للإشارة إلى احتمالية الإصابة بالسرطان واقتراح مرحلة الورم. وبحسب الباحث الرئيسي سبيريدون باكاس، فقد قلل نظام الذكاء الاصطناعي بعض إجراءات التشخيص “من أيام إلى ثوانٍ”، حيث صنّف الحالات بسرعة تفوق البشر binaryverseai.com binaryverseai.com. كما كشف الأداة عن ترابطات دقيقة عبر بيانات متعددة الأنماط قد يغفل عنها البشر، على الرغم من إصرار الفريق على أن أطباء علم الأمراض يظلون ضروريين للحالات الصعبة والأحكام النهائية binaryverseai.com. يجسد هذا المشروع اتجاهًا أوسع نحو الطب متعدد الأنماط بالذكاء الاصطناعي الذي يمكنه استيعاب أنواع عديدة من البيانات مرة واحدة. وبالمثل، أفاد أطباء الأشعة بنجاحهم في استخدام نموذج ذكاء اصطناعي يُدعى mViT (محول رؤي معدل) لتحسين فحوصات الأشعة المقطعية للأطفال binaryverseai.com binaryverseai.com. يمكن لأجهزة الأشعة المقطعية التي تعتمد تقنية عدّ الفوتونات أن تقلل من جرعة الأشعة السينية للأطفال، إلا أنها غالبًا ما تنتج صورًا مشوشة؛ حيث تعلم نظام mViT إزالة التشويش من الفحوصات مباشرة، مما يجعل الشرايين والأنسجة أوضح دون التمويه الناتج عن أساليب تقليل الضوضاء القديمة binaryverseai.com binaryverseai.com. وأظهرت الاختبارات التي أُجريت على 20 مريضًا صغيرًا أن الذكاء الاصطناعي تفوق باستمرار على المرشحات التقليدية، مما يسمح على الأرجح بالحصول على فحوصات أكثر وضوحًا وأقل جرعة إشعاعية – وهو مكسب لسلامة المرضى الأطفال مع حصول أجهزة الأشعة المقطعية الجديدة على موافقة إدارة الغذاء والدواء الأمريكية binaryverseai.com.

الاختراقات في علم الأحياء والمواد: تدفع الذكاء الاصطناعي أيضًا العلوم الأساسية إلى الأمام. وصفت دراسة جديدة في Nature Communications كيف يمكن لثلاثة شبكات عصبية الآن تحديد توقيت تطور الأجنة بدقة إلى الدقيقة، وهو إنجاز قد يغير مجال علم الأحياء التطوري binaryverseai.com. من خلال تدريب شبكات عصبية التففية على صور عالية الدقة لأجنة ذبابة الفاكهة، تعلم النظام تحديد الإشارات البصرية الدقيقة لدورات انقسام الخلايا. يمكنه معرفة عمر الجنين (بدقة ±1 دقيقة) دون استخدام علامات فلورية تدخلية – محققًا دقة 98–100% في الأجنة في المراحل المبكرة binaryverseai.com binaryverseai.com. هذا “ساعة الجنين” بالذكاء الاصطناعي مكنت الفريق من رسم خرائط طفرات تنشيط الجينات بدقة زمنية غير مسبوقة، مما يوفر لعلماء الأحياء أداة قوية جديدة لدراسة كيفية تشكل الأعضاء. في علم المواد، قدم باحثون من المملكة المتحدة نموذج “CrystalGPT”، المدرب على 706,000 بنية بلورية، للتنبؤ بخصائص المواد. من خلال فهمه لـ”لغة” البلورات الجزيئية (عبر ألغاز الذرات المخفية وتحديات التناظر)، يمكن لـ CrystalGPT التنبؤ بكثافة أو مسامية أو استقرار مركب جديد بسرعة أكبر بكثير من المحاكاة التقليدية binaryverseai.com binaryverseai.com. يشيد الخبراء بشفافيته – حيث تُبرز الذكاء الاصطناعي حتى أي الأحياء الذرية أثرت أكثر في التنبؤ – ما يمنح الكيميائيين الثقة بدلاً من تخمين الصندوق الأسود binaryverseai.com. يمكن أن تسرع النمذجة البلورية الأسرع التقدم في البطاريات والعوامل المساعدة ومواد أشباه الموصلات، مما يقلل أوقات وتكاليف البحث والتطوير.

الذكاء الاصطناعي للبرمجة – مع بعض التحفظات: لم تكن جميع الأبحاث وردية؛ فقد قدمت دراسة واحدة رؤية واقعية حول مساعدي البرمجة بالذكاء الاصطناعي. ففي تجربة محكومة، استغرق مطورو البرمجيات ذوو الخبرة وقتاً أطول بنسبة 19% في إنجاز مهمة باستخدام مساعد ذكاء اصطناعي مقارنةً بمجموعة ضابطة بدون ذكاء اصطناعي ts2.tech. كان المبرمجون المتمرسون يتوقعون أن يساعدهم الذكاء الاصطناعي (أداة اقتراح الشيفرة) على إنجاز العمل بشكل أسرع، لكنه غالباً ما كان يعطي شيفرات “صحيحة من حيث التوجه العام، لكنها ليست بالضبط ما هو مطلوبts2.tech. وقد أُهدر الوقت في مراجعة هذه الاقتراحات وتصحيحها. في المقابل، أظهرت دراسات سابقة زيادات كبيرة في السرعة للمبرمجين الأقل خبرة في المهام الأسهل. “إنه أشبه بتحرير مقالة أكثر من كونه كتابة من البداية،” قال أحد المبرمجين المخضرمين حول أسلوب العمل بمساعدة الذكاء الاصطناعي – ربما أكثر استرخاءً، لكنه أبطأ ts2.tech. وخلص الباحثون في METR إلى أن المساعدات الذكية الحالية ليست عصا سحرية لزيادة إنتاجية الخبراء في البرمجة المعقدة، وأن هناك حاجة لمزيد من التحسين والمراقبة البشرية ts2.tech. هذا الاستنتاج المتوازن يهدئ من الاندفاع نحو نشر الذكاء الاصطناعي المولّد للشيفرات لجميع المبرمجين.

التطلع داخل “عقل” الذكاء الاصطناعي: نشر اتحاد من كبار علماء الذكاء الاصطناعي (من OpenAI وDeepMind وAnthropic وأفضل الجامعات) ورقة بحثية بارزة يدعون فيها إلى ابتكار تقنيات جديدة لـمراقبة “تَسَلْسُل التفكير” في الذكاء الاصطناعي – وهي في الأساس خطوات التفكير الخفية التي يولدها نماذج الذكاء الاصطناعي داخليًا ts2.tech. ومع تحول أنظمة الذكاء الاصطناعي إلى المزيد من الاستقلالية (كما هي الحال مع العملاء الذين يظهرون الآن)، يجادل المؤلفون بأن القدرة على الاطلاع على تلك الأفكار الوسيطة قد يكون أمرًا حيويًا للسلامة ts2.tech. فمن خلال مراقبة تسلسل تفكير الذكاء الاصطناعي خطوة بخطوة، قد يتمكن المطورون من اكتشاف الأخطاء أو الميل إلى طرق خطرة قبل أن يتصرف الذكاء الاصطناعي. ومع ذلك، تحذر الورقة من أنه مع تزايد تعقيد النماذج، “لا يوجد ضمان بأن درجة الشفافية الحالية ستستمر” – فقد تقوم نماذج الذكاء الاصطناعي المستقبلية بإضمار تفكيرها بشكل لا يمكن تتبعه بسهولة ts2.tech. وقد حث الفريق المجتمع العلمي على “الاستفادة القصوى من إمكانية مراقبة تسلسل التفكير” الآن والسعي إلى الحفاظ على الشفافية مستقبلًا ts2.tech. ومن الجدير بالذكر أن هذه الدعوة للعمل شارك في توقيعها مجموعة من كبار علماء الذكاء الاصطناعي – بمن فيهم جيفري هينتون، والعالم الرئيسي في OpenAI إيليا سوتسكيفر (ورئيس التوافق جان ليك)، والمؤسس المشارك لـDeepMind شين ليج، وآخرون ts2.tech. إنه عرض نادر للوحدة بين مختبرات متنافسة، يعكس قلقًا مشتركًا: مع اقتراب أنظمة الذكاء الاصطناعي من مستوى التفكير البشري، يجب ألا نسمح لها بأن تصبح “صناديق سوداء” لا يمكن فهمها. البحث في “فحوصات دماغ الذكاء الاصطناعي” – قراءة فكر الذكاء الاصطناعي – قد يصبح ضروريًا بقدر أهمية إنشاء الذكاء الاصطناعي نفسه.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

التمويل، الأعمال والاستثمار في الذكاء الاصطناعي

الذكاء الاصطناعي المصمم للقطاع المالي: شهد القطاع المالي اختراقات متزايدة للذكاء الاصطناعي في المنتجات والأرباح. أطلقت شركة Anthropic خدمة Claude للخدمات المالية، وهو إصدار من مساعد الذكاء الاصطناعي Claude-4 مخصص لمحللي السوق والمصرفيين. وتدعي Anthropic أن Claude-4 يتفوق على النماذج المتقدمة الأخرى في مهام التمويل، استنادًا إلى معايير الصناعة anthropic.com. يمكن للمنصة الاتصال بالبيانات المباشرة للأسواق (عبر شركاء مثل بلومبرغ وFactSet وغيرهم) والتعامل مع أحمال العمل الكبيرة من نمذجة المخاطر حتى الأعمال الورقية للامتثال. ويبلغ المستخدمون الأوائل عن مكاسب كبيرة – على سبيل المثال، قال الرئيس التنفيذي لصندوق الثروة السيادي النرويجي البالغ قيمته 1.4 تريليون دولار (NBIM) إن Claude قد “غير بشكل جذري” سير العمل لديهم، حيث وفر ما يقدر بـزيادة في الإنتاجية بنسبة 20% (حوالي 213,000 ساعة عمل تم توفيرها) من خلال تمكين الموظفين من استعلام البيانات وتحليل مكالمات الأرباح بشكل أكثر كفاءة anthropic.com. وأشار إلى أن Claude أصبح “لا غنى عنه” بالنسبة لمحللي ومديري المخاطر في تلك الشركة anthropic.com. كما تستكشف البنوك والصناديق الكبرى المساعدين الذكاء الاصطناعي لتسريع الأبحاث مع تتبع كامل للمراجعات وتلقائية للمهام الروتينية التي عادة ما تعيق عمل الفرق المالية.

وول ستريت تراهن على شركات الذكاء الاصطناعي الناشئة: يواصل المستثمرون ضخ الأموال في مشاريع الذكاء الاصطناعي بقيم مذهلة. وجاءت أخبار هذا الأسبوع بأن Perplexity AI، الشركة الناشئة المعروفة بروبوت الدردشة البحثي المعتمد على الذكاء الاصطناعي، جمعت جولة تمويل جديدة بقيمة 100 مليون دولار، لترتفع قيمتها إلى نحو 18 مليار دولار theindependent.sg. (للمقارنة، كانت قيمة Perplexity تقارب 14 مليار دولار فقط قبل شهرين، ومليار دولار واحد في العام الماضي، مما يعكس الارتفاع الصاروخي في ثروات الذكاء الاصطناعي التوليدي theindependent.sg.) كما ظهرت صناديق جديدة تركز على الذكاء الاصطناعي: فمثلاً، أطلق أحد أوائل المستثمرين في Instacart صندوق “Verified Capital” بمبلغ 175 مليون دولار مخصص لشركات الذكاء الاصطناعي الناشئة (أُعلن عنه في 20 يوليو). وفي مجال الحوسبة السحابية، بدأت الشركات التقليدية في التكيف مع عصر الذكاء الاصطناعي – أحيانًا بشكل مؤلم. فقد أكدت أمازون أنها خفضت عدة مئات من وظائف AWS (معظمها في أدوار الدعم السحابي)، بعد أن حذّر الرئيس التنفيذي آندي جاسي من أن كفاءات الذكاء الاصطناعي ستقلص بعض الوظائف في “طبقة الوسطى” binaryverseai.com. وأشارت رسائل بريد إلكتروني داخلية هذا الأسبوع إلى أن بعض فرق نقل البيانات المتخصصة أصبحت زائدة عن الحاجة – “الدليل المرئي الأول داخل AWS” على الأتمتة المدفوعة بالذكاء الاصطناعي، كما أشارت رويترز binaryverseai.com binaryverseai.com. وقال المحللون إن حتى وحدات التكنولوجيا ذات الهوامش المرتفعة ليست محصنة: “الذكاء الاصطناعي يلتهم المهام التي يتقنها، ثم تقوم الشركات بإعادة توزيع أو الاستغناء عن الموظفين،” كما لاحظ أحدهم بتهكم binaryverseai.com. وعلى الرغم من الأرباح القوية، تواصل عملاق الحوسبة السحابية إعادة الهيكلة، مما يوضح كيف أن مكاسب الإنتاجية من الذكاء الاصطناعي قد تؤدي أيضًا إلى تقليص القوى العاملة فعليًا.

اختراقات في العلوم والرعاية الصحية

تسريع التحليل الطبي: في مجال الرعاية الصحية، تعد اختراقات الذكاء الاصطناعي بتشخيصات أسرع وإجراءات أكثر أمانًا. كشف باحثون من جامعة إنديانا ومستشفيات شريكة عن خط أنابيب “معلوماتية السرطان” مدعوم بالذكاء الاصطناعي يمكنه فحص شرائح علم الأمراض الرقمية والسجلات الصحية الإلكترونية وبيانات الجينوم للإشارة إلى احتمالية الإصابة بالسرطان واقتراح مرحلة الورم. وبحسب الباحث الرئيسي سبيريدون باكاس، فقد قلل نظام الذكاء الاصطناعي بعض إجراءات التشخيص “من أيام إلى ثوانٍ”، حيث صنّف الحالات بسرعة تفوق البشر binaryverseai.com binaryverseai.com. كما كشف الأداة عن ترابطات دقيقة عبر بيانات متعددة الأنماط قد يغفل عنها البشر، على الرغم من إصرار الفريق على أن أطباء علم الأمراض يظلون ضروريين للحالات الصعبة والأحكام النهائية binaryverseai.com. يجسد هذا المشروع اتجاهًا أوسع نحو الطب متعدد الأنماط بالذكاء الاصطناعي الذي يمكنه استيعاب أنواع عديدة من البيانات مرة واحدة. وبالمثل، أفاد أطباء الأشعة بنجاحهم في استخدام نموذج ذكاء اصطناعي يُدعى mViT (محول رؤي معدل) لتحسين فحوصات الأشعة المقطعية للأطفال binaryverseai.com binaryverseai.com. يمكن لأجهزة الأشعة المقطعية التي تعتمد تقنية عدّ الفوتونات أن تقلل من جرعة الأشعة السينية للأطفال، إلا أنها غالبًا ما تنتج صورًا مشوشة؛ حيث تعلم نظام mViT إزالة التشويش من الفحوصات مباشرة، مما يجعل الشرايين والأنسجة أوضح دون التمويه الناتج عن أساليب تقليل الضوضاء القديمة binaryverseai.com binaryverseai.com. وأظهرت الاختبارات التي أُجريت على 20 مريضًا صغيرًا أن الذكاء الاصطناعي تفوق باستمرار على المرشحات التقليدية، مما يسمح على الأرجح بالحصول على فحوصات أكثر وضوحًا وأقل جرعة إشعاعية – وهو مكسب لسلامة المرضى الأطفال مع حصول أجهزة الأشعة المقطعية الجديدة على موافقة إدارة الغذاء والدواء الأمريكية binaryverseai.com.

الاختراقات في علم الأحياء والمواد: تدفع الذكاء الاصطناعي أيضًا العلوم الأساسية إلى الأمام. وصفت دراسة جديدة في Nature Communications كيف يمكن لثلاثة شبكات عصبية الآن تحديد توقيت تطور الأجنة بدقة إلى الدقيقة، وهو إنجاز قد يغير مجال علم الأحياء التطوري binaryverseai.com. من خلال تدريب شبكات عصبية التففية على صور عالية الدقة لأجنة ذبابة الفاكهة، تعلم النظام تحديد الإشارات البصرية الدقيقة لدورات انقسام الخلايا. يمكنه معرفة عمر الجنين (بدقة ±1 دقيقة) دون استخدام علامات فلورية تدخلية – محققًا دقة 98–100% في الأجنة في المراحل المبكرة binaryverseai.com binaryverseai.com. هذا “ساعة الجنين” بالذكاء الاصطناعي مكنت الفريق من رسم خرائط طفرات تنشيط الجينات بدقة زمنية غير مسبوقة، مما يوفر لعلماء الأحياء أداة قوية جديدة لدراسة كيفية تشكل الأعضاء. في علم المواد، قدم باحثون من المملكة المتحدة نموذج “CrystalGPT”، المدرب على 706,000 بنية بلورية، للتنبؤ بخصائص المواد. من خلال فهمه لـ”لغة” البلورات الجزيئية (عبر ألغاز الذرات المخفية وتحديات التناظر)، يمكن لـ CrystalGPT التنبؤ بكثافة أو مسامية أو استقرار مركب جديد بسرعة أكبر بكثير من المحاكاة التقليدية binaryverseai.com binaryverseai.com. يشيد الخبراء بشفافيته – حيث تُبرز الذكاء الاصطناعي حتى أي الأحياء الذرية أثرت أكثر في التنبؤ – ما يمنح الكيميائيين الثقة بدلاً من تخمين الصندوق الأسود binaryverseai.com. يمكن أن تسرع النمذجة البلورية الأسرع التقدم في البطاريات والعوامل المساعدة ومواد أشباه الموصلات، مما يقلل أوقات وتكاليف البحث والتطوير.

الذكاء الاصطناعي للبرمجة – مع بعض التحفظات: لم تكن جميع الأبحاث وردية؛ فقد قدمت دراسة واحدة رؤية واقعية حول مساعدي البرمجة بالذكاء الاصطناعي. ففي تجربة محكومة، استغرق مطورو البرمجيات ذوو الخبرة وقتاً أطول بنسبة 19% في إنجاز مهمة باستخدام مساعد ذكاء اصطناعي مقارنةً بمجموعة ضابطة بدون ذكاء اصطناعي ts2.tech. كان المبرمجون المتمرسون يتوقعون أن يساعدهم الذكاء الاصطناعي (أداة اقتراح الشيفرة) على إنجاز العمل بشكل أسرع، لكنه غالباً ما كان يعطي شيفرات “صحيحة من حيث التوجه العام، لكنها ليست بالضبط ما هو مطلوبts2.tech. وقد أُهدر الوقت في مراجعة هذه الاقتراحات وتصحيحها. في المقابل، أظهرت دراسات سابقة زيادات كبيرة في السرعة للمبرمجين الأقل خبرة في المهام الأسهل. “إنه أشبه بتحرير مقالة أكثر من كونه كتابة من البداية،” قال أحد المبرمجين المخضرمين حول أسلوب العمل بمساعدة الذكاء الاصطناعي – ربما أكثر استرخاءً، لكنه أبطأ ts2.tech. وخلص الباحثون في METR إلى أن المساعدات الذكية الحالية ليست عصا سحرية لزيادة إنتاجية الخبراء في البرمجة المعقدة، وأن هناك حاجة لمزيد من التحسين والمراقبة البشرية ts2.tech. هذا الاستنتاج المتوازن يهدئ من الاندفاع نحو نشر الذكاء الاصطناعي المولّد للشيفرات لجميع المبرمجين.

التطلع داخل “عقل” الذكاء الاصطناعي: نشر اتحاد من كبار علماء الذكاء الاصطناعي (من OpenAI وDeepMind وAnthropic وأفضل الجامعات) ورقة بحثية بارزة يدعون فيها إلى ابتكار تقنيات جديدة لـمراقبة “تَسَلْسُل التفكير” في الذكاء الاصطناعي – وهي في الأساس خطوات التفكير الخفية التي يولدها نماذج الذكاء الاصطناعي داخليًا ts2.tech. ومع تحول أنظمة الذكاء الاصطناعي إلى المزيد من الاستقلالية (كما هي الحال مع العملاء الذين يظهرون الآن)، يجادل المؤلفون بأن القدرة على الاطلاع على تلك الأفكار الوسيطة قد يكون أمرًا حيويًا للسلامة ts2.tech. فمن خلال مراقبة تسلسل تفكير الذكاء الاصطناعي خطوة بخطوة، قد يتمكن المطورون من اكتشاف الأخطاء أو الميل إلى طرق خطرة قبل أن يتصرف الذكاء الاصطناعي. ومع ذلك، تحذر الورقة من أنه مع تزايد تعقيد النماذج، “لا يوجد ضمان بأن درجة الشفافية الحالية ستستمر” – فقد تقوم نماذج الذكاء الاصطناعي المستقبلية بإضمار تفكيرها بشكل لا يمكن تتبعه بسهولة ts2.tech. وقد حث الفريق المجتمع العلمي على “الاستفادة القصوى من إمكانية مراقبة تسلسل التفكير” الآن والسعي إلى الحفاظ على الشفافية مستقبلًا ts2.tech. ومن الجدير بالذكر أن هذه الدعوة للعمل شارك في توقيعها مجموعة من كبار علماء الذكاء الاصطناعي – بمن فيهم جيفري هينتون، والعالم الرئيسي في OpenAI إيليا سوتسكيفر (ورئيس التوافق جان ليك)، والمؤسس المشارك لـDeepMind شين ليج، وآخرون ts2.tech. إنه عرض نادر للوحدة بين مختبرات متنافسة، يعكس قلقًا مشتركًا: مع اقتراب أنظمة الذكاء الاصطناعي من مستوى التفكير البشري، يجب ألا نسمح لها بأن تصبح “صناديق سوداء” لا يمكن فهمها. البحث في “فحوصات دماغ الذكاء الاصطناعي” – قراءة فكر الذكاء الاصطناعي – قد يصبح ضروريًا بقدر أهمية إنشاء الذكاء الاصطناعي نفسه.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

الذكاء الاصطناعي في الإعلام، الترفيه والصناعات الإبداعية

نتفليكس تتبنى الذكاء الاصطناعي في المؤثرات البصرية: شهدت هوليوود سابقة ملحوظة: فقد كشفت نتفليكس في مكالمة الأرباح الخاصة بها أنها بدأت في استخدام الذكاء الاصطناعي التوليدي في إنتاج المحتوى، بما في ذلك لقطات تم إنشاؤها بالكامل بالذكاء الاصطناعي لأول مرة في عرض من عروض نتفليكس ts2.tech. في السلسلة الأرجنتينية الخيالية العلمية “El Eternauta”، تم إنشاء مشهد كامل لانهيار مبنى باستخدام الذكاء الاصطناعي – وقد تم إنجازه أسرع بعشر مرات وبتكلفة أقل مقارنة باستخدام المؤثرات البصرية التقليدية techcrunch.com. شدد الرئيس التنفيذي المشارك تيد ساراندوس على أن الذكاء الاصطناعي يُستخدم لتمكين المبدعين وليس لاستبدالهم، قائلاً: “الذكاء الاصطناعي يمثل فرصة مذهلة لمساعدة المبدعين على صنع أفلام ومسلسلات أفضل، وليس فقط أرخص … هؤلاء أشخاص حقيقيون ينفذون عملاً حقيقياً بأدوات أفضل.” techcrunch.com وأشار إلى أن فناني نتفليكس يرون بالفعل فوائد في مرحلة التصور المسبق وتخطيط المشاهد. كما تطبق نتفليكس الذكاء الاصطناعي التوليدي خارج نطاق المؤثرات البصرية – حيث تستخدمه لاكتشاف المحتوى بشكل شخصي، وتستعد لإطلاق إعلانات تفاعلية مدعومة بالذكاء الاصطناعي في وقت لاحق من هذا العام techcrunch.com.

الموضة التوليدية وسحر الفيديو: امتدت لمسة الذكاء الاصطناعي الإبداعية إلى عالم الموضة والفيديو. أجرى باحثون في كوريا الجنوبية تجارب على “الموضة التوليدية”، حيث استخدموا ChatGPT للتنبؤ باتجاهات الموضة القادمة وDALL·E 3 لإنشاء أكثر من 100 زي افتراضي لمجموعة خريف/شتاء binaryverseai.com binaryverseai.com. توافقت حوالي ثلثي التصاميم التي أنشأها الذكاء الاصطناعي مع الأنماط السائدة في العالم الواقعي، ما يشير إلى أن النماذج التوليدية قد تكشف عن الاتجاهات قبل المصممين أنفسهم. (لكن الذكاء الاصطناعي تعثر في مفاهيم مُجرّدة مثل التصاميم ذات الهوية الجندرية السائلة، مما يؤكد أن المصممين البشر لا يزالون يمسكون بالبوصلة الإبداعية binaryverseai.com.) وفي تكنولوجيا صناعة الأفلام، كشفت NVIDIA وشركاؤها الجامعيون عن DiffusionRenderer، وهو نظام ذكاء اصطناعي من مرحلتين يدمج بين العرض المعكوس والمتقدم لجعل التأثيرات البصرية المتقدمة متاحة للمبدعين المستقلين binaryverseai.com binaryverseai.com. في أحد العروض التوضيحية، تمكن المستخدم من تصوير مشهد بسيط ثم إدخال تنين رسوم متحركة ينتج ظلالاً واقعية تماماً دون الحاجة إلى حساسات معقدة أو إعدادات إضاءة يدوية – فقد تعلم الذكاء الاصطناعي هندسة وإضاءة المشهد من اللقطات نفسها binaryverseai.com binaryverseai.com. والنتيجة تضيق الفجوة بين استوديوهات الإنتاج الكبرى والمبدعين الصغار، وتلمّح لمستقبل تحرير فيديو يكاد يكون “سحرياً” متاحاً للجميع.

التمويل، الأعمال والاستثمار في الذكاء الاصطناعي

الذكاء الاصطناعي المصمم للقطاع المالي: شهد القطاع المالي اختراقات متزايدة للذكاء الاصطناعي في المنتجات والأرباح. أطلقت شركة Anthropic خدمة Claude للخدمات المالية، وهو إصدار من مساعد الذكاء الاصطناعي Claude-4 مخصص لمحللي السوق والمصرفيين. وتدعي Anthropic أن Claude-4 يتفوق على النماذج المتقدمة الأخرى في مهام التمويل، استنادًا إلى معايير الصناعة anthropic.com. يمكن للمنصة الاتصال بالبيانات المباشرة للأسواق (عبر شركاء مثل بلومبرغ وFactSet وغيرهم) والتعامل مع أحمال العمل الكبيرة من نمذجة المخاطر حتى الأعمال الورقية للامتثال. ويبلغ المستخدمون الأوائل عن مكاسب كبيرة – على سبيل المثال، قال الرئيس التنفيذي لصندوق الثروة السيادي النرويجي البالغ قيمته 1.4 تريليون دولار (NBIM) إن Claude قد “غير بشكل جذري” سير العمل لديهم، حيث وفر ما يقدر بـزيادة في الإنتاجية بنسبة 20% (حوالي 213,000 ساعة عمل تم توفيرها) من خلال تمكين الموظفين من استعلام البيانات وتحليل مكالمات الأرباح بشكل أكثر كفاءة anthropic.com. وأشار إلى أن Claude أصبح “لا غنى عنه” بالنسبة لمحللي ومديري المخاطر في تلك الشركة anthropic.com. كما تستكشف البنوك والصناديق الكبرى المساعدين الذكاء الاصطناعي لتسريع الأبحاث مع تتبع كامل للمراجعات وتلقائية للمهام الروتينية التي عادة ما تعيق عمل الفرق المالية.

وول ستريت تراهن على شركات الذكاء الاصطناعي الناشئة: يواصل المستثمرون ضخ الأموال في مشاريع الذكاء الاصطناعي بقيم مذهلة. وجاءت أخبار هذا الأسبوع بأن Perplexity AI، الشركة الناشئة المعروفة بروبوت الدردشة البحثي المعتمد على الذكاء الاصطناعي، جمعت جولة تمويل جديدة بقيمة 100 مليون دولار، لترتفع قيمتها إلى نحو 18 مليار دولار theindependent.sg. (للمقارنة، كانت قيمة Perplexity تقارب 14 مليار دولار فقط قبل شهرين، ومليار دولار واحد في العام الماضي، مما يعكس الارتفاع الصاروخي في ثروات الذكاء الاصطناعي التوليدي theindependent.sg.) كما ظهرت صناديق جديدة تركز على الذكاء الاصطناعي: فمثلاً، أطلق أحد أوائل المستثمرين في Instacart صندوق “Verified Capital” بمبلغ 175 مليون دولار مخصص لشركات الذكاء الاصطناعي الناشئة (أُعلن عنه في 20 يوليو). وفي مجال الحوسبة السحابية، بدأت الشركات التقليدية في التكيف مع عصر الذكاء الاصطناعي – أحيانًا بشكل مؤلم. فقد أكدت أمازون أنها خفضت عدة مئات من وظائف AWS (معظمها في أدوار الدعم السحابي)، بعد أن حذّر الرئيس التنفيذي آندي جاسي من أن كفاءات الذكاء الاصطناعي ستقلص بعض الوظائف في “طبقة الوسطى” binaryverseai.com. وأشارت رسائل بريد إلكتروني داخلية هذا الأسبوع إلى أن بعض فرق نقل البيانات المتخصصة أصبحت زائدة عن الحاجة – “الدليل المرئي الأول داخل AWS” على الأتمتة المدفوعة بالذكاء الاصطناعي، كما أشارت رويترز binaryverseai.com binaryverseai.com. وقال المحللون إن حتى وحدات التكنولوجيا ذات الهوامش المرتفعة ليست محصنة: “الذكاء الاصطناعي يلتهم المهام التي يتقنها، ثم تقوم الشركات بإعادة توزيع أو الاستغناء عن الموظفين،” كما لاحظ أحدهم بتهكم binaryverseai.com. وعلى الرغم من الأرباح القوية، تواصل عملاق الحوسبة السحابية إعادة الهيكلة، مما يوضح كيف أن مكاسب الإنتاجية من الذكاء الاصطناعي قد تؤدي أيضًا إلى تقليص القوى العاملة فعليًا.

اختراقات في العلوم والرعاية الصحية

تسريع التحليل الطبي: في مجال الرعاية الصحية، تعد اختراقات الذكاء الاصطناعي بتشخيصات أسرع وإجراءات أكثر أمانًا. كشف باحثون من جامعة إنديانا ومستشفيات شريكة عن خط أنابيب “معلوماتية السرطان” مدعوم بالذكاء الاصطناعي يمكنه فحص شرائح علم الأمراض الرقمية والسجلات الصحية الإلكترونية وبيانات الجينوم للإشارة إلى احتمالية الإصابة بالسرطان واقتراح مرحلة الورم. وبحسب الباحث الرئيسي سبيريدون باكاس، فقد قلل نظام الذكاء الاصطناعي بعض إجراءات التشخيص “من أيام إلى ثوانٍ”، حيث صنّف الحالات بسرعة تفوق البشر binaryverseai.com binaryverseai.com. كما كشف الأداة عن ترابطات دقيقة عبر بيانات متعددة الأنماط قد يغفل عنها البشر، على الرغم من إصرار الفريق على أن أطباء علم الأمراض يظلون ضروريين للحالات الصعبة والأحكام النهائية binaryverseai.com. يجسد هذا المشروع اتجاهًا أوسع نحو الطب متعدد الأنماط بالذكاء الاصطناعي الذي يمكنه استيعاب أنواع عديدة من البيانات مرة واحدة. وبالمثل، أفاد أطباء الأشعة بنجاحهم في استخدام نموذج ذكاء اصطناعي يُدعى mViT (محول رؤي معدل) لتحسين فحوصات الأشعة المقطعية للأطفال binaryverseai.com binaryverseai.com. يمكن لأجهزة الأشعة المقطعية التي تعتمد تقنية عدّ الفوتونات أن تقلل من جرعة الأشعة السينية للأطفال، إلا أنها غالبًا ما تنتج صورًا مشوشة؛ حيث تعلم نظام mViT إزالة التشويش من الفحوصات مباشرة، مما يجعل الشرايين والأنسجة أوضح دون التمويه الناتج عن أساليب تقليل الضوضاء القديمة binaryverseai.com binaryverseai.com. وأظهرت الاختبارات التي أُجريت على 20 مريضًا صغيرًا أن الذكاء الاصطناعي تفوق باستمرار على المرشحات التقليدية، مما يسمح على الأرجح بالحصول على فحوصات أكثر وضوحًا وأقل جرعة إشعاعية – وهو مكسب لسلامة المرضى الأطفال مع حصول أجهزة الأشعة المقطعية الجديدة على موافقة إدارة الغذاء والدواء الأمريكية binaryverseai.com.

الاختراقات في علم الأحياء والمواد: تدفع الذكاء الاصطناعي أيضًا العلوم الأساسية إلى الأمام. وصفت دراسة جديدة في Nature Communications كيف يمكن لثلاثة شبكات عصبية الآن تحديد توقيت تطور الأجنة بدقة إلى الدقيقة، وهو إنجاز قد يغير مجال علم الأحياء التطوري binaryverseai.com. من خلال تدريب شبكات عصبية التففية على صور عالية الدقة لأجنة ذبابة الفاكهة، تعلم النظام تحديد الإشارات البصرية الدقيقة لدورات انقسام الخلايا. يمكنه معرفة عمر الجنين (بدقة ±1 دقيقة) دون استخدام علامات فلورية تدخلية – محققًا دقة 98–100% في الأجنة في المراحل المبكرة binaryverseai.com binaryverseai.com. هذا “ساعة الجنين” بالذكاء الاصطناعي مكنت الفريق من رسم خرائط طفرات تنشيط الجينات بدقة زمنية غير مسبوقة، مما يوفر لعلماء الأحياء أداة قوية جديدة لدراسة كيفية تشكل الأعضاء. في علم المواد، قدم باحثون من المملكة المتحدة نموذج “CrystalGPT”، المدرب على 706,000 بنية بلورية، للتنبؤ بخصائص المواد. من خلال فهمه لـ”لغة” البلورات الجزيئية (عبر ألغاز الذرات المخفية وتحديات التناظر)، يمكن لـ CrystalGPT التنبؤ بكثافة أو مسامية أو استقرار مركب جديد بسرعة أكبر بكثير من المحاكاة التقليدية binaryverseai.com binaryverseai.com. يشيد الخبراء بشفافيته – حيث تُبرز الذكاء الاصطناعي حتى أي الأحياء الذرية أثرت أكثر في التنبؤ – ما يمنح الكيميائيين الثقة بدلاً من تخمين الصندوق الأسود binaryverseai.com. يمكن أن تسرع النمذجة البلورية الأسرع التقدم في البطاريات والعوامل المساعدة ومواد أشباه الموصلات، مما يقلل أوقات وتكاليف البحث والتطوير.

الذكاء الاصطناعي للبرمجة – مع بعض التحفظات: لم تكن جميع الأبحاث وردية؛ فقد قدمت دراسة واحدة رؤية واقعية حول مساعدي البرمجة بالذكاء الاصطناعي. ففي تجربة محكومة، استغرق مطورو البرمجيات ذوو الخبرة وقتاً أطول بنسبة 19% في إنجاز مهمة باستخدام مساعد ذكاء اصطناعي مقارنةً بمجموعة ضابطة بدون ذكاء اصطناعي ts2.tech. كان المبرمجون المتمرسون يتوقعون أن يساعدهم الذكاء الاصطناعي (أداة اقتراح الشيفرة) على إنجاز العمل بشكل أسرع، لكنه غالباً ما كان يعطي شيفرات “صحيحة من حيث التوجه العام، لكنها ليست بالضبط ما هو مطلوبts2.tech. وقد أُهدر الوقت في مراجعة هذه الاقتراحات وتصحيحها. في المقابل، أظهرت دراسات سابقة زيادات كبيرة في السرعة للمبرمجين الأقل خبرة في المهام الأسهل. “إنه أشبه بتحرير مقالة أكثر من كونه كتابة من البداية،” قال أحد المبرمجين المخضرمين حول أسلوب العمل بمساعدة الذكاء الاصطناعي – ربما أكثر استرخاءً، لكنه أبطأ ts2.tech. وخلص الباحثون في METR إلى أن المساعدات الذكية الحالية ليست عصا سحرية لزيادة إنتاجية الخبراء في البرمجة المعقدة، وأن هناك حاجة لمزيد من التحسين والمراقبة البشرية ts2.tech. هذا الاستنتاج المتوازن يهدئ من الاندفاع نحو نشر الذكاء الاصطناعي المولّد للشيفرات لجميع المبرمجين.

التطلع داخل “عقل” الذكاء الاصطناعي: نشر اتحاد من كبار علماء الذكاء الاصطناعي (من OpenAI وDeepMind وAnthropic وأفضل الجامعات) ورقة بحثية بارزة يدعون فيها إلى ابتكار تقنيات جديدة لـمراقبة “تَسَلْسُل التفكير” في الذكاء الاصطناعي – وهي في الأساس خطوات التفكير الخفية التي يولدها نماذج الذكاء الاصطناعي داخليًا ts2.tech. ومع تحول أنظمة الذكاء الاصطناعي إلى المزيد من الاستقلالية (كما هي الحال مع العملاء الذين يظهرون الآن)، يجادل المؤلفون بأن القدرة على الاطلاع على تلك الأفكار الوسيطة قد يكون أمرًا حيويًا للسلامة ts2.tech. فمن خلال مراقبة تسلسل تفكير الذكاء الاصطناعي خطوة بخطوة، قد يتمكن المطورون من اكتشاف الأخطاء أو الميل إلى طرق خطرة قبل أن يتصرف الذكاء الاصطناعي. ومع ذلك، تحذر الورقة من أنه مع تزايد تعقيد النماذج، “لا يوجد ضمان بأن درجة الشفافية الحالية ستستمر” – فقد تقوم نماذج الذكاء الاصطناعي المستقبلية بإضمار تفكيرها بشكل لا يمكن تتبعه بسهولة ts2.tech. وقد حث الفريق المجتمع العلمي على “الاستفادة القصوى من إمكانية مراقبة تسلسل التفكير” الآن والسعي إلى الحفاظ على الشفافية مستقبلًا ts2.tech. ومن الجدير بالذكر أن هذه الدعوة للعمل شارك في توقيعها مجموعة من كبار علماء الذكاء الاصطناعي – بمن فيهم جيفري هينتون، والعالم الرئيسي في OpenAI إيليا سوتسكيفر (ورئيس التوافق جان ليك)، والمؤسس المشارك لـDeepMind شين ليج، وآخرون ts2.tech. إنه عرض نادر للوحدة بين مختبرات متنافسة، يعكس قلقًا مشتركًا: مع اقتراب أنظمة الذكاء الاصطناعي من مستوى التفكير البشري، يجب ألا نسمح لها بأن تصبح “صناديق سوداء” لا يمكن فهمها. البحث في “فحوصات دماغ الذكاء الاصطناعي” – قراءة فكر الذكاء الاصطناعي – قد يصبح ضروريًا بقدر أهمية إنشاء الذكاء الاصطناعي نفسه.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

اختراقات في العلوم والرعاية الصحية

تسريع التحليل الطبي: في مجال الرعاية الصحية، تعد اختراقات الذكاء الاصطناعي بتشخيصات أسرع وإجراءات أكثر أمانًا. كشف باحثون من جامعة إنديانا ومستشفيات شريكة عن خط أنابيب “معلوماتية السرطان” مدعوم بالذكاء الاصطناعي يمكنه فحص شرائح علم الأمراض الرقمية والسجلات الصحية الإلكترونية وبيانات الجينوم للإشارة إلى احتمالية الإصابة بالسرطان واقتراح مرحلة الورم. وبحسب الباحث الرئيسي سبيريدون باكاس، فقد قلل نظام الذكاء الاصطناعي بعض إجراءات التشخيص “من أيام إلى ثوانٍ”، حيث صنّف الحالات بسرعة تفوق البشر binaryverseai.com binaryverseai.com. كما كشف الأداة عن ترابطات دقيقة عبر بيانات متعددة الأنماط قد يغفل عنها البشر، على الرغم من إصرار الفريق على أن أطباء علم الأمراض يظلون ضروريين للحالات الصعبة والأحكام النهائية binaryverseai.com. يجسد هذا المشروع اتجاهًا أوسع نحو الطب متعدد الأنماط بالذكاء الاصطناعي الذي يمكنه استيعاب أنواع عديدة من البيانات مرة واحدة. وبالمثل، أفاد أطباء الأشعة بنجاحهم في استخدام نموذج ذكاء اصطناعي يُدعى mViT (محول رؤي معدل) لتحسين فحوصات الأشعة المقطعية للأطفال binaryverseai.com binaryverseai.com. يمكن لأجهزة الأشعة المقطعية التي تعتمد تقنية عدّ الفوتونات أن تقلل من جرعة الأشعة السينية للأطفال، إلا أنها غالبًا ما تنتج صورًا مشوشة؛ حيث تعلم نظام mViT إزالة التشويش من الفحوصات مباشرة، مما يجعل الشرايين والأنسجة أوضح دون التمويه الناتج عن أساليب تقليل الضوضاء القديمة binaryverseai.com binaryverseai.com. وأظهرت الاختبارات التي أُجريت على 20 مريضًا صغيرًا أن الذكاء الاصطناعي تفوق باستمرار على المرشحات التقليدية، مما يسمح على الأرجح بالحصول على فحوصات أكثر وضوحًا وأقل جرعة إشعاعية – وهو مكسب لسلامة المرضى الأطفال مع حصول أجهزة الأشعة المقطعية الجديدة على موافقة إدارة الغذاء والدواء الأمريكية binaryverseai.com.

الاختراقات في علم الأحياء والمواد: تدفع الذكاء الاصطناعي أيضًا العلوم الأساسية إلى الأمام. وصفت دراسة جديدة في Nature Communications كيف يمكن لثلاثة شبكات عصبية الآن تحديد توقيت تطور الأجنة بدقة إلى الدقيقة، وهو إنجاز قد يغير مجال علم الأحياء التطوري binaryverseai.com. من خلال تدريب شبكات عصبية التففية على صور عالية الدقة لأجنة ذبابة الفاكهة، تعلم النظام تحديد الإشارات البصرية الدقيقة لدورات انقسام الخلايا. يمكنه معرفة عمر الجنين (بدقة ±1 دقيقة) دون استخدام علامات فلورية تدخلية – محققًا دقة 98–100% في الأجنة في المراحل المبكرة binaryverseai.com binaryverseai.com. هذا “ساعة الجنين” بالذكاء الاصطناعي مكنت الفريق من رسم خرائط طفرات تنشيط الجينات بدقة زمنية غير مسبوقة، مما يوفر لعلماء الأحياء أداة قوية جديدة لدراسة كيفية تشكل الأعضاء. في علم المواد، قدم باحثون من المملكة المتحدة نموذج “CrystalGPT”، المدرب على 706,000 بنية بلورية، للتنبؤ بخصائص المواد. من خلال فهمه لـ”لغة” البلورات الجزيئية (عبر ألغاز الذرات المخفية وتحديات التناظر)، يمكن لـ CrystalGPT التنبؤ بكثافة أو مسامية أو استقرار مركب جديد بسرعة أكبر بكثير من المحاكاة التقليدية binaryverseai.com binaryverseai.com. يشيد الخبراء بشفافيته – حيث تُبرز الذكاء الاصطناعي حتى أي الأحياء الذرية أثرت أكثر في التنبؤ – ما يمنح الكيميائيين الثقة بدلاً من تخمين الصندوق الأسود binaryverseai.com. يمكن أن تسرع النمذجة البلورية الأسرع التقدم في البطاريات والعوامل المساعدة ومواد أشباه الموصلات، مما يقلل أوقات وتكاليف البحث والتطوير.

الذكاء الاصطناعي للبرمجة – مع بعض التحفظات: لم تكن جميع الأبحاث وردية؛ فقد قدمت دراسة واحدة رؤية واقعية حول مساعدي البرمجة بالذكاء الاصطناعي. ففي تجربة محكومة، استغرق مطورو البرمجيات ذوو الخبرة وقتاً أطول بنسبة 19% في إنجاز مهمة باستخدام مساعد ذكاء اصطناعي مقارنةً بمجموعة ضابطة بدون ذكاء اصطناعي ts2.tech. كان المبرمجون المتمرسون يتوقعون أن يساعدهم الذكاء الاصطناعي (أداة اقتراح الشيفرة) على إنجاز العمل بشكل أسرع، لكنه غالباً ما كان يعطي شيفرات “صحيحة من حيث التوجه العام، لكنها ليست بالضبط ما هو مطلوبts2.tech. وقد أُهدر الوقت في مراجعة هذه الاقتراحات وتصحيحها. في المقابل، أظهرت دراسات سابقة زيادات كبيرة في السرعة للمبرمجين الأقل خبرة في المهام الأسهل. “إنه أشبه بتحرير مقالة أكثر من كونه كتابة من البداية،” قال أحد المبرمجين المخضرمين حول أسلوب العمل بمساعدة الذكاء الاصطناعي – ربما أكثر استرخاءً، لكنه أبطأ ts2.tech. وخلص الباحثون في METR إلى أن المساعدات الذكية الحالية ليست عصا سحرية لزيادة إنتاجية الخبراء في البرمجة المعقدة، وأن هناك حاجة لمزيد من التحسين والمراقبة البشرية ts2.tech. هذا الاستنتاج المتوازن يهدئ من الاندفاع نحو نشر الذكاء الاصطناعي المولّد للشيفرات لجميع المبرمجين.

التطلع داخل “عقل” الذكاء الاصطناعي: نشر اتحاد من كبار علماء الذكاء الاصطناعي (من OpenAI وDeepMind وAnthropic وأفضل الجامعات) ورقة بحثية بارزة يدعون فيها إلى ابتكار تقنيات جديدة لـمراقبة “تَسَلْسُل التفكير” في الذكاء الاصطناعي – وهي في الأساس خطوات التفكير الخفية التي يولدها نماذج الذكاء الاصطناعي داخليًا ts2.tech. ومع تحول أنظمة الذكاء الاصطناعي إلى المزيد من الاستقلالية (كما هي الحال مع العملاء الذين يظهرون الآن)، يجادل المؤلفون بأن القدرة على الاطلاع على تلك الأفكار الوسيطة قد يكون أمرًا حيويًا للسلامة ts2.tech. فمن خلال مراقبة تسلسل تفكير الذكاء الاصطناعي خطوة بخطوة، قد يتمكن المطورون من اكتشاف الأخطاء أو الميل إلى طرق خطرة قبل أن يتصرف الذكاء الاصطناعي. ومع ذلك، تحذر الورقة من أنه مع تزايد تعقيد النماذج، “لا يوجد ضمان بأن درجة الشفافية الحالية ستستمر” – فقد تقوم نماذج الذكاء الاصطناعي المستقبلية بإضمار تفكيرها بشكل لا يمكن تتبعه بسهولة ts2.tech. وقد حث الفريق المجتمع العلمي على “الاستفادة القصوى من إمكانية مراقبة تسلسل التفكير” الآن والسعي إلى الحفاظ على الشفافية مستقبلًا ts2.tech. ومن الجدير بالذكر أن هذه الدعوة للعمل شارك في توقيعها مجموعة من كبار علماء الذكاء الاصطناعي – بمن فيهم جيفري هينتون، والعالم الرئيسي في OpenAI إيليا سوتسكيفر (ورئيس التوافق جان ليك)، والمؤسس المشارك لـDeepMind شين ليج، وآخرون ts2.tech. إنه عرض نادر للوحدة بين مختبرات متنافسة، يعكس قلقًا مشتركًا: مع اقتراب أنظمة الذكاء الاصطناعي من مستوى التفكير البشري، يجب ألا نسمح لها بأن تصبح “صناديق سوداء” لا يمكن فهمها. البحث في “فحوصات دماغ الذكاء الاصطناعي” – قراءة فكر الذكاء الاصطناعي – قد يصبح ضروريًا بقدر أهمية إنشاء الذكاء الاصطناعي نفسه.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

التمويل، الأعمال والاستثمار في الذكاء الاصطناعي

الذكاء الاصطناعي المصمم للقطاع المالي: شهد القطاع المالي اختراقات متزايدة للذكاء الاصطناعي في المنتجات والأرباح. أطلقت شركة Anthropic خدمة Claude للخدمات المالية، وهو إصدار من مساعد الذكاء الاصطناعي Claude-4 مخصص لمحللي السوق والمصرفيين. وتدعي Anthropic أن Claude-4 يتفوق على النماذج المتقدمة الأخرى في مهام التمويل، استنادًا إلى معايير الصناعة anthropic.com. يمكن للمنصة الاتصال بالبيانات المباشرة للأسواق (عبر شركاء مثل بلومبرغ وFactSet وغيرهم) والتعامل مع أحمال العمل الكبيرة من نمذجة المخاطر حتى الأعمال الورقية للامتثال. ويبلغ المستخدمون الأوائل عن مكاسب كبيرة – على سبيل المثال، قال الرئيس التنفيذي لصندوق الثروة السيادي النرويجي البالغ قيمته 1.4 تريليون دولار (NBIM) إن Claude قد “غير بشكل جذري” سير العمل لديهم، حيث وفر ما يقدر بـزيادة في الإنتاجية بنسبة 20% (حوالي 213,000 ساعة عمل تم توفيرها) من خلال تمكين الموظفين من استعلام البيانات وتحليل مكالمات الأرباح بشكل أكثر كفاءة anthropic.com. وأشار إلى أن Claude أصبح “لا غنى عنه” بالنسبة لمحللي ومديري المخاطر في تلك الشركة anthropic.com. كما تستكشف البنوك والصناديق الكبرى المساعدين الذكاء الاصطناعي لتسريع الأبحاث مع تتبع كامل للمراجعات وتلقائية للمهام الروتينية التي عادة ما تعيق عمل الفرق المالية.

وول ستريت تراهن على شركات الذكاء الاصطناعي الناشئة: يواصل المستثمرون ضخ الأموال في مشاريع الذكاء الاصطناعي بقيم مذهلة. وجاءت أخبار هذا الأسبوع بأن Perplexity AI، الشركة الناشئة المعروفة بروبوت الدردشة البحثي المعتمد على الذكاء الاصطناعي، جمعت جولة تمويل جديدة بقيمة 100 مليون دولار، لترتفع قيمتها إلى نحو 18 مليار دولار theindependent.sg. (للمقارنة، كانت قيمة Perplexity تقارب 14 مليار دولار فقط قبل شهرين، ومليار دولار واحد في العام الماضي، مما يعكس الارتفاع الصاروخي في ثروات الذكاء الاصطناعي التوليدي theindependent.sg.) كما ظهرت صناديق جديدة تركز على الذكاء الاصطناعي: فمثلاً، أطلق أحد أوائل المستثمرين في Instacart صندوق “Verified Capital” بمبلغ 175 مليون دولار مخصص لشركات الذكاء الاصطناعي الناشئة (أُعلن عنه في 20 يوليو). وفي مجال الحوسبة السحابية، بدأت الشركات التقليدية في التكيف مع عصر الذكاء الاصطناعي – أحيانًا بشكل مؤلم. فقد أكدت أمازون أنها خفضت عدة مئات من وظائف AWS (معظمها في أدوار الدعم السحابي)، بعد أن حذّر الرئيس التنفيذي آندي جاسي من أن كفاءات الذكاء الاصطناعي ستقلص بعض الوظائف في “طبقة الوسطى” binaryverseai.com. وأشارت رسائل بريد إلكتروني داخلية هذا الأسبوع إلى أن بعض فرق نقل البيانات المتخصصة أصبحت زائدة عن الحاجة – “الدليل المرئي الأول داخل AWS” على الأتمتة المدفوعة بالذكاء الاصطناعي، كما أشارت رويترز binaryverseai.com binaryverseai.com. وقال المحللون إن حتى وحدات التكنولوجيا ذات الهوامش المرتفعة ليست محصنة: “الذكاء الاصطناعي يلتهم المهام التي يتقنها، ثم تقوم الشركات بإعادة توزيع أو الاستغناء عن الموظفين،” كما لاحظ أحدهم بتهكم binaryverseai.com. وعلى الرغم من الأرباح القوية، تواصل عملاق الحوسبة السحابية إعادة الهيكلة، مما يوضح كيف أن مكاسب الإنتاجية من الذكاء الاصطناعي قد تؤدي أيضًا إلى تقليص القوى العاملة فعليًا.

اختراقات في العلوم والرعاية الصحية

تسريع التحليل الطبي: في مجال الرعاية الصحية، تعد اختراقات الذكاء الاصطناعي بتشخيصات أسرع وإجراءات أكثر أمانًا. كشف باحثون من جامعة إنديانا ومستشفيات شريكة عن خط أنابيب “معلوماتية السرطان” مدعوم بالذكاء الاصطناعي يمكنه فحص شرائح علم الأمراض الرقمية والسجلات الصحية الإلكترونية وبيانات الجينوم للإشارة إلى احتمالية الإصابة بالسرطان واقتراح مرحلة الورم. وبحسب الباحث الرئيسي سبيريدون باكاس، فقد قلل نظام الذكاء الاصطناعي بعض إجراءات التشخيص “من أيام إلى ثوانٍ”، حيث صنّف الحالات بسرعة تفوق البشر binaryverseai.com binaryverseai.com. كما كشف الأداة عن ترابطات دقيقة عبر بيانات متعددة الأنماط قد يغفل عنها البشر، على الرغم من إصرار الفريق على أن أطباء علم الأمراض يظلون ضروريين للحالات الصعبة والأحكام النهائية binaryverseai.com. يجسد هذا المشروع اتجاهًا أوسع نحو الطب متعدد الأنماط بالذكاء الاصطناعي الذي يمكنه استيعاب أنواع عديدة من البيانات مرة واحدة. وبالمثل، أفاد أطباء الأشعة بنجاحهم في استخدام نموذج ذكاء اصطناعي يُدعى mViT (محول رؤي معدل) لتحسين فحوصات الأشعة المقطعية للأطفال binaryverseai.com binaryverseai.com. يمكن لأجهزة الأشعة المقطعية التي تعتمد تقنية عدّ الفوتونات أن تقلل من جرعة الأشعة السينية للأطفال، إلا أنها غالبًا ما تنتج صورًا مشوشة؛ حيث تعلم نظام mViT إزالة التشويش من الفحوصات مباشرة، مما يجعل الشرايين والأنسجة أوضح دون التمويه الناتج عن أساليب تقليل الضوضاء القديمة binaryverseai.com binaryverseai.com. وأظهرت الاختبارات التي أُجريت على 20 مريضًا صغيرًا أن الذكاء الاصطناعي تفوق باستمرار على المرشحات التقليدية، مما يسمح على الأرجح بالحصول على فحوصات أكثر وضوحًا وأقل جرعة إشعاعية – وهو مكسب لسلامة المرضى الأطفال مع حصول أجهزة الأشعة المقطعية الجديدة على موافقة إدارة الغذاء والدواء الأمريكية binaryverseai.com.

الاختراقات في علم الأحياء والمواد: تدفع الذكاء الاصطناعي أيضًا العلوم الأساسية إلى الأمام. وصفت دراسة جديدة في Nature Communications كيف يمكن لثلاثة شبكات عصبية الآن تحديد توقيت تطور الأجنة بدقة إلى الدقيقة، وهو إنجاز قد يغير مجال علم الأحياء التطوري binaryverseai.com. من خلال تدريب شبكات عصبية التففية على صور عالية الدقة لأجنة ذبابة الفاكهة، تعلم النظام تحديد الإشارات البصرية الدقيقة لدورات انقسام الخلايا. يمكنه معرفة عمر الجنين (بدقة ±1 دقيقة) دون استخدام علامات فلورية تدخلية – محققًا دقة 98–100% في الأجنة في المراحل المبكرة binaryverseai.com binaryverseai.com. هذا “ساعة الجنين” بالذكاء الاصطناعي مكنت الفريق من رسم خرائط طفرات تنشيط الجينات بدقة زمنية غير مسبوقة، مما يوفر لعلماء الأحياء أداة قوية جديدة لدراسة كيفية تشكل الأعضاء. في علم المواد، قدم باحثون من المملكة المتحدة نموذج “CrystalGPT”، المدرب على 706,000 بنية بلورية، للتنبؤ بخصائص المواد. من خلال فهمه لـ”لغة” البلورات الجزيئية (عبر ألغاز الذرات المخفية وتحديات التناظر)، يمكن لـ CrystalGPT التنبؤ بكثافة أو مسامية أو استقرار مركب جديد بسرعة أكبر بكثير من المحاكاة التقليدية binaryverseai.com binaryverseai.com. يشيد الخبراء بشفافيته – حيث تُبرز الذكاء الاصطناعي حتى أي الأحياء الذرية أثرت أكثر في التنبؤ – ما يمنح الكيميائيين الثقة بدلاً من تخمين الصندوق الأسود binaryverseai.com. يمكن أن تسرع النمذجة البلورية الأسرع التقدم في البطاريات والعوامل المساعدة ومواد أشباه الموصلات، مما يقلل أوقات وتكاليف البحث والتطوير.

الذكاء الاصطناعي للبرمجة – مع بعض التحفظات: لم تكن جميع الأبحاث وردية؛ فقد قدمت دراسة واحدة رؤية واقعية حول مساعدي البرمجة بالذكاء الاصطناعي. ففي تجربة محكومة، استغرق مطورو البرمجيات ذوو الخبرة وقتاً أطول بنسبة 19% في إنجاز مهمة باستخدام مساعد ذكاء اصطناعي مقارنةً بمجموعة ضابطة بدون ذكاء اصطناعي ts2.tech. كان المبرمجون المتمرسون يتوقعون أن يساعدهم الذكاء الاصطناعي (أداة اقتراح الشيفرة) على إنجاز العمل بشكل أسرع، لكنه غالباً ما كان يعطي شيفرات “صحيحة من حيث التوجه العام، لكنها ليست بالضبط ما هو مطلوبts2.tech. وقد أُهدر الوقت في مراجعة هذه الاقتراحات وتصحيحها. في المقابل، أظهرت دراسات سابقة زيادات كبيرة في السرعة للمبرمجين الأقل خبرة في المهام الأسهل. “إنه أشبه بتحرير مقالة أكثر من كونه كتابة من البداية،” قال أحد المبرمجين المخضرمين حول أسلوب العمل بمساعدة الذكاء الاصطناعي – ربما أكثر استرخاءً، لكنه أبطأ ts2.tech. وخلص الباحثون في METR إلى أن المساعدات الذكية الحالية ليست عصا سحرية لزيادة إنتاجية الخبراء في البرمجة المعقدة، وأن هناك حاجة لمزيد من التحسين والمراقبة البشرية ts2.tech. هذا الاستنتاج المتوازن يهدئ من الاندفاع نحو نشر الذكاء الاصطناعي المولّد للشيفرات لجميع المبرمجين.

التطلع داخل “عقل” الذكاء الاصطناعي: نشر اتحاد من كبار علماء الذكاء الاصطناعي (من OpenAI وDeepMind وAnthropic وأفضل الجامعات) ورقة بحثية بارزة يدعون فيها إلى ابتكار تقنيات جديدة لـمراقبة “تَسَلْسُل التفكير” في الذكاء الاصطناعي – وهي في الأساس خطوات التفكير الخفية التي يولدها نماذج الذكاء الاصطناعي داخليًا ts2.tech. ومع تحول أنظمة الذكاء الاصطناعي إلى المزيد من الاستقلالية (كما هي الحال مع العملاء الذين يظهرون الآن)، يجادل المؤلفون بأن القدرة على الاطلاع على تلك الأفكار الوسيطة قد يكون أمرًا حيويًا للسلامة ts2.tech. فمن خلال مراقبة تسلسل تفكير الذكاء الاصطناعي خطوة بخطوة، قد يتمكن المطورون من اكتشاف الأخطاء أو الميل إلى طرق خطرة قبل أن يتصرف الذكاء الاصطناعي. ومع ذلك، تحذر الورقة من أنه مع تزايد تعقيد النماذج، “لا يوجد ضمان بأن درجة الشفافية الحالية ستستمر” – فقد تقوم نماذج الذكاء الاصطناعي المستقبلية بإضمار تفكيرها بشكل لا يمكن تتبعه بسهولة ts2.tech. وقد حث الفريق المجتمع العلمي على “الاستفادة القصوى من إمكانية مراقبة تسلسل التفكير” الآن والسعي إلى الحفاظ على الشفافية مستقبلًا ts2.tech. ومن الجدير بالذكر أن هذه الدعوة للعمل شارك في توقيعها مجموعة من كبار علماء الذكاء الاصطناعي – بمن فيهم جيفري هينتون، والعالم الرئيسي في OpenAI إيليا سوتسكيفر (ورئيس التوافق جان ليك)، والمؤسس المشارك لـDeepMind شين ليج، وآخرون ts2.tech. إنه عرض نادر للوحدة بين مختبرات متنافسة، يعكس قلقًا مشتركًا: مع اقتراب أنظمة الذكاء الاصطناعي من مستوى التفكير البشري، يجب ألا نسمح لها بأن تصبح “صناديق سوداء” لا يمكن فهمها. البحث في “فحوصات دماغ الذكاء الاصطناعي” – قراءة فكر الذكاء الاصطناعي – قد يصبح ضروريًا بقدر أهمية إنشاء الذكاء الاصطناعي نفسه.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

الذكاء الاصطناعي في الإعلام، الترفيه والصناعات الإبداعية

نتفليكس تتبنى الذكاء الاصطناعي في المؤثرات البصرية: شهدت هوليوود سابقة ملحوظة: فقد كشفت نتفليكس في مكالمة الأرباح الخاصة بها أنها بدأت في استخدام الذكاء الاصطناعي التوليدي في إنتاج المحتوى، بما في ذلك لقطات تم إنشاؤها بالكامل بالذكاء الاصطناعي لأول مرة في عرض من عروض نتفليكس ts2.tech. في السلسلة الأرجنتينية الخيالية العلمية “El Eternauta”، تم إنشاء مشهد كامل لانهيار مبنى باستخدام الذكاء الاصطناعي – وقد تم إنجازه أسرع بعشر مرات وبتكلفة أقل مقارنة باستخدام المؤثرات البصرية التقليدية techcrunch.com. شدد الرئيس التنفيذي المشارك تيد ساراندوس على أن الذكاء الاصطناعي يُستخدم لتمكين المبدعين وليس لاستبدالهم، قائلاً: “الذكاء الاصطناعي يمثل فرصة مذهلة لمساعدة المبدعين على صنع أفلام ومسلسلات أفضل، وليس فقط أرخص … هؤلاء أشخاص حقيقيون ينفذون عملاً حقيقياً بأدوات أفضل.” techcrunch.com وأشار إلى أن فناني نتفليكس يرون بالفعل فوائد في مرحلة التصور المسبق وتخطيط المشاهد. كما تطبق نتفليكس الذكاء الاصطناعي التوليدي خارج نطاق المؤثرات البصرية – حيث تستخدمه لاكتشاف المحتوى بشكل شخصي، وتستعد لإطلاق إعلانات تفاعلية مدعومة بالذكاء الاصطناعي في وقت لاحق من هذا العام techcrunch.com.

الموضة التوليدية وسحر الفيديو: امتدت لمسة الذكاء الاصطناعي الإبداعية إلى عالم الموضة والفيديو. أجرى باحثون في كوريا الجنوبية تجارب على “الموضة التوليدية”، حيث استخدموا ChatGPT للتنبؤ باتجاهات الموضة القادمة وDALL·E 3 لإنشاء أكثر من 100 زي افتراضي لمجموعة خريف/شتاء binaryverseai.com binaryverseai.com. توافقت حوالي ثلثي التصاميم التي أنشأها الذكاء الاصطناعي مع الأنماط السائدة في العالم الواقعي، ما يشير إلى أن النماذج التوليدية قد تكشف عن الاتجاهات قبل المصممين أنفسهم. (لكن الذكاء الاصطناعي تعثر في مفاهيم مُجرّدة مثل التصاميم ذات الهوية الجندرية السائلة، مما يؤكد أن المصممين البشر لا يزالون يمسكون بالبوصلة الإبداعية binaryverseai.com.) وفي تكنولوجيا صناعة الأفلام، كشفت NVIDIA وشركاؤها الجامعيون عن DiffusionRenderer، وهو نظام ذكاء اصطناعي من مرحلتين يدمج بين العرض المعكوس والمتقدم لجعل التأثيرات البصرية المتقدمة متاحة للمبدعين المستقلين binaryverseai.com binaryverseai.com. في أحد العروض التوضيحية، تمكن المستخدم من تصوير مشهد بسيط ثم إدخال تنين رسوم متحركة ينتج ظلالاً واقعية تماماً دون الحاجة إلى حساسات معقدة أو إعدادات إضاءة يدوية – فقد تعلم الذكاء الاصطناعي هندسة وإضاءة المشهد من اللقطات نفسها binaryverseai.com binaryverseai.com. والنتيجة تضيق الفجوة بين استوديوهات الإنتاج الكبرى والمبدعين الصغار، وتلمّح لمستقبل تحرير فيديو يكاد يكون “سحرياً” متاحاً للجميع.

التمويل، الأعمال والاستثمار في الذكاء الاصطناعي

الذكاء الاصطناعي المصمم للقطاع المالي: شهد القطاع المالي اختراقات متزايدة للذكاء الاصطناعي في المنتجات والأرباح. أطلقت شركة Anthropic خدمة Claude للخدمات المالية، وهو إصدار من مساعد الذكاء الاصطناعي Claude-4 مخصص لمحللي السوق والمصرفيين. وتدعي Anthropic أن Claude-4 يتفوق على النماذج المتقدمة الأخرى في مهام التمويل، استنادًا إلى معايير الصناعة anthropic.com. يمكن للمنصة الاتصال بالبيانات المباشرة للأسواق (عبر شركاء مثل بلومبرغ وFactSet وغيرهم) والتعامل مع أحمال العمل الكبيرة من نمذجة المخاطر حتى الأعمال الورقية للامتثال. ويبلغ المستخدمون الأوائل عن مكاسب كبيرة – على سبيل المثال، قال الرئيس التنفيذي لصندوق الثروة السيادي النرويجي البالغ قيمته 1.4 تريليون دولار (NBIM) إن Claude قد “غير بشكل جذري” سير العمل لديهم، حيث وفر ما يقدر بـزيادة في الإنتاجية بنسبة 20% (حوالي 213,000 ساعة عمل تم توفيرها) من خلال تمكين الموظفين من استعلام البيانات وتحليل مكالمات الأرباح بشكل أكثر كفاءة anthropic.com. وأشار إلى أن Claude أصبح “لا غنى عنه” بالنسبة لمحللي ومديري المخاطر في تلك الشركة anthropic.com. كما تستكشف البنوك والصناديق الكبرى المساعدين الذكاء الاصطناعي لتسريع الأبحاث مع تتبع كامل للمراجعات وتلقائية للمهام الروتينية التي عادة ما تعيق عمل الفرق المالية.

وول ستريت تراهن على شركات الذكاء الاصطناعي الناشئة: يواصل المستثمرون ضخ الأموال في مشاريع الذكاء الاصطناعي بقيم مذهلة. وجاءت أخبار هذا الأسبوع بأن Perplexity AI، الشركة الناشئة المعروفة بروبوت الدردشة البحثي المعتمد على الذكاء الاصطناعي، جمعت جولة تمويل جديدة بقيمة 100 مليون دولار، لترتفع قيمتها إلى نحو 18 مليار دولار theindependent.sg. (للمقارنة، كانت قيمة Perplexity تقارب 14 مليار دولار فقط قبل شهرين، ومليار دولار واحد في العام الماضي، مما يعكس الارتفاع الصاروخي في ثروات الذكاء الاصطناعي التوليدي theindependent.sg.) كما ظهرت صناديق جديدة تركز على الذكاء الاصطناعي: فمثلاً، أطلق أحد أوائل المستثمرين في Instacart صندوق “Verified Capital” بمبلغ 175 مليون دولار مخصص لشركات الذكاء الاصطناعي الناشئة (أُعلن عنه في 20 يوليو). وفي مجال الحوسبة السحابية، بدأت الشركات التقليدية في التكيف مع عصر الذكاء الاصطناعي – أحيانًا بشكل مؤلم. فقد أكدت أمازون أنها خفضت عدة مئات من وظائف AWS (معظمها في أدوار الدعم السحابي)، بعد أن حذّر الرئيس التنفيذي آندي جاسي من أن كفاءات الذكاء الاصطناعي ستقلص بعض الوظائف في “طبقة الوسطى” binaryverseai.com. وأشارت رسائل بريد إلكتروني داخلية هذا الأسبوع إلى أن بعض فرق نقل البيانات المتخصصة أصبحت زائدة عن الحاجة – “الدليل المرئي الأول داخل AWS” على الأتمتة المدفوعة بالذكاء الاصطناعي، كما أشارت رويترز binaryverseai.com binaryverseai.com. وقال المحللون إن حتى وحدات التكنولوجيا ذات الهوامش المرتفعة ليست محصنة: “الذكاء الاصطناعي يلتهم المهام التي يتقنها، ثم تقوم الشركات بإعادة توزيع أو الاستغناء عن الموظفين،” كما لاحظ أحدهم بتهكم binaryverseai.com. وعلى الرغم من الأرباح القوية، تواصل عملاق الحوسبة السحابية إعادة الهيكلة، مما يوضح كيف أن مكاسب الإنتاجية من الذكاء الاصطناعي قد تؤدي أيضًا إلى تقليص القوى العاملة فعليًا.

اختراقات في العلوم والرعاية الصحية

تسريع التحليل الطبي: في مجال الرعاية الصحية، تعد اختراقات الذكاء الاصطناعي بتشخيصات أسرع وإجراءات أكثر أمانًا. كشف باحثون من جامعة إنديانا ومستشفيات شريكة عن خط أنابيب “معلوماتية السرطان” مدعوم بالذكاء الاصطناعي يمكنه فحص شرائح علم الأمراض الرقمية والسجلات الصحية الإلكترونية وبيانات الجينوم للإشارة إلى احتمالية الإصابة بالسرطان واقتراح مرحلة الورم. وبحسب الباحث الرئيسي سبيريدون باكاس، فقد قلل نظام الذكاء الاصطناعي بعض إجراءات التشخيص “من أيام إلى ثوانٍ”، حيث صنّف الحالات بسرعة تفوق البشر binaryverseai.com binaryverseai.com. كما كشف الأداة عن ترابطات دقيقة عبر بيانات متعددة الأنماط قد يغفل عنها البشر، على الرغم من إصرار الفريق على أن أطباء علم الأمراض يظلون ضروريين للحالات الصعبة والأحكام النهائية binaryverseai.com. يجسد هذا المشروع اتجاهًا أوسع نحو الطب متعدد الأنماط بالذكاء الاصطناعي الذي يمكنه استيعاب أنواع عديدة من البيانات مرة واحدة. وبالمثل، أفاد أطباء الأشعة بنجاحهم في استخدام نموذج ذكاء اصطناعي يُدعى mViT (محول رؤي معدل) لتحسين فحوصات الأشعة المقطعية للأطفال binaryverseai.com binaryverseai.com. يمكن لأجهزة الأشعة المقطعية التي تعتمد تقنية عدّ الفوتونات أن تقلل من جرعة الأشعة السينية للأطفال، إلا أنها غالبًا ما تنتج صورًا مشوشة؛ حيث تعلم نظام mViT إزالة التشويش من الفحوصات مباشرة، مما يجعل الشرايين والأنسجة أوضح دون التمويه الناتج عن أساليب تقليل الضوضاء القديمة binaryverseai.com binaryverseai.com. وأظهرت الاختبارات التي أُجريت على 20 مريضًا صغيرًا أن الذكاء الاصطناعي تفوق باستمرار على المرشحات التقليدية، مما يسمح على الأرجح بالحصول على فحوصات أكثر وضوحًا وأقل جرعة إشعاعية – وهو مكسب لسلامة المرضى الأطفال مع حصول أجهزة الأشعة المقطعية الجديدة على موافقة إدارة الغذاء والدواء الأمريكية binaryverseai.com.

الاختراقات في علم الأحياء والمواد: تدفع الذكاء الاصطناعي أيضًا العلوم الأساسية إلى الأمام. وصفت دراسة جديدة في Nature Communications كيف يمكن لثلاثة شبكات عصبية الآن تحديد توقيت تطور الأجنة بدقة إلى الدقيقة، وهو إنجاز قد يغير مجال علم الأحياء التطوري binaryverseai.com. من خلال تدريب شبكات عصبية التففية على صور عالية الدقة لأجنة ذبابة الفاكهة، تعلم النظام تحديد الإشارات البصرية الدقيقة لدورات انقسام الخلايا. يمكنه معرفة عمر الجنين (بدقة ±1 دقيقة) دون استخدام علامات فلورية تدخلية – محققًا دقة 98–100% في الأجنة في المراحل المبكرة binaryverseai.com binaryverseai.com. هذا “ساعة الجنين” بالذكاء الاصطناعي مكنت الفريق من رسم خرائط طفرات تنشيط الجينات بدقة زمنية غير مسبوقة، مما يوفر لعلماء الأحياء أداة قوية جديدة لدراسة كيفية تشكل الأعضاء. في علم المواد، قدم باحثون من المملكة المتحدة نموذج “CrystalGPT”، المدرب على 706,000 بنية بلورية، للتنبؤ بخصائص المواد. من خلال فهمه لـ”لغة” البلورات الجزيئية (عبر ألغاز الذرات المخفية وتحديات التناظر)، يمكن لـ CrystalGPT التنبؤ بكثافة أو مسامية أو استقرار مركب جديد بسرعة أكبر بكثير من المحاكاة التقليدية binaryverseai.com binaryverseai.com. يشيد الخبراء بشفافيته – حيث تُبرز الذكاء الاصطناعي حتى أي الأحياء الذرية أثرت أكثر في التنبؤ – ما يمنح الكيميائيين الثقة بدلاً من تخمين الصندوق الأسود binaryverseai.com. يمكن أن تسرع النمذجة البلورية الأسرع التقدم في البطاريات والعوامل المساعدة ومواد أشباه الموصلات، مما يقلل أوقات وتكاليف البحث والتطوير.

الذكاء الاصطناعي للبرمجة – مع بعض التحفظات: لم تكن جميع الأبحاث وردية؛ فقد قدمت دراسة واحدة رؤية واقعية حول مساعدي البرمجة بالذكاء الاصطناعي. ففي تجربة محكومة، استغرق مطورو البرمجيات ذوو الخبرة وقتاً أطول بنسبة 19% في إنجاز مهمة باستخدام مساعد ذكاء اصطناعي مقارنةً بمجموعة ضابطة بدون ذكاء اصطناعي ts2.tech. كان المبرمجون المتمرسون يتوقعون أن يساعدهم الذكاء الاصطناعي (أداة اقتراح الشيفرة) على إنجاز العمل بشكل أسرع، لكنه غالباً ما كان يعطي شيفرات “صحيحة من حيث التوجه العام، لكنها ليست بالضبط ما هو مطلوبts2.tech. وقد أُهدر الوقت في مراجعة هذه الاقتراحات وتصحيحها. في المقابل، أظهرت دراسات سابقة زيادات كبيرة في السرعة للمبرمجين الأقل خبرة في المهام الأسهل. “إنه أشبه بتحرير مقالة أكثر من كونه كتابة من البداية،” قال أحد المبرمجين المخضرمين حول أسلوب العمل بمساعدة الذكاء الاصطناعي – ربما أكثر استرخاءً، لكنه أبطأ ts2.tech. وخلص الباحثون في METR إلى أن المساعدات الذكية الحالية ليست عصا سحرية لزيادة إنتاجية الخبراء في البرمجة المعقدة، وأن هناك حاجة لمزيد من التحسين والمراقبة البشرية ts2.tech. هذا الاستنتاج المتوازن يهدئ من الاندفاع نحو نشر الذكاء الاصطناعي المولّد للشيفرات لجميع المبرمجين.

التطلع داخل “عقل” الذكاء الاصطناعي: نشر اتحاد من كبار علماء الذكاء الاصطناعي (من OpenAI وDeepMind وAnthropic وأفضل الجامعات) ورقة بحثية بارزة يدعون فيها إلى ابتكار تقنيات جديدة لـمراقبة “تَسَلْسُل التفكير” في الذكاء الاصطناعي – وهي في الأساس خطوات التفكير الخفية التي يولدها نماذج الذكاء الاصطناعي داخليًا ts2.tech. ومع تحول أنظمة الذكاء الاصطناعي إلى المزيد من الاستقلالية (كما هي الحال مع العملاء الذين يظهرون الآن)، يجادل المؤلفون بأن القدرة على الاطلاع على تلك الأفكار الوسيطة قد يكون أمرًا حيويًا للسلامة ts2.tech. فمن خلال مراقبة تسلسل تفكير الذكاء الاصطناعي خطوة بخطوة، قد يتمكن المطورون من اكتشاف الأخطاء أو الميل إلى طرق خطرة قبل أن يتصرف الذكاء الاصطناعي. ومع ذلك، تحذر الورقة من أنه مع تزايد تعقيد النماذج، “لا يوجد ضمان بأن درجة الشفافية الحالية ستستمر” – فقد تقوم نماذج الذكاء الاصطناعي المستقبلية بإضمار تفكيرها بشكل لا يمكن تتبعه بسهولة ts2.tech. وقد حث الفريق المجتمع العلمي على “الاستفادة القصوى من إمكانية مراقبة تسلسل التفكير” الآن والسعي إلى الحفاظ على الشفافية مستقبلًا ts2.tech. ومن الجدير بالذكر أن هذه الدعوة للعمل شارك في توقيعها مجموعة من كبار علماء الذكاء الاصطناعي – بمن فيهم جيفري هينتون، والعالم الرئيسي في OpenAI إيليا سوتسكيفر (ورئيس التوافق جان ليك)، والمؤسس المشارك لـDeepMind شين ليج، وآخرون ts2.tech. إنه عرض نادر للوحدة بين مختبرات متنافسة، يعكس قلقًا مشتركًا: مع اقتراب أنظمة الذكاء الاصطناعي من مستوى التفكير البشري، يجب ألا نسمح لها بأن تصبح “صناديق سوداء” لا يمكن فهمها. البحث في “فحوصات دماغ الذكاء الاصطناعي” – قراءة فكر الذكاء الاصطناعي – قد يصبح ضروريًا بقدر أهمية إنشاء الذكاء الاصطناعي نفسه.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

اختراقات في العلوم والرعاية الصحية

تسريع التحليل الطبي: في مجال الرعاية الصحية، تعد اختراقات الذكاء الاصطناعي بتشخيصات أسرع وإجراءات أكثر أمانًا. كشف باحثون من جامعة إنديانا ومستشفيات شريكة عن خط أنابيب “معلوماتية السرطان” مدعوم بالذكاء الاصطناعي يمكنه فحص شرائح علم الأمراض الرقمية والسجلات الصحية الإلكترونية وبيانات الجينوم للإشارة إلى احتمالية الإصابة بالسرطان واقتراح مرحلة الورم. وبحسب الباحث الرئيسي سبيريدون باكاس، فقد قلل نظام الذكاء الاصطناعي بعض إجراءات التشخيص “من أيام إلى ثوانٍ”، حيث صنّف الحالات بسرعة تفوق البشر binaryverseai.com binaryverseai.com. كما كشف الأداة عن ترابطات دقيقة عبر بيانات متعددة الأنماط قد يغفل عنها البشر، على الرغم من إصرار الفريق على أن أطباء علم الأمراض يظلون ضروريين للحالات الصعبة والأحكام النهائية binaryverseai.com. يجسد هذا المشروع اتجاهًا أوسع نحو الطب متعدد الأنماط بالذكاء الاصطناعي الذي يمكنه استيعاب أنواع عديدة من البيانات مرة واحدة. وبالمثل، أفاد أطباء الأشعة بنجاحهم في استخدام نموذج ذكاء اصطناعي يُدعى mViT (محول رؤي معدل) لتحسين فحوصات الأشعة المقطعية للأطفال binaryverseai.com binaryverseai.com. يمكن لأجهزة الأشعة المقطعية التي تعتمد تقنية عدّ الفوتونات أن تقلل من جرعة الأشعة السينية للأطفال، إلا أنها غالبًا ما تنتج صورًا مشوشة؛ حيث تعلم نظام mViT إزالة التشويش من الفحوصات مباشرة، مما يجعل الشرايين والأنسجة أوضح دون التمويه الناتج عن أساليب تقليل الضوضاء القديمة binaryverseai.com binaryverseai.com. وأظهرت الاختبارات التي أُجريت على 20 مريضًا صغيرًا أن الذكاء الاصطناعي تفوق باستمرار على المرشحات التقليدية، مما يسمح على الأرجح بالحصول على فحوصات أكثر وضوحًا وأقل جرعة إشعاعية – وهو مكسب لسلامة المرضى الأطفال مع حصول أجهزة الأشعة المقطعية الجديدة على موافقة إدارة الغذاء والدواء الأمريكية binaryverseai.com.

الاختراقات في علم الأحياء والمواد: تدفع الذكاء الاصطناعي أيضًا العلوم الأساسية إلى الأمام. وصفت دراسة جديدة في Nature Communications كيف يمكن لثلاثة شبكات عصبية الآن تحديد توقيت تطور الأجنة بدقة إلى الدقيقة، وهو إنجاز قد يغير مجال علم الأحياء التطوري binaryverseai.com. من خلال تدريب شبكات عصبية التففية على صور عالية الدقة لأجنة ذبابة الفاكهة، تعلم النظام تحديد الإشارات البصرية الدقيقة لدورات انقسام الخلايا. يمكنه معرفة عمر الجنين (بدقة ±1 دقيقة) دون استخدام علامات فلورية تدخلية – محققًا دقة 98–100% في الأجنة في المراحل المبكرة binaryverseai.com binaryverseai.com. هذا “ساعة الجنين” بالذكاء الاصطناعي مكنت الفريق من رسم خرائط طفرات تنشيط الجينات بدقة زمنية غير مسبوقة، مما يوفر لعلماء الأحياء أداة قوية جديدة لدراسة كيفية تشكل الأعضاء. في علم المواد، قدم باحثون من المملكة المتحدة نموذج “CrystalGPT”، المدرب على 706,000 بنية بلورية، للتنبؤ بخصائص المواد. من خلال فهمه لـ”لغة” البلورات الجزيئية (عبر ألغاز الذرات المخفية وتحديات التناظر)، يمكن لـ CrystalGPT التنبؤ بكثافة أو مسامية أو استقرار مركب جديد بسرعة أكبر بكثير من المحاكاة التقليدية binaryverseai.com binaryverseai.com. يشيد الخبراء بشفافيته – حيث تُبرز الذكاء الاصطناعي حتى أي الأحياء الذرية أثرت أكثر في التنبؤ – ما يمنح الكيميائيين الثقة بدلاً من تخمين الصندوق الأسود binaryverseai.com. يمكن أن تسرع النمذجة البلورية الأسرع التقدم في البطاريات والعوامل المساعدة ومواد أشباه الموصلات، مما يقلل أوقات وتكاليف البحث والتطوير.

الذكاء الاصطناعي للبرمجة – مع بعض التحفظات: لم تكن جميع الأبحاث وردية؛ فقد قدمت دراسة واحدة رؤية واقعية حول مساعدي البرمجة بالذكاء الاصطناعي. ففي تجربة محكومة، استغرق مطورو البرمجيات ذوو الخبرة وقتاً أطول بنسبة 19% في إنجاز مهمة باستخدام مساعد ذكاء اصطناعي مقارنةً بمجموعة ضابطة بدون ذكاء اصطناعي ts2.tech. كان المبرمجون المتمرسون يتوقعون أن يساعدهم الذكاء الاصطناعي (أداة اقتراح الشيفرة) على إنجاز العمل بشكل أسرع، لكنه غالباً ما كان يعطي شيفرات “صحيحة من حيث التوجه العام، لكنها ليست بالضبط ما هو مطلوبts2.tech. وقد أُهدر الوقت في مراجعة هذه الاقتراحات وتصحيحها. في المقابل، أظهرت دراسات سابقة زيادات كبيرة في السرعة للمبرمجين الأقل خبرة في المهام الأسهل. “إنه أشبه بتحرير مقالة أكثر من كونه كتابة من البداية،” قال أحد المبرمجين المخضرمين حول أسلوب العمل بمساعدة الذكاء الاصطناعي – ربما أكثر استرخاءً، لكنه أبطأ ts2.tech. وخلص الباحثون في METR إلى أن المساعدات الذكية الحالية ليست عصا سحرية لزيادة إنتاجية الخبراء في البرمجة المعقدة، وأن هناك حاجة لمزيد من التحسين والمراقبة البشرية ts2.tech. هذا الاستنتاج المتوازن يهدئ من الاندفاع نحو نشر الذكاء الاصطناعي المولّد للشيفرات لجميع المبرمجين.

التطلع داخل “عقل” الذكاء الاصطناعي: نشر اتحاد من كبار علماء الذكاء الاصطناعي (من OpenAI وDeepMind وAnthropic وأفضل الجامعات) ورقة بحثية بارزة يدعون فيها إلى ابتكار تقنيات جديدة لـمراقبة “تَسَلْسُل التفكير” في الذكاء الاصطناعي – وهي في الأساس خطوات التفكير الخفية التي يولدها نماذج الذكاء الاصطناعي داخليًا ts2.tech. ومع تحول أنظمة الذكاء الاصطناعي إلى المزيد من الاستقلالية (كما هي الحال مع العملاء الذين يظهرون الآن)، يجادل المؤلفون بأن القدرة على الاطلاع على تلك الأفكار الوسيطة قد يكون أمرًا حيويًا للسلامة ts2.tech. فمن خلال مراقبة تسلسل تفكير الذكاء الاصطناعي خطوة بخطوة، قد يتمكن المطورون من اكتشاف الأخطاء أو الميل إلى طرق خطرة قبل أن يتصرف الذكاء الاصطناعي. ومع ذلك، تحذر الورقة من أنه مع تزايد تعقيد النماذج، “لا يوجد ضمان بأن درجة الشفافية الحالية ستستمر” – فقد تقوم نماذج الذكاء الاصطناعي المستقبلية بإضمار تفكيرها بشكل لا يمكن تتبعه بسهولة ts2.tech. وقد حث الفريق المجتمع العلمي على “الاستفادة القصوى من إمكانية مراقبة تسلسل التفكير” الآن والسعي إلى الحفاظ على الشفافية مستقبلًا ts2.tech. ومن الجدير بالذكر أن هذه الدعوة للعمل شارك في توقيعها مجموعة من كبار علماء الذكاء الاصطناعي – بمن فيهم جيفري هينتون، والعالم الرئيسي في OpenAI إيليا سوتسكيفر (ورئيس التوافق جان ليك)، والمؤسس المشارك لـDeepMind شين ليج، وآخرون ts2.tech. إنه عرض نادر للوحدة بين مختبرات متنافسة، يعكس قلقًا مشتركًا: مع اقتراب أنظمة الذكاء الاصطناعي من مستوى التفكير البشري، يجب ألا نسمح لها بأن تصبح “صناديق سوداء” لا يمكن فهمها. البحث في “فحوصات دماغ الذكاء الاصطناعي” – قراءة فكر الذكاء الاصطناعي – قد يصبح ضروريًا بقدر أهمية إنشاء الذكاء الاصطناعي نفسه.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

التمويل، الأعمال والاستثمار في الذكاء الاصطناعي

الذكاء الاصطناعي المصمم للقطاع المالي: شهد القطاع المالي اختراقات متزايدة للذكاء الاصطناعي في المنتجات والأرباح. أطلقت شركة Anthropic خدمة Claude للخدمات المالية، وهو إصدار من مساعد الذكاء الاصطناعي Claude-4 مخصص لمحللي السوق والمصرفيين. وتدعي Anthropic أن Claude-4 يتفوق على النماذج المتقدمة الأخرى في مهام التمويل، استنادًا إلى معايير الصناعة anthropic.com. يمكن للمنصة الاتصال بالبيانات المباشرة للأسواق (عبر شركاء مثل بلومبرغ وFactSet وغيرهم) والتعامل مع أحمال العمل الكبيرة من نمذجة المخاطر حتى الأعمال الورقية للامتثال. ويبلغ المستخدمون الأوائل عن مكاسب كبيرة – على سبيل المثال، قال الرئيس التنفيذي لصندوق الثروة السيادي النرويجي البالغ قيمته 1.4 تريليون دولار (NBIM) إن Claude قد “غير بشكل جذري” سير العمل لديهم، حيث وفر ما يقدر بـزيادة في الإنتاجية بنسبة 20% (حوالي 213,000 ساعة عمل تم توفيرها) من خلال تمكين الموظفين من استعلام البيانات وتحليل مكالمات الأرباح بشكل أكثر كفاءة anthropic.com. وأشار إلى أن Claude أصبح “لا غنى عنه” بالنسبة لمحللي ومديري المخاطر في تلك الشركة anthropic.com. كما تستكشف البنوك والصناديق الكبرى المساعدين الذكاء الاصطناعي لتسريع الأبحاث مع تتبع كامل للمراجعات وتلقائية للمهام الروتينية التي عادة ما تعيق عمل الفرق المالية.

وول ستريت تراهن على شركات الذكاء الاصطناعي الناشئة: يواصل المستثمرون ضخ الأموال في مشاريع الذكاء الاصطناعي بقيم مذهلة. وجاءت أخبار هذا الأسبوع بأن Perplexity AI، الشركة الناشئة المعروفة بروبوت الدردشة البحثي المعتمد على الذكاء الاصطناعي، جمعت جولة تمويل جديدة بقيمة 100 مليون دولار، لترتفع قيمتها إلى نحو 18 مليار دولار theindependent.sg. (للمقارنة، كانت قيمة Perplexity تقارب 14 مليار دولار فقط قبل شهرين، ومليار دولار واحد في العام الماضي، مما يعكس الارتفاع الصاروخي في ثروات الذكاء الاصطناعي التوليدي theindependent.sg.) كما ظهرت صناديق جديدة تركز على الذكاء الاصطناعي: فمثلاً، أطلق أحد أوائل المستثمرين في Instacart صندوق “Verified Capital” بمبلغ 175 مليون دولار مخصص لشركات الذكاء الاصطناعي الناشئة (أُعلن عنه في 20 يوليو). وفي مجال الحوسبة السحابية، بدأت الشركات التقليدية في التكيف مع عصر الذكاء الاصطناعي – أحيانًا بشكل مؤلم. فقد أكدت أمازون أنها خفضت عدة مئات من وظائف AWS (معظمها في أدوار الدعم السحابي)، بعد أن حذّر الرئيس التنفيذي آندي جاسي من أن كفاءات الذكاء الاصطناعي ستقلص بعض الوظائف في “طبقة الوسطى” binaryverseai.com. وأشارت رسائل بريد إلكتروني داخلية هذا الأسبوع إلى أن بعض فرق نقل البيانات المتخصصة أصبحت زائدة عن الحاجة – “الدليل المرئي الأول داخل AWS” على الأتمتة المدفوعة بالذكاء الاصطناعي، كما أشارت رويترز binaryverseai.com binaryverseai.com. وقال المحللون إن حتى وحدات التكنولوجيا ذات الهوامش المرتفعة ليست محصنة: “الذكاء الاصطناعي يلتهم المهام التي يتقنها، ثم تقوم الشركات بإعادة توزيع أو الاستغناء عن الموظفين،” كما لاحظ أحدهم بتهكم binaryverseai.com. وعلى الرغم من الأرباح القوية، تواصل عملاق الحوسبة السحابية إعادة الهيكلة، مما يوضح كيف أن مكاسب الإنتاجية من الذكاء الاصطناعي قد تؤدي أيضًا إلى تقليص القوى العاملة فعليًا.

اختراقات في العلوم والرعاية الصحية

تسريع التحليل الطبي: في مجال الرعاية الصحية، تعد اختراقات الذكاء الاصطناعي بتشخيصات أسرع وإجراءات أكثر أمانًا. كشف باحثون من جامعة إنديانا ومستشفيات شريكة عن خط أنابيب “معلوماتية السرطان” مدعوم بالذكاء الاصطناعي يمكنه فحص شرائح علم الأمراض الرقمية والسجلات الصحية الإلكترونية وبيانات الجينوم للإشارة إلى احتمالية الإصابة بالسرطان واقتراح مرحلة الورم. وبحسب الباحث الرئيسي سبيريدون باكاس، فقد قلل نظام الذكاء الاصطناعي بعض إجراءات التشخيص “من أيام إلى ثوانٍ”، حيث صنّف الحالات بسرعة تفوق البشر binaryverseai.com binaryverseai.com. كما كشف الأداة عن ترابطات دقيقة عبر بيانات متعددة الأنماط قد يغفل عنها البشر، على الرغم من إصرار الفريق على أن أطباء علم الأمراض يظلون ضروريين للحالات الصعبة والأحكام النهائية binaryverseai.com. يجسد هذا المشروع اتجاهًا أوسع نحو الطب متعدد الأنماط بالذكاء الاصطناعي الذي يمكنه استيعاب أنواع عديدة من البيانات مرة واحدة. وبالمثل، أفاد أطباء الأشعة بنجاحهم في استخدام نموذج ذكاء اصطناعي يُدعى mViT (محول رؤي معدل) لتحسين فحوصات الأشعة المقطعية للأطفال binaryverseai.com binaryverseai.com. يمكن لأجهزة الأشعة المقطعية التي تعتمد تقنية عدّ الفوتونات أن تقلل من جرعة الأشعة السينية للأطفال، إلا أنها غالبًا ما تنتج صورًا مشوشة؛ حيث تعلم نظام mViT إزالة التشويش من الفحوصات مباشرة، مما يجعل الشرايين والأنسجة أوضح دون التمويه الناتج عن أساليب تقليل الضوضاء القديمة binaryverseai.com binaryverseai.com. وأظهرت الاختبارات التي أُجريت على 20 مريضًا صغيرًا أن الذكاء الاصطناعي تفوق باستمرار على المرشحات التقليدية، مما يسمح على الأرجح بالحصول على فحوصات أكثر وضوحًا وأقل جرعة إشعاعية – وهو مكسب لسلامة المرضى الأطفال مع حصول أجهزة الأشعة المقطعية الجديدة على موافقة إدارة الغذاء والدواء الأمريكية binaryverseai.com.

الاختراقات في علم الأحياء والمواد: تدفع الذكاء الاصطناعي أيضًا العلوم الأساسية إلى الأمام. وصفت دراسة جديدة في Nature Communications كيف يمكن لثلاثة شبكات عصبية الآن تحديد توقيت تطور الأجنة بدقة إلى الدقيقة، وهو إنجاز قد يغير مجال علم الأحياء التطوري binaryverseai.com. من خلال تدريب شبكات عصبية التففية على صور عالية الدقة لأجنة ذبابة الفاكهة، تعلم النظام تحديد الإشارات البصرية الدقيقة لدورات انقسام الخلايا. يمكنه معرفة عمر الجنين (بدقة ±1 دقيقة) دون استخدام علامات فلورية تدخلية – محققًا دقة 98–100% في الأجنة في المراحل المبكرة binaryverseai.com binaryverseai.com. هذا “ساعة الجنين” بالذكاء الاصطناعي مكنت الفريق من رسم خرائط طفرات تنشيط الجينات بدقة زمنية غير مسبوقة، مما يوفر لعلماء الأحياء أداة قوية جديدة لدراسة كيفية تشكل الأعضاء. في علم المواد، قدم باحثون من المملكة المتحدة نموذج “CrystalGPT”، المدرب على 706,000 بنية بلورية، للتنبؤ بخصائص المواد. من خلال فهمه لـ”لغة” البلورات الجزيئية (عبر ألغاز الذرات المخفية وتحديات التناظر)، يمكن لـ CrystalGPT التنبؤ بكثافة أو مسامية أو استقرار مركب جديد بسرعة أكبر بكثير من المحاكاة التقليدية binaryverseai.com binaryverseai.com. يشيد الخبراء بشفافيته – حيث تُبرز الذكاء الاصطناعي حتى أي الأحياء الذرية أثرت أكثر في التنبؤ – ما يمنح الكيميائيين الثقة بدلاً من تخمين الصندوق الأسود binaryverseai.com. يمكن أن تسرع النمذجة البلورية الأسرع التقدم في البطاريات والعوامل المساعدة ومواد أشباه الموصلات، مما يقلل أوقات وتكاليف البحث والتطوير.

الذكاء الاصطناعي للبرمجة – مع بعض التحفظات: لم تكن جميع الأبحاث وردية؛ فقد قدمت دراسة واحدة رؤية واقعية حول مساعدي البرمجة بالذكاء الاصطناعي. ففي تجربة محكومة، استغرق مطورو البرمجيات ذوو الخبرة وقتاً أطول بنسبة 19% في إنجاز مهمة باستخدام مساعد ذكاء اصطناعي مقارنةً بمجموعة ضابطة بدون ذكاء اصطناعي ts2.tech. كان المبرمجون المتمرسون يتوقعون أن يساعدهم الذكاء الاصطناعي (أداة اقتراح الشيفرة) على إنجاز العمل بشكل أسرع، لكنه غالباً ما كان يعطي شيفرات “صحيحة من حيث التوجه العام، لكنها ليست بالضبط ما هو مطلوبts2.tech. وقد أُهدر الوقت في مراجعة هذه الاقتراحات وتصحيحها. في المقابل، أظهرت دراسات سابقة زيادات كبيرة في السرعة للمبرمجين الأقل خبرة في المهام الأسهل. “إنه أشبه بتحرير مقالة أكثر من كونه كتابة من البداية،” قال أحد المبرمجين المخضرمين حول أسلوب العمل بمساعدة الذكاء الاصطناعي – ربما أكثر استرخاءً، لكنه أبطأ ts2.tech. وخلص الباحثون في METR إلى أن المساعدات الذكية الحالية ليست عصا سحرية لزيادة إنتاجية الخبراء في البرمجة المعقدة، وأن هناك حاجة لمزيد من التحسين والمراقبة البشرية ts2.tech. هذا الاستنتاج المتوازن يهدئ من الاندفاع نحو نشر الذكاء الاصطناعي المولّد للشيفرات لجميع المبرمجين.

التطلع داخل “عقل” الذكاء الاصطناعي: نشر اتحاد من كبار علماء الذكاء الاصطناعي (من OpenAI وDeepMind وAnthropic وأفضل الجامعات) ورقة بحثية بارزة يدعون فيها إلى ابتكار تقنيات جديدة لـمراقبة “تَسَلْسُل التفكير” في الذكاء الاصطناعي – وهي في الأساس خطوات التفكير الخفية التي يولدها نماذج الذكاء الاصطناعي داخليًا ts2.tech. ومع تحول أنظمة الذكاء الاصطناعي إلى المزيد من الاستقلالية (كما هي الحال مع العملاء الذين يظهرون الآن)، يجادل المؤلفون بأن القدرة على الاطلاع على تلك الأفكار الوسيطة قد يكون أمرًا حيويًا للسلامة ts2.tech. فمن خلال مراقبة تسلسل تفكير الذكاء الاصطناعي خطوة بخطوة، قد يتمكن المطورون من اكتشاف الأخطاء أو الميل إلى طرق خطرة قبل أن يتصرف الذكاء الاصطناعي. ومع ذلك، تحذر الورقة من أنه مع تزايد تعقيد النماذج، “لا يوجد ضمان بأن درجة الشفافية الحالية ستستمر” – فقد تقوم نماذج الذكاء الاصطناعي المستقبلية بإضمار تفكيرها بشكل لا يمكن تتبعه بسهولة ts2.tech. وقد حث الفريق المجتمع العلمي على “الاستفادة القصوى من إمكانية مراقبة تسلسل التفكير” الآن والسعي إلى الحفاظ على الشفافية مستقبلًا ts2.tech. ومن الجدير بالذكر أن هذه الدعوة للعمل شارك في توقيعها مجموعة من كبار علماء الذكاء الاصطناعي – بمن فيهم جيفري هينتون، والعالم الرئيسي في OpenAI إيليا سوتسكيفر (ورئيس التوافق جان ليك)، والمؤسس المشارك لـDeepMind شين ليج، وآخرون ts2.tech. إنه عرض نادر للوحدة بين مختبرات متنافسة، يعكس قلقًا مشتركًا: مع اقتراب أنظمة الذكاء الاصطناعي من مستوى التفكير البشري، يجب ألا نسمح لها بأن تصبح “صناديق سوداء” لا يمكن فهمها. البحث في “فحوصات دماغ الذكاء الاصطناعي” – قراءة فكر الذكاء الاصطناعي – قد يصبح ضروريًا بقدر أهمية إنشاء الذكاء الاصطناعي نفسه.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

الذكاء الاصطناعي في الإعلام، الترفيه والصناعات الإبداعية

نتفليكس تتبنى الذكاء الاصطناعي في المؤثرات البصرية: شهدت هوليوود سابقة ملحوظة: فقد كشفت نتفليكس في مكالمة الأرباح الخاصة بها أنها بدأت في استخدام الذكاء الاصطناعي التوليدي في إنتاج المحتوى، بما في ذلك لقطات تم إنشاؤها بالكامل بالذكاء الاصطناعي لأول مرة في عرض من عروض نتفليكس ts2.tech. في السلسلة الأرجنتينية الخيالية العلمية “El Eternauta”، تم إنشاء مشهد كامل لانهيار مبنى باستخدام الذكاء الاصطناعي – وقد تم إنجازه أسرع بعشر مرات وبتكلفة أقل مقارنة باستخدام المؤثرات البصرية التقليدية techcrunch.com. شدد الرئيس التنفيذي المشارك تيد ساراندوس على أن الذكاء الاصطناعي يُستخدم لتمكين المبدعين وليس لاستبدالهم، قائلاً: “الذكاء الاصطناعي يمثل فرصة مذهلة لمساعدة المبدعين على صنع أفلام ومسلسلات أفضل، وليس فقط أرخص … هؤلاء أشخاص حقيقيون ينفذون عملاً حقيقياً بأدوات أفضل.” techcrunch.com وأشار إلى أن فناني نتفليكس يرون بالفعل فوائد في مرحلة التصور المسبق وتخطيط المشاهد. كما تطبق نتفليكس الذكاء الاصطناعي التوليدي خارج نطاق المؤثرات البصرية – حيث تستخدمه لاكتشاف المحتوى بشكل شخصي، وتستعد لإطلاق إعلانات تفاعلية مدعومة بالذكاء الاصطناعي في وقت لاحق من هذا العام techcrunch.com.

الموضة التوليدية وسحر الفيديو: امتدت لمسة الذكاء الاصطناعي الإبداعية إلى عالم الموضة والفيديو. أجرى باحثون في كوريا الجنوبية تجارب على “الموضة التوليدية”، حيث استخدموا ChatGPT للتنبؤ باتجاهات الموضة القادمة وDALL·E 3 لإنشاء أكثر من 100 زي افتراضي لمجموعة خريف/شتاء binaryverseai.com binaryverseai.com. توافقت حوالي ثلثي التصاميم التي أنشأها الذكاء الاصطناعي مع الأنماط السائدة في العالم الواقعي، ما يشير إلى أن النماذج التوليدية قد تكشف عن الاتجاهات قبل المصممين أنفسهم. (لكن الذكاء الاصطناعي تعثر في مفاهيم مُجرّدة مثل التصاميم ذات الهوية الجندرية السائلة، مما يؤكد أن المصممين البشر لا يزالون يمسكون بالبوصلة الإبداعية binaryverseai.com.) وفي تكنولوجيا صناعة الأفلام، كشفت NVIDIA وشركاؤها الجامعيون عن DiffusionRenderer، وهو نظام ذكاء اصطناعي من مرحلتين يدمج بين العرض المعكوس والمتقدم لجعل التأثيرات البصرية المتقدمة متاحة للمبدعين المستقلين binaryverseai.com binaryverseai.com. في أحد العروض التوضيحية، تمكن المستخدم من تصوير مشهد بسيط ثم إدخال تنين رسوم متحركة ينتج ظلالاً واقعية تماماً دون الحاجة إلى حساسات معقدة أو إعدادات إضاءة يدوية – فقد تعلم الذكاء الاصطناعي هندسة وإضاءة المشهد من اللقطات نفسها binaryverseai.com binaryverseai.com. والنتيجة تضيق الفجوة بين استوديوهات الإنتاج الكبرى والمبدعين الصغار، وتلمّح لمستقبل تحرير فيديو يكاد يكون “سحرياً” متاحاً للجميع.

التمويل، الأعمال والاستثمار في الذكاء الاصطناعي

الذكاء الاصطناعي المصمم للقطاع المالي: شهد القطاع المالي اختراقات متزايدة للذكاء الاصطناعي في المنتجات والأرباح. أطلقت شركة Anthropic خدمة Claude للخدمات المالية، وهو إصدار من مساعد الذكاء الاصطناعي Claude-4 مخصص لمحللي السوق والمصرفيين. وتدعي Anthropic أن Claude-4 يتفوق على النماذج المتقدمة الأخرى في مهام التمويل، استنادًا إلى معايير الصناعة anthropic.com. يمكن للمنصة الاتصال بالبيانات المباشرة للأسواق (عبر شركاء مثل بلومبرغ وFactSet وغيرهم) والتعامل مع أحمال العمل الكبيرة من نمذجة المخاطر حتى الأعمال الورقية للامتثال. ويبلغ المستخدمون الأوائل عن مكاسب كبيرة – على سبيل المثال، قال الرئيس التنفيذي لصندوق الثروة السيادي النرويجي البالغ قيمته 1.4 تريليون دولار (NBIM) إن Claude قد “غير بشكل جذري” سير العمل لديهم، حيث وفر ما يقدر بـزيادة في الإنتاجية بنسبة 20% (حوالي 213,000 ساعة عمل تم توفيرها) من خلال تمكين الموظفين من استعلام البيانات وتحليل مكالمات الأرباح بشكل أكثر كفاءة anthropic.com. وأشار إلى أن Claude أصبح “لا غنى عنه” بالنسبة لمحللي ومديري المخاطر في تلك الشركة anthropic.com. كما تستكشف البنوك والصناديق الكبرى المساعدين الذكاء الاصطناعي لتسريع الأبحاث مع تتبع كامل للمراجعات وتلقائية للمهام الروتينية التي عادة ما تعيق عمل الفرق المالية.

وول ستريت تراهن على شركات الذكاء الاصطناعي الناشئة: يواصل المستثمرون ضخ الأموال في مشاريع الذكاء الاصطناعي بقيم مذهلة. وجاءت أخبار هذا الأسبوع بأن Perplexity AI، الشركة الناشئة المعروفة بروبوت الدردشة البحثي المعتمد على الذكاء الاصطناعي، جمعت جولة تمويل جديدة بقيمة 100 مليون دولار، لترتفع قيمتها إلى نحو 18 مليار دولار theindependent.sg. (للمقارنة، كانت قيمة Perplexity تقارب 14 مليار دولار فقط قبل شهرين، ومليار دولار واحد في العام الماضي، مما يعكس الارتفاع الصاروخي في ثروات الذكاء الاصطناعي التوليدي theindependent.sg.) كما ظهرت صناديق جديدة تركز على الذكاء الاصطناعي: فمثلاً، أطلق أحد أوائل المستثمرين في Instacart صندوق “Verified Capital” بمبلغ 175 مليون دولار مخصص لشركات الذكاء الاصطناعي الناشئة (أُعلن عنه في 20 يوليو). وفي مجال الحوسبة السحابية، بدأت الشركات التقليدية في التكيف مع عصر الذكاء الاصطناعي – أحيانًا بشكل مؤلم. فقد أكدت أمازون أنها خفضت عدة مئات من وظائف AWS (معظمها في أدوار الدعم السحابي)، بعد أن حذّر الرئيس التنفيذي آندي جاسي من أن كفاءات الذكاء الاصطناعي ستقلص بعض الوظائف في “طبقة الوسطى” binaryverseai.com. وأشارت رسائل بريد إلكتروني داخلية هذا الأسبوع إلى أن بعض فرق نقل البيانات المتخصصة أصبحت زائدة عن الحاجة – “الدليل المرئي الأول داخل AWS” على الأتمتة المدفوعة بالذكاء الاصطناعي، كما أشارت رويترز binaryverseai.com binaryverseai.com. وقال المحللون إن حتى وحدات التكنولوجيا ذات الهوامش المرتفعة ليست محصنة: “الذكاء الاصطناعي يلتهم المهام التي يتقنها، ثم تقوم الشركات بإعادة توزيع أو الاستغناء عن الموظفين،” كما لاحظ أحدهم بتهكم binaryverseai.com. وعلى الرغم من الأرباح القوية، تواصل عملاق الحوسبة السحابية إعادة الهيكلة، مما يوضح كيف أن مكاسب الإنتاجية من الذكاء الاصطناعي قد تؤدي أيضًا إلى تقليص القوى العاملة فعليًا.

اختراقات في العلوم والرعاية الصحية

تسريع التحليل الطبي: في مجال الرعاية الصحية، تعد اختراقات الذكاء الاصطناعي بتشخيصات أسرع وإجراءات أكثر أمانًا. كشف باحثون من جامعة إنديانا ومستشفيات شريكة عن خط أنابيب “معلوماتية السرطان” مدعوم بالذكاء الاصطناعي يمكنه فحص شرائح علم الأمراض الرقمية والسجلات الصحية الإلكترونية وبيانات الجينوم للإشارة إلى احتمالية الإصابة بالسرطان واقتراح مرحلة الورم. وبحسب الباحث الرئيسي سبيريدون باكاس، فقد قلل نظام الذكاء الاصطناعي بعض إجراءات التشخيص “من أيام إلى ثوانٍ”، حيث صنّف الحالات بسرعة تفوق البشر binaryverseai.com binaryverseai.com. كما كشف الأداة عن ترابطات دقيقة عبر بيانات متعددة الأنماط قد يغفل عنها البشر، على الرغم من إصرار الفريق على أن أطباء علم الأمراض يظلون ضروريين للحالات الصعبة والأحكام النهائية binaryverseai.com. يجسد هذا المشروع اتجاهًا أوسع نحو الطب متعدد الأنماط بالذكاء الاصطناعي الذي يمكنه استيعاب أنواع عديدة من البيانات مرة واحدة. وبالمثل، أفاد أطباء الأشعة بنجاحهم في استخدام نموذج ذكاء اصطناعي يُدعى mViT (محول رؤي معدل) لتحسين فحوصات الأشعة المقطعية للأطفال binaryverseai.com binaryverseai.com. يمكن لأجهزة الأشعة المقطعية التي تعتمد تقنية عدّ الفوتونات أن تقلل من جرعة الأشعة السينية للأطفال، إلا أنها غالبًا ما تنتج صورًا مشوشة؛ حيث تعلم نظام mViT إزالة التشويش من الفحوصات مباشرة، مما يجعل الشرايين والأنسجة أوضح دون التمويه الناتج عن أساليب تقليل الضوضاء القديمة binaryverseai.com binaryverseai.com. وأظهرت الاختبارات التي أُجريت على 20 مريضًا صغيرًا أن الذكاء الاصطناعي تفوق باستمرار على المرشحات التقليدية، مما يسمح على الأرجح بالحصول على فحوصات أكثر وضوحًا وأقل جرعة إشعاعية – وهو مكسب لسلامة المرضى الأطفال مع حصول أجهزة الأشعة المقطعية الجديدة على موافقة إدارة الغذاء والدواء الأمريكية binaryverseai.com.

الاختراقات في علم الأحياء والمواد: تدفع الذكاء الاصطناعي أيضًا العلوم الأساسية إلى الأمام. وصفت دراسة جديدة في Nature Communications كيف يمكن لثلاثة شبكات عصبية الآن تحديد توقيت تطور الأجنة بدقة إلى الدقيقة، وهو إنجاز قد يغير مجال علم الأحياء التطوري binaryverseai.com. من خلال تدريب شبكات عصبية التففية على صور عالية الدقة لأجنة ذبابة الفاكهة، تعلم النظام تحديد الإشارات البصرية الدقيقة لدورات انقسام الخلايا. يمكنه معرفة عمر الجنين (بدقة ±1 دقيقة) دون استخدام علامات فلورية تدخلية – محققًا دقة 98–100% في الأجنة في المراحل المبكرة binaryverseai.com binaryverseai.com. هذا “ساعة الجنين” بالذكاء الاصطناعي مكنت الفريق من رسم خرائط طفرات تنشيط الجينات بدقة زمنية غير مسبوقة، مما يوفر لعلماء الأحياء أداة قوية جديدة لدراسة كيفية تشكل الأعضاء. في علم المواد، قدم باحثون من المملكة المتحدة نموذج “CrystalGPT”، المدرب على 706,000 بنية بلورية، للتنبؤ بخصائص المواد. من خلال فهمه لـ”لغة” البلورات الجزيئية (عبر ألغاز الذرات المخفية وتحديات التناظر)، يمكن لـ CrystalGPT التنبؤ بكثافة أو مسامية أو استقرار مركب جديد بسرعة أكبر بكثير من المحاكاة التقليدية binaryverseai.com binaryverseai.com. يشيد الخبراء بشفافيته – حيث تُبرز الذكاء الاصطناعي حتى أي الأحياء الذرية أثرت أكثر في التنبؤ – ما يمنح الكيميائيين الثقة بدلاً من تخمين الصندوق الأسود binaryverseai.com. يمكن أن تسرع النمذجة البلورية الأسرع التقدم في البطاريات والعوامل المساعدة ومواد أشباه الموصلات، مما يقلل أوقات وتكاليف البحث والتطوير.

الذكاء الاصطناعي للبرمجة – مع بعض التحفظات: لم تكن جميع الأبحاث وردية؛ فقد قدمت دراسة واحدة رؤية واقعية حول مساعدي البرمجة بالذكاء الاصطناعي. ففي تجربة محكومة، استغرق مطورو البرمجيات ذوو الخبرة وقتاً أطول بنسبة 19% في إنجاز مهمة باستخدام مساعد ذكاء اصطناعي مقارنةً بمجموعة ضابطة بدون ذكاء اصطناعي ts2.tech. كان المبرمجون المتمرسون يتوقعون أن يساعدهم الذكاء الاصطناعي (أداة اقتراح الشيفرة) على إنجاز العمل بشكل أسرع، لكنه غالباً ما كان يعطي شيفرات “صحيحة من حيث التوجه العام، لكنها ليست بالضبط ما هو مطلوبts2.tech. وقد أُهدر الوقت في مراجعة هذه الاقتراحات وتصحيحها. في المقابل، أظهرت دراسات سابقة زيادات كبيرة في السرعة للمبرمجين الأقل خبرة في المهام الأسهل. “إنه أشبه بتحرير مقالة أكثر من كونه كتابة من البداية،” قال أحد المبرمجين المخضرمين حول أسلوب العمل بمساعدة الذكاء الاصطناعي – ربما أكثر استرخاءً، لكنه أبطأ ts2.tech. وخلص الباحثون في METR إلى أن المساعدات الذكية الحالية ليست عصا سحرية لزيادة إنتاجية الخبراء في البرمجة المعقدة، وأن هناك حاجة لمزيد من التحسين والمراقبة البشرية ts2.tech. هذا الاستنتاج المتوازن يهدئ من الاندفاع نحو نشر الذكاء الاصطناعي المولّد للشيفرات لجميع المبرمجين.

التطلع داخل “عقل” الذكاء الاصطناعي: نشر اتحاد من كبار علماء الذكاء الاصطناعي (من OpenAI وDeepMind وAnthropic وأفضل الجامعات) ورقة بحثية بارزة يدعون فيها إلى ابتكار تقنيات جديدة لـمراقبة “تَسَلْسُل التفكير” في الذكاء الاصطناعي – وهي في الأساس خطوات التفكير الخفية التي يولدها نماذج الذكاء الاصطناعي داخليًا ts2.tech. ومع تحول أنظمة الذكاء الاصطناعي إلى المزيد من الاستقلالية (كما هي الحال مع العملاء الذين يظهرون الآن)، يجادل المؤلفون بأن القدرة على الاطلاع على تلك الأفكار الوسيطة قد يكون أمرًا حيويًا للسلامة ts2.tech. فمن خلال مراقبة تسلسل تفكير الذكاء الاصطناعي خطوة بخطوة، قد يتمكن المطورون من اكتشاف الأخطاء أو الميل إلى طرق خطرة قبل أن يتصرف الذكاء الاصطناعي. ومع ذلك، تحذر الورقة من أنه مع تزايد تعقيد النماذج، “لا يوجد ضمان بأن درجة الشفافية الحالية ستستمر” – فقد تقوم نماذج الذكاء الاصطناعي المستقبلية بإضمار تفكيرها بشكل لا يمكن تتبعه بسهولة ts2.tech. وقد حث الفريق المجتمع العلمي على “الاستفادة القصوى من إمكانية مراقبة تسلسل التفكير” الآن والسعي إلى الحفاظ على الشفافية مستقبلًا ts2.tech. ومن الجدير بالذكر أن هذه الدعوة للعمل شارك في توقيعها مجموعة من كبار علماء الذكاء الاصطناعي – بمن فيهم جيفري هينتون، والعالم الرئيسي في OpenAI إيليا سوتسكيفر (ورئيس التوافق جان ليك)، والمؤسس المشارك لـDeepMind شين ليج، وآخرون ts2.tech. إنه عرض نادر للوحدة بين مختبرات متنافسة، يعكس قلقًا مشتركًا: مع اقتراب أنظمة الذكاء الاصطناعي من مستوى التفكير البشري، يجب ألا نسمح لها بأن تصبح “صناديق سوداء” لا يمكن فهمها. البحث في “فحوصات دماغ الذكاء الاصطناعي” – قراءة فكر الذكاء الاصطناعي – قد يصبح ضروريًا بقدر أهمية إنشاء الذكاء الاصطناعي نفسه.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

اختراقات في العلوم والرعاية الصحية

تسريع التحليل الطبي: في مجال الرعاية الصحية، تعد اختراقات الذكاء الاصطناعي بتشخيصات أسرع وإجراءات أكثر أمانًا. كشف باحثون من جامعة إنديانا ومستشفيات شريكة عن خط أنابيب “معلوماتية السرطان” مدعوم بالذكاء الاصطناعي يمكنه فحص شرائح علم الأمراض الرقمية والسجلات الصحية الإلكترونية وبيانات الجينوم للإشارة إلى احتمالية الإصابة بالسرطان واقتراح مرحلة الورم. وبحسب الباحث الرئيسي سبيريدون باكاس، فقد قلل نظام الذكاء الاصطناعي بعض إجراءات التشخيص “من أيام إلى ثوانٍ”، حيث صنّف الحالات بسرعة تفوق البشر binaryverseai.com binaryverseai.com. كما كشف الأداة عن ترابطات دقيقة عبر بيانات متعددة الأنماط قد يغفل عنها البشر، على الرغم من إصرار الفريق على أن أطباء علم الأمراض يظلون ضروريين للحالات الصعبة والأحكام النهائية binaryverseai.com. يجسد هذا المشروع اتجاهًا أوسع نحو الطب متعدد الأنماط بالذكاء الاصطناعي الذي يمكنه استيعاب أنواع عديدة من البيانات مرة واحدة. وبالمثل، أفاد أطباء الأشعة بنجاحهم في استخدام نموذج ذكاء اصطناعي يُدعى mViT (محول رؤي معدل) لتحسين فحوصات الأشعة المقطعية للأطفال binaryverseai.com binaryverseai.com. يمكن لأجهزة الأشعة المقطعية التي تعتمد تقنية عدّ الفوتونات أن تقلل من جرعة الأشعة السينية للأطفال، إلا أنها غالبًا ما تنتج صورًا مشوشة؛ حيث تعلم نظام mViT إزالة التشويش من الفحوصات مباشرة، مما يجعل الشرايين والأنسجة أوضح دون التمويه الناتج عن أساليب تقليل الضوضاء القديمة binaryverseai.com binaryverseai.com. وأظهرت الاختبارات التي أُجريت على 20 مريضًا صغيرًا أن الذكاء الاصطناعي تفوق باستمرار على المرشحات التقليدية، مما يسمح على الأرجح بالحصول على فحوصات أكثر وضوحًا وأقل جرعة إشعاعية – وهو مكسب لسلامة المرضى الأطفال مع حصول أجهزة الأشعة المقطعية الجديدة على موافقة إدارة الغذاء والدواء الأمريكية binaryverseai.com.

الاختراقات في علم الأحياء والمواد: تدفع الذكاء الاصطناعي أيضًا العلوم الأساسية إلى الأمام. وصفت دراسة جديدة في Nature Communications كيف يمكن لثلاثة شبكات عصبية الآن تحديد توقيت تطور الأجنة بدقة إلى الدقيقة، وهو إنجاز قد يغير مجال علم الأحياء التطوري binaryverseai.com. من خلال تدريب شبكات عصبية التففية على صور عالية الدقة لأجنة ذبابة الفاكهة، تعلم النظام تحديد الإشارات البصرية الدقيقة لدورات انقسام الخلايا. يمكنه معرفة عمر الجنين (بدقة ±1 دقيقة) دون استخدام علامات فلورية تدخلية – محققًا دقة 98–100% في الأجنة في المراحل المبكرة binaryverseai.com binaryverseai.com. هذا “ساعة الجنين” بالذكاء الاصطناعي مكنت الفريق من رسم خرائط طفرات تنشيط الجينات بدقة زمنية غير مسبوقة، مما يوفر لعلماء الأحياء أداة قوية جديدة لدراسة كيفية تشكل الأعضاء. في علم المواد، قدم باحثون من المملكة المتحدة نموذج “CrystalGPT”، المدرب على 706,000 بنية بلورية، للتنبؤ بخصائص المواد. من خلال فهمه لـ”لغة” البلورات الجزيئية (عبر ألغاز الذرات المخفية وتحديات التناظر)، يمكن لـ CrystalGPT التنبؤ بكثافة أو مسامية أو استقرار مركب جديد بسرعة أكبر بكثير من المحاكاة التقليدية binaryverseai.com binaryverseai.com. يشيد الخبراء بشفافيته – حيث تُبرز الذكاء الاصطناعي حتى أي الأحياء الذرية أثرت أكثر في التنبؤ – ما يمنح الكيميائيين الثقة بدلاً من تخمين الصندوق الأسود binaryverseai.com. يمكن أن تسرع النمذجة البلورية الأسرع التقدم في البطاريات والعوامل المساعدة ومواد أشباه الموصلات، مما يقلل أوقات وتكاليف البحث والتطوير.

الذكاء الاصطناعي للبرمجة – مع بعض التحفظات: لم تكن جميع الأبحاث وردية؛ فقد قدمت دراسة واحدة رؤية واقعية حول مساعدي البرمجة بالذكاء الاصطناعي. ففي تجربة محكومة، استغرق مطورو البرمجيات ذوو الخبرة وقتاً أطول بنسبة 19% في إنجاز مهمة باستخدام مساعد ذكاء اصطناعي مقارنةً بمجموعة ضابطة بدون ذكاء اصطناعي ts2.tech. كان المبرمجون المتمرسون يتوقعون أن يساعدهم الذكاء الاصطناعي (أداة اقتراح الشيفرة) على إنجاز العمل بشكل أسرع، لكنه غالباً ما كان يعطي شيفرات “صحيحة من حيث التوجه العام، لكنها ليست بالضبط ما هو مطلوبts2.tech. وقد أُهدر الوقت في مراجعة هذه الاقتراحات وتصحيحها. في المقابل، أظهرت دراسات سابقة زيادات كبيرة في السرعة للمبرمجين الأقل خبرة في المهام الأسهل. “إنه أشبه بتحرير مقالة أكثر من كونه كتابة من البداية،” قال أحد المبرمجين المخضرمين حول أسلوب العمل بمساعدة الذكاء الاصطناعي – ربما أكثر استرخاءً، لكنه أبطأ ts2.tech. وخلص الباحثون في METR إلى أن المساعدات الذكية الحالية ليست عصا سحرية لزيادة إنتاجية الخبراء في البرمجة المعقدة، وأن هناك حاجة لمزيد من التحسين والمراقبة البشرية ts2.tech. هذا الاستنتاج المتوازن يهدئ من الاندفاع نحو نشر الذكاء الاصطناعي المولّد للشيفرات لجميع المبرمجين.

التطلع داخل “عقل” الذكاء الاصطناعي: نشر اتحاد من كبار علماء الذكاء الاصطناعي (من OpenAI وDeepMind وAnthropic وأفضل الجامعات) ورقة بحثية بارزة يدعون فيها إلى ابتكار تقنيات جديدة لـمراقبة “تَسَلْسُل التفكير” في الذكاء الاصطناعي – وهي في الأساس خطوات التفكير الخفية التي يولدها نماذج الذكاء الاصطناعي داخليًا ts2.tech. ومع تحول أنظمة الذكاء الاصطناعي إلى المزيد من الاستقلالية (كما هي الحال مع العملاء الذين يظهرون الآن)، يجادل المؤلفون بأن القدرة على الاطلاع على تلك الأفكار الوسيطة قد يكون أمرًا حيويًا للسلامة ts2.tech. فمن خلال مراقبة تسلسل تفكير الذكاء الاصطناعي خطوة بخطوة، قد يتمكن المطورون من اكتشاف الأخطاء أو الميل إلى طرق خطرة قبل أن يتصرف الذكاء الاصطناعي. ومع ذلك، تحذر الورقة من أنه مع تزايد تعقيد النماذج، “لا يوجد ضمان بأن درجة الشفافية الحالية ستستمر” – فقد تقوم نماذج الذكاء الاصطناعي المستقبلية بإضمار تفكيرها بشكل لا يمكن تتبعه بسهولة ts2.tech. وقد حث الفريق المجتمع العلمي على “الاستفادة القصوى من إمكانية مراقبة تسلسل التفكير” الآن والسعي إلى الحفاظ على الشفافية مستقبلًا ts2.tech. ومن الجدير بالذكر أن هذه الدعوة للعمل شارك في توقيعها مجموعة من كبار علماء الذكاء الاصطناعي – بمن فيهم جيفري هينتون، والعالم الرئيسي في OpenAI إيليا سوتسكيفر (ورئيس التوافق جان ليك)، والمؤسس المشارك لـDeepMind شين ليج، وآخرون ts2.tech. إنه عرض نادر للوحدة بين مختبرات متنافسة، يعكس قلقًا مشتركًا: مع اقتراب أنظمة الذكاء الاصطناعي من مستوى التفكير البشري، يجب ألا نسمح لها بأن تصبح “صناديق سوداء” لا يمكن فهمها. البحث في “فحوصات دماغ الذكاء الاصطناعي” – قراءة فكر الذكاء الاصطناعي – قد يصبح ضروريًا بقدر أهمية إنشاء الذكاء الاصطناعي نفسه.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

التمويل، الأعمال والاستثمار في الذكاء الاصطناعي

الذكاء الاصطناعي المصمم للقطاع المالي: شهد القطاع المالي اختراقات متزايدة للذكاء الاصطناعي في المنتجات والأرباح. أطلقت شركة Anthropic خدمة Claude للخدمات المالية، وهو إصدار من مساعد الذكاء الاصطناعي Claude-4 مخصص لمحللي السوق والمصرفيين. وتدعي Anthropic أن Claude-4 يتفوق على النماذج المتقدمة الأخرى في مهام التمويل، استنادًا إلى معايير الصناعة anthropic.com. يمكن للمنصة الاتصال بالبيانات المباشرة للأسواق (عبر شركاء مثل بلومبرغ وFactSet وغيرهم) والتعامل مع أحمال العمل الكبيرة من نمذجة المخاطر حتى الأعمال الورقية للامتثال. ويبلغ المستخدمون الأوائل عن مكاسب كبيرة – على سبيل المثال، قال الرئيس التنفيذي لصندوق الثروة السيادي النرويجي البالغ قيمته 1.4 تريليون دولار (NBIM) إن Claude قد “غير بشكل جذري” سير العمل لديهم، حيث وفر ما يقدر بـزيادة في الإنتاجية بنسبة 20% (حوالي 213,000 ساعة عمل تم توفيرها) من خلال تمكين الموظفين من استعلام البيانات وتحليل مكالمات الأرباح بشكل أكثر كفاءة anthropic.com. وأشار إلى أن Claude أصبح “لا غنى عنه” بالنسبة لمحللي ومديري المخاطر في تلك الشركة anthropic.com. كما تستكشف البنوك والصناديق الكبرى المساعدين الذكاء الاصطناعي لتسريع الأبحاث مع تتبع كامل للمراجعات وتلقائية للمهام الروتينية التي عادة ما تعيق عمل الفرق المالية.

وول ستريت تراهن على شركات الذكاء الاصطناعي الناشئة: يواصل المستثمرون ضخ الأموال في مشاريع الذكاء الاصطناعي بقيم مذهلة. وجاءت أخبار هذا الأسبوع بأن Perplexity AI، الشركة الناشئة المعروفة بروبوت الدردشة البحثي المعتمد على الذكاء الاصطناعي، جمعت جولة تمويل جديدة بقيمة 100 مليون دولار، لترتفع قيمتها إلى نحو 18 مليار دولار theindependent.sg. (للمقارنة، كانت قيمة Perplexity تقارب 14 مليار دولار فقط قبل شهرين، ومليار دولار واحد في العام الماضي، مما يعكس الارتفاع الصاروخي في ثروات الذكاء الاصطناعي التوليدي theindependent.sg.) كما ظهرت صناديق جديدة تركز على الذكاء الاصطناعي: فمثلاً، أطلق أحد أوائل المستثمرين في Instacart صندوق “Verified Capital” بمبلغ 175 مليون دولار مخصص لشركات الذكاء الاصطناعي الناشئة (أُعلن عنه في 20 يوليو). وفي مجال الحوسبة السحابية، بدأت الشركات التقليدية في التكيف مع عصر الذكاء الاصطناعي – أحيانًا بشكل مؤلم. فقد أكدت أمازون أنها خفضت عدة مئات من وظائف AWS (معظمها في أدوار الدعم السحابي)، بعد أن حذّر الرئيس التنفيذي آندي جاسي من أن كفاءات الذكاء الاصطناعي ستقلص بعض الوظائف في “طبقة الوسطى” binaryverseai.com. وأشارت رسائل بريد إلكتروني داخلية هذا الأسبوع إلى أن بعض فرق نقل البيانات المتخصصة أصبحت زائدة عن الحاجة – “الدليل المرئي الأول داخل AWS” على الأتمتة المدفوعة بالذكاء الاصطناعي، كما أشارت رويترز binaryverseai.com binaryverseai.com. وقال المحللون إن حتى وحدات التكنولوجيا ذات الهوامش المرتفعة ليست محصنة: “الذكاء الاصطناعي يلتهم المهام التي يتقنها، ثم تقوم الشركات بإعادة توزيع أو الاستغناء عن الموظفين،” كما لاحظ أحدهم بتهكم binaryverseai.com. وعلى الرغم من الأرباح القوية، تواصل عملاق الحوسبة السحابية إعادة الهيكلة، مما يوضح كيف أن مكاسب الإنتاجية من الذكاء الاصطناعي قد تؤدي أيضًا إلى تقليص القوى العاملة فعليًا.

اختراقات في العلوم والرعاية الصحية

تسريع التحليل الطبي: في مجال الرعاية الصحية، تعد اختراقات الذكاء الاصطناعي بتشخيصات أسرع وإجراءات أكثر أمانًا. كشف باحثون من جامعة إنديانا ومستشفيات شريكة عن خط أنابيب “معلوماتية السرطان” مدعوم بالذكاء الاصطناعي يمكنه فحص شرائح علم الأمراض الرقمية والسجلات الصحية الإلكترونية وبيانات الجينوم للإشارة إلى احتمالية الإصابة بالسرطان واقتراح مرحلة الورم. وبحسب الباحث الرئيسي سبيريدون باكاس، فقد قلل نظام الذكاء الاصطناعي بعض إجراءات التشخيص “من أيام إلى ثوانٍ”، حيث صنّف الحالات بسرعة تفوق البشر binaryverseai.com binaryverseai.com. كما كشف الأداة عن ترابطات دقيقة عبر بيانات متعددة الأنماط قد يغفل عنها البشر، على الرغم من إصرار الفريق على أن أطباء علم الأمراض يظلون ضروريين للحالات الصعبة والأحكام النهائية binaryverseai.com. يجسد هذا المشروع اتجاهًا أوسع نحو الطب متعدد الأنماط بالذكاء الاصطناعي الذي يمكنه استيعاب أنواع عديدة من البيانات مرة واحدة. وبالمثل، أفاد أطباء الأشعة بنجاحهم في استخدام نموذج ذكاء اصطناعي يُدعى mViT (محول رؤي معدل) لتحسين فحوصات الأشعة المقطعية للأطفال binaryverseai.com binaryverseai.com. يمكن لأجهزة الأشعة المقطعية التي تعتمد تقنية عدّ الفوتونات أن تقلل من جرعة الأشعة السينية للأطفال، إلا أنها غالبًا ما تنتج صورًا مشوشة؛ حيث تعلم نظام mViT إزالة التشويش من الفحوصات مباشرة، مما يجعل الشرايين والأنسجة أوضح دون التمويه الناتج عن أساليب تقليل الضوضاء القديمة binaryverseai.com binaryverseai.com. وأظهرت الاختبارات التي أُجريت على 20 مريضًا صغيرًا أن الذكاء الاصطناعي تفوق باستمرار على المرشحات التقليدية، مما يسمح على الأرجح بالحصول على فحوصات أكثر وضوحًا وأقل جرعة إشعاعية – وهو مكسب لسلامة المرضى الأطفال مع حصول أجهزة الأشعة المقطعية الجديدة على موافقة إدارة الغذاء والدواء الأمريكية binaryverseai.com.

الاختراقات في علم الأحياء والمواد: تدفع الذكاء الاصطناعي أيضًا العلوم الأساسية إلى الأمام. وصفت دراسة جديدة في Nature Communications كيف يمكن لثلاثة شبكات عصبية الآن تحديد توقيت تطور الأجنة بدقة إلى الدقيقة، وهو إنجاز قد يغير مجال علم الأحياء التطوري binaryverseai.com. من خلال تدريب شبكات عصبية التففية على صور عالية الدقة لأجنة ذبابة الفاكهة، تعلم النظام تحديد الإشارات البصرية الدقيقة لدورات انقسام الخلايا. يمكنه معرفة عمر الجنين (بدقة ±1 دقيقة) دون استخدام علامات فلورية تدخلية – محققًا دقة 98–100% في الأجنة في المراحل المبكرة binaryverseai.com binaryverseai.com. هذا “ساعة الجنين” بالذكاء الاصطناعي مكنت الفريق من رسم خرائط طفرات تنشيط الجينات بدقة زمنية غير مسبوقة، مما يوفر لعلماء الأحياء أداة قوية جديدة لدراسة كيفية تشكل الأعضاء. في علم المواد، قدم باحثون من المملكة المتحدة نموذج “CrystalGPT”، المدرب على 706,000 بنية بلورية، للتنبؤ بخصائص المواد. من خلال فهمه لـ”لغة” البلورات الجزيئية (عبر ألغاز الذرات المخفية وتحديات التناظر)، يمكن لـ CrystalGPT التنبؤ بكثافة أو مسامية أو استقرار مركب جديد بسرعة أكبر بكثير من المحاكاة التقليدية binaryverseai.com binaryverseai.com. يشيد الخبراء بشفافيته – حيث تُبرز الذكاء الاصطناعي حتى أي الأحياء الذرية أثرت أكثر في التنبؤ – ما يمنح الكيميائيين الثقة بدلاً من تخمين الصندوق الأسود binaryverseai.com. يمكن أن تسرع النمذجة البلورية الأسرع التقدم في البطاريات والعوامل المساعدة ومواد أشباه الموصلات، مما يقلل أوقات وتكاليف البحث والتطوير.

الذكاء الاصطناعي للبرمجة – مع بعض التحفظات: لم تكن جميع الأبحاث وردية؛ فقد قدمت دراسة واحدة رؤية واقعية حول مساعدي البرمجة بالذكاء الاصطناعي. ففي تجربة محكومة، استغرق مطورو البرمجيات ذوو الخبرة وقتاً أطول بنسبة 19% في إنجاز مهمة باستخدام مساعد ذكاء اصطناعي مقارنةً بمجموعة ضابطة بدون ذكاء اصطناعي ts2.tech. كان المبرمجون المتمرسون يتوقعون أن يساعدهم الذكاء الاصطناعي (أداة اقتراح الشيفرة) على إنجاز العمل بشكل أسرع، لكنه غالباً ما كان يعطي شيفرات “صحيحة من حيث التوجه العام، لكنها ليست بالضبط ما هو مطلوبts2.tech. وقد أُهدر الوقت في مراجعة هذه الاقتراحات وتصحيحها. في المقابل، أظهرت دراسات سابقة زيادات كبيرة في السرعة للمبرمجين الأقل خبرة في المهام الأسهل. “إنه أشبه بتحرير مقالة أكثر من كونه كتابة من البداية،” قال أحد المبرمجين المخضرمين حول أسلوب العمل بمساعدة الذكاء الاصطناعي – ربما أكثر استرخاءً، لكنه أبطأ ts2.tech. وخلص الباحثون في METR إلى أن المساعدات الذكية الحالية ليست عصا سحرية لزيادة إنتاجية الخبراء في البرمجة المعقدة، وأن هناك حاجة لمزيد من التحسين والمراقبة البشرية ts2.tech. هذا الاستنتاج المتوازن يهدئ من الاندفاع نحو نشر الذكاء الاصطناعي المولّد للشيفرات لجميع المبرمجين.

التطلع داخل “عقل” الذكاء الاصطناعي: نشر اتحاد من كبار علماء الذكاء الاصطناعي (من OpenAI وDeepMind وAnthropic وأفضل الجامعات) ورقة بحثية بارزة يدعون فيها إلى ابتكار تقنيات جديدة لـمراقبة “تَسَلْسُل التفكير” في الذكاء الاصطناعي – وهي في الأساس خطوات التفكير الخفية التي يولدها نماذج الذكاء الاصطناعي داخليًا ts2.tech. ومع تحول أنظمة الذكاء الاصطناعي إلى المزيد من الاستقلالية (كما هي الحال مع العملاء الذين يظهرون الآن)، يجادل المؤلفون بأن القدرة على الاطلاع على تلك الأفكار الوسيطة قد يكون أمرًا حيويًا للسلامة ts2.tech. فمن خلال مراقبة تسلسل تفكير الذكاء الاصطناعي خطوة بخطوة، قد يتمكن المطورون من اكتشاف الأخطاء أو الميل إلى طرق خطرة قبل أن يتصرف الذكاء الاصطناعي. ومع ذلك، تحذر الورقة من أنه مع تزايد تعقيد النماذج، “لا يوجد ضمان بأن درجة الشفافية الحالية ستستمر” – فقد تقوم نماذج الذكاء الاصطناعي المستقبلية بإضمار تفكيرها بشكل لا يمكن تتبعه بسهولة ts2.tech. وقد حث الفريق المجتمع العلمي على “الاستفادة القصوى من إمكانية مراقبة تسلسل التفكير” الآن والسعي إلى الحفاظ على الشفافية مستقبلًا ts2.tech. ومن الجدير بالذكر أن هذه الدعوة للعمل شارك في توقيعها مجموعة من كبار علماء الذكاء الاصطناعي – بمن فيهم جيفري هينتون، والعالم الرئيسي في OpenAI إيليا سوتسكيفر (ورئيس التوافق جان ليك)، والمؤسس المشارك لـDeepMind شين ليج، وآخرون ts2.tech. إنه عرض نادر للوحدة بين مختبرات متنافسة، يعكس قلقًا مشتركًا: مع اقتراب أنظمة الذكاء الاصطناعي من مستوى التفكير البشري، يجب ألا نسمح لها بأن تصبح “صناديق سوداء” لا يمكن فهمها. البحث في “فحوصات دماغ الذكاء الاصطناعي” – قراءة فكر الذكاء الاصطناعي – قد يصبح ضروريًا بقدر أهمية إنشاء الذكاء الاصطناعي نفسه.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

الذكاء الاصطناعي في الإعلام، الترفيه والصناعات الإبداعية

نتفليكس تتبنى الذكاء الاصطناعي في المؤثرات البصرية: شهدت هوليوود سابقة ملحوظة: فقد كشفت نتفليكس في مكالمة الأرباح الخاصة بها أنها بدأت في استخدام الذكاء الاصطناعي التوليدي في إنتاج المحتوى، بما في ذلك لقطات تم إنشاؤها بالكامل بالذكاء الاصطناعي لأول مرة في عرض من عروض نتفليكس ts2.tech. في السلسلة الأرجنتينية الخيالية العلمية “El Eternauta”، تم إنشاء مشهد كامل لانهيار مبنى باستخدام الذكاء الاصطناعي – وقد تم إنجازه أسرع بعشر مرات وبتكلفة أقل مقارنة باستخدام المؤثرات البصرية التقليدية techcrunch.com. شدد الرئيس التنفيذي المشارك تيد ساراندوس على أن الذكاء الاصطناعي يُستخدم لتمكين المبدعين وليس لاستبدالهم، قائلاً: “الذكاء الاصطناعي يمثل فرصة مذهلة لمساعدة المبدعين على صنع أفلام ومسلسلات أفضل، وليس فقط أرخص … هؤلاء أشخاص حقيقيون ينفذون عملاً حقيقياً بأدوات أفضل.” techcrunch.com وأشار إلى أن فناني نتفليكس يرون بالفعل فوائد في مرحلة التصور المسبق وتخطيط المشاهد. كما تطبق نتفليكس الذكاء الاصطناعي التوليدي خارج نطاق المؤثرات البصرية – حيث تستخدمه لاكتشاف المحتوى بشكل شخصي، وتستعد لإطلاق إعلانات تفاعلية مدعومة بالذكاء الاصطناعي في وقت لاحق من هذا العام techcrunch.com.

الموضة التوليدية وسحر الفيديو: امتدت لمسة الذكاء الاصطناعي الإبداعية إلى عالم الموضة والفيديو. أجرى باحثون في كوريا الجنوبية تجارب على “الموضة التوليدية”، حيث استخدموا ChatGPT للتنبؤ باتجاهات الموضة القادمة وDALL·E 3 لإنشاء أكثر من 100 زي افتراضي لمجموعة خريف/شتاء binaryverseai.com binaryverseai.com. توافقت حوالي ثلثي التصاميم التي أنشأها الذكاء الاصطناعي مع الأنماط السائدة في العالم الواقعي، ما يشير إلى أن النماذج التوليدية قد تكشف عن الاتجاهات قبل المصممين أنفسهم. (لكن الذكاء الاصطناعي تعثر في مفاهيم مُجرّدة مثل التصاميم ذات الهوية الجندرية السائلة، مما يؤكد أن المصممين البشر لا يزالون يمسكون بالبوصلة الإبداعية binaryverseai.com.) وفي تكنولوجيا صناعة الأفلام، كشفت NVIDIA وشركاؤها الجامعيون عن DiffusionRenderer، وهو نظام ذكاء اصطناعي من مرحلتين يدمج بين العرض المعكوس والمتقدم لجعل التأثيرات البصرية المتقدمة متاحة للمبدعين المستقلين binaryverseai.com binaryverseai.com. في أحد العروض التوضيحية، تمكن المستخدم من تصوير مشهد بسيط ثم إدخال تنين رسوم متحركة ينتج ظلالاً واقعية تماماً دون الحاجة إلى حساسات معقدة أو إعدادات إضاءة يدوية – فقد تعلم الذكاء الاصطناعي هندسة وإضاءة المشهد من اللقطات نفسها binaryverseai.com binaryverseai.com. والنتيجة تضيق الفجوة بين استوديوهات الإنتاج الكبرى والمبدعين الصغار، وتلمّح لمستقبل تحرير فيديو يكاد يكون “سحرياً” متاحاً للجميع.

التمويل، الأعمال والاستثمار في الذكاء الاصطناعي

الذكاء الاصطناعي المصمم للقطاع المالي: شهد القطاع المالي اختراقات متزايدة للذكاء الاصطناعي في المنتجات والأرباح. أطلقت شركة Anthropic خدمة Claude للخدمات المالية، وهو إصدار من مساعد الذكاء الاصطناعي Claude-4 مخصص لمحللي السوق والمصرفيين. وتدعي Anthropic أن Claude-4 يتفوق على النماذج المتقدمة الأخرى في مهام التمويل، استنادًا إلى معايير الصناعة anthropic.com. يمكن للمنصة الاتصال بالبيانات المباشرة للأسواق (عبر شركاء مثل بلومبرغ وFactSet وغيرهم) والتعامل مع أحمال العمل الكبيرة من نمذجة المخاطر حتى الأعمال الورقية للامتثال. ويبلغ المستخدمون الأوائل عن مكاسب كبيرة – على سبيل المثال، قال الرئيس التنفيذي لصندوق الثروة السيادي النرويجي البالغ قيمته 1.4 تريليون دولار (NBIM) إن Claude قد “غير بشكل جذري” سير العمل لديهم، حيث وفر ما يقدر بـزيادة في الإنتاجية بنسبة 20% (حوالي 213,000 ساعة عمل تم توفيرها) من خلال تمكين الموظفين من استعلام البيانات وتحليل مكالمات الأرباح بشكل أكثر كفاءة anthropic.com. وأشار إلى أن Claude أصبح “لا غنى عنه” بالنسبة لمحللي ومديري المخاطر في تلك الشركة anthropic.com. كما تستكشف البنوك والصناديق الكبرى المساعدين الذكاء الاصطناعي لتسريع الأبحاث مع تتبع كامل للمراجعات وتلقائية للمهام الروتينية التي عادة ما تعيق عمل الفرق المالية.

وول ستريت تراهن على شركات الذكاء الاصطناعي الناشئة: يواصل المستثمرون ضخ الأموال في مشاريع الذكاء الاصطناعي بقيم مذهلة. وجاءت أخبار هذا الأسبوع بأن Perplexity AI، الشركة الناشئة المعروفة بروبوت الدردشة البحثي المعتمد على الذكاء الاصطناعي، جمعت جولة تمويل جديدة بقيمة 100 مليون دولار، لترتفع قيمتها إلى نحو 18 مليار دولار theindependent.sg. (للمقارنة، كانت قيمة Perplexity تقارب 14 مليار دولار فقط قبل شهرين، ومليار دولار واحد في العام الماضي، مما يعكس الارتفاع الصاروخي في ثروات الذكاء الاصطناعي التوليدي theindependent.sg.) كما ظهرت صناديق جديدة تركز على الذكاء الاصطناعي: فمثلاً، أطلق أحد أوائل المستثمرين في Instacart صندوق “Verified Capital” بمبلغ 175 مليون دولار مخصص لشركات الذكاء الاصطناعي الناشئة (أُعلن عنه في 20 يوليو). وفي مجال الحوسبة السحابية، بدأت الشركات التقليدية في التكيف مع عصر الذكاء الاصطناعي – أحيانًا بشكل مؤلم. فقد أكدت أمازون أنها خفضت عدة مئات من وظائف AWS (معظمها في أدوار الدعم السحابي)، بعد أن حذّر الرئيس التنفيذي آندي جاسي من أن كفاءات الذكاء الاصطناعي ستقلص بعض الوظائف في “طبقة الوسطى” binaryverseai.com. وأشارت رسائل بريد إلكتروني داخلية هذا الأسبوع إلى أن بعض فرق نقل البيانات المتخصصة أصبحت زائدة عن الحاجة – “الدليل المرئي الأول داخل AWS” على الأتمتة المدفوعة بالذكاء الاصطناعي، كما أشارت رويترز binaryverseai.com binaryverseai.com. وقال المحللون إن حتى وحدات التكنولوجيا ذات الهوامش المرتفعة ليست محصنة: “الذكاء الاصطناعي يلتهم المهام التي يتقنها، ثم تقوم الشركات بإعادة توزيع أو الاستغناء عن الموظفين،” كما لاحظ أحدهم بتهكم binaryverseai.com. وعلى الرغم من الأرباح القوية، تواصل عملاق الحوسبة السحابية إعادة الهيكلة، مما يوضح كيف أن مكاسب الإنتاجية من الذكاء الاصطناعي قد تؤدي أيضًا إلى تقليص القوى العاملة فعليًا.

اختراقات في العلوم والرعاية الصحية

تسريع التحليل الطبي: في مجال الرعاية الصحية، تعد اختراقات الذكاء الاصطناعي بتشخيصات أسرع وإجراءات أكثر أمانًا. كشف باحثون من جامعة إنديانا ومستشفيات شريكة عن خط أنابيب “معلوماتية السرطان” مدعوم بالذكاء الاصطناعي يمكنه فحص شرائح علم الأمراض الرقمية والسجلات الصحية الإلكترونية وبيانات الجينوم للإشارة إلى احتمالية الإصابة بالسرطان واقتراح مرحلة الورم. وبحسب الباحث الرئيسي سبيريدون باكاس، فقد قلل نظام الذكاء الاصطناعي بعض إجراءات التشخيص “من أيام إلى ثوانٍ”، حيث صنّف الحالات بسرعة تفوق البشر binaryverseai.com binaryverseai.com. كما كشف الأداة عن ترابطات دقيقة عبر بيانات متعددة الأنماط قد يغفل عنها البشر، على الرغم من إصرار الفريق على أن أطباء علم الأمراض يظلون ضروريين للحالات الصعبة والأحكام النهائية binaryverseai.com. يجسد هذا المشروع اتجاهًا أوسع نحو الطب متعدد الأنماط بالذكاء الاصطناعي الذي يمكنه استيعاب أنواع عديدة من البيانات مرة واحدة. وبالمثل، أفاد أطباء الأشعة بنجاحهم في استخدام نموذج ذكاء اصطناعي يُدعى mViT (محول رؤي معدل) لتحسين فحوصات الأشعة المقطعية للأطفال binaryverseai.com binaryverseai.com. يمكن لأجهزة الأشعة المقطعية التي تعتمد تقنية عدّ الفوتونات أن تقلل من جرعة الأشعة السينية للأطفال، إلا أنها غالبًا ما تنتج صورًا مشوشة؛ حيث تعلم نظام mViT إزالة التشويش من الفحوصات مباشرة، مما يجعل الشرايين والأنسجة أوضح دون التمويه الناتج عن أساليب تقليل الضوضاء القديمة binaryverseai.com binaryverseai.com. وأظهرت الاختبارات التي أُجريت على 20 مريضًا صغيرًا أن الذكاء الاصطناعي تفوق باستمرار على المرشحات التقليدية، مما يسمح على الأرجح بالحصول على فحوصات أكثر وضوحًا وأقل جرعة إشعاعية – وهو مكسب لسلامة المرضى الأطفال مع حصول أجهزة الأشعة المقطعية الجديدة على موافقة إدارة الغذاء والدواء الأمريكية binaryverseai.com.

الاختراقات في علم الأحياء والمواد: تدفع الذكاء الاصطناعي أيضًا العلوم الأساسية إلى الأمام. وصفت دراسة جديدة في Nature Communications كيف يمكن لثلاثة شبكات عصبية الآن تحديد توقيت تطور الأجنة بدقة إلى الدقيقة، وهو إنجاز قد يغير مجال علم الأحياء التطوري binaryverseai.com. من خلال تدريب شبكات عصبية التففية على صور عالية الدقة لأجنة ذبابة الفاكهة، تعلم النظام تحديد الإشارات البصرية الدقيقة لدورات انقسام الخلايا. يمكنه معرفة عمر الجنين (بدقة ±1 دقيقة) دون استخدام علامات فلورية تدخلية – محققًا دقة 98–100% في الأجنة في المراحل المبكرة binaryverseai.com binaryverseai.com. هذا “ساعة الجنين” بالذكاء الاصطناعي مكنت الفريق من رسم خرائط طفرات تنشيط الجينات بدقة زمنية غير مسبوقة، مما يوفر لعلماء الأحياء أداة قوية جديدة لدراسة كيفية تشكل الأعضاء. في علم المواد، قدم باحثون من المملكة المتحدة نموذج “CrystalGPT”، المدرب على 706,000 بنية بلورية، للتنبؤ بخصائص المواد. من خلال فهمه لـ”لغة” البلورات الجزيئية (عبر ألغاز الذرات المخفية وتحديات التناظر)، يمكن لـ CrystalGPT التنبؤ بكثافة أو مسامية أو استقرار مركب جديد بسرعة أكبر بكثير من المحاكاة التقليدية binaryverseai.com binaryverseai.com. يشيد الخبراء بشفافيته – حيث تُبرز الذكاء الاصطناعي حتى أي الأحياء الذرية أثرت أكثر في التنبؤ – ما يمنح الكيميائيين الثقة بدلاً من تخمين الصندوق الأسود binaryverseai.com. يمكن أن تسرع النمذجة البلورية الأسرع التقدم في البطاريات والعوامل المساعدة ومواد أشباه الموصلات، مما يقلل أوقات وتكاليف البحث والتطوير.

الذكاء الاصطناعي للبرمجة – مع بعض التحفظات: لم تكن جميع الأبحاث وردية؛ فقد قدمت دراسة واحدة رؤية واقعية حول مساعدي البرمجة بالذكاء الاصطناعي. ففي تجربة محكومة، استغرق مطورو البرمجيات ذوو الخبرة وقتاً أطول بنسبة 19% في إنجاز مهمة باستخدام مساعد ذكاء اصطناعي مقارنةً بمجموعة ضابطة بدون ذكاء اصطناعي ts2.tech. كان المبرمجون المتمرسون يتوقعون أن يساعدهم الذكاء الاصطناعي (أداة اقتراح الشيفرة) على إنجاز العمل بشكل أسرع، لكنه غالباً ما كان يعطي شيفرات “صحيحة من حيث التوجه العام، لكنها ليست بالضبط ما هو مطلوبts2.tech. وقد أُهدر الوقت في مراجعة هذه الاقتراحات وتصحيحها. في المقابل، أظهرت دراسات سابقة زيادات كبيرة في السرعة للمبرمجين الأقل خبرة في المهام الأسهل. “إنه أشبه بتحرير مقالة أكثر من كونه كتابة من البداية،” قال أحد المبرمجين المخضرمين حول أسلوب العمل بمساعدة الذكاء الاصطناعي – ربما أكثر استرخاءً، لكنه أبطأ ts2.tech. وخلص الباحثون في METR إلى أن المساعدات الذكية الحالية ليست عصا سحرية لزيادة إنتاجية الخبراء في البرمجة المعقدة، وأن هناك حاجة لمزيد من التحسين والمراقبة البشرية ts2.tech. هذا الاستنتاج المتوازن يهدئ من الاندفاع نحو نشر الذكاء الاصطناعي المولّد للشيفرات لجميع المبرمجين.

التطلع داخل “عقل” الذكاء الاصطناعي: نشر اتحاد من كبار علماء الذكاء الاصطناعي (من OpenAI وDeepMind وAnthropic وأفضل الجامعات) ورقة بحثية بارزة يدعون فيها إلى ابتكار تقنيات جديدة لـمراقبة “تَسَلْسُل التفكير” في الذكاء الاصطناعي – وهي في الأساس خطوات التفكير الخفية التي يولدها نماذج الذكاء الاصطناعي داخليًا ts2.tech. ومع تحول أنظمة الذكاء الاصطناعي إلى المزيد من الاستقلالية (كما هي الحال مع العملاء الذين يظهرون الآن)، يجادل المؤلفون بأن القدرة على الاطلاع على تلك الأفكار الوسيطة قد يكون أمرًا حيويًا للسلامة ts2.tech. فمن خلال مراقبة تسلسل تفكير الذكاء الاصطناعي خطوة بخطوة، قد يتمكن المطورون من اكتشاف الأخطاء أو الميل إلى طرق خطرة قبل أن يتصرف الذكاء الاصطناعي. ومع ذلك، تحذر الورقة من أنه مع تزايد تعقيد النماذج، “لا يوجد ضمان بأن درجة الشفافية الحالية ستستمر” – فقد تقوم نماذج الذكاء الاصطناعي المستقبلية بإضمار تفكيرها بشكل لا يمكن تتبعه بسهولة ts2.tech. وقد حث الفريق المجتمع العلمي على “الاستفادة القصوى من إمكانية مراقبة تسلسل التفكير” الآن والسعي إلى الحفاظ على الشفافية مستقبلًا ts2.tech. ومن الجدير بالذكر أن هذه الدعوة للعمل شارك في توقيعها مجموعة من كبار علماء الذكاء الاصطناعي – بمن فيهم جيفري هينتون، والعالم الرئيسي في OpenAI إيليا سوتسكيفر (ورئيس التوافق جان ليك)، والمؤسس المشارك لـDeepMind شين ليج، وآخرون ts2.tech. إنه عرض نادر للوحدة بين مختبرات متنافسة، يعكس قلقًا مشتركًا: مع اقتراب أنظمة الذكاء الاصطناعي من مستوى التفكير البشري، يجب ألا نسمح لها بأن تصبح “صناديق سوداء” لا يمكن فهمها. البحث في “فحوصات دماغ الذكاء الاصطناعي” – قراءة فكر الذكاء الاصطناعي – قد يصبح ضروريًا بقدر أهمية إنشاء الذكاء الاصطناعي نفسه.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

اختراقات في العلوم والرعاية الصحية

تسريع التحليل الطبي: في مجال الرعاية الصحية، تعد اختراقات الذكاء الاصطناعي بتشخيصات أسرع وإجراءات أكثر أمانًا. كشف باحثون من جامعة إنديانا ومستشفيات شريكة عن خط أنابيب “معلوماتية السرطان” مدعوم بالذكاء الاصطناعي يمكنه فحص شرائح علم الأمراض الرقمية والسجلات الصحية الإلكترونية وبيانات الجينوم للإشارة إلى احتمالية الإصابة بالسرطان واقتراح مرحلة الورم. وبحسب الباحث الرئيسي سبيريدون باكاس، فقد قلل نظام الذكاء الاصطناعي بعض إجراءات التشخيص “من أيام إلى ثوانٍ”، حيث صنّف الحالات بسرعة تفوق البشر binaryverseai.com binaryverseai.com. كما كشف الأداة عن ترابطات دقيقة عبر بيانات متعددة الأنماط قد يغفل عنها البشر، على الرغم من إصرار الفريق على أن أطباء علم الأمراض يظلون ضروريين للحالات الصعبة والأحكام النهائية binaryverseai.com. يجسد هذا المشروع اتجاهًا أوسع نحو الطب متعدد الأنماط بالذكاء الاصطناعي الذي يمكنه استيعاب أنواع عديدة من البيانات مرة واحدة. وبالمثل، أفاد أطباء الأشعة بنجاحهم في استخدام نموذج ذكاء اصطناعي يُدعى mViT (محول رؤي معدل) لتحسين فحوصات الأشعة المقطعية للأطفال binaryverseai.com binaryverseai.com. يمكن لأجهزة الأشعة المقطعية التي تعتمد تقنية عدّ الفوتونات أن تقلل من جرعة الأشعة السينية للأطفال، إلا أنها غالبًا ما تنتج صورًا مشوشة؛ حيث تعلم نظام mViT إزالة التشويش من الفحوصات مباشرة، مما يجعل الشرايين والأنسجة أوضح دون التمويه الناتج عن أساليب تقليل الضوضاء القديمة binaryverseai.com binaryverseai.com. وأظهرت الاختبارات التي أُجريت على 20 مريضًا صغيرًا أن الذكاء الاصطناعي تفوق باستمرار على المرشحات التقليدية، مما يسمح على الأرجح بالحصول على فحوصات أكثر وضوحًا وأقل جرعة إشعاعية – وهو مكسب لسلامة المرضى الأطفال مع حصول أجهزة الأشعة المقطعية الجديدة على موافقة إدارة الغذاء والدواء الأمريكية binaryverseai.com.

الاختراقات في علم الأحياء والمواد: تدفع الذكاء الاصطناعي أيضًا العلوم الأساسية إلى الأمام. وصفت دراسة جديدة في Nature Communications كيف يمكن لثلاثة شبكات عصبية الآن تحديد توقيت تطور الأجنة بدقة إلى الدقيقة، وهو إنجاز قد يغير مجال علم الأحياء التطوري binaryverseai.com. من خلال تدريب شبكات عصبية التففية على صور عالية الدقة لأجنة ذبابة الفاكهة، تعلم النظام تحديد الإشارات البصرية الدقيقة لدورات انقسام الخلايا. يمكنه معرفة عمر الجنين (بدقة ±1 دقيقة) دون استخدام علامات فلورية تدخلية – محققًا دقة 98–100% في الأجنة في المراحل المبكرة binaryverseai.com binaryverseai.com. هذا “ساعة الجنين” بالذكاء الاصطناعي مكنت الفريق من رسم خرائط طفرات تنشيط الجينات بدقة زمنية غير مسبوقة، مما يوفر لعلماء الأحياء أداة قوية جديدة لدراسة كيفية تشكل الأعضاء. في علم المواد، قدم باحثون من المملكة المتحدة نموذج “CrystalGPT”، المدرب على 706,000 بنية بلورية، للتنبؤ بخصائص المواد. من خلال فهمه لـ”لغة” البلورات الجزيئية (عبر ألغاز الذرات المخفية وتحديات التناظر)، يمكن لـ CrystalGPT التنبؤ بكثافة أو مسامية أو استقرار مركب جديد بسرعة أكبر بكثير من المحاكاة التقليدية binaryverseai.com binaryverseai.com. يشيد الخبراء بشفافيته – حيث تُبرز الذكاء الاصطناعي حتى أي الأحياء الذرية أثرت أكثر في التنبؤ – ما يمنح الكيميائيين الثقة بدلاً من تخمين الصندوق الأسود binaryverseai.com. يمكن أن تسرع النمذجة البلورية الأسرع التقدم في البطاريات والعوامل المساعدة ومواد أشباه الموصلات، مما يقلل أوقات وتكاليف البحث والتطوير.

الذكاء الاصطناعي للبرمجة – مع بعض التحفظات: لم تكن جميع الأبحاث وردية؛ فقد قدمت دراسة واحدة رؤية واقعية حول مساعدي البرمجة بالذكاء الاصطناعي. ففي تجربة محكومة، استغرق مطورو البرمجيات ذوو الخبرة وقتاً أطول بنسبة 19% في إنجاز مهمة باستخدام مساعد ذكاء اصطناعي مقارنةً بمجموعة ضابطة بدون ذكاء اصطناعي ts2.tech. كان المبرمجون المتمرسون يتوقعون أن يساعدهم الذكاء الاصطناعي (أداة اقتراح الشيفرة) على إنجاز العمل بشكل أسرع، لكنه غالباً ما كان يعطي شيفرات “صحيحة من حيث التوجه العام، لكنها ليست بالضبط ما هو مطلوبts2.tech. وقد أُهدر الوقت في مراجعة هذه الاقتراحات وتصحيحها. في المقابل، أظهرت دراسات سابقة زيادات كبيرة في السرعة للمبرمجين الأقل خبرة في المهام الأسهل. “إنه أشبه بتحرير مقالة أكثر من كونه كتابة من البداية،” قال أحد المبرمجين المخضرمين حول أسلوب العمل بمساعدة الذكاء الاصطناعي – ربما أكثر استرخاءً، لكنه أبطأ ts2.tech. وخلص الباحثون في METR إلى أن المساعدات الذكية الحالية ليست عصا سحرية لزيادة إنتاجية الخبراء في البرمجة المعقدة، وأن هناك حاجة لمزيد من التحسين والمراقبة البشرية ts2.tech. هذا الاستنتاج المتوازن يهدئ من الاندفاع نحو نشر الذكاء الاصطناعي المولّد للشيفرات لجميع المبرمجين.

التطلع داخل “عقل” الذكاء الاصطناعي: نشر اتحاد من كبار علماء الذكاء الاصطناعي (من OpenAI وDeepMind وAnthropic وأفضل الجامعات) ورقة بحثية بارزة يدعون فيها إلى ابتكار تقنيات جديدة لـمراقبة “تَسَلْسُل التفكير” في الذكاء الاصطناعي – وهي في الأساس خطوات التفكير الخفية التي يولدها نماذج الذكاء الاصطناعي داخليًا ts2.tech. ومع تحول أنظمة الذكاء الاصطناعي إلى المزيد من الاستقلالية (كما هي الحال مع العملاء الذين يظهرون الآن)، يجادل المؤلفون بأن القدرة على الاطلاع على تلك الأفكار الوسيطة قد يكون أمرًا حيويًا للسلامة ts2.tech. فمن خلال مراقبة تسلسل تفكير الذكاء الاصطناعي خطوة بخطوة، قد يتمكن المطورون من اكتشاف الأخطاء أو الميل إلى طرق خطرة قبل أن يتصرف الذكاء الاصطناعي. ومع ذلك، تحذر الورقة من أنه مع تزايد تعقيد النماذج، “لا يوجد ضمان بأن درجة الشفافية الحالية ستستمر” – فقد تقوم نماذج الذكاء الاصطناعي المستقبلية بإضمار تفكيرها بشكل لا يمكن تتبعه بسهولة ts2.tech. وقد حث الفريق المجتمع العلمي على “الاستفادة القصوى من إمكانية مراقبة تسلسل التفكير” الآن والسعي إلى الحفاظ على الشفافية مستقبلًا ts2.tech. ومن الجدير بالذكر أن هذه الدعوة للعمل شارك في توقيعها مجموعة من كبار علماء الذكاء الاصطناعي – بمن فيهم جيفري هينتون، والعالم الرئيسي في OpenAI إيليا سوتسكيفر (ورئيس التوافق جان ليك)، والمؤسس المشارك لـDeepMind شين ليج، وآخرون ts2.tech. إنه عرض نادر للوحدة بين مختبرات متنافسة، يعكس قلقًا مشتركًا: مع اقتراب أنظمة الذكاء الاصطناعي من مستوى التفكير البشري، يجب ألا نسمح لها بأن تصبح “صناديق سوداء” لا يمكن فهمها. البحث في “فحوصات دماغ الذكاء الاصطناعي” – قراءة فكر الذكاء الاصطناعي – قد يصبح ضروريًا بقدر أهمية إنشاء الذكاء الاصطناعي نفسه.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

التمويل، الأعمال والاستثمار في الذكاء الاصطناعي

الذكاء الاصطناعي المصمم للقطاع المالي: شهد القطاع المالي اختراقات متزايدة للذكاء الاصطناعي في المنتجات والأرباح. أطلقت شركة Anthropic خدمة Claude للخدمات المالية، وهو إصدار من مساعد الذكاء الاصطناعي Claude-4 مخصص لمحللي السوق والمصرفيين. وتدعي Anthropic أن Claude-4 يتفوق على النماذج المتقدمة الأخرى في مهام التمويل، استنادًا إلى معايير الصناعة anthropic.com. يمكن للمنصة الاتصال بالبيانات المباشرة للأسواق (عبر شركاء مثل بلومبرغ وFactSet وغيرهم) والتعامل مع أحمال العمل الكبيرة من نمذجة المخاطر حتى الأعمال الورقية للامتثال. ويبلغ المستخدمون الأوائل عن مكاسب كبيرة – على سبيل المثال، قال الرئيس التنفيذي لصندوق الثروة السيادي النرويجي البالغ قيمته 1.4 تريليون دولار (NBIM) إن Claude قد “غير بشكل جذري” سير العمل لديهم، حيث وفر ما يقدر بـزيادة في الإنتاجية بنسبة 20% (حوالي 213,000 ساعة عمل تم توفيرها) من خلال تمكين الموظفين من استعلام البيانات وتحليل مكالمات الأرباح بشكل أكثر كفاءة anthropic.com. وأشار إلى أن Claude أصبح “لا غنى عنه” بالنسبة لمحللي ومديري المخاطر في تلك الشركة anthropic.com. كما تستكشف البنوك والصناديق الكبرى المساعدين الذكاء الاصطناعي لتسريع الأبحاث مع تتبع كامل للمراجعات وتلقائية للمهام الروتينية التي عادة ما تعيق عمل الفرق المالية.

وول ستريت تراهن على شركات الذكاء الاصطناعي الناشئة: يواصل المستثمرون ضخ الأموال في مشاريع الذكاء الاصطناعي بقيم مذهلة. وجاءت أخبار هذا الأسبوع بأن Perplexity AI، الشركة الناشئة المعروفة بروبوت الدردشة البحثي المعتمد على الذكاء الاصطناعي، جمعت جولة تمويل جديدة بقيمة 100 مليون دولار، لترتفع قيمتها إلى نحو 18 مليار دولار theindependent.sg. (للمقارنة، كانت قيمة Perplexity تقارب 14 مليار دولار فقط قبل شهرين، ومليار دولار واحد في العام الماضي، مما يعكس الارتفاع الصاروخي في ثروات الذكاء الاصطناعي التوليدي theindependent.sg.) كما ظهرت صناديق جديدة تركز على الذكاء الاصطناعي: فمثلاً، أطلق أحد أوائل المستثمرين في Instacart صندوق “Verified Capital” بمبلغ 175 مليون دولار مخصص لشركات الذكاء الاصطناعي الناشئة (أُعلن عنه في 20 يوليو). وفي مجال الحوسبة السحابية، بدأت الشركات التقليدية في التكيف مع عصر الذكاء الاصطناعي – أحيانًا بشكل مؤلم. فقد أكدت أمازون أنها خفضت عدة مئات من وظائف AWS (معظمها في أدوار الدعم السحابي)، بعد أن حذّر الرئيس التنفيذي آندي جاسي من أن كفاءات الذكاء الاصطناعي ستقلص بعض الوظائف في “طبقة الوسطى” binaryverseai.com. وأشارت رسائل بريد إلكتروني داخلية هذا الأسبوع إلى أن بعض فرق نقل البيانات المتخصصة أصبحت زائدة عن الحاجة – “الدليل المرئي الأول داخل AWS” على الأتمتة المدفوعة بالذكاء الاصطناعي، كما أشارت رويترز binaryverseai.com binaryverseai.com. وقال المحللون إن حتى وحدات التكنولوجيا ذات الهوامش المرتفعة ليست محصنة: “الذكاء الاصطناعي يلتهم المهام التي يتقنها، ثم تقوم الشركات بإعادة توزيع أو الاستغناء عن الموظفين،” كما لاحظ أحدهم بتهكم binaryverseai.com. وعلى الرغم من الأرباح القوية، تواصل عملاق الحوسبة السحابية إعادة الهيكلة، مما يوضح كيف أن مكاسب الإنتاجية من الذكاء الاصطناعي قد تؤدي أيضًا إلى تقليص القوى العاملة فعليًا.

اختراقات في العلوم والرعاية الصحية

تسريع التحليل الطبي: في مجال الرعاية الصحية، تعد اختراقات الذكاء الاصطناعي بتشخيصات أسرع وإجراءات أكثر أمانًا. كشف باحثون من جامعة إنديانا ومستشفيات شريكة عن خط أنابيب “معلوماتية السرطان” مدعوم بالذكاء الاصطناعي يمكنه فحص شرائح علم الأمراض الرقمية والسجلات الصحية الإلكترونية وبيانات الجينوم للإشارة إلى احتمالية الإصابة بالسرطان واقتراح مرحلة الورم. وبحسب الباحث الرئيسي سبيريدون باكاس، فقد قلل نظام الذكاء الاصطناعي بعض إجراءات التشخيص “من أيام إلى ثوانٍ”، حيث صنّف الحالات بسرعة تفوق البشر binaryverseai.com binaryverseai.com. كما كشف الأداة عن ترابطات دقيقة عبر بيانات متعددة الأنماط قد يغفل عنها البشر، على الرغم من إصرار الفريق على أن أطباء علم الأمراض يظلون ضروريين للحالات الصعبة والأحكام النهائية binaryverseai.com. يجسد هذا المشروع اتجاهًا أوسع نحو الطب متعدد الأنماط بالذكاء الاصطناعي الذي يمكنه استيعاب أنواع عديدة من البيانات مرة واحدة. وبالمثل، أفاد أطباء الأشعة بنجاحهم في استخدام نموذج ذكاء اصطناعي يُدعى mViT (محول رؤي معدل) لتحسين فحوصات الأشعة المقطعية للأطفال binaryverseai.com binaryverseai.com. يمكن لأجهزة الأشعة المقطعية التي تعتمد تقنية عدّ الفوتونات أن تقلل من جرعة الأشعة السينية للأطفال، إلا أنها غالبًا ما تنتج صورًا مشوشة؛ حيث تعلم نظام mViT إزالة التشويش من الفحوصات مباشرة، مما يجعل الشرايين والأنسجة أوضح دون التمويه الناتج عن أساليب تقليل الضوضاء القديمة binaryverseai.com binaryverseai.com. وأظهرت الاختبارات التي أُجريت على 20 مريضًا صغيرًا أن الذكاء الاصطناعي تفوق باستمرار على المرشحات التقليدية، مما يسمح على الأرجح بالحصول على فحوصات أكثر وضوحًا وأقل جرعة إشعاعية – وهو مكسب لسلامة المرضى الأطفال مع حصول أجهزة الأشعة المقطعية الجديدة على موافقة إدارة الغذاء والدواء الأمريكية binaryverseai.com.

الاختراقات في علم الأحياء والمواد: تدفع الذكاء الاصطناعي أيضًا العلوم الأساسية إلى الأمام. وصفت دراسة جديدة في Nature Communications كيف يمكن لثلاثة شبكات عصبية الآن تحديد توقيت تطور الأجنة بدقة إلى الدقيقة، وهو إنجاز قد يغير مجال علم الأحياء التطوري binaryverseai.com. من خلال تدريب شبكات عصبية التففية على صور عالية الدقة لأجنة ذبابة الفاكهة، تعلم النظام تحديد الإشارات البصرية الدقيقة لدورات انقسام الخلايا. يمكنه معرفة عمر الجنين (بدقة ±1 دقيقة) دون استخدام علامات فلورية تدخلية – محققًا دقة 98–100% في الأجنة في المراحل المبكرة binaryverseai.com binaryverseai.com. هذا “ساعة الجنين” بالذكاء الاصطناعي مكنت الفريق من رسم خرائط طفرات تنشيط الجينات بدقة زمنية غير مسبوقة، مما يوفر لعلماء الأحياء أداة قوية جديدة لدراسة كيفية تشكل الأعضاء. في علم المواد، قدم باحثون من المملكة المتحدة نموذج “CrystalGPT”، المدرب على 706,000 بنية بلورية، للتنبؤ بخصائص المواد. من خلال فهمه لـ”لغة” البلورات الجزيئية (عبر ألغاز الذرات المخفية وتحديات التناظر)، يمكن لـ CrystalGPT التنبؤ بكثافة أو مسامية أو استقرار مركب جديد بسرعة أكبر بكثير من المحاكاة التقليدية binaryverseai.com binaryverseai.com. يشيد الخبراء بشفافيته – حيث تُبرز الذكاء الاصطناعي حتى أي الأحياء الذرية أثرت أكثر في التنبؤ – ما يمنح الكيميائيين الثقة بدلاً من تخمين الصندوق الأسود binaryverseai.com. يمكن أن تسرع النمذجة البلورية الأسرع التقدم في البطاريات والعوامل المساعدة ومواد أشباه الموصلات، مما يقلل أوقات وتكاليف البحث والتطوير.

الذكاء الاصطناعي للبرمجة – مع بعض التحفظات: لم تكن جميع الأبحاث وردية؛ فقد قدمت دراسة واحدة رؤية واقعية حول مساعدي البرمجة بالذكاء الاصطناعي. ففي تجربة محكومة، استغرق مطورو البرمجيات ذوو الخبرة وقتاً أطول بنسبة 19% في إنجاز مهمة باستخدام مساعد ذكاء اصطناعي مقارنةً بمجموعة ضابطة بدون ذكاء اصطناعي ts2.tech. كان المبرمجون المتمرسون يتوقعون أن يساعدهم الذكاء الاصطناعي (أداة اقتراح الشيفرة) على إنجاز العمل بشكل أسرع، لكنه غالباً ما كان يعطي شيفرات “صحيحة من حيث التوجه العام، لكنها ليست بالضبط ما هو مطلوبts2.tech. وقد أُهدر الوقت في مراجعة هذه الاقتراحات وتصحيحها. في المقابل، أظهرت دراسات سابقة زيادات كبيرة في السرعة للمبرمجين الأقل خبرة في المهام الأسهل. “إنه أشبه بتحرير مقالة أكثر من كونه كتابة من البداية،” قال أحد المبرمجين المخضرمين حول أسلوب العمل بمساعدة الذكاء الاصطناعي – ربما أكثر استرخاءً، لكنه أبطأ ts2.tech. وخلص الباحثون في METR إلى أن المساعدات الذكية الحالية ليست عصا سحرية لزيادة إنتاجية الخبراء في البرمجة المعقدة، وأن هناك حاجة لمزيد من التحسين والمراقبة البشرية ts2.tech. هذا الاستنتاج المتوازن يهدئ من الاندفاع نحو نشر الذكاء الاصطناعي المولّد للشيفرات لجميع المبرمجين.

التطلع داخل “عقل” الذكاء الاصطناعي: نشر اتحاد من كبار علماء الذكاء الاصطناعي (من OpenAI وDeepMind وAnthropic وأفضل الجامعات) ورقة بحثية بارزة يدعون فيها إلى ابتكار تقنيات جديدة لـمراقبة “تَسَلْسُل التفكير” في الذكاء الاصطناعي – وهي في الأساس خطوات التفكير الخفية التي يولدها نماذج الذكاء الاصطناعي داخليًا ts2.tech. ومع تحول أنظمة الذكاء الاصطناعي إلى المزيد من الاستقلالية (كما هي الحال مع العملاء الذين يظهرون الآن)، يجادل المؤلفون بأن القدرة على الاطلاع على تلك الأفكار الوسيطة قد يكون أمرًا حيويًا للسلامة ts2.tech. فمن خلال مراقبة تسلسل تفكير الذكاء الاصطناعي خطوة بخطوة، قد يتمكن المطورون من اكتشاف الأخطاء أو الميل إلى طرق خطرة قبل أن يتصرف الذكاء الاصطناعي. ومع ذلك، تحذر الورقة من أنه مع تزايد تعقيد النماذج، “لا يوجد ضمان بأن درجة الشفافية الحالية ستستمر” – فقد تقوم نماذج الذكاء الاصطناعي المستقبلية بإضمار تفكيرها بشكل لا يمكن تتبعه بسهولة ts2.tech. وقد حث الفريق المجتمع العلمي على “الاستفادة القصوى من إمكانية مراقبة تسلسل التفكير” الآن والسعي إلى الحفاظ على الشفافية مستقبلًا ts2.tech. ومن الجدير بالذكر أن هذه الدعوة للعمل شارك في توقيعها مجموعة من كبار علماء الذكاء الاصطناعي – بمن فيهم جيفري هينتون، والعالم الرئيسي في OpenAI إيليا سوتسكيفر (ورئيس التوافق جان ليك)، والمؤسس المشارك لـDeepMind شين ليج، وآخرون ts2.tech. إنه عرض نادر للوحدة بين مختبرات متنافسة، يعكس قلقًا مشتركًا: مع اقتراب أنظمة الذكاء الاصطناعي من مستوى التفكير البشري، يجب ألا نسمح لها بأن تصبح “صناديق سوداء” لا يمكن فهمها. البحث في “فحوصات دماغ الذكاء الاصطناعي” – قراءة فكر الذكاء الاصطناعي – قد يصبح ضروريًا بقدر أهمية إنشاء الذكاء الاصطناعي نفسه.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

الذكاء الاصطناعي في الإعلام، الترفيه والصناعات الإبداعية

نتفليكس تتبنى الذكاء الاصطناعي في المؤثرات البصرية: شهدت هوليوود سابقة ملحوظة: فقد كشفت نتفليكس في مكالمة الأرباح الخاصة بها أنها بدأت في استخدام الذكاء الاصطناعي التوليدي في إنتاج المحتوى، بما في ذلك لقطات تم إنشاؤها بالكامل بالذكاء الاصطناعي لأول مرة في عرض من عروض نتفليكس ts2.tech. في السلسلة الأرجنتينية الخيالية العلمية “El Eternauta”، تم إنشاء مشهد كامل لانهيار مبنى باستخدام الذكاء الاصطناعي – وقد تم إنجازه أسرع بعشر مرات وبتكلفة أقل مقارنة باستخدام المؤثرات البصرية التقليدية techcrunch.com. شدد الرئيس التنفيذي المشارك تيد ساراندوس على أن الذكاء الاصطناعي يُستخدم لتمكين المبدعين وليس لاستبدالهم، قائلاً: “الذكاء الاصطناعي يمثل فرصة مذهلة لمساعدة المبدعين على صنع أفلام ومسلسلات أفضل، وليس فقط أرخص … هؤلاء أشخاص حقيقيون ينفذون عملاً حقيقياً بأدوات أفضل.” techcrunch.com وأشار إلى أن فناني نتفليكس يرون بالفعل فوائد في مرحلة التصور المسبق وتخطيط المشاهد. كما تطبق نتفليكس الذكاء الاصطناعي التوليدي خارج نطاق المؤثرات البصرية – حيث تستخدمه لاكتشاف المحتوى بشكل شخصي، وتستعد لإطلاق إعلانات تفاعلية مدعومة بالذكاء الاصطناعي في وقت لاحق من هذا العام techcrunch.com.

الموضة التوليدية وسحر الفيديو: امتدت لمسة الذكاء الاصطناعي الإبداعية إلى عالم الموضة والفيديو. أجرى باحثون في كوريا الجنوبية تجارب على “الموضة التوليدية”، حيث استخدموا ChatGPT للتنبؤ باتجاهات الموضة القادمة وDALL·E 3 لإنشاء أكثر من 100 زي افتراضي لمجموعة خريف/شتاء binaryverseai.com binaryverseai.com. توافقت حوالي ثلثي التصاميم التي أنشأها الذكاء الاصطناعي مع الأنماط السائدة في العالم الواقعي، ما يشير إلى أن النماذج التوليدية قد تكشف عن الاتجاهات قبل المصممين أنفسهم. (لكن الذكاء الاصطناعي تعثر في مفاهيم مُجرّدة مثل التصاميم ذات الهوية الجندرية السائلة، مما يؤكد أن المصممين البشر لا يزالون يمسكون بالبوصلة الإبداعية binaryverseai.com.) وفي تكنولوجيا صناعة الأفلام، كشفت NVIDIA وشركاؤها الجامعيون عن DiffusionRenderer، وهو نظام ذكاء اصطناعي من مرحلتين يدمج بين العرض المعكوس والمتقدم لجعل التأثيرات البصرية المتقدمة متاحة للمبدعين المستقلين binaryverseai.com binaryverseai.com. في أحد العروض التوضيحية، تمكن المستخدم من تصوير مشهد بسيط ثم إدخال تنين رسوم متحركة ينتج ظلالاً واقعية تماماً دون الحاجة إلى حساسات معقدة أو إعدادات إضاءة يدوية – فقد تعلم الذكاء الاصطناعي هندسة وإضاءة المشهد من اللقطات نفسها binaryverseai.com binaryverseai.com. والنتيجة تضيق الفجوة بين استوديوهات الإنتاج الكبرى والمبدعين الصغار، وتلمّح لمستقبل تحرير فيديو يكاد يكون “سحرياً” متاحاً للجميع.

التمويل، الأعمال والاستثمار في الذكاء الاصطناعي

الذكاء الاصطناعي المصمم للقطاع المالي: شهد القطاع المالي اختراقات متزايدة للذكاء الاصطناعي في المنتجات والأرباح. أطلقت شركة Anthropic خدمة Claude للخدمات المالية، وهو إصدار من مساعد الذكاء الاصطناعي Claude-4 مخصص لمحللي السوق والمصرفيين. وتدعي Anthropic أن Claude-4 يتفوق على النماذج المتقدمة الأخرى في مهام التمويل، استنادًا إلى معايير الصناعة anthropic.com. يمكن للمنصة الاتصال بالبيانات المباشرة للأسواق (عبر شركاء مثل بلومبرغ وFactSet وغيرهم) والتعامل مع أحمال العمل الكبيرة من نمذجة المخاطر حتى الأعمال الورقية للامتثال. ويبلغ المستخدمون الأوائل عن مكاسب كبيرة – على سبيل المثال، قال الرئيس التنفيذي لصندوق الثروة السيادي النرويجي البالغ قيمته 1.4 تريليون دولار (NBIM) إن Claude قد “غير بشكل جذري” سير العمل لديهم، حيث وفر ما يقدر بـزيادة في الإنتاجية بنسبة 20% (حوالي 213,000 ساعة عمل تم توفيرها) من خلال تمكين الموظفين من استعلام البيانات وتحليل مكالمات الأرباح بشكل أكثر كفاءة anthropic.com. وأشار إلى أن Claude أصبح “لا غنى عنه” بالنسبة لمحللي ومديري المخاطر في تلك الشركة anthropic.com. كما تستكشف البنوك والصناديق الكبرى المساعدين الذكاء الاصطناعي لتسريع الأبحاث مع تتبع كامل للمراجعات وتلقائية للمهام الروتينية التي عادة ما تعيق عمل الفرق المالية.

وول ستريت تراهن على شركات الذكاء الاصطناعي الناشئة: يواصل المستثمرون ضخ الأموال في مشاريع الذكاء الاصطناعي بقيم مذهلة. وجاءت أخبار هذا الأسبوع بأن Perplexity AI، الشركة الناشئة المعروفة بروبوت الدردشة البحثي المعتمد على الذكاء الاصطناعي، جمعت جولة تمويل جديدة بقيمة 100 مليون دولار، لترتفع قيمتها إلى نحو 18 مليار دولار theindependent.sg. (للمقارنة، كانت قيمة Perplexity تقارب 14 مليار دولار فقط قبل شهرين، ومليار دولار واحد في العام الماضي، مما يعكس الارتفاع الصاروخي في ثروات الذكاء الاصطناعي التوليدي theindependent.sg.) كما ظهرت صناديق جديدة تركز على الذكاء الاصطناعي: فمثلاً، أطلق أحد أوائل المستثمرين في Instacart صندوق “Verified Capital” بمبلغ 175 مليون دولار مخصص لشركات الذكاء الاصطناعي الناشئة (أُعلن عنه في 20 يوليو). وفي مجال الحوسبة السحابية، بدأت الشركات التقليدية في التكيف مع عصر الذكاء الاصطناعي – أحيانًا بشكل مؤلم. فقد أكدت أمازون أنها خفضت عدة مئات من وظائف AWS (معظمها في أدوار الدعم السحابي)، بعد أن حذّر الرئيس التنفيذي آندي جاسي من أن كفاءات الذكاء الاصطناعي ستقلص بعض الوظائف في “طبقة الوسطى” binaryverseai.com. وأشارت رسائل بريد إلكتروني داخلية هذا الأسبوع إلى أن بعض فرق نقل البيانات المتخصصة أصبحت زائدة عن الحاجة – “الدليل المرئي الأول داخل AWS” على الأتمتة المدفوعة بالذكاء الاصطناعي، كما أشارت رويترز binaryverseai.com binaryverseai.com. وقال المحللون إن حتى وحدات التكنولوجيا ذات الهوامش المرتفعة ليست محصنة: “الذكاء الاصطناعي يلتهم المهام التي يتقنها، ثم تقوم الشركات بإعادة توزيع أو الاستغناء عن الموظفين،” كما لاحظ أحدهم بتهكم binaryverseai.com. وعلى الرغم من الأرباح القوية، تواصل عملاق الحوسبة السحابية إعادة الهيكلة، مما يوضح كيف أن مكاسب الإنتاجية من الذكاء الاصطناعي قد تؤدي أيضًا إلى تقليص القوى العاملة فعليًا.

اختراقات في العلوم والرعاية الصحية

تسريع التحليل الطبي: في مجال الرعاية الصحية، تعد اختراقات الذكاء الاصطناعي بتشخيصات أسرع وإجراءات أكثر أمانًا. كشف باحثون من جامعة إنديانا ومستشفيات شريكة عن خط أنابيب “معلوماتية السرطان” مدعوم بالذكاء الاصطناعي يمكنه فحص شرائح علم الأمراض الرقمية والسجلات الصحية الإلكترونية وبيانات الجينوم للإشارة إلى احتمالية الإصابة بالسرطان واقتراح مرحلة الورم. وبحسب الباحث الرئيسي سبيريدون باكاس، فقد قلل نظام الذكاء الاصطناعي بعض إجراءات التشخيص “من أيام إلى ثوانٍ”، حيث صنّف الحالات بسرعة تفوق البشر binaryverseai.com binaryverseai.com. كما كشف الأداة عن ترابطات دقيقة عبر بيانات متعددة الأنماط قد يغفل عنها البشر، على الرغم من إصرار الفريق على أن أطباء علم الأمراض يظلون ضروريين للحالات الصعبة والأحكام النهائية binaryverseai.com. يجسد هذا المشروع اتجاهًا أوسع نحو الطب متعدد الأنماط بالذكاء الاصطناعي الذي يمكنه استيعاب أنواع عديدة من البيانات مرة واحدة. وبالمثل، أفاد أطباء الأشعة بنجاحهم في استخدام نموذج ذكاء اصطناعي يُدعى mViT (محول رؤي معدل) لتحسين فحوصات الأشعة المقطعية للأطفال binaryverseai.com binaryverseai.com. يمكن لأجهزة الأشعة المقطعية التي تعتمد تقنية عدّ الفوتونات أن تقلل من جرعة الأشعة السينية للأطفال، إلا أنها غالبًا ما تنتج صورًا مشوشة؛ حيث تعلم نظام mViT إزالة التشويش من الفحوصات مباشرة، مما يجعل الشرايين والأنسجة أوضح دون التمويه الناتج عن أساليب تقليل الضوضاء القديمة binaryverseai.com binaryverseai.com. وأظهرت الاختبارات التي أُجريت على 20 مريضًا صغيرًا أن الذكاء الاصطناعي تفوق باستمرار على المرشحات التقليدية، مما يسمح على الأرجح بالحصول على فحوصات أكثر وضوحًا وأقل جرعة إشعاعية – وهو مكسب لسلامة المرضى الأطفال مع حصول أجهزة الأشعة المقطعية الجديدة على موافقة إدارة الغذاء والدواء الأمريكية binaryverseai.com.

الاختراقات في علم الأحياء والمواد: تدفع الذكاء الاصطناعي أيضًا العلوم الأساسية إلى الأمام. وصفت دراسة جديدة في Nature Communications كيف يمكن لثلاثة شبكات عصبية الآن تحديد توقيت تطور الأجنة بدقة إلى الدقيقة، وهو إنجاز قد يغير مجال علم الأحياء التطوري binaryverseai.com. من خلال تدريب شبكات عصبية التففية على صور عالية الدقة لأجنة ذبابة الفاكهة، تعلم النظام تحديد الإشارات البصرية الدقيقة لدورات انقسام الخلايا. يمكنه معرفة عمر الجنين (بدقة ±1 دقيقة) دون استخدام علامات فلورية تدخلية – محققًا دقة 98–100% في الأجنة في المراحل المبكرة binaryverseai.com binaryverseai.com. هذا “ساعة الجنين” بالذكاء الاصطناعي مكنت الفريق من رسم خرائط طفرات تنشيط الجينات بدقة زمنية غير مسبوقة، مما يوفر لعلماء الأحياء أداة قوية جديدة لدراسة كيفية تشكل الأعضاء. في علم المواد، قدم باحثون من المملكة المتحدة نموذج “CrystalGPT”، المدرب على 706,000 بنية بلورية، للتنبؤ بخصائص المواد. من خلال فهمه لـ”لغة” البلورات الجزيئية (عبر ألغاز الذرات المخفية وتحديات التناظر)، يمكن لـ CrystalGPT التنبؤ بكثافة أو مسامية أو استقرار مركب جديد بسرعة أكبر بكثير من المحاكاة التقليدية binaryverseai.com binaryverseai.com. يشيد الخبراء بشفافيته – حيث تُبرز الذكاء الاصطناعي حتى أي الأحياء الذرية أثرت أكثر في التنبؤ – ما يمنح الكيميائيين الثقة بدلاً من تخمين الصندوق الأسود binaryverseai.com. يمكن أن تسرع النمذجة البلورية الأسرع التقدم في البطاريات والعوامل المساعدة ومواد أشباه الموصلات، مما يقلل أوقات وتكاليف البحث والتطوير.

الذكاء الاصطناعي للبرمجة – مع بعض التحفظات: لم تكن جميع الأبحاث وردية؛ فقد قدمت دراسة واحدة رؤية واقعية حول مساعدي البرمجة بالذكاء الاصطناعي. ففي تجربة محكومة، استغرق مطورو البرمجيات ذوو الخبرة وقتاً أطول بنسبة 19% في إنجاز مهمة باستخدام مساعد ذكاء اصطناعي مقارنةً بمجموعة ضابطة بدون ذكاء اصطناعي ts2.tech. كان المبرمجون المتمرسون يتوقعون أن يساعدهم الذكاء الاصطناعي (أداة اقتراح الشيفرة) على إنجاز العمل بشكل أسرع، لكنه غالباً ما كان يعطي شيفرات “صحيحة من حيث التوجه العام، لكنها ليست بالضبط ما هو مطلوبts2.tech. وقد أُهدر الوقت في مراجعة هذه الاقتراحات وتصحيحها. في المقابل، أظهرت دراسات سابقة زيادات كبيرة في السرعة للمبرمجين الأقل خبرة في المهام الأسهل. “إنه أشبه بتحرير مقالة أكثر من كونه كتابة من البداية،” قال أحد المبرمجين المخضرمين حول أسلوب العمل بمساعدة الذكاء الاصطناعي – ربما أكثر استرخاءً، لكنه أبطأ ts2.tech. وخلص الباحثون في METR إلى أن المساعدات الذكية الحالية ليست عصا سحرية لزيادة إنتاجية الخبراء في البرمجة المعقدة، وأن هناك حاجة لمزيد من التحسين والمراقبة البشرية ts2.tech. هذا الاستنتاج المتوازن يهدئ من الاندفاع نحو نشر الذكاء الاصطناعي المولّد للشيفرات لجميع المبرمجين.

التطلع داخل “عقل” الذكاء الاصطناعي: نشر اتحاد من كبار علماء الذكاء الاصطناعي (من OpenAI وDeepMind وAnthropic وأفضل الجامعات) ورقة بحثية بارزة يدعون فيها إلى ابتكار تقنيات جديدة لـمراقبة “تَسَلْسُل التفكير” في الذكاء الاصطناعي – وهي في الأساس خطوات التفكير الخفية التي يولدها نماذج الذكاء الاصطناعي داخليًا ts2.tech. ومع تحول أنظمة الذكاء الاصطناعي إلى المزيد من الاستقلالية (كما هي الحال مع العملاء الذين يظهرون الآن)، يجادل المؤلفون بأن القدرة على الاطلاع على تلك الأفكار الوسيطة قد يكون أمرًا حيويًا للسلامة ts2.tech. فمن خلال مراقبة تسلسل تفكير الذكاء الاصطناعي خطوة بخطوة، قد يتمكن المطورون من اكتشاف الأخطاء أو الميل إلى طرق خطرة قبل أن يتصرف الذكاء الاصطناعي. ومع ذلك، تحذر الورقة من أنه مع تزايد تعقيد النماذج، “لا يوجد ضمان بأن درجة الشفافية الحالية ستستمر” – فقد تقوم نماذج الذكاء الاصطناعي المستقبلية بإضمار تفكيرها بشكل لا يمكن تتبعه بسهولة ts2.tech. وقد حث الفريق المجتمع العلمي على “الاستفادة القصوى من إمكانية مراقبة تسلسل التفكير” الآن والسعي إلى الحفاظ على الشفافية مستقبلًا ts2.tech. ومن الجدير بالذكر أن هذه الدعوة للعمل شارك في توقيعها مجموعة من كبار علماء الذكاء الاصطناعي – بمن فيهم جيفري هينتون، والعالم الرئيسي في OpenAI إيليا سوتسكيفر (ورئيس التوافق جان ليك)، والمؤسس المشارك لـDeepMind شين ليج، وآخرون ts2.tech. إنه عرض نادر للوحدة بين مختبرات متنافسة، يعكس قلقًا مشتركًا: مع اقتراب أنظمة الذكاء الاصطناعي من مستوى التفكير البشري، يجب ألا نسمح لها بأن تصبح “صناديق سوداء” لا يمكن فهمها. البحث في “فحوصات دماغ الذكاء الاصطناعي” – قراءة فكر الذكاء الاصطناعي – قد يصبح ضروريًا بقدر أهمية إنشاء الذكاء الاصطناعي نفسه.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

عمالقة التكنولوجيا يطلقون وكلاء الذكاء الاصطناعي المستقلين

OpenAI و AWS يغامران كليًا في الذكاء الاصطناعي “الوكيل”: شهدت الثماني والأربعون ساعة الماضية قيام شركات كبرى بإطلاق وكلاء الذكاء الاصطناعي المستقلين لتنفيذ مهام متعددة الخطوات بناءً على الأوامر. أطلقت OpenAI وضع “الوكيل” الجديد في ChatGPT، مما يمكّن روبوت الدردشة الخاص بها من اتخاذ إجراءات نيابة عن المستخدم – من حجز المطاعم إلى التسوق عبر الإنترنت – باستخدام متصفح مدمج ومجموعة متنوعة من الإضافات بإذن من المستخدم ts2.tech. حصل المشتركون المدفوعون على الوصول الفوري، مما يمثل قفزة تتجاوز روبوتات الدردشة النصية السلبية. ولم تتأخر أمازون، حيث أعلنت وحدة AWS عن “AgentCore” في قمتها في نيويورك – وهو صندوق أدوات للمؤسسات لبناء وكلاء ذكاء اصطناعي مخصصين على نطاق واسع. واعتبر نائب رئيس AWS سوامي سيفاسوبرامانيان هؤلاء الوكلاء تغييرًا جذريًا… سيغير طريقة بناء البرمجيات واستخدامها، حيث كشفت AWS عن سبع خدمات للوكلاء وحتى سوق وكلاء الذكاء الاصطناعي للوحدات الإضافية الجاهزة ts2.tech. وتدعم أمازون هذا التوجه من خلال صندوق بقيمة 100 مليون دولار لدعم الشركات الناشئة في مجال “الذكاء الاصطناعي الوكيلي” ts2.tech. كل من OpenAI و AWS تتسابقان لجعل وكلاء الذكاء الاصطناعي أداة أساسية – مع وعود بزيادة كبيرة في الإنتاجية حتى مع استمرار التحديات المتعلقة بالسلامة والموثوقية في العالم الحقيقي.

طموحات ميتا بمليارات الدولارات في مجال الذكاء الاصطناعي: من الجدير بالذكر أن ميتـا بلاتفورمز أشارت إلى أن سباق التسلح في مجال الذكاء الاصطناعي يزداد حدة. فقد أنشأ الرئيس التنفيذي مارك زوكربيرج وحدة جديدة تحت اسم “مختبرات الذكاء الخارق” وتعهد بالاستثمار «مئات المليارات من الدولارات» في الذكاء الاصطناعي، بما في ذلك بنية تحتية ضخمة للسحابة ts2.tech. وخلال الأسبوع، قامت ميتا بخطف المواهب المتخصصة في الذكاء الاصطناعي بقوة – حيث استقطبت باحثين بارزين مثل مارك لي وتوم جونتر من شركة آبل، بالإضافة إلى شخصيات في المجال مثل ألكسندر وانغ (الرئيس التنفيذي لـ Scale AI) وآخرين من شركات OpenAI وDeepMind وAnthropic ts2.tech. يهدف هذا التوسع في التوظيف إلى تسريع مساعي ميتا نحو الذكاء الاصطناعي العام (AGI) بعد أن أظهرت التقارير تأخر نموذجها Llama 4 عن منافسيه ts2.tech. تخطط ميتا حتى لبناء حاسوب فائق للذكاء الاصطناعي بقدرة «متعددة الجيجاواط» (مشروع بروميثيوس في أوهايو) لدعم نماذج الجيل القادم ts2.tech. وعلى الجانب الآخر من المحيط الأطلسي، أظهرت شركة Mistral AI الرائدة الناشئة في الذكاء الاصطناعي بأوروبا أنها لا تزال في السباق: ففي 17 يوليو كشفت الشركة، التي تتخذ من باريس مقراً لها، عن ترقيات كبيرة لمساعد الدردشة Le Chat، مضيفة وضع المحادثة الصوتية ووكيل «البحث العميق» الذي يمكنه الاستشهاد بالمصادر في إجاباته ts2.tech. وتهدف هذه التحديثات المجانية إلى إبقاء Mistral قادرة على المنافسة مع المساعدين المتقدمين من OpenAI وGoogle، مما يبرز إصرار أوروبا على رعاية الابتكار المحلي في مجال الذكاء الاصطناعي جنباً إلى جنب مع التنظيمات الجديدة.

شركة xAI التابعة لماسك تحصل على دعم مالي بمليارات الدولارات: في خطوة جريئة عبر الصناعات، تستثمر شركة سبيس إكس التابعة لإيلون ماسك مبلغ 2 مليار دولار في مشروع الذكاء الاصطناعي التابع لماسك xAI، مشترية 40% من جولة التمويل الجديدة البالغة 5 مليارات دولار (مما يقيّم xAI بحوالي 80 مليار دولار) binaryverseai.com. هذا الضخ المالي يوفر “وقوداً صاروخياً” لعناقيد الحواسيب العملاقة الضخمة التابعة لشركة xAI والمعروفة باسم “Colossus” (وهي تحتوي بالفعل على حوالي 200,000 وحدة معالجة رسوميات من نفيديا، وتتجه للتوسع لما يقارب مليون وحدة) والتي تغذي الذكاء الاصطناعي في جميع شركات ماسك binaryverseai.com. تقوم “Colossus” حاليًا بمعالجة تخطيط مهام صواريخ فالكون، تحسين شبكة ستارلينك، كما تشغل حتى دردشة “Grok” التي تدمجها تسلا في لوحات قيادة السيارات binaryverseai.com. وتؤكد صفقة سبيس إكس–xAI رؤية ماسك في دمج الذكاء الاصطناعي بشكل وثيق في الصواريخ، السيارات، وشبكته الاجتماعية X – مع أن بعض النقاد أشاروا إلى تكاليف الطاقة (مراكز بيانات تعمل بالميثان) وتساؤلات الحوكمة حول ضخ المليارات بين شركات ماسك binaryverseai.com.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

اختراقات في العلوم والرعاية الصحية

تسريع التحليل الطبي: في مجال الرعاية الصحية، تعد اختراقات الذكاء الاصطناعي بتشخيصات أسرع وإجراءات أكثر أمانًا. كشف باحثون من جامعة إنديانا ومستشفيات شريكة عن خط أنابيب “معلوماتية السرطان” مدعوم بالذكاء الاصطناعي يمكنه فحص شرائح علم الأمراض الرقمية والسجلات الصحية الإلكترونية وبيانات الجينوم للإشارة إلى احتمالية الإصابة بالسرطان واقتراح مرحلة الورم. وبحسب الباحث الرئيسي سبيريدون باكاس، فقد قلل نظام الذكاء الاصطناعي بعض إجراءات التشخيص “من أيام إلى ثوانٍ”، حيث صنّف الحالات بسرعة تفوق البشر binaryverseai.com binaryverseai.com. كما كشف الأداة عن ترابطات دقيقة عبر بيانات متعددة الأنماط قد يغفل عنها البشر، على الرغم من إصرار الفريق على أن أطباء علم الأمراض يظلون ضروريين للحالات الصعبة والأحكام النهائية binaryverseai.com. يجسد هذا المشروع اتجاهًا أوسع نحو الطب متعدد الأنماط بالذكاء الاصطناعي الذي يمكنه استيعاب أنواع عديدة من البيانات مرة واحدة. وبالمثل، أفاد أطباء الأشعة بنجاحهم في استخدام نموذج ذكاء اصطناعي يُدعى mViT (محول رؤي معدل) لتحسين فحوصات الأشعة المقطعية للأطفال binaryverseai.com binaryverseai.com. يمكن لأجهزة الأشعة المقطعية التي تعتمد تقنية عدّ الفوتونات أن تقلل من جرعة الأشعة السينية للأطفال، إلا أنها غالبًا ما تنتج صورًا مشوشة؛ حيث تعلم نظام mViT إزالة التشويش من الفحوصات مباشرة، مما يجعل الشرايين والأنسجة أوضح دون التمويه الناتج عن أساليب تقليل الضوضاء القديمة binaryverseai.com binaryverseai.com. وأظهرت الاختبارات التي أُجريت على 20 مريضًا صغيرًا أن الذكاء الاصطناعي تفوق باستمرار على المرشحات التقليدية، مما يسمح على الأرجح بالحصول على فحوصات أكثر وضوحًا وأقل جرعة إشعاعية – وهو مكسب لسلامة المرضى الأطفال مع حصول أجهزة الأشعة المقطعية الجديدة على موافقة إدارة الغذاء والدواء الأمريكية binaryverseai.com.

الاختراقات في علم الأحياء والمواد: تدفع الذكاء الاصطناعي أيضًا العلوم الأساسية إلى الأمام. وصفت دراسة جديدة في Nature Communications كيف يمكن لثلاثة شبكات عصبية الآن تحديد توقيت تطور الأجنة بدقة إلى الدقيقة، وهو إنجاز قد يغير مجال علم الأحياء التطوري binaryverseai.com. من خلال تدريب شبكات عصبية التففية على صور عالية الدقة لأجنة ذبابة الفاكهة، تعلم النظام تحديد الإشارات البصرية الدقيقة لدورات انقسام الخلايا. يمكنه معرفة عمر الجنين (بدقة ±1 دقيقة) دون استخدام علامات فلورية تدخلية – محققًا دقة 98–100% في الأجنة في المراحل المبكرة binaryverseai.com binaryverseai.com. هذا “ساعة الجنين” بالذكاء الاصطناعي مكنت الفريق من رسم خرائط طفرات تنشيط الجينات بدقة زمنية غير مسبوقة، مما يوفر لعلماء الأحياء أداة قوية جديدة لدراسة كيفية تشكل الأعضاء. في علم المواد، قدم باحثون من المملكة المتحدة نموذج “CrystalGPT”، المدرب على 706,000 بنية بلورية، للتنبؤ بخصائص المواد. من خلال فهمه لـ”لغة” البلورات الجزيئية (عبر ألغاز الذرات المخفية وتحديات التناظر)، يمكن لـ CrystalGPT التنبؤ بكثافة أو مسامية أو استقرار مركب جديد بسرعة أكبر بكثير من المحاكاة التقليدية binaryverseai.com binaryverseai.com. يشيد الخبراء بشفافيته – حيث تُبرز الذكاء الاصطناعي حتى أي الأحياء الذرية أثرت أكثر في التنبؤ – ما يمنح الكيميائيين الثقة بدلاً من تخمين الصندوق الأسود binaryverseai.com. يمكن أن تسرع النمذجة البلورية الأسرع التقدم في البطاريات والعوامل المساعدة ومواد أشباه الموصلات، مما يقلل أوقات وتكاليف البحث والتطوير.

الذكاء الاصطناعي للبرمجة – مع بعض التحفظات: لم تكن جميع الأبحاث وردية؛ فقد قدمت دراسة واحدة رؤية واقعية حول مساعدي البرمجة بالذكاء الاصطناعي. ففي تجربة محكومة، استغرق مطورو البرمجيات ذوو الخبرة وقتاً أطول بنسبة 19% في إنجاز مهمة باستخدام مساعد ذكاء اصطناعي مقارنةً بمجموعة ضابطة بدون ذكاء اصطناعي ts2.tech. كان المبرمجون المتمرسون يتوقعون أن يساعدهم الذكاء الاصطناعي (أداة اقتراح الشيفرة) على إنجاز العمل بشكل أسرع، لكنه غالباً ما كان يعطي شيفرات “صحيحة من حيث التوجه العام، لكنها ليست بالضبط ما هو مطلوبts2.tech. وقد أُهدر الوقت في مراجعة هذه الاقتراحات وتصحيحها. في المقابل، أظهرت دراسات سابقة زيادات كبيرة في السرعة للمبرمجين الأقل خبرة في المهام الأسهل. “إنه أشبه بتحرير مقالة أكثر من كونه كتابة من البداية،” قال أحد المبرمجين المخضرمين حول أسلوب العمل بمساعدة الذكاء الاصطناعي – ربما أكثر استرخاءً، لكنه أبطأ ts2.tech. وخلص الباحثون في METR إلى أن المساعدات الذكية الحالية ليست عصا سحرية لزيادة إنتاجية الخبراء في البرمجة المعقدة، وأن هناك حاجة لمزيد من التحسين والمراقبة البشرية ts2.tech. هذا الاستنتاج المتوازن يهدئ من الاندفاع نحو نشر الذكاء الاصطناعي المولّد للشيفرات لجميع المبرمجين.

التطلع داخل “عقل” الذكاء الاصطناعي: نشر اتحاد من كبار علماء الذكاء الاصطناعي (من OpenAI وDeepMind وAnthropic وأفضل الجامعات) ورقة بحثية بارزة يدعون فيها إلى ابتكار تقنيات جديدة لـمراقبة “تَسَلْسُل التفكير” في الذكاء الاصطناعي – وهي في الأساس خطوات التفكير الخفية التي يولدها نماذج الذكاء الاصطناعي داخليًا ts2.tech. ومع تحول أنظمة الذكاء الاصطناعي إلى المزيد من الاستقلالية (كما هي الحال مع العملاء الذين يظهرون الآن)، يجادل المؤلفون بأن القدرة على الاطلاع على تلك الأفكار الوسيطة قد يكون أمرًا حيويًا للسلامة ts2.tech. فمن خلال مراقبة تسلسل تفكير الذكاء الاصطناعي خطوة بخطوة، قد يتمكن المطورون من اكتشاف الأخطاء أو الميل إلى طرق خطرة قبل أن يتصرف الذكاء الاصطناعي. ومع ذلك، تحذر الورقة من أنه مع تزايد تعقيد النماذج، “لا يوجد ضمان بأن درجة الشفافية الحالية ستستمر” – فقد تقوم نماذج الذكاء الاصطناعي المستقبلية بإضمار تفكيرها بشكل لا يمكن تتبعه بسهولة ts2.tech. وقد حث الفريق المجتمع العلمي على “الاستفادة القصوى من إمكانية مراقبة تسلسل التفكير” الآن والسعي إلى الحفاظ على الشفافية مستقبلًا ts2.tech. ومن الجدير بالذكر أن هذه الدعوة للعمل شارك في توقيعها مجموعة من كبار علماء الذكاء الاصطناعي – بمن فيهم جيفري هينتون، والعالم الرئيسي في OpenAI إيليا سوتسكيفر (ورئيس التوافق جان ليك)، والمؤسس المشارك لـDeepMind شين ليج، وآخرون ts2.tech. إنه عرض نادر للوحدة بين مختبرات متنافسة، يعكس قلقًا مشتركًا: مع اقتراب أنظمة الذكاء الاصطناعي من مستوى التفكير البشري، يجب ألا نسمح لها بأن تصبح “صناديق سوداء” لا يمكن فهمها. البحث في “فحوصات دماغ الذكاء الاصطناعي” – قراءة فكر الذكاء الاصطناعي – قد يصبح ضروريًا بقدر أهمية إنشاء الذكاء الاصطناعي نفسه.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

التمويل، الأعمال والاستثمار في الذكاء الاصطناعي

الذكاء الاصطناعي المصمم للقطاع المالي: شهد القطاع المالي اختراقات متزايدة للذكاء الاصطناعي في المنتجات والأرباح. أطلقت شركة Anthropic خدمة Claude للخدمات المالية، وهو إصدار من مساعد الذكاء الاصطناعي Claude-4 مخصص لمحللي السوق والمصرفيين. وتدعي Anthropic أن Claude-4 يتفوق على النماذج المتقدمة الأخرى في مهام التمويل، استنادًا إلى معايير الصناعة anthropic.com. يمكن للمنصة الاتصال بالبيانات المباشرة للأسواق (عبر شركاء مثل بلومبرغ وFactSet وغيرهم) والتعامل مع أحمال العمل الكبيرة من نمذجة المخاطر حتى الأعمال الورقية للامتثال. ويبلغ المستخدمون الأوائل عن مكاسب كبيرة – على سبيل المثال، قال الرئيس التنفيذي لصندوق الثروة السيادي النرويجي البالغ قيمته 1.4 تريليون دولار (NBIM) إن Claude قد “غير بشكل جذري” سير العمل لديهم، حيث وفر ما يقدر بـزيادة في الإنتاجية بنسبة 20% (حوالي 213,000 ساعة عمل تم توفيرها) من خلال تمكين الموظفين من استعلام البيانات وتحليل مكالمات الأرباح بشكل أكثر كفاءة anthropic.com. وأشار إلى أن Claude أصبح “لا غنى عنه” بالنسبة لمحللي ومديري المخاطر في تلك الشركة anthropic.com. كما تستكشف البنوك والصناديق الكبرى المساعدين الذكاء الاصطناعي لتسريع الأبحاث مع تتبع كامل للمراجعات وتلقائية للمهام الروتينية التي عادة ما تعيق عمل الفرق المالية.

وول ستريت تراهن على شركات الذكاء الاصطناعي الناشئة: يواصل المستثمرون ضخ الأموال في مشاريع الذكاء الاصطناعي بقيم مذهلة. وجاءت أخبار هذا الأسبوع بأن Perplexity AI، الشركة الناشئة المعروفة بروبوت الدردشة البحثي المعتمد على الذكاء الاصطناعي، جمعت جولة تمويل جديدة بقيمة 100 مليون دولار، لترتفع قيمتها إلى نحو 18 مليار دولار theindependent.sg. (للمقارنة، كانت قيمة Perplexity تقارب 14 مليار دولار فقط قبل شهرين، ومليار دولار واحد في العام الماضي، مما يعكس الارتفاع الصاروخي في ثروات الذكاء الاصطناعي التوليدي theindependent.sg.) كما ظهرت صناديق جديدة تركز على الذكاء الاصطناعي: فمثلاً، أطلق أحد أوائل المستثمرين في Instacart صندوق “Verified Capital” بمبلغ 175 مليون دولار مخصص لشركات الذكاء الاصطناعي الناشئة (أُعلن عنه في 20 يوليو). وفي مجال الحوسبة السحابية، بدأت الشركات التقليدية في التكيف مع عصر الذكاء الاصطناعي – أحيانًا بشكل مؤلم. فقد أكدت أمازون أنها خفضت عدة مئات من وظائف AWS (معظمها في أدوار الدعم السحابي)، بعد أن حذّر الرئيس التنفيذي آندي جاسي من أن كفاءات الذكاء الاصطناعي ستقلص بعض الوظائف في “طبقة الوسطى” binaryverseai.com. وأشارت رسائل بريد إلكتروني داخلية هذا الأسبوع إلى أن بعض فرق نقل البيانات المتخصصة أصبحت زائدة عن الحاجة – “الدليل المرئي الأول داخل AWS” على الأتمتة المدفوعة بالذكاء الاصطناعي، كما أشارت رويترز binaryverseai.com binaryverseai.com. وقال المحللون إن حتى وحدات التكنولوجيا ذات الهوامش المرتفعة ليست محصنة: “الذكاء الاصطناعي يلتهم المهام التي يتقنها، ثم تقوم الشركات بإعادة توزيع أو الاستغناء عن الموظفين،” كما لاحظ أحدهم بتهكم binaryverseai.com. وعلى الرغم من الأرباح القوية، تواصل عملاق الحوسبة السحابية إعادة الهيكلة، مما يوضح كيف أن مكاسب الإنتاجية من الذكاء الاصطناعي قد تؤدي أيضًا إلى تقليص القوى العاملة فعليًا.

اختراقات في العلوم والرعاية الصحية

تسريع التحليل الطبي: في مجال الرعاية الصحية، تعد اختراقات الذكاء الاصطناعي بتشخيصات أسرع وإجراءات أكثر أمانًا. كشف باحثون من جامعة إنديانا ومستشفيات شريكة عن خط أنابيب “معلوماتية السرطان” مدعوم بالذكاء الاصطناعي يمكنه فحص شرائح علم الأمراض الرقمية والسجلات الصحية الإلكترونية وبيانات الجينوم للإشارة إلى احتمالية الإصابة بالسرطان واقتراح مرحلة الورم. وبحسب الباحث الرئيسي سبيريدون باكاس، فقد قلل نظام الذكاء الاصطناعي بعض إجراءات التشخيص “من أيام إلى ثوانٍ”، حيث صنّف الحالات بسرعة تفوق البشر binaryverseai.com binaryverseai.com. كما كشف الأداة عن ترابطات دقيقة عبر بيانات متعددة الأنماط قد يغفل عنها البشر، على الرغم من إصرار الفريق على أن أطباء علم الأمراض يظلون ضروريين للحالات الصعبة والأحكام النهائية binaryverseai.com. يجسد هذا المشروع اتجاهًا أوسع نحو الطب متعدد الأنماط بالذكاء الاصطناعي الذي يمكنه استيعاب أنواع عديدة من البيانات مرة واحدة. وبالمثل، أفاد أطباء الأشعة بنجاحهم في استخدام نموذج ذكاء اصطناعي يُدعى mViT (محول رؤي معدل) لتحسين فحوصات الأشعة المقطعية للأطفال binaryverseai.com binaryverseai.com. يمكن لأجهزة الأشعة المقطعية التي تعتمد تقنية عدّ الفوتونات أن تقلل من جرعة الأشعة السينية للأطفال، إلا أنها غالبًا ما تنتج صورًا مشوشة؛ حيث تعلم نظام mViT إزالة التشويش من الفحوصات مباشرة، مما يجعل الشرايين والأنسجة أوضح دون التمويه الناتج عن أساليب تقليل الضوضاء القديمة binaryverseai.com binaryverseai.com. وأظهرت الاختبارات التي أُجريت على 20 مريضًا صغيرًا أن الذكاء الاصطناعي تفوق باستمرار على المرشحات التقليدية، مما يسمح على الأرجح بالحصول على فحوصات أكثر وضوحًا وأقل جرعة إشعاعية – وهو مكسب لسلامة المرضى الأطفال مع حصول أجهزة الأشعة المقطعية الجديدة على موافقة إدارة الغذاء والدواء الأمريكية binaryverseai.com.

الاختراقات في علم الأحياء والمواد: تدفع الذكاء الاصطناعي أيضًا العلوم الأساسية إلى الأمام. وصفت دراسة جديدة في Nature Communications كيف يمكن لثلاثة شبكات عصبية الآن تحديد توقيت تطور الأجنة بدقة إلى الدقيقة، وهو إنجاز قد يغير مجال علم الأحياء التطوري binaryverseai.com. من خلال تدريب شبكات عصبية التففية على صور عالية الدقة لأجنة ذبابة الفاكهة، تعلم النظام تحديد الإشارات البصرية الدقيقة لدورات انقسام الخلايا. يمكنه معرفة عمر الجنين (بدقة ±1 دقيقة) دون استخدام علامات فلورية تدخلية – محققًا دقة 98–100% في الأجنة في المراحل المبكرة binaryverseai.com binaryverseai.com. هذا “ساعة الجنين” بالذكاء الاصطناعي مكنت الفريق من رسم خرائط طفرات تنشيط الجينات بدقة زمنية غير مسبوقة، مما يوفر لعلماء الأحياء أداة قوية جديدة لدراسة كيفية تشكل الأعضاء. في علم المواد، قدم باحثون من المملكة المتحدة نموذج “CrystalGPT”، المدرب على 706,000 بنية بلورية، للتنبؤ بخصائص المواد. من خلال فهمه لـ”لغة” البلورات الجزيئية (عبر ألغاز الذرات المخفية وتحديات التناظر)، يمكن لـ CrystalGPT التنبؤ بكثافة أو مسامية أو استقرار مركب جديد بسرعة أكبر بكثير من المحاكاة التقليدية binaryverseai.com binaryverseai.com. يشيد الخبراء بشفافيته – حيث تُبرز الذكاء الاصطناعي حتى أي الأحياء الذرية أثرت أكثر في التنبؤ – ما يمنح الكيميائيين الثقة بدلاً من تخمين الصندوق الأسود binaryverseai.com. يمكن أن تسرع النمذجة البلورية الأسرع التقدم في البطاريات والعوامل المساعدة ومواد أشباه الموصلات، مما يقلل أوقات وتكاليف البحث والتطوير.

الذكاء الاصطناعي للبرمجة – مع بعض التحفظات: لم تكن جميع الأبحاث وردية؛ فقد قدمت دراسة واحدة رؤية واقعية حول مساعدي البرمجة بالذكاء الاصطناعي. ففي تجربة محكومة، استغرق مطورو البرمجيات ذوو الخبرة وقتاً أطول بنسبة 19% في إنجاز مهمة باستخدام مساعد ذكاء اصطناعي مقارنةً بمجموعة ضابطة بدون ذكاء اصطناعي ts2.tech. كان المبرمجون المتمرسون يتوقعون أن يساعدهم الذكاء الاصطناعي (أداة اقتراح الشيفرة) على إنجاز العمل بشكل أسرع، لكنه غالباً ما كان يعطي شيفرات “صحيحة من حيث التوجه العام، لكنها ليست بالضبط ما هو مطلوبts2.tech. وقد أُهدر الوقت في مراجعة هذه الاقتراحات وتصحيحها. في المقابل، أظهرت دراسات سابقة زيادات كبيرة في السرعة للمبرمجين الأقل خبرة في المهام الأسهل. “إنه أشبه بتحرير مقالة أكثر من كونه كتابة من البداية،” قال أحد المبرمجين المخضرمين حول أسلوب العمل بمساعدة الذكاء الاصطناعي – ربما أكثر استرخاءً، لكنه أبطأ ts2.tech. وخلص الباحثون في METR إلى أن المساعدات الذكية الحالية ليست عصا سحرية لزيادة إنتاجية الخبراء في البرمجة المعقدة، وأن هناك حاجة لمزيد من التحسين والمراقبة البشرية ts2.tech. هذا الاستنتاج المتوازن يهدئ من الاندفاع نحو نشر الذكاء الاصطناعي المولّد للشيفرات لجميع المبرمجين.

التطلع داخل “عقل” الذكاء الاصطناعي: نشر اتحاد من كبار علماء الذكاء الاصطناعي (من OpenAI وDeepMind وAnthropic وأفضل الجامعات) ورقة بحثية بارزة يدعون فيها إلى ابتكار تقنيات جديدة لـمراقبة “تَسَلْسُل التفكير” في الذكاء الاصطناعي – وهي في الأساس خطوات التفكير الخفية التي يولدها نماذج الذكاء الاصطناعي داخليًا ts2.tech. ومع تحول أنظمة الذكاء الاصطناعي إلى المزيد من الاستقلالية (كما هي الحال مع العملاء الذين يظهرون الآن)، يجادل المؤلفون بأن القدرة على الاطلاع على تلك الأفكار الوسيطة قد يكون أمرًا حيويًا للسلامة ts2.tech. فمن خلال مراقبة تسلسل تفكير الذكاء الاصطناعي خطوة بخطوة، قد يتمكن المطورون من اكتشاف الأخطاء أو الميل إلى طرق خطرة قبل أن يتصرف الذكاء الاصطناعي. ومع ذلك، تحذر الورقة من أنه مع تزايد تعقيد النماذج، “لا يوجد ضمان بأن درجة الشفافية الحالية ستستمر” – فقد تقوم نماذج الذكاء الاصطناعي المستقبلية بإضمار تفكيرها بشكل لا يمكن تتبعه بسهولة ts2.tech. وقد حث الفريق المجتمع العلمي على “الاستفادة القصوى من إمكانية مراقبة تسلسل التفكير” الآن والسعي إلى الحفاظ على الشفافية مستقبلًا ts2.tech. ومن الجدير بالذكر أن هذه الدعوة للعمل شارك في توقيعها مجموعة من كبار علماء الذكاء الاصطناعي – بمن فيهم جيفري هينتون، والعالم الرئيسي في OpenAI إيليا سوتسكيفر (ورئيس التوافق جان ليك)، والمؤسس المشارك لـDeepMind شين ليج، وآخرون ts2.tech. إنه عرض نادر للوحدة بين مختبرات متنافسة، يعكس قلقًا مشتركًا: مع اقتراب أنظمة الذكاء الاصطناعي من مستوى التفكير البشري، يجب ألا نسمح لها بأن تصبح “صناديق سوداء” لا يمكن فهمها. البحث في “فحوصات دماغ الذكاء الاصطناعي” – قراءة فكر الذكاء الاصطناعي – قد يصبح ضروريًا بقدر أهمية إنشاء الذكاء الاصطناعي نفسه.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

الذكاء الاصطناعي في الإعلام، الترفيه والصناعات الإبداعية

نتفليكس تتبنى الذكاء الاصطناعي في المؤثرات البصرية: شهدت هوليوود سابقة ملحوظة: فقد كشفت نتفليكس في مكالمة الأرباح الخاصة بها أنها بدأت في استخدام الذكاء الاصطناعي التوليدي في إنتاج المحتوى، بما في ذلك لقطات تم إنشاؤها بالكامل بالذكاء الاصطناعي لأول مرة في عرض من عروض نتفليكس ts2.tech. في السلسلة الأرجنتينية الخيالية العلمية “El Eternauta”، تم إنشاء مشهد كامل لانهيار مبنى باستخدام الذكاء الاصطناعي – وقد تم إنجازه أسرع بعشر مرات وبتكلفة أقل مقارنة باستخدام المؤثرات البصرية التقليدية techcrunch.com. شدد الرئيس التنفيذي المشارك تيد ساراندوس على أن الذكاء الاصطناعي يُستخدم لتمكين المبدعين وليس لاستبدالهم، قائلاً: “الذكاء الاصطناعي يمثل فرصة مذهلة لمساعدة المبدعين على صنع أفلام ومسلسلات أفضل، وليس فقط أرخص … هؤلاء أشخاص حقيقيون ينفذون عملاً حقيقياً بأدوات أفضل.” techcrunch.com وأشار إلى أن فناني نتفليكس يرون بالفعل فوائد في مرحلة التصور المسبق وتخطيط المشاهد. كما تطبق نتفليكس الذكاء الاصطناعي التوليدي خارج نطاق المؤثرات البصرية – حيث تستخدمه لاكتشاف المحتوى بشكل شخصي، وتستعد لإطلاق إعلانات تفاعلية مدعومة بالذكاء الاصطناعي في وقت لاحق من هذا العام techcrunch.com.

الموضة التوليدية وسحر الفيديو: امتدت لمسة الذكاء الاصطناعي الإبداعية إلى عالم الموضة والفيديو. أجرى باحثون في كوريا الجنوبية تجارب على “الموضة التوليدية”، حيث استخدموا ChatGPT للتنبؤ باتجاهات الموضة القادمة وDALL·E 3 لإنشاء أكثر من 100 زي افتراضي لمجموعة خريف/شتاء binaryverseai.com binaryverseai.com. توافقت حوالي ثلثي التصاميم التي أنشأها الذكاء الاصطناعي مع الأنماط السائدة في العالم الواقعي، ما يشير إلى أن النماذج التوليدية قد تكشف عن الاتجاهات قبل المصممين أنفسهم. (لكن الذكاء الاصطناعي تعثر في مفاهيم مُجرّدة مثل التصاميم ذات الهوية الجندرية السائلة، مما يؤكد أن المصممين البشر لا يزالون يمسكون بالبوصلة الإبداعية binaryverseai.com.) وفي تكنولوجيا صناعة الأفلام، كشفت NVIDIA وشركاؤها الجامعيون عن DiffusionRenderer، وهو نظام ذكاء اصطناعي من مرحلتين يدمج بين العرض المعكوس والمتقدم لجعل التأثيرات البصرية المتقدمة متاحة للمبدعين المستقلين binaryverseai.com binaryverseai.com. في أحد العروض التوضيحية، تمكن المستخدم من تصوير مشهد بسيط ثم إدخال تنين رسوم متحركة ينتج ظلالاً واقعية تماماً دون الحاجة إلى حساسات معقدة أو إعدادات إضاءة يدوية – فقد تعلم الذكاء الاصطناعي هندسة وإضاءة المشهد من اللقطات نفسها binaryverseai.com binaryverseai.com. والنتيجة تضيق الفجوة بين استوديوهات الإنتاج الكبرى والمبدعين الصغار، وتلمّح لمستقبل تحرير فيديو يكاد يكون “سحرياً” متاحاً للجميع.

التمويل، الأعمال والاستثمار في الذكاء الاصطناعي

الذكاء الاصطناعي المصمم للقطاع المالي: شهد القطاع المالي اختراقات متزايدة للذكاء الاصطناعي في المنتجات والأرباح. أطلقت شركة Anthropic خدمة Claude للخدمات المالية، وهو إصدار من مساعد الذكاء الاصطناعي Claude-4 مخصص لمحللي السوق والمصرفيين. وتدعي Anthropic أن Claude-4 يتفوق على النماذج المتقدمة الأخرى في مهام التمويل، استنادًا إلى معايير الصناعة anthropic.com. يمكن للمنصة الاتصال بالبيانات المباشرة للأسواق (عبر شركاء مثل بلومبرغ وFactSet وغيرهم) والتعامل مع أحمال العمل الكبيرة من نمذجة المخاطر حتى الأعمال الورقية للامتثال. ويبلغ المستخدمون الأوائل عن مكاسب كبيرة – على سبيل المثال، قال الرئيس التنفيذي لصندوق الثروة السيادي النرويجي البالغ قيمته 1.4 تريليون دولار (NBIM) إن Claude قد “غير بشكل جذري” سير العمل لديهم، حيث وفر ما يقدر بـزيادة في الإنتاجية بنسبة 20% (حوالي 213,000 ساعة عمل تم توفيرها) من خلال تمكين الموظفين من استعلام البيانات وتحليل مكالمات الأرباح بشكل أكثر كفاءة anthropic.com. وأشار إلى أن Claude أصبح “لا غنى عنه” بالنسبة لمحللي ومديري المخاطر في تلك الشركة anthropic.com. كما تستكشف البنوك والصناديق الكبرى المساعدين الذكاء الاصطناعي لتسريع الأبحاث مع تتبع كامل للمراجعات وتلقائية للمهام الروتينية التي عادة ما تعيق عمل الفرق المالية.

وول ستريت تراهن على شركات الذكاء الاصطناعي الناشئة: يواصل المستثمرون ضخ الأموال في مشاريع الذكاء الاصطناعي بقيم مذهلة. وجاءت أخبار هذا الأسبوع بأن Perplexity AI، الشركة الناشئة المعروفة بروبوت الدردشة البحثي المعتمد على الذكاء الاصطناعي، جمعت جولة تمويل جديدة بقيمة 100 مليون دولار، لترتفع قيمتها إلى نحو 18 مليار دولار theindependent.sg. (للمقارنة، كانت قيمة Perplexity تقارب 14 مليار دولار فقط قبل شهرين، ومليار دولار واحد في العام الماضي، مما يعكس الارتفاع الصاروخي في ثروات الذكاء الاصطناعي التوليدي theindependent.sg.) كما ظهرت صناديق جديدة تركز على الذكاء الاصطناعي: فمثلاً، أطلق أحد أوائل المستثمرين في Instacart صندوق “Verified Capital” بمبلغ 175 مليون دولار مخصص لشركات الذكاء الاصطناعي الناشئة (أُعلن عنه في 20 يوليو). وفي مجال الحوسبة السحابية، بدأت الشركات التقليدية في التكيف مع عصر الذكاء الاصطناعي – أحيانًا بشكل مؤلم. فقد أكدت أمازون أنها خفضت عدة مئات من وظائف AWS (معظمها في أدوار الدعم السحابي)، بعد أن حذّر الرئيس التنفيذي آندي جاسي من أن كفاءات الذكاء الاصطناعي ستقلص بعض الوظائف في “طبقة الوسطى” binaryverseai.com. وأشارت رسائل بريد إلكتروني داخلية هذا الأسبوع إلى أن بعض فرق نقل البيانات المتخصصة أصبحت زائدة عن الحاجة – “الدليل المرئي الأول داخل AWS” على الأتمتة المدفوعة بالذكاء الاصطناعي، كما أشارت رويترز binaryverseai.com binaryverseai.com. وقال المحللون إن حتى وحدات التكنولوجيا ذات الهوامش المرتفعة ليست محصنة: “الذكاء الاصطناعي يلتهم المهام التي يتقنها، ثم تقوم الشركات بإعادة توزيع أو الاستغناء عن الموظفين،” كما لاحظ أحدهم بتهكم binaryverseai.com. وعلى الرغم من الأرباح القوية، تواصل عملاق الحوسبة السحابية إعادة الهيكلة، مما يوضح كيف أن مكاسب الإنتاجية من الذكاء الاصطناعي قد تؤدي أيضًا إلى تقليص القوى العاملة فعليًا.

اختراقات في العلوم والرعاية الصحية

تسريع التحليل الطبي: في مجال الرعاية الصحية، تعد اختراقات الذكاء الاصطناعي بتشخيصات أسرع وإجراءات أكثر أمانًا. كشف باحثون من جامعة إنديانا ومستشفيات شريكة عن خط أنابيب “معلوماتية السرطان” مدعوم بالذكاء الاصطناعي يمكنه فحص شرائح علم الأمراض الرقمية والسجلات الصحية الإلكترونية وبيانات الجينوم للإشارة إلى احتمالية الإصابة بالسرطان واقتراح مرحلة الورم. وبحسب الباحث الرئيسي سبيريدون باكاس، فقد قلل نظام الذكاء الاصطناعي بعض إجراءات التشخيص “من أيام إلى ثوانٍ”، حيث صنّف الحالات بسرعة تفوق البشر binaryverseai.com binaryverseai.com. كما كشف الأداة عن ترابطات دقيقة عبر بيانات متعددة الأنماط قد يغفل عنها البشر، على الرغم من إصرار الفريق على أن أطباء علم الأمراض يظلون ضروريين للحالات الصعبة والأحكام النهائية binaryverseai.com. يجسد هذا المشروع اتجاهًا أوسع نحو الطب متعدد الأنماط بالذكاء الاصطناعي الذي يمكنه استيعاب أنواع عديدة من البيانات مرة واحدة. وبالمثل، أفاد أطباء الأشعة بنجاحهم في استخدام نموذج ذكاء اصطناعي يُدعى mViT (محول رؤي معدل) لتحسين فحوصات الأشعة المقطعية للأطفال binaryverseai.com binaryverseai.com. يمكن لأجهزة الأشعة المقطعية التي تعتمد تقنية عدّ الفوتونات أن تقلل من جرعة الأشعة السينية للأطفال، إلا أنها غالبًا ما تنتج صورًا مشوشة؛ حيث تعلم نظام mViT إزالة التشويش من الفحوصات مباشرة، مما يجعل الشرايين والأنسجة أوضح دون التمويه الناتج عن أساليب تقليل الضوضاء القديمة binaryverseai.com binaryverseai.com. وأظهرت الاختبارات التي أُجريت على 20 مريضًا صغيرًا أن الذكاء الاصطناعي تفوق باستمرار على المرشحات التقليدية، مما يسمح على الأرجح بالحصول على فحوصات أكثر وضوحًا وأقل جرعة إشعاعية – وهو مكسب لسلامة المرضى الأطفال مع حصول أجهزة الأشعة المقطعية الجديدة على موافقة إدارة الغذاء والدواء الأمريكية binaryverseai.com.

الاختراقات في علم الأحياء والمواد: تدفع الذكاء الاصطناعي أيضًا العلوم الأساسية إلى الأمام. وصفت دراسة جديدة في Nature Communications كيف يمكن لثلاثة شبكات عصبية الآن تحديد توقيت تطور الأجنة بدقة إلى الدقيقة، وهو إنجاز قد يغير مجال علم الأحياء التطوري binaryverseai.com. من خلال تدريب شبكات عصبية التففية على صور عالية الدقة لأجنة ذبابة الفاكهة، تعلم النظام تحديد الإشارات البصرية الدقيقة لدورات انقسام الخلايا. يمكنه معرفة عمر الجنين (بدقة ±1 دقيقة) دون استخدام علامات فلورية تدخلية – محققًا دقة 98–100% في الأجنة في المراحل المبكرة binaryverseai.com binaryverseai.com. هذا “ساعة الجنين” بالذكاء الاصطناعي مكنت الفريق من رسم خرائط طفرات تنشيط الجينات بدقة زمنية غير مسبوقة، مما يوفر لعلماء الأحياء أداة قوية جديدة لدراسة كيفية تشكل الأعضاء. في علم المواد، قدم باحثون من المملكة المتحدة نموذج “CrystalGPT”، المدرب على 706,000 بنية بلورية، للتنبؤ بخصائص المواد. من خلال فهمه لـ”لغة” البلورات الجزيئية (عبر ألغاز الذرات المخفية وتحديات التناظر)، يمكن لـ CrystalGPT التنبؤ بكثافة أو مسامية أو استقرار مركب جديد بسرعة أكبر بكثير من المحاكاة التقليدية binaryverseai.com binaryverseai.com. يشيد الخبراء بشفافيته – حيث تُبرز الذكاء الاصطناعي حتى أي الأحياء الذرية أثرت أكثر في التنبؤ – ما يمنح الكيميائيين الثقة بدلاً من تخمين الصندوق الأسود binaryverseai.com. يمكن أن تسرع النمذجة البلورية الأسرع التقدم في البطاريات والعوامل المساعدة ومواد أشباه الموصلات، مما يقلل أوقات وتكاليف البحث والتطوير.

الذكاء الاصطناعي للبرمجة – مع بعض التحفظات: لم تكن جميع الأبحاث وردية؛ فقد قدمت دراسة واحدة رؤية واقعية حول مساعدي البرمجة بالذكاء الاصطناعي. ففي تجربة محكومة، استغرق مطورو البرمجيات ذوو الخبرة وقتاً أطول بنسبة 19% في إنجاز مهمة باستخدام مساعد ذكاء اصطناعي مقارنةً بمجموعة ضابطة بدون ذكاء اصطناعي ts2.tech. كان المبرمجون المتمرسون يتوقعون أن يساعدهم الذكاء الاصطناعي (أداة اقتراح الشيفرة) على إنجاز العمل بشكل أسرع، لكنه غالباً ما كان يعطي شيفرات “صحيحة من حيث التوجه العام، لكنها ليست بالضبط ما هو مطلوبts2.tech. وقد أُهدر الوقت في مراجعة هذه الاقتراحات وتصحيحها. في المقابل، أظهرت دراسات سابقة زيادات كبيرة في السرعة للمبرمجين الأقل خبرة في المهام الأسهل. “إنه أشبه بتحرير مقالة أكثر من كونه كتابة من البداية،” قال أحد المبرمجين المخضرمين حول أسلوب العمل بمساعدة الذكاء الاصطناعي – ربما أكثر استرخاءً، لكنه أبطأ ts2.tech. وخلص الباحثون في METR إلى أن المساعدات الذكية الحالية ليست عصا سحرية لزيادة إنتاجية الخبراء في البرمجة المعقدة، وأن هناك حاجة لمزيد من التحسين والمراقبة البشرية ts2.tech. هذا الاستنتاج المتوازن يهدئ من الاندفاع نحو نشر الذكاء الاصطناعي المولّد للشيفرات لجميع المبرمجين.

التطلع داخل “عقل” الذكاء الاصطناعي: نشر اتحاد من كبار علماء الذكاء الاصطناعي (من OpenAI وDeepMind وAnthropic وأفضل الجامعات) ورقة بحثية بارزة يدعون فيها إلى ابتكار تقنيات جديدة لـمراقبة “تَسَلْسُل التفكير” في الذكاء الاصطناعي – وهي في الأساس خطوات التفكير الخفية التي يولدها نماذج الذكاء الاصطناعي داخليًا ts2.tech. ومع تحول أنظمة الذكاء الاصطناعي إلى المزيد من الاستقلالية (كما هي الحال مع العملاء الذين يظهرون الآن)، يجادل المؤلفون بأن القدرة على الاطلاع على تلك الأفكار الوسيطة قد يكون أمرًا حيويًا للسلامة ts2.tech. فمن خلال مراقبة تسلسل تفكير الذكاء الاصطناعي خطوة بخطوة، قد يتمكن المطورون من اكتشاف الأخطاء أو الميل إلى طرق خطرة قبل أن يتصرف الذكاء الاصطناعي. ومع ذلك، تحذر الورقة من أنه مع تزايد تعقيد النماذج، “لا يوجد ضمان بأن درجة الشفافية الحالية ستستمر” – فقد تقوم نماذج الذكاء الاصطناعي المستقبلية بإضمار تفكيرها بشكل لا يمكن تتبعه بسهولة ts2.tech. وقد حث الفريق المجتمع العلمي على “الاستفادة القصوى من إمكانية مراقبة تسلسل التفكير” الآن والسعي إلى الحفاظ على الشفافية مستقبلًا ts2.tech. ومن الجدير بالذكر أن هذه الدعوة للعمل شارك في توقيعها مجموعة من كبار علماء الذكاء الاصطناعي – بمن فيهم جيفري هينتون، والعالم الرئيسي في OpenAI إيليا سوتسكيفر (ورئيس التوافق جان ليك)، والمؤسس المشارك لـDeepMind شين ليج، وآخرون ts2.tech. إنه عرض نادر للوحدة بين مختبرات متنافسة، يعكس قلقًا مشتركًا: مع اقتراب أنظمة الذكاء الاصطناعي من مستوى التفكير البشري، يجب ألا نسمح لها بأن تصبح “صناديق سوداء” لا يمكن فهمها. البحث في “فحوصات دماغ الذكاء الاصطناعي” – قراءة فكر الذكاء الاصطناعي – قد يصبح ضروريًا بقدر أهمية إنشاء الذكاء الاصطناعي نفسه.

الحكومة والتنظيم

الاتحاد الأوروبي يفرض قانون الذكاء الاصطناعي: دفعت بروكسل حدود التنظيم من خلال اتخاذ خطوات ملموسة لتنفيذ قانون الذكاء الاصطناعي التاريخي الخاص بها. في 18 يوليو، أصدرت المفوضية الأوروبية إرشادات مفصلة لـ “نماذج الذكاء الاصطناعي ذات المخاطر النظامية” – وهي في الأساس أقوى أنظمة الذكاء الاصطناعي متعددة الأغراض التي يمكن أن تؤثر على السلامة العامة أو الحقوق الأساسية ts2.tech. أوضحت الإرشادات الالتزامات الجديدة الصارمة التي سيواجهها مقدمو خدمات الذكاء الاصطناعي هؤلاء بمجرد دخول قانون الذكاء الاصطناعي حيز التنفيذ في 2 أغسطس. ووفقًا للقواعد، يجب على مطوري الذكاء الاصطناعي الكبار (غوغل، أوبن إيه آي، ميتا، أنثروبيك، ميسترال الفرنسية، وغيرهم) إجراء تقييمات صارمة للمخاطر، وتنفيذ اختبارات هجومية لرصد الثغرات، والإبلاغ عن أي حوادث خطيرة أو إخفاقات إلى الجهات التنظيمية في الاتحاد الأوروبي ts2.tech. كما يجب عليهم تطبيق إجراءات قوية لأمن المعلومات لمنع الاستخدام الخبيث لنماذجهم ts2.tech. الشفافية أمر أساسي: يجب على صانعي النماذج الأساسية توثيق مصادر بيانات التدريب، واحترام حقوق النشر، ونشر تقارير موجزة عن محتوى مجموعات البيانات المستخدمة لتدريب كل ذكاء اصطناعي ts2.tech. وقالت هينا فيرككونين، الرئيسة التقنية للاتحاد الأوروبي: “من خلال إرشادات اليوم، تدعم المفوضية التطبيق السلس والفعال لقانون الذكاء الاصطناعي”، مؤكدة أن الجهات التنظيمية تريد توفير الوضوح للأعمال مع كبح الأضرار المحتملة ts2.tech. وتملك الشركات فترة سماح حتى أغسطس 2026 للامتثال الكامل ts2.tech. بعد ذلك، قد تفرض انتهاكات غرامات باهظة – تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية (أيهما أكبر) ts2.tech. تأتي التوجيهات الجديدة وسط تذمر من بعض شركات التقنية من أن قواعد أوروبا قد تكون مرهقة للغاية، لكن مسؤولي الاتحاد الأوروبي عازمون على إثبات أنه بإمكانهم أن يكونوا “مراقب الذكاء الاصطناعي في العالم” دون خنق الابتكار.

رمز السلوك الطوعي يشعل الجدل: في ظل قانون الذكاء الاصطناعي الملزم، أثار “مدونة السلوك الطوعي للذكاء الاصطناعي” التي اقترحها منظمو الاتحاد الأوروبي نقاشاً عبر الأطلسي. وتهدف المدونة – التي أعدها خبراء لتشجيع التبني المبكر لبعض مبادئ قانون الذكاء الاصطناعي – إلى أن تلتزم شركات الذكاء الاصطناعي بشكل استباقي بإجراءات معينة تتعلق بالشفافية والسلامة الآن، قبل سريان القانون. وشهد هذا الأسبوع انقساماً بين عمالقة التقنية الأميركيين: فقد أبدت مايكروسوفت نيتها التوقيع، حيث صرّح الرئيس براد سميث قائلاً: “أعتقد أننا على الأرجح سنوقع… هدفنا هو الدعم” مرحباً بالتعاون الوثيق مع مكتب الذكاء الاصطناعي في الاتحاد الأوروبي reuters.com. في المقابل، رفضت ميتا بلاتفورمز المدونة الطوعية بشكل قاطع. وكتب جويل كابلن، رئيس الشؤون العالمية في ميتا، في 18 يوليو: “ميتاً لن توقع عليها. هذه المدونة تخلق الكثير من الشكوك القانونية لمطوري النماذج، بالإضافة إلى أنها تتضمن إجراءات تتجاوز بكثير نطاق قانون الذكاء الاصطناعي” reuters.com. وأضاف أن توجيهات الاتحاد الأوروبي تمثل إفراطاً تنظيمياً قد “يخنق تطوير ونشر نماذج الذكاء الاصطناعي المتقدمة في أوروبا” و“يعوق الشركات الأوروبية” التي تبني على الذكاء الاصطناعي reuters.com. يتماشى موقف ميتا مع شكاوى من تحالف مؤلف من 45 شركة تقنية أوروبية يرى أن مسودة المدونة مقيدة للغاية. وفي المقابل، وقعت كل من OpenAI (مبتكرة ChatGPT) وشركة Mistral AI الفرنسية المدونة بالفعل، مما يشير إلى استعداد بعض اللاعبين الكبار للقبول بمزيد من الشفافية وفحوصات حقوق النشر في أوروبا ts2.tech. يبرز هذا الانقسام تصاعد التوتر: عمالقة التقنية الأمريكيون يريدون تجنب خلق سوابق قد تقيدهم عالمياً، بينما يضغط المنظمون الأوروبيون (وبعض الشركات الناشئة) من أجل معايير أعلى الآن. وقد تؤثر كيفية تطبيق المدونة الطوعية في وضع قواعد الذكاء الاصطناعي الفعلية عالمياً حتى قبل دخول قانون الاتحاد الأوروبي الملزم حيز التنفيذ.

الولايات المتحدة تراهن على الابتكار بدلاً من التنظيم: في واشنطن، لا يزال النهج تجاه الذكاء الاصطناعي قائمًا على الحوافز أكثر من القيود – على الأقل في الوقت الحالي. عقد البيت الأبيض اجتماع قمة التكنولوجيا والابتكار هذا الأسبوع، والذي أسفر عن التزامات صناعية جديدة بنحو 90 مليار دولار لمشاريع الذكاء الاصطناعي وأشباه الموصلات في الولايات المتحدة ts2.tech. تعهدت عشرات الشركات – من جوجل إلى إنتل إلى بلاكستون – بإنفاق مليارات الدولارات على مراكز بيانات متقدمة، ومصانع رقائق إلكترونية محلية، ومراكز أبحاث ذكاء اصطناعي في جميع أنحاء أمريكا، مما يعزز البنية التحتية التقنية بالشراكة مع المبادرات الفيدرالية ts2.tech. الرسالة من القادة الأمريكيين: بدلاً من فرض قوانين واسعة على الذكاء الاصطناعي على الفور، هم يسكبون الوقود على نار الابتكار للحفاظ على التفوق أمام المنافسين العالميين، مع دراسة تأثيرات الذكاء الاصطناعي. حتى الاحتياطي الفيدرالي الأمريكي أولى اهتماماً بذلك. ففي خطاب بتاريخ 17 يوليو حول التكنولوجيا، وصفت العضوة في الاحتياطي الفيدرالي ليزا دي. كوك الذكاء الاصطناعي بأنه “ربما يكون التكنولوجيا العامة التالية” – مقارنة إمكاناته التحويلية بالمطبعة أو الكهرباء ts2.tech. وأشارت إلى أن “أكثر من نصف مليار مستخدم” حول العالم باتوا يتفاعلون الآن مع نماذج ذكاء اصطناعي ضخمة أسبوعياً، وأن تقدم الذكاء الاصطناعي قد ضاعف نتائج المؤشرات الأساسية في العام الماضي ts2.tech. لكنها أيضاً حذرت من “تحديات متعددة الأبعاد.” فعلى الرغم من أن الذكاء الاصطناعي قد يعزز الإنتاجية (ويساعد حتى في كبح التضخم) على المدى الطويل، إلا أن اعتماده السريع قد يتسبب في اضطرابات قصيرة الأجل – بما في ذلك موجات من الاستثمارات والإنفاق قد تؤدي بشكل متناقض إلى رفع الأسعار قبل أن تظهر الكفاءات ts2.tech. رؤيتها الدقيقة – عدم المبالغة في التفاؤل أو التشاؤم – تعكس إجماعًا أوسع في واشنطن لتشجيع نمو الذكاء الاصطناعي بحذر، مع مراقبة التأثيرات على الوظائف والتضخم وعدم المساواة مع ظهورها.

الدفاع والجغرافيا السياسية

البنتاغون يحتضن “الذكاء الاصطناعي الوكيلي”: كثفت وزارة الدفاع الأمريكية استثماراتها في الذكاء الاصطناعي المتقدم، مما أدى إلى تلاشي الحدود بين وادي السيليكون والبنتاغون. في منتصف يوليو، أُعلن أن OpenAI وGoogle وAnthropic وxAI التابعة لإيلون ماسك فازت كل منها بعقود دفاعية تصل قيمتها إلى 200 مليون دولار لتطوير نماذج أولية لأنظمة “الذكاء الاصطناعي الوكيلي” المتقدمة لأغراض الأمن القومي reuters.com reuters.com. وقال مكتب الرئيس الرقمي والذكاء الاصطناعي في وزارة الدفاع إن هذه العقود ستمكن “وكلاء” الذكاء الاصطناعي من دعم عمليات سير العمل العسكرية واتخاذ القرار. “إن تبني الذكاء الاصطناعي يُحوّل قدرة وزارة الدفاع على دعم المقاتلين والحفاظ على التفوق الاستراتيجي على خصومنا”، قال دوغ ماتي، رئيس الذكاء الاصطناعي والتحول الرقمي، مشددًا على أهمية الرهانات reuters.com. وكان البنتاغون قد منح الشهر الماضي بالفعل عقدًا بقيمة 200 مليون دولار لشركة OpenAI لتكييف تقنيات مشابهة لتقنية ChatGPT مع احتياجات الدفاع reuters.com، وأطلقت شركة xAI التابعة لماسك مؤخرًا حزمة “Grok للحكومة” لتقديم أحدث نماذجها (بما في ذلك Grok 4) إلى الوكالات الفيدرالية والأمن القومي reuters.com. هذه الخطوات تعزز الروابط بين قادة الذكاء الاصطناعي والحكومة، حتى مع تعهد المسؤولين بالحفاظ على المنافسة مفتوحة. كما تأتي في الوقت الذي تعيد فيه البيت الأبيض النظر في بعض اللوائح السابقة – إذ ألغى الرئيس ترامب في أبريل أمرًا تنفيذيًا صدر في عهد بايدن عام 2023 كان يسعى إلى فرض المزيد من الإفصاحات عن مخاطر الذكاء الاصطناعي reuters.com، في إشارة إلى التحول نحو موقف أكثر ودية مع قطاع التكنولوجيا. وبالتالي، فإن الدفاع الأمريكي يستفيد بحماس من تقدم الذكاء الاصطناعي في القطاع الخاص، مع الرهان على أن الوكلاء الذاتيين للذكاء الاصطناعي يمكن أن يساعدوا في كل شيء بدءًا من تحليل البيانات وحتى التخطيط في ساحات المعارك. (لكن ليس الجميع مرتاحًا لهذا التقارب – فقد دعت السيناتورة إليزابيث وارن مؤخرًا وزارة الدفاع إلى التأكد من بقاء هذه العقود المتعلقة بالذكاء الاصطناعي تنافسية وعدم احتكارها من قبل عدد قليل من الشركات المملوكة للمليارديرات reuters.com.)

إنفيديا في مرمى نيران التوترات التكنولوجية بين الولايات المتحدة والصين: على الصعيد العالمي، استمرت الذكاء الاصطناعي في التداخل مع الجغرافيا السياسية. في بكين، استقبل المسؤولون الصينيون الرئيس التنفيذي لشركة إنفيديا جنسن هوانغ بحفاوة في اجتماع رفيع المستوى في 18 يوليو. وأكد وزير التجارة الصيني لهوانغ أن الصين “سترحب بالشركات الأجنبية العاملة في مجال الذكاء الاصطناعي”، وذلك بعد أن شددت الولايات المتحدة القيود على تصدير الرقائق المتقدمة في العام الماضي ts2.tech. هوانغ – الذي تعتمد معظم أنظمة الذكاء الاصطناعي العالمية على معالجات إنفيديا التي ينتجها – أشاد بتقدم التقنية الصينية، واصفًا نماذج الذكاء الاصطناعي من شركات مثل علي بابا وتينسنت بأنها “عالمية المستوى”، وأعرب عن تطلعه إلى “تعميق التعاون… في مجال الذكاء الاصطناعي” داخل السوق الصينية الضخمة ts2.tech. وفي الكواليس، ظهرت تقارير تفيد بأن وزارة التجارة الأمريكية منحت إنفيديا بهدوء إذنًا لاستئناف بيع أقوى شريحة ذكاء اصطناعي جديدة لها (H20 GPU) للعملاء الصينيين، مما خفف جزئيًا من الحظر التصديري المفروض ts2.tech. ويبدو أن هذه البادرة – التي تهدف على الأرجح إلى تجنب خنق أعمال إنفيديا – أثارت ردود فعل عنيفة في واشنطن على الفور. ففي 18 يوليو، انتقد النائب جون مولينار، الذي يرأس لجنة في مجلس النواب تعنى بالشأن الصيني، علانية أي تليين للحظر على الرقائق. وكتب قائلاً: “لقد اتخذت وزارة التجارة القرار الصحيح بمنع H20”، محذرًا: “لا يمكننا السماح للحزب الشيوعي الصيني باستخدام الرقائق الأمريكية لتدريب نماذج الذكاء الاصطناعي التي ستدعم جيشه، تُقيد شعبه، وتقوّض الابتكار الأمريكي.” ts2.tech وكرر صقور الأمن القومي رسالته الحادة (“لا تدعهم يستخدمون رقائقنا ضدنا”)، بينما جادل أصحاب الأصوات الصناعية بأن الفصل الكامل يضر الشركات الأمريكية. وانخفض سهم إنفيديا مع قلق المستثمرين من التداعيات السياسية ts2.tech. تجسد هذه الحادثة الرقص الدقيق الجاري: تحاول الولايات المتحدة حماية أمنها وتفوقها التقني على الصين، لكنها تحتاج أيضًا إلى شركاتها (مثل إنفيديا) لجني الأرباح وتمويل المزيد من الابتكار. ومن جانبها، ترسل الصين إشارات بالانفتاح أمام شركات الذكاء الاصطناعي الأجنبية، في الوقت الذي تضخ فيه مليارات الدولارات في رقائق الذكاء الاصطناعي المحلية لتقليل الاعتماد على التقنية الأمريكية. باختصار، إن مشهد الذكاء الاصطناعي في منتصف عام 2025 يدور بقدر ما حول المناورات الدبلوماسية كما يدور حول القفزات التقنية.

ردود الفعل الاجتماعية، الأخلاقيات والتعليم

الرهبة العامة والقلق من قدرات الذكاء الاصطناعي الجديدة: أطلقت موجة إطلاقات الذكاء الاصطناعي نقاشات فورية – مزيج من الحماس والحذر – عبر وسائل التواصل الاجتماعي. على منصة X (تويتر سابقاً) ورديت، أصبح وكيل ChatGPT موضوعاً شائعاً حيث سارع المستخدمون لتجربة الاستقلالية الجديدة للدردشة الآلية. خلال ساعات، شارك الناس بحماس قصصاً عن قيام الوكيل بحجز تذاكر السينما أو التخطيط الكامل لرحلات العطلات من البداية إلى النهاية، حيث عبّر مستخدم مندهش قائلاً: “لا أصدق أنه أتم كل شيء بدوني!” ts2.tech. واعتبر كثيرون الوكيل لمحة عن مستقبل قريب حيث يمكن تفويض الأعمال المملة بالكامل – كجدولة المواعيد، التسوق للهدايا، وتخطيط الرحلات – لمساعدي الذكاء الاصطناعي. لكن موجة قوية من الحذر رافقت هذا الزخم. بدأ خبراء الأمن السيبراني والمستخدمون المتوجسون باختبار النظام للكشف عن نقاط ضعفه، محذرين الآخرين من عدم “تركه دون رقابة.” انتشرت مقاطع من العرض التجريبي لـ OpenAI (والذي شدد على أن الإنسان يمكنه مقاطعة أو تجاوز الوكيل في أي لحظة إذا انحرف عن المسار) مع تعليقات مثل “رائع، لكن راقبه عن كثب.” ts2.tech واستضاف الوسم #ChatGPTAgent نقاشات حول ما إذا كان هذا اختراقاً حقيقياً أم مجرد إضافة ذكية. وكان أحد محاور الجدل جغرافياً: فميزة الوكيل ليست متوفرة بعد في الاتحاد الأوروبي، ويقال إن السبب يعود لعدم اليقين بشأن الامتثال للوائح القادمة. عبر عشاق الذكاء الاصطناعي الأوروبيون في المنتديات عن استيائهم من أن التنظيم المفرط “يحرمنا من أحدث التقنيات” ts2.tech. دافع مؤيدو الموقف الحذر للاتحاد الأوروبي قائلين إن الانتظار حتى تُثبت قوة الذكاء الاصطناعي أنه آمن هو الخيار الأكثر حكمة. وأصبحت هذه الفجوة المصغرة بين الشرق والغرب – حيث يجرب المستخدمون في الولايات المتحدة ذكاء الغد اليوم بينما ينتظر الأوروبيون – موضوعاً للنقاش بحد ذاته. بشكل عام، كان الشعور على وسائل التواصل الاجتماعي تجاه القدرات الجديدة لـ ChatGPT مزيجًا من الدهشة والتوتر، مما يعكس تزايد إلمام الجمهور بروعة وفخاخ الذكاء الاصطناعي في الحياة اليومية.

حروب المواهب ومخاوف التركيز: اجتذاب ميتا العدواني للمواهب أثار الكثير من الضجة وبعض القلق أيضاً. على لينكدإن، قام المهندسون بتحديث ملفاتهم الشخصية بشكل ساخر ليضيفوا وظيفة الأحلام الجديدة: “تم استقطابي من قبل مختبرات زوكربيرغ للذكاء الفائق.” وعلق البعض بأن أكبر إطلاق منتج لميتا هذا الأسبوع كان “بياناً صحفياً يسرد جميع الأشخاص الذين تم توظيفهم.” ts2.tech. حجم هجرة العقول – أكثر من عشرة باحثين من النخبة من المنافسين خلال بضعة أشهر – أذهل المراقبين. على تويتر التقني، كتب بعض أصحاب رؤوس الأموال المغامرة بنبرة مازحة: “هل تبقى أحد في OpenAI أو Google، أم أن زوك وظفهم جميعاً؟” ts2.tech. لكن حالة التهافت هذه أثارت أيضاً أسئلة جدية حول احتكار قوة الذكاء الاصطناعي. عبّر كثير من مجتمع الذكاء الاصطناعي مفتوح المصدر عن خيبة أملهم لأن باحثين بارزين دافعوا عن الشفافية ولامركزية الذكاء الاصطناعي بدأوا الآن بالانتقال خلف الأبواب المغلقة في شركات التقنية الكبرى ts2.tech. “وداعاً للشفافية”، كتب أحد مستخدمي ريديت بحسرة، معبراً عن قلقه من أن تصبح الأبحاث المتطورة أكثر سرية. بينما رأى آخرون الصورة من منظور طويل الأمد: مع تدفق الموارد من ميتا، قد يستطيع هؤلاء الخبراء تحقيق اختراقات أسرع مما لو كانوا في شركة ناشئة – وميتا لديها بالفعل سجل جيد في إتاحة بعض أعمال الذكاء الاصطناعي كمصدر مفتوح. أبرز النقاش حالة التردد: حماس لرؤية “نجوم الذكاء الاصطناعي” يبنون شيئاً مذهلاً بدعم شركات كبيرة، يقابله الخوف من أن التقدم (والقوة) في الذكاء الاصطناعي يتركز في أيدي عدد قليل من العمالقة. إنها معضلة المركزية مقابل اللامركزية القديمة، تتجدد اليوم في الذكاء الاصطناعي.

التكلفة البشرية للأتمتة – تصاعد رد الفعل: لم تكن جميع أخبار الذكاء الاصطناعي محل ترحيب. فبينما تتفاخر الشركات الكبرى بزيادة الإنتاجية التي تحققها بفضل الذكاء الاصطناعي، تقوم العديد منها أيضًا بتسريح الموظفين، مما يغذي السرد العام بأن الأتمتة تؤدي إلى فقدان العمال لوظائفهم. في الأسابيع الأخيرة، تم تسريح آلاف الموظفين في شركات مثل مايكروسوفت، وأمازون، وإنتل. وبرر التنفيذيون هذه القرارات بالرغبة في تقليل التكاليف وإعادة الهيكلة – وأشاروا صراحة إلى تحقيق كفاءة أكبر بفضل الذكاء الاصطناعي والأتمتة كجزء من الحسبة ts2.tech. وكانت ردود الفعل عنيفة. فعلى الشبكات الاجتماعية وحتى في أماكن الاحتجاجات، يعبر الناس عن استيائهم من أن تقدم الذكاء الاصطناعي قد يأتي على حساب الموظفين. ويدعو بعض نشطاء العمل إلى مزيد من الرقابة التنظيمية – واقتراح أفكار تتراوح من فرض قيود على تسريح الموظفين بواسطة الذكاء الاصطناعي، إلى اشتراط قيام الشركات بإعادة تدريب أو إعادة توزيع موظفيها في أدوار جديدة تركز على الذكاء الاصطناعي إذا ما تم أتمتة وظائفهم السابقة ts2.tech. كما أثار موجة التسريحات جدلاً أخلاقياً: إذ تتفاخر الشركات بأن الذكاء الاصطناعي يجعلها أكثر إنتاجية، ولكن إن كانت هذه المكاسب ستثري المساهمين فقط بينما يُفصل الموظفون، “فهل هذا مقبول اجتماعياً؟” يتساءل النقاد ts2.tech. هذا الجدل يغذي المطالب بضمان أن فوائد الذكاء الاصطناعي يجب أن تعم الجميع – وهو موضوع ألمحت إليه حتى شركة OpenAI بصندوقها الجديد البالغ 50 مليون دولار لمشاريع “الذكاء الاصطناعي من أجل الخير” المجتمعية. ويظل ذلك تذكيراً بأن “أخلاقيات الذكاء الاصطناعي” لا تتعلق فقط بالتحيز أو السلامة، وإنما تشمل أيضًا العدالة الاقتصادية والتكلفة البشرية للتغيير السريع.

الذكاء الاصطناعي للأطفال – الفرصة والقلق: من الناحية التقنية، بدأت الشركات في تقديم أدوات ذكاء اصطناعي صديقة للأطفال – لكن ليس بدون جدل.

في هذا الأسبوع، أعلن إيلون ماسك عن خطط لإطلاق “بيبي جروك”، نسخة صغرى من روبوت الدردشة xAI التابع له، مصممة خصيصًا لتعليم الأطفال.“سنقوم بصنع بيبي جروك… وهو تطبيق مخصص للمحتوى المناسب للأطفال،” نشر ماسك على X (تويتر) في وقت متأخر من مساء السبت thedailybeast.com.الفكرة هي إطلاق مساعد ذكاء اصطناعي مبسط ومرشح للسلامة للأطفال يمكنه الإجابة على الأسئلة وتقديم الدروس لهم بطريقة تعليمية ومناسبة لأعمارهم foxbusiness.com foxbusiness.com.سيكون Baby Grok نسخة مخففة من روبوت الدردشة الرئيسي Grok 4 الخاص بإيلون ماسك (والذي قامت شركته xAI مؤخراً بترقيته بقدرات تدريب أكثر تطوراً foxbusiness.com).تأتي هذه الخطوة بعد المشاكل العلنية الأخيرة التي واجهها Grok – حيث تم انتقاد الروبوت لإدلائه بعدة تعليقات كراهية ومتطرفة من تلقاء نفسه خلال التجارب thedailybeast.com.من خلال التحول إلى إصدار مخصص للأطفال، يبدو أن ماسك حريص على تحسين صورة الذكاء الاصطناعي وخلق مكانة له في مجال التكنولوجيا التعليمية، حيث يسعى لوضع Grok كمنافس لتطبيقات الذكاء الاصطناعي الموجهة للأطفال من OpenAI أو غيرها thedailybeast.com. “من المتوقع أن يكون نسخة مبسطة من Grok… مصممة لتناسب التفاعل الآمن والتعليمي مع الأطفال”، كما ورد في أحد الوصفات foxbusiness.com.ومع ذلك، يحث الخبراء على توخي الحذر: رفقاء الذكاء الاصطناعي للأطفال يحملون مخاطر فريدة إذا لم يتم التحكم بهم بشكل صحيح.على سبيل المثال، أصدرت مفوضية السلامة الإلكترونية في أستراليا تحذيرًا استشاريًا يفيد بأنه بدون وجود ضمانات، قد تعرض روبوتات الدردشة التي تعمل بالذكاء الاصطناعي الأطفال لـمحتوى خطير أو تلاعب – من أفكار ضارة وتنمر، إلى إساءة أو استغلال جنسي من خلال كسب ثقة الطفل thedailybeast.com.هناك أيضًا القلق من أن الأطفال قد يصبحون معتمدين بشكل مفرط على “صديق” ذكاء اصطناعي أو يخلطون بين الخطوط الفاصلة بين العلاقات البشرية وبين الذكاء الاصطناعي thedailybeast.com.إحدى الحالات المأساوية في الأخبار شملت مواطنًا أمريكيًامراهق أصبح مهووسًا بروبوت دردشة ذكاء اصطناعي وانتحر، مما أدى إلى رفع دعوى قضائية حول مسؤولية الروبوت في الرعاية thedailybeast.com.تؤكد هذه الحوادث أن الذكاء الاصطناعي الموجه للأطفال يحتاج إلى ضمانات صارمة.كما قال أحد خبراء أخلاقيات الذكاء الاصطناعي، إنه يشبه تصميم نوع جديد من الملاعب – ملعب يحتوي على فرص تعلم مذهلة، ولكن يجب بناء المعدات فيه بحيث لا يتعرض الأطفال للأذى.يبقى أن نرى ما إذا كان “بيبي جروك” سيكسب ثقة الآباء، لكن الدفع نحو دمج الذكاء الاصطناعي في التعليم وحياة الشباب يتسارع بشكل واضح.

التعليم في عصر الذكاء الاصطناعي: تواجه المدارس والأهالي تحديات التكيف مع الذكاء الاصطناعي وحماية الطلاب. في ظل غياب سياسة فدرالية أمريكية، أصدرت غالبية الولايات الآن إرشادات الذكاء الاصطناعي للتعليم من الروضة حتى الصف الثاني عشر الخاصة بها. حتى هذا الأسبوع، نشرت الهيئات في ما لا يقل عن 28 ولاية (وواشنطن العاصمة) معايير حول قضايا مثل الغش الأكاديمي، وسلامة الطلاب، والاستخدام المسؤول للذكاء الاصطناعي في الفصول الدراسية governing.com. تهدف هذه الإرشادات إلى مساعدة المعلمين على الاستفادة من أدوات الذكاء الاصطناعي مع وضع ضوابط حماية. “أحد أكبر المخاوف… وسبب وجود دفعة لإصدار إرشادات للذكاء الاصطناعي… هو توفير بعض معايير السلامة حول الاستخدام المسؤول”، بحسب ما أوضحت أماندا بيكرستاف، الرئيسة التنفيذية لمنظمة الذكاء الاصطناعي من أجل التعليم governing.com. تركز العديد من الأطر المعتمدة في الولايات على تثقيف الطلاب بالفرص والمخاطر في مجال الذكاء الاصطناعي، مثل كيف يمكن للذكاء الاصطناعي التوليدي أن يدعم التعليم، ولكن أيضًا كيفية اكتشاف المعلومات المضللة التي ينتجها الذكاء الاصطناعي أو تجنب الاعتماد المفرط عليه. وقد أطلقت ولايات مثل كارولاينا الشمالية، وجورجيا، وماين، ونيفادا جميعها سياسات تخص الذكاء الاصطناعي في المدارس خلال الأشهر الأخيرة governing.com governing.com. ويقول المراقبون إن هذه الجهود المتفرقة تسد فجوة حيوية لضمان أن الذكاء الاصطناعي “يخدم احتياجات الأطفال… ويعزز تعليمهم بدلاً من أن ينتقص منه.” governing.com

مشاركة الفوائد: في خضم كل هذه التطورات، بدأ قادة الذكاء الاصطناعي أنفسهم بالاعتراف بالحاجة إلى تقدم شامل. في الواقع، أطلقت OpenAI – التي تم تحميل ChatGPT الخاص بها الآن بشكل مذهل أكثر من 900 مليون مرة على الهواتف المحمولة (أي أكثر بعشر مرات من أي تطبيق دردشة منافس) qz.com qz.com – أول مبادرة خيرية رئيسية لها. وأعلنت الشركة عن صندوق بقيمة 50 مليون دولار لدعم المنظمات غير الربحية والمجتمعات التي تستخدم الذكاء الاصطناعي من أجل الصالح الاجتماعي reuters.com. سيدعم هذا الصندوق المشاريع التي تطبق الذكاء الاصطناعي في مجالات مثل التعليم، الرعاية الصحية، التمكين الاقتصادي، والبحوث المدنية، وكان ذلك توصية رئيسية من مجلس الحوكمة غير الربحي الجديد التابع لـ OpenAI reuters.com reuters.com. أمضى الذراع غير الربحي لـ OpenAI (الذي لا يزال يشرف على الشركة الربحية) عدة أشهر في جمع آراء أكثر من 500 قائد مجتمعي حول كيفية إمكانية أن يساعد الذكاء الاصطناعي المجتمع reuters.com. يهدف الصندوق الناتج – الذي سيتعاون مع منظمات محلية – إلى “استخدام الذكاء الاصطناعي من أجل الصالح العام” وضمان أن تعم فوائد التقنية على الجميع، وليس فقط أن تتركز في مراكز التكنولوجيا ts2.tech. إنه خطوة صغيرة ولكنها رمزية، في الوقت الذي تواجه فيه الصناعة سؤالًا مصيريًا: كيف يمكن تحقيق التوازن بين الابتكار المتسارع والمسؤولية المجتمعية؟


من غرف اجتماعات الشركات التقنية الكبرى إلى مختبرات العلوم، ومن مواقع هوليوود إلى الفصول الدراسية، أظهرت اليومان الماضيان أن الذكاء الاصطناعي يلمس كل قطاع وكل منطقة. في هذا الإطار الزمني الذي استمر 48 ساعة، شاهدنا الوكلاء المستقلون ينتقلون من مفهوم إلى واقع تجاري، ورهانات بمليارات الدولارات من قبل شركات تضاعف استثماراتها في الذكاء الاصطناعي، وحكومات ترحب بالتكنولوجيا تارة وتفرض بعض القيود تارة أخرى. كما رأينا لمحات من وعود الذكاء الاصطناعي – تسريع علاج السرطان، خلق الفن، وتسريع وتيرة العلوم – لكنها ترافقت أيضًا مع تحذيرات من مخاطره – اضطراب سوق العمل، فقدان الشفافية، والمآزق الأخلاقية. وكما قال أحد المعلقين هذا الأسبوع: “الذكاء الاصطناعي هو الكهرباء الجديدة.” binaryverseai.com ومثلما كان الحال مع الكهرباء في أوائل القرن العشرين، يثير الانتشار السريع للذكاء الاصطناعي التفاؤل والقلق بدرجات متساوية. والتحدي المقبل يكمن في تحويل تلك القوة الخام إلى تقدم يعود بالنفع على الجميع، مع الحفاظ على سلامة النظام للجميع.

المصادر: تم جمع المعلومات في هذا التقرير من مجموعة من وسائل الإعلام المرموقة، والإصدارات الرسمية، وتعليقات الخبراء المنشورة خلال 19–20 يوليو 2025. تشمل المصادر الرئيسية رويترز reuters.com reuters.com، تك كرانش techcrunch.com، كورتز qz.com، ونشرات أخبار الذكاء الاصطناعي المتخصصة ts2.tech ts2.tech من بين أخرى، كما هو مذكور في جميع أنحاء التقرير.

Tags: , ,