دعا أكثر من 700 عالم وخبير وشخصية عامة من مختلف أنحاء العالم، يوم الأربعاء 22 أكتوبر 2025، إلى وقف تطوير الذكاء الاصطناعي القادر على تجاوز القدرات البشرية، محذرين من مخاطر وجودية قد تهدد مستقبل الإنسان في حال استمرار السباق نحو "الذكاء الخارق". نداء عالمي من منظمة «فيوتشر أوف لايف إنستيتيوت» وجاء النداء عبر صفحة مبادرة أطلقتها منظمة «فيوتشر أوف لايف إنستيتيوت» (Future of Life Institute)، وهي منظمة غير ربحية تحذّر منذ سنوات من المخاطر الأخلاقية والأمنية للذكاء الاصطناعي. وجاء في نص البيان: «ندعو إلى وقف تطوير الذكاء الاصطناعي الخارق ما لم يكن هناك إجماع علمي على إمكانية بنائه بطريقة مضبوطة وآمنة، وحتى يحظى بدعم شعبي واضح». شخصيات علمية وتقنية بارزة بين الموقّعين من بين الموقعين عدد من روّاد الذكاء الاصطناعي الحديث، من بينهم جيفري هينتون، الحائز على جائزة نوبل في الفيزياء لعام 2024، وستيوارت راسل، أستاذ المعلوماتية بجامعة كاليفورنيا في بيركلي، ويوشوا بنغيو، أستاذ الذكاء الاصطناعي بجامعة مونتريال. كما ضمّت القائمة شخصيات من عالم التكنولوجيا مثل ريتشارد برانسون، مؤسس مجموعة "فيرجن"، وستيف ووزنياك، أحد مؤسسي "آبل"، إلى جانب شخصيات سياسية ك ستيف بانون، المستشار السابق للرئيس الأمريكي دونالد ترامب، وسوزان رايس، مستشارة الأمن القومي في عهد باراك أوباما. حضور ديني وفني في التحذير العالمي لم يقتصر النداء على العلماء والسياسيين، إذ وقّع عليه أيضًا مستشار البابا في الفاتيكان وخبير الذكاء الاصطناعي باولو بينانتي، إلى جانب شخصيات فنية مثل المغني الأمريكي ويليام آي.آم والأمير هاري وزوجته ميغن ماركل، في خطوة تؤكد أن القلق من الذكاء الاصطناعي تجاوز حدود المختبرات نحو الرأي العام العالمي. الذكاء الاصطناعي العام والخارق: سباق محفوف بالمخاطر يسعى كبار الفاعلين في قطاع التكنولوجيا إلى تطوير ما يُعرف ب الذكاء الاصطناعي العام، أي النظام القادر على محاكاة القدرات الفكرية البشرية كافة، تمهيدًا لمرحلة الذكاء الاصطناعي الخارق الذي قد يتفوق على الإنسان في معظم المجالات. وخلال مؤتمر نظمته مجموعة «أكسل سبرينغر» الإعلامية في سبتمبر الماضي، اعتبر سام ألتمان، الرئيس التنفيذي لشركة OpenAI المطوّرة لتطبيق «تشات جي بي تي»، أنه يمكن بلوغ مرحلة الذكاء الاصطناعي الفائق خلال خمس سنوات فقط. «بناء تكنولوجيا كهذه أمر غير مقبول» وقال ماكس تيغمارك، رئيس منظمة «فيوتشر أوف لايف إنستيتيوت»، في تصريح لوكالة فرانس برس: «لا يهم إن تحقق ذلك بعد عامين أو خمسة عشر عامًا، فبناء تكنولوجيا بهذه القوة دون ضوابط أمر غير مقبول». وأضاف: «قد يؤيد البعض تطوير أدوات ذكاء اصطناعي أكثر تقدمًا لخدمة الطب أو مكافحة السرطان، لكننا نرفض تمامًا فكرة إنشاء ذكاء يتجاوز قدرات الإنسان». نحو وعي عالمي بضرورة ضبط الذكاء الاصطناعي يؤكد هذا النداء المتزايد أن التحكم في الذكاء الاصطناعي أصبح قضية عالمية تتجاوز البحوث التقنية إلى أسئلة أخلاقية وسياسية وأمنية، بينما تتسابق الشركات العملاقة على بناء نماذج أكثر قوة من دون إطار قانوني أو رقابي واضح. تعليقات