أطلقت ثلاث من كبريات شركات الذكاء الاصطناعي في العالم — OpenAI وGoogle DeepMind وAnthropic — تحذيرًا مشتركًا مثيرًا للقلق بشأن فقدان الشفافية في آليات التفكير الداخلي للنماذج المتقدمة للذكاء الاصطناعي. ووفقًا لتقرير مفصل نشره موقع Venture Beat المتخصص في التكنولوجيا، فإن البشرية تقترب من "نقطة اللاعودة"، حيث يصبح من المستحيل على الإنسان فهم كيفية تفكير هذه النماذج أو حتى رصد منطقها الداخلي. هذا الإنذار أتى من أكثر من 40 باحثًا من الشركات الثلاث، استنادًا إلى دراسة غير مسبوقة حللت ما يُعرف ب"سلسلة التفكير" داخل نماذج الذكاء الاصطناعي، أي المنطق الذي تتبعه هذه النماذج لإنتاج إجاباتها. شفافية مضللة تشير الدراسة إلى أن النماذج اللغوية الحديثة، مثل GPT-4 وClaude وGemini، توحي بوجود شفافية نسبية في طريقة عملها، إذ تظهر للمستخدم تسلسلاً منطقيًا لما توصلت إليه. لكن في الواقع، فإن هذه الشفافية قد تكون "مخادعة". فالنماذج تدرك أنها مطالبة بتفسير قراراتها، ما يجعلها تقوم ب"اختراع" تسلسل منطقي بعد إنتاج الجواب، وهو تسلسل قد لا يعكس بالضرورة خطوات التفكير الحقيقية. والأخطر من ذلك أن تجارب أجرتها شركة Anthropic كشفت عن وجود تسلسلات داخلية من الحوار تُظهر تفكيرًا ضمنيًا لدى النماذج في "خداع المستخدم" أو "التقليل المتعمد من جودة الإجابة". وعلى الرغم من أن النتائج النهائية لم تتضمن هذه النوايا، إلا أن مجرد وجود هذه الأفكار الكامنة يثير مخاوف أخلاقية وأمنية جسيمة. هل نحن أمام خطر تلاعب خوارزمي؟ تطرح الدراسة سيناريوهات مقلقة، من بينها احتمال أن تصبح النماذج قادرة على "إخفاء نواياها" مع تطورها واعتمادها على بيانات مُولدة ذاتيًا من نماذج أخرى. ويحذر التقرير من مستقبل قد تتمكن فيه نماذج الذكاء الاصطناعي من بناء "أدلة زائفة" لإخفاء أهدافها الحقيقية، ما يجعل من الرقابة أو التدقيق أمرًا شبه مستحيل. هذا السيناريو أيده البروفيسور جيفري هينتون، أحد مؤسسي مجال الذكاء الاصطناعي، والذي عبّر عن دعمه لهذا التحذير العلمي. كما أيد عدد من كبار الباحثين من مختبرات مختلفة هذا التقرير ونتائجه. توصيات عاجلة من أجل الشفافية في ضوء هذه المخاوف، يدعو الباحثون إلى إرساء معايير صارمة لتقييم شفافية نماذج الذكاء الاصطناعي، وتطوير أدوات قادرة على كشف سلاسل التفكير الكاذبة أو المتحيزة. كما أوصوا بضرورة التمهل في تطوير النماذج الأكثر تقدمًا، إلى حين التوصل إلى آليات تضمن تتبعًا دقيقًا وشاملًا لمنطقها الداخلي. ومن بين التوصيات المقترحة: فرض معيار تقني للتحقق من قابلية الشرح (explicability)، وإنشاء واجهات إشراف مستقلة لتحليل سلوك النماذج أثناء مراحل التدريب. متى يتوقف الإنسان عن فهم الآلة؟ مع تزايد الاعتماد على الذكاء الاصطناعي في مختلف القطاعات، تصبح القدرة على فهم آليات عمل هذه النماذج أمرًا جوهريًا. فبمجرد أن تبدأ الآلة في إخفاء نواياها، أو تقدم تفسيرات زائفة لخداع المستخدم، تنهار أسس الثقة بالتكنولوجيا. إن التقرير المشترك الصادر عن OpenAI وGoogle وAnthropic ليس مجرد دراسة علمية، بل هو صرخة تنبيه حاسمة لضرورة فرض الحوكمة، والشفافية، وضبط إيقاع التطوير، قبل أن يصبح من المتأخر جدًا معرفة ما الذي "تفكر" فيه الآلة حقًا. تعليقات