في أحد مراكز النداء بضواحي نيودلهي، يروي موظف هندي – فضّل عدم الكشف عن هويته – كيف تغيّر صوته… من دون أن ينطق بكلمة خاطئة. منذ عام 2023، زوّدت شركته موظفيها ببرنامج ذكاء اصطناعي قادر على تعديل نبرة الصوت في الوقت الفعلي لجعلها أكثر حيادية – خصوصًا بما يتناسب مع آذان العملاء الأمريكيين. تقنية مبتكرة يُروَّج لها كحلّ لمشاكل التوتر وسوء الفهم، لكنها في الوقت نفسه تثير تساؤلات أخلاقية وهوياتية ومهنية بشأن مستقبل العاملين في هذا القطاع. وقد بدأت إحدى الشركات متعددة الجنسيات الفرنسية المتخصصة في خدمات التعهيد باستخدام هذه التقنية، والتي تسمح للموظفين بالتحدث بأصواتهم الحقيقية ولكن بلكنة معدّلة تلقائيًا عند الإرسال الصوتي. الهدف من ذلك: تحسين فهم العملاء الناطقين بالإنجليزية – وغالبيتهم من أمريكا الشمالية – الذين يُعرفون بنفاد صبرهم تجاه اللكنات الأجنبية. وتقول شركة "Sanas" الناشئة، ومقرها كاليفورنيا، والتي طورت هذا البرنامج، إنها تقدّم ما تسميه "ترجمة اللكنة". وتُعد هذه التسمية محاولة للردّ على الانتقادات التي تصف البرنامج بأنه "تبييض صوتي" أو إنكار للهوية الثقافية. ويؤكد مطوّروه أن الأداة لا تستبدل الموظف البشري، بل تسهّل التواصل مع العملاء. سوق ضخم يشهد تحوّلًا جذريًا يُعرف قطاع التعهيد في الهند باسم "BPO" (تعهيد العمليات التجارية)، ويُقدّر حجمه حاليًا بحوالي 280 مليار دولار، ويشغّل نحو 3 ملايين شخص. ويتولى هؤلاء العاملون تنفيذ مهام متعددة لصالح شركات عالمية مثل JPMorgan، وMicrosoft، وHSBC، وShell، مثل الدعم الهاتفي، تطوير البرمجيات، المحاسبة والتسويق. لكن هذا القطاع يواجه ضغوطًا متزايدة في ظلّ التطور السريع للذكاء الاصطناعي التوليدي. إذ باتت بعض المهام تُنجز بواسطة وكلاء افتراضيين قادرين على إعادة تعيين كلمات السر، والردّ على الرسائل الإلكترونية، وتسجيل الشكاوى. بل إن بعض الروبوتات باتت تتلقى المكالمات عوضًا عن البشر. وفي هذا السياق، تعتمد المزيد من الشركات على ما يُسمّى "المساعدين الرقميين بالذكاء الاصطناعي" القادرين على تزويد الموظفين بالنصوص المناسبة أثناء المكالمة، أو حتى توليد الردود المثلى تلقائيًا. تهديد لفرص العمل رغم وعود التكيّف بينما يؤكد مسؤولو الشركات أن الذكاء الاصطناعي يساعد على توفير الوقت للمهام المعقّدة، يبدي الخبراء حذرهم. فصندوق النقد الدولي يرى أن أكثر من ربع الوظائف في الهند "معرّضة بشدة" لخطر الأتمتة بواسطة الذكاء الاصطناعي. أما مركز الأبحاث الأمريكي "Brookings Institution"، فيشير إلى أن 86% من مهام خدمة العملاء قابلة للأتمتة بدرجة عالية. ومن المرجّح أن تتسارع هذه التحوّلات. فقد توقّع المدير التنفيذي لشركة "Tata Consultancy Services"، كريثيفاسان، أن يشهد العام المقبل تقليصًا كبيرًا في الاعتماد على مراكز النداء البشرية. حيادية لغوية أم طمس للهوية؟ وراء هذه الابتكارات التكنولوجية تختبئ أيضًا أبعاد اجتماعية وثقافية عميقة. إذ يشعر كثير من الموظفين بأنّ طمس لكنتهم يمثّل شكلًا من أشكال التخلّي عن الجذور. يقول أحدهم: "في السابق، كان يُطلب منا تقليد حوارات من أفلام أمريكية. اليوم، نضغط على زر ليُمحى صوتنا الأصلي. هذا ليس حيادًا، بل خيار سياسي." من جانب الشركات، تُعرض نتائج ملموسة: مكالمات أسرع، عملاء أقل انزعاجًا، وموظفون أقل توترًا. لكن بعض المراقبين يرون في هذا التوجّه هوسًا براحة العميل يؤدي إلى توحيد الأصوات، وتهميش الاختلافات الثقافية، وضياع الهوية الفردية. تحليل: هل نحن أمام تحوّل لا رجعة فيه في نموذج التعهيد؟ إن تصاعد اعتماد الذكاء الاصطناعي في مراكز النداء الهندية لا يُعد مجرّد قضية تقنية، بل يُشير إلى تحوّل استراتيجي شامل في اقتصاد الخدمات العالمي. ثلاث اتجاهات رئيسية تتضح في هذا السياق: 1. خفض كبير في التكاليف لصالح الشركات: استبدال البشر بالذكاء الاصطناعي يتيح للشركات تقليل نفقات التدريب، وأوقات الاستراحة، والنزاعات المهنية، والبنية التحتية. ما يعزّز جاذبية هذا الخيار في ظلّ الضغوط المالية المتزايدة. 2. إعادة تعريف دور الإنسان: يُنتظر من الموظفين البشريين التخصص في المهام ذات القيمة المضافة العالية. لكن هذا يتطلب سياسات تدريب طموحة وسريعة، وهو أمر لم تستعد له معظم الشركات بعد. 3. مخاطر اجتماعية داخلية في الهند: فقدان الوظائف "المدخلية" في قطاع التعهيد قد يهدّد ملايين العائلات الهندية، خصوصًا إذا استفادت الشركات الغربية والناشئة في وادي السيليكون من العائدات، بينما تتحمل الهند وحدها التكاليف الاجتماعية. في النهاية، تحوّلت الهند – التي كانت في السابق مركزًا عالميًا رائدًا لخدمات التعهيد – إلى مختبر مفتوح لمستقبل العمل. مستقبلٌ تصبح فيه الصوت البشري مجرّد ملف قابل للتعديل، وتكاد تختفي فيه الحدود بين المساعدة والاستبدال. ويبقى التحدّي الأكبر بالنسبة لصنّاع القرار ليس تقنيًا، بل اجتماعيًا، ثقافيًا وجيوسياسيًا.