جانبي فروقة
يتوقع المحللون أن يصل حجم سوق روبوتات المحادثة (الذكاء الاصطناعي) AI Chatbot إلى 43 مليار دولار في عام 2023م.
يستجيب الذكاء الاصطناعي للاستفسارات البشرية بشكل إبداعي عن طريق استخدام تقنية نماذج لغوية كبيرة لتوليد إجابات نصية أو صور أو مقاطع فيديو واليوم تم إطلاق Chat GPT-4 (تشات جي بي تي 4) من شركة Open AI وهو النسخة المطورة عن Chat GPT-3 ويعالج المعلومات بسرعة 8 أضعاف وكما يعالج الصور أيضاً مما يجعله أكثر كفاءة. وكما قامت شركة غوغل أيضاً باطلاق منصة Google Bard المنافسة.
أضاء داريل ويست (من مركز الابتكار التكنولوجي للدراسات الحكومية) الضوء مؤخراً كيف يمكن أن تساهم روبوتات المحادثة بالتأثير في تكوين الرأي العام لدى المستخدم حيث يستخدم الناس عادة الانترنت للبحث عن إجابات وهذه الروبوتات تعمل بخوارزميات تحمل قيم مصمميها ومطوريها وقام ويست بمقارنة بسيطة ومثيرة للاهتمام حيث قارن بين إجابتي Chat GPT وGoogle Bard على عدة أسئلة منها : السؤال عن الغزو الروسي لأوكرانيا، فكانت إجابة غوغل بارد Google Bard جازمة أن الغزو كان خطأً بشكل لا لبس فيه بينما جاءت إجابة تشات جي بي تي Chat GPT أنه ليس من المناسب الانحياز أو إبداء الرأي بصفته موديل للذكاء الاصطناعي ودعا إلى حل قضية الحرب الأوكرانية من خلال الدبلوماسية وطبعاً مثل هذه الإجابة لا تقود إلى أي تحامل على روسيا وتحميلها الوزر السياسي للغزو على عكس غوغل بارد. ولا نستطيع لوم أدوات المحادثة براد وتشات جي بي تي حيث إنهما يعتمدان على الحقائق ولكن تركيزهما على حقائق مختلفة يؤدي لتكوين رؤى مختلفة ومفاضلة الحقائق ترتكز بشكل رئيسي على الخوارزميات.
و المعضلة الأخلاقية والقانونية التي ستواجهنا مستقبلاً :هي في كيفية تنظيم وضمان جودة وعدالة نظام المعلومات للحصول على جميع الحقائق (بشكل غير منحاز سياسياً أو اجتماعياً أو بأي شكل آخر ولا تزكي حقيقة وتغفل أخرى) تزودنا بها روبوتات المحادثة وتساهم في تكوين الفهم العام لبناء رأي أو قرار تجاه قضية معينة وقد أثار إيلون ماسك مؤخراً تساؤلاً مثيراً وهو «هل تتقدم شركات التكنولوجيا بشكل سريع في تطوير تكنولوجيا قوية للذكاء الاصطناعي بحيث ستتفوق يوماً ما على البشر؟» وكان إيلون ماسك قد أشار أيضاً في تغريدة له في ديسمبر العام الماضي أن هناك خطورة محدقة بنا إذا تم تعليم الذكاء الاصطناعي الكذب.
يتوقع المحللون أن يخسر 45 مليون أمريكي (ثلث القوة العاملة ) في عام 2030 م وظائفهم بسبب أتمتة الذكاء الاصطناعي وكما يتوقع أن يفقد مليار شخص وظائفهم في العالم خلال العقد القادم بسبب الذكاء الاصطناعي وسيتم استبدال 375 مليون وظيفة بالذكاء الاصطناعي. ولكن بنظرة تفاؤلية للمستقبل وحسب الخبراء يتوقع أن يساهم الذكاء الاصطناعي بخلق 97 مليون وظيفة في عام 2030 م ويرفد الاقتصاد بـ 15.7 تريليون دولار.
كما يتزايد القلق اليوم من تأثير وتطور عملية التزييف العميق « Deep-fake» والتي تطورت أدواتها التكنولوجية بالقدرة العالية على تزييف الصورة والصوت والمحتوى ليكون أقرب للواقع ومدى تأثير ذلك على الناخب الأمريكي ولا سيما في الانتخابات الأمريكية الرئاسية المقبلة في 2024م .
قامت الصحفية شانون بوند المتخصصة في فضح هذه الممارسات وتزييف المحتوى للتضليل الإعلامي بالتعليق قائلة شاهدنا مؤخراً مقطع فيديو مزيفاً من إنتاج جاك بوسوبيك (أمريكي وناشط سياسي يميني ومراسل ومنظر للمؤامرات) يزعم أن الرئيس بايدن يعلن فيه عن مسودة قرار لإرسال جنود أمريكيين للحرب في أوكرانيا. ومع أن جاك أوضح أن هذا الفيديو تم صنعه باستخدام الذكاء الاصطناعي ولكن انتشر الفيديو بدون ذكر هذه المعلومة على الانترنت من خلال متابعيه على نطاق واسع. وهذا يشبه إلى حد كبير ما حدث في انتخابات عام 2016م حيث روج جاك بوسوبيك بروباغندا (الدعاية) لفضيحة Pizzagate (بيتزا غيت) التي استهدفت حملة هيلاري كلينتون بعد أن تم قرصنة البريد الإلكتروني لمدير الحملة لهيلاري جون بوديستا ونشرها عبر الويكيليكس حيث وجدوا في إحدى الرسائل البريدية بين بوديستا وصاحب مطعم بيتزا في العاصمة واشنطن تبادل رسائل عن الدعوة لأكل البيتزا لمدة ساعة وقام مستخدمو موقع 4 Chan بالترويج لفرضية أن مطعم البيتزا هو المقر الرئيسي للديمقراطيين في إدارة تجارة الأطفال والتي تقودها كلينتومن وبوديستا. وكما شاهدنا مؤخراً وفي خضم الجدل حول المحاكمة المزعمة للرئيس الأمريكي السابق دونالد ترامب تم استخدام ال Chat GPT لإنشاء صور شبه واقعية تظهر ترامب محاطاً بالشرطة وتم تداولها على نطاق واسع دون الإشارة في العديد منها إلى أنها غير حقيقية. وتكلفة تطوير أي محتوى اليوم رخيصة جداً وبالاستخدام الخاطئ من قبل العديد من البشر والحكومات ستساهم كثيراً التزييف للمحتوى والتضليل إلى نتائج كارثية في الحياة السياسية والاقتصادية والاجتماعية.
و حسب بوند فإن شركات التواصل الاجتماعية تحاول دائماً معالجة المحتوى المضلل ولكن لا اتفاق واضح حول تطوير سياسة موحدة لترميز أو وضع علامة على المحتوى لتمييز الخبيث منها من الحقيقي ومن يتحمل عبء هذا العمل اليوم هي الصحافة الرقمية والعامة. باتت عدالة الخوارزميات اليوم هي «الفيل في الغرفة» أو يمكن أن نرتقي رقمياً بالوصف لنقول هي الفيل في الفضاء الرقمي.
** **
- كاتب مقيم في الولايات المتحدة الأمريكية