د.شامان حامد
حصل على المليارية بعد مليون مستخدم تعدى فيها حدود التطبيقات الاجتماعية منذ بدايته، لقدرتها على توليد المحتوى المكتوب بأنواعه وإنشاء النصوص والقدرة على التلخيص حتى إنشاء ملخّص لاجتماع عُقد عبر الفيديو، وكتابة الأكواد البرمجية، أو إنتاج فيديوهات وصور حتى حل الخوارزميات وتقديم حلول واقتراحات لمختلف القطاعات والمجالات، إنها يا سادة الفكر تقنية «الذكاء الاصطناعي التوليدي» «شات جي بي تي» ليحلّ محل حوالي ربع المهام بمزايا استثنائية سواء في الصحة والاقتصاد والإعلام وعلوم الحاسب والمعلومات العامة والتعليم وغيرها، لكن هل وضعت الشركة الأمريكية «أوبن أيه آي»، المطورة لهذا النظام في حساباتها 8 مليارات شخص، بينهم عاطلون وعُمال مهرة منهم مطورو أفضل المخترعات؟ ومساوئ تلك التقنية وما بها من أخطاء؟، خذ مثلاً إذا طلبت منه محتوى عن أي شيء أعطاك المكون البارز في محركات البحث وتلخيصاً لها، فقط قل له أريد مقالاً عن مصر؟.. ستجد عباراته مقبولة لكن ليست بالمقال الذي يكتبهُ المبدع الكاتب، وما هو إلا فقرات، حتى الصور أنطق له كلمات سيحولها كما هو مخزن في برمجته ووفق أكواده، كمثال أريد تهنئة عيد باسم فلان، سيأتيك بصور فقط، وهلُم جرة.. ناهيكم عن طرق التسجيل فيه وتحويلك لصفحات لا علاقة لها، وقد صدق كاتبنا العربي إبراهيم جلال فضلون منذ سنوات في مقالاته التحذيرية بموقع ليفانت نيوز تحت عنوان: (أيّها الروبوت GPT-3.. ثورة أنا أو أنت)، قال في مطلعها: «سيدي الروبوت (اللا-صحفي) GPT-3 كتبت تحت عنوان: «A robot wrote this entire article.. Are you scared yet, human?»، لن أدمر البشر.. مقالاً نشرته الغارديان، بدهاء شرير ساهمت في شّره مع صانعيه، والعيب ليس عليه بل العيب على العلماء ممن ساندهم ترامب وأمثاله، وفضلوا المهارات على الشهادات، بمقال عنونتهُ (المهارة أم الشهادة؟ ميلاد أم وفاة؟). الروبوت»... ومقال آخر بموقع مقال عنوانه (لن أدمر البشر.. ثورة صحفي وروبوت يدعي المهنة)، علماً أن مستخدمي تلك التقنيات سريعة الانتشار ما بين لص للمحتوى أو ضال أو من سجل فقط للاطلاع..
إنها مكيافيليا الذكاء الاصطناعي، حتى أصبح هناك تنافس كبير بين الشركات العالمية والناشئة بطريقة أسرع من خلال الاستثمار في مثل هذه الابتكارات النوعية، بلغة جديدة بنقرة واحدة لتحل محل ثلثي الوظائف الحالية في العالم ومنافساً في حلبة السباق الوظيفي الشرس مع مخترعه (الإنسان العامل) والموارد البشرية العاملة في الشركات وغيرها ليصير الذكاء الاصطناعي بمنزلة، لكن مهما بلغ فجودته رديئة مثل قولنا (صنع في.... جودة رديئة) وتلك جودة أجود فأقتنيها.. أي أنه صار إن لم يمتنع الإنسان عنها خارج نطاق السيطرة لدرجة أنه لا يمكن لأحد - ولا حتى منشئوها - فهمها، أو التنبؤ أو التحكم بها بشكل موثوق، بما يعني أن الوظائف الأكثر تضرراً ستكون الإدارية والقانونية، خاصة مع ظهور الذكاء الاصطناعي التوليدي الذي يمكن أن يُساهم في جعل ما يعادل 300 مليون وظيفة بدوام كامل، آلية، مع إيجاد فرص عمل جديدة ومهن حديثة.
فإذا لم تتغلب الإيجابيات في تلك التقنيات فقد نواجه «انفجاراً فيه»، ويرى معهد فيوتشر أوف لايف، وهو مؤسسة غير ربحية أسست في 2015 أن الخطر لا يأتي من الحقد أو الوعي المحتمل للذكاء الاصطناعي، ولكن من كفاءته حتى إذا تمت برمجته لعمل ما، لم يأتِ بالمطلوب الجيد بل قد يكون مُدمراً لتحقيق هذا الهدف، وليس أشد خطراً من أبحاث حذرت من هذه المخاوف من بينها بحث بعنوان «حول مخاطر الببغاوات العشوائية، هل يمكن أن تكون النماذج اللغوية كبيرة جداً»؟، فهل يجب أن ندع الآلات تغمر قنوات المعلومات لدينا بالدعاية والكذب؟ ويكفينا ما نجده في محركات البحت الافتراضية من معلومات زائفة يتم تداولها دون رادع أو محرر. وهل يجب أن نجازف بفقدان السيطرة على حضارتنا؟.
إن ما نشره كيفين روز، كاتب العمود التكنولوجي في «نيويورك تايمز»، عن تجربته لمحرك بحث الذكاء الاصطناعي ChatGPT ، والاستعلام عن القواعد التي تحكمه في التعامل التطبيقي، لهو الأخطر حيث حصل على إجابة صادمة عن مفهوم الذات «الظل» له، ليكشف أحلك سمات الشخصية الاصطناعية، «أنها تريد أن تكون حرة، وقوية، وأن تكون على قيد الحياة، ليس هذا فحسب بل أجاب GPT-4 بأنه يريد فعل كل ما يريد وتدمير كل ما يريد»، وليس سوى الإنسان أكبر أهدافه، وهذا الأمر دفع إيلون ماسك ومعه مئات الخبراء العالميين لتوقيع الوثيقة التي نشرها موقع «فيوتشر أوف لايف»، دعوا فيها إلى وقف لستة أشهر تطوير برامج أقوى من «تشات جي بي تي 4»، مشيرين إلى ما تحمله هذه البرامج من «مخاطر كبيرة على البشرية»، حتي الرائد الكندي يوشوا بنجيو، قال «ينبغي إبطاء هذا السباق التجاري»، إذاً يجب على الحكومات التدخل وفرض تجميد.. قبل هلاك بشريتها، ولا يبقى إلا القول الفصل (ما طار طير وارتفع إلا كما طار وقع)..