عبدالرحمن الحبيب
في الوقت الذي يمر به العالم من مخاطر الحروب الساخنة أو الباردة الجديدة أو تلك التي تمتد جذورها في التاريخ، ينبثق خطر داهم جديد على العالم.. «ها نحن هنا للمرة الأولى، في تاريخ البشرية، مع شيء سيكون أكثر ذكاءً منا بكثير... ليس من الواضح بالنسبة لي ما إذا كان بإمكاننا السيطرة على شيء من هذا القبيل». هذا ما قاله إيلون ماسك، رئيس شبكة إكس (تويتر سابقاً)، في أول قمة عالمية لسلامة الذكاء الاصطناعي، مشبهاً الذكاء الاصطناعي بـ»الجني السحري» الذي يمكنه تحقيق الأمنيات، لكنه نادراً ما ينتهي بسلام.. كما حذر بعض العلماء من الذكاء الاصطناعي الذي قد يشكل خطراً على وجود البشرية ذاته. هذه المخاوف هي ما دعت بريطانيا الأسبوع الماضي لتنظيم القمة العالمية الأولى حول «سلامة الذكاء الاصطناعي» في مدينة بليتشلي بارك وسط إنجلترا، في رمزية مثيرة، فالمدينة كانت مركز خبراء لفك شفرات الحرب العالمية الثانية.
الثورة التكنولوجية الحالية تثير الكثير من الآمال والتطلعات، لكن تحيط بها أيضاً مخاوف كبيرة.. ورغم أن بريطانيا ليس لديها أي خطط لتشريعات محددة لتنظيم الذكاء الاصطناعي، على عكس الولايات المتحدة والصين والاتحاد الأوروبي، إلا أنها حذرت في نهاية القمة من أن هذه التكنولوجيا التي تثير آمالاً كبيرة في الطب أو التعليم، قد تشكل أيضاً «تهديداً وجودياً» من خلال زعزعة استقرار مجتمعات، عبر الإفلات من السيطرة البشرية؛ لا سيما أن الذكاء الاصطناعي التوليدي، القادر على إنتاج نصوص وأصوات وصور تشبه العمل البشري بناءً على طلب بسيط في غضون ثوانٍ، يشكل تقدّماً مبهراً ومرعباً في نفس الوقت، ويُتوقع أن تظهر أجيال جديدة من هذه النماذج بالأشهر المقبلة.
في تلك القمة اجتمع قادة سياسيون ومسؤولون في شركات التكنولوجيا العملاقة وخبراء في الذكاء الاصطناعي لمناقشة المخاطر المترتبة من التطور المتسارع لهذه التقنية الثورية. وقد نشرت بريطانيا إعلاناً وقعته 28 دولة والاتحاد الأوروبي، من شقين يركز على تحديد مخاطر الذكاء الاصطناعي وفهمهما على أساس علمي، وبناء سياسات بالتنسيق بين الدول للتخفيف منها.. وهو «أول إعلان دولي حول طبيعة» مخاطر الذكاء الاصطناعي، لكنه غير ملزم، فيما يرى البعض أن الحكومات يجب أن تذهب أبعد وأسرع في مجال الرقابة.
فهل نجحت هذه القمة؟ سوناك يقول بأنها ناجحة، على الرغم من إنجازاتها المتواضعة، حيث يكمن النجاح الأولي في إقناع 28 دولة بالتوقيع على العمل نحو «اتفاق مشترك ومسؤولية مشتركة» بشأن مخاطر الذكاء الاصطناعي، وعقد المزيد من الاجتماعات في كوريا الجنوبية وفرنسا خلال العام المقبل. الصين كان حضورها مفاجئاً للبعض، حيث وقع نائب وزير العلوم والتكنولوجيا الصيني، «إعلان بلتشلي» في اليوم الأول، لكن الصين لم تكن حاضرة في اليوم الثاني ولم تضع اسمها على الاتفاقية. وقال نائب الوزير الصيني، في الجلسة الافتتاحية للقمة التي استمرت يومين، إن بكين مستعدة لزيادة التعاون في مجال سلامة الذكاء الاصطناعي للمساعدة في بناء «إطار حوكمة» دولي.
الولايات المتحدة والصين هما أهم دولتين في هذا المجال وتهيمنان على أغلب التطورات الجارية في الذكاء الاصطناعي، فقبل عقد القمة كان البيت الأبيض قد أعلن عما أسماه «أهم الإجراءات التي اتخذتها أي حكومة على الإطلاق لتعزيز مجال سلامة الذكاء الاصطناعي»، وهي تشمل إنشاء معايير جديدة للسلامة والأمن للذكاء الاصطناعي وحماية خصوصية المستهلك، فيما اعتبره البعض التفاتاً على قمة بليتشلي بينما يراه البعض على عكس ذلك داعماً لها، حيث إن الاتحاد الأوروبي هو الآخر بصدد إقرار قانون الذكاء الاصطناعي، وقد ابتكرت الصين بالفعل عدداً من القواعد الصارمة للذكاء الاصطناعي، والآن أصدرت الولايات المتحدة هذا الأمر، علاوة على أن مجموعة الدول الصناعية السبع تتفق على مدونة سلوك للشركات التي تعمل على تطوير أنظمة الذكاء الاصطناعي المتقدمة.
كيف يمكن للبشر إيقاف خطر الذكاء الاصطناعي؟ تبنت الحكومات حتى الآن ثلاث مقاربات مختلفة تتراوح من مخففة إلى صارمة.. الأولى أقرب أمثلتها في أمريكا، باقتراح نهجٍ «خفيفٍ»، لكنها تطبق اللوائح الحالية على أنظمة الذكاء الاصطناعي. الهدف هو تعزيز الاستثمار ودعم الذكاء الاصطناع، لكن الولايات المتحدة اتخذت حالياً نهجاً جديداً ستتضح تطبيقاته قريباً.
النهج الثاني يتخذه الاتحاد الأوروبي بصرامة أكبر، حيث يصنف قانونها المقترح الاستخدامات المختلفة للذكاء الاصطناعي حسب درجة المخاطرة، ويتطلب مراقبة وكشفاً أكثر صرامة مع ارتفاع درجة المخاطر، فبعض استخدامات الذكاء الاصطناعي محظورة تماماً، مثل الإعلانات اللاشعورية والقياسات الحيوية عن بُعد، وسيتم تغريم الشركات التي تنتهك القواعد. النهج الثالث أكثرها صرامة، حيث يرى آخرون أنه يجب على الحكومات التعامل مع الذكاء الاصطناعي مثل الأدوية، مع وجود منظم مخصص، واختبار صارم وموافقة مسبقة قبل الإصدار العام. تقوم الصين ببعض من هذا، حيث تطلب من الشركات تسجيل منتجات ذكاء اصطناعي والخضوع لمراجعة أمنية قبل إصدارها.
وإذا كانت الحكومات تتدافع لقيادة الطريق عبر التشريعات والتنظيم فإن شركات التكنولوجيا تتنافس على الهيمنة في مجال الذكاء الاصطناعي وترى أن بعض التشريعات الصارمة خانقة للغاية..