كيسنجر يدق ناقوس الخطر: “للمرة الأولى في التاريخ تمتلك البشرية القدرة على التدمير الذاتي في وقت محدود”
إميل أمين كاتب وباحث @amen_emile
قبل نحو أسبوعين، وفي منتدى استضافه المركز الفكري “ماكين إنيستيتيوت”، تحدث المنظر السياسي الأميركي الأكبر والأشهر، هنري كيسنجر، عن مخاطر الذكاء الاصطناعي، وكيف أنه يضاعف خطر نهاية العالم على يد المواجهة المرتقبة والمحتملة بقوة، بين الولايات المتحدة الأميركية والصين.
كيسنجر صاحب دبلوماسية لعبة “البينغ بونغ” الشهيرة في أوائل السبعينيات من القرن الماضي، التي مهدت لعودة العلاقات بين واشنطن وبكين، بهدف حصار موسكو في ذلك الوقت، يقطع بأن القدرات التكنولوجية الهائلة التي وفرها هذا النوع من المخترعات، أي الذكاء الاصطناعي، قد تم تضمينها في أسلحة لم تعرفها البشرية من قبل، من حيث الوحشية والضراوة. وأوضح أنه على الرغم من أن خطر نشوب نزاع نووي كان كبيراً خلال الحرب الباردة، إلا أن التقدم التكنولوجي في مجال الأسلحة النووية، خصوصاً تلك التي تدار عبر العقول الإلكترونية، أدى إلى ارتفاع درجة المخاطر والتخوف من سيناريوهات يوم القيامة، والدخول في دائرة الشتاء النووي. لهذا أستخدم الرجل الذي يقترب من المئة عام تعبيراً مخيفاً قال فيه، “للمرة الأولى في التاريخ، تمتلك البشرية القدرة على التدمير الذاتي في وقت محدود”. وأضاف “لقد طورت البشرية تقنيات تتمتع بقوة كان لا يمكن تصورها قبل سبعين عاماً”.
لماذا لا يمكن مقاربة وضع العالم الآن من حيث الخطورة مع عالم الحرب الباردة، وهل للذكاء الإصطناعي دور في عدم اتساق المقاربة التاريخية تلك؟
أغلب الظن أن الأمر كذلك، وهو ما شرحه بطريرك السياسة الأميركية بقوله إن “المسألة التكنولوجية التي ترتكز، في مجال الذكاء الاصطناعي، إلى واقع أن الإنسان يصبح شريكاً للآلة، وأن الآلة يمكنها تطوير حكمها الخاص”، معتبراً أنه “في نزاع عسكري بين قوتين تكنولوجيتين عظميين يرتدي هذا الأمر أهمية كبرى”.
الذكاء الاصطناعي… أخطر من القنبلة الذرية
ما هو الذكاء الاصطناعي، وهل هو حقاً أخطر من القنبلة الذرية كما يذهب إلى ذلك بعض القريبين جداً من هذا المضمار؟
أقرب تعريف يمكن الأخذ به للذكاء الاصطناعي، هو مفهوم العمل الذي تقوم به الآلات، وفي مقدمها أجهزة الكمبيوتر ولا شك، عوضاً عن البشر. ما يعني أنه عند لحظة زمنية معينة من التطور، يمكن للآلة أن تفكر وتخطط وتصل إلى قرار وتنفذ بدلاً من الإنسان، وهي قضية مثيرة للجدل، لا سيما إذا ما تجاوزت الملكات الفكرية لهذه الآلآت مقدرة الإنسان نفسه.
أخيراً، تحدث إيلون ماسك، أحد أبرز عمالقة التكنولوجيا المحدثة التي تركز على ذكاءات اصطناعية جبارة منها مشروعه الخاص بربط العقل البشري بأجهزة كمبيوتر، ومن ثم الوصول إلى حلم العلماء، أي التحكم في الأدمغة البشرية عن بعد، وتوجيه البشر كيفما يريد البعض، تحدث ماسك عن مخاوفه الشخصية من الذكاء الاصطناعي، وحذر كثيراً منه لا سيما أنه يرى أنها تقنية يمكن أن تكون خطراً على وجود الإنسان، وأنه يجب أن يتصدى لها، ذلك أنه من المحتمل أن يتحول هذا الذكاء إلى خطر داهم يفوق خطورة الأسلحة النووية، وربما يصل المشهد ذات يوم إلى حد أن نرى الروبوتات تسير في الشوارع وتقتل الناس، وساعتها ستكتشف البشرية أي خطر أقبلت عليه.
ولعل أفضل وصف أطلقه إيلون ماسك على الذكاء الاصطناعي، قوله، إنه ديكتاتور خالد لن يتمكن البشر من الهرب منه، وبخاصة في ظل احتمالات تتراوح بين 5 إلى 10 في المئة فقط لجعل الذكاء الاصطناعي آمناً.
فهل كيسنجر على حق قولاً وفعلاً؟
واشنطن- بكين… وصراع على العرش
يمكن للقارئ أن يفهم الصراع على أنه سباق نحو القطبية الدولية، غير أن المقصود في واقع الحال هو المنافسة على من يتسيد صدارة مشهد الذكاء الاصطناعي بين الولايات المتحدة الأميركية، القطب القائم، وبين الصين القطب الوافد.
يدرك الصينيون بامتياز أن واشنطن قد قطعت أشواطاً طويلة في عالم الذكاء الاصطناعي، وأن برامج كاملة بعينها قد تم إعدادها أميركياً لتوضع في الفضاء الخارجي للكرة الأرضية، ومنها برنامج حرب الكواكب أو النجوم، ذاك الذي وضع لبناته الرئيس الأميركي رونالد ريغان في عام 1983، ثم استخرجه الرئيس دونالد ترمب في مطلع ولايته اليتيمة مرة جديدة، ناهيك عن تفعيل واشنطن عشرات من برامج العسكرة السيبرانية التي تقوم على منطلقات الذكاء الاصطناعي.
في مقابل هذا التطور الأميركي، لا تقف الصين عاقدة الأذرع على الصدور، وإنما تسعى جاهدة في مسارين، الأول هو محاولات الحصول على البرامج الأميركية الخاصة بالذكاء الاصطناعي بطرق غير مباشرة، والثاني توفير تمويل هائل لمقارعة الأميركيين على هذا الدرب.
في حديث لصحيفة “نيويورك تايمز”، يشير البروفسور أنطوني مولن، مدير الأبحاث في شركة تحليل البيانات والمعلومات العملاقة، “غراتنر”، إلى أن “طموح الصين في منافسة أميركا في مجالات هذا الذكاء أمر واقعي جداً، كما أن بكين تمتلك كل المكونات الضرورية لتقدمها في هذا المجال، بما في ذلك التمويل الحكومي وعدد السكان الضخم”.
في هذا الإطار، يجدر ذكر بعض الحقائق، وفي مقدمها أن نظم الذكاء الاصطناعي الضخم تتطلب وجود قاعدة بيانات عملاقة، ولأن البشر هم المصدر الرئيس للبيانات، فإن الصين لديها ميزة متقدمة عبر هذا الدرب، وذلك انطلاقاً من أن عدد سكانها يتجاوز 1.4 مليار نسمة، هؤلاء ينتجون معلومات مفيدة يمكن استخدامها من قبل عمالقة التكنولوجيا في الصين، التي تعد أكثر تساهلاً في ما يتعلق بخصوصية المستخدمين، وأخيراً أدخلت الصين ميزة التعرف إلى الوجوه في كل مناحي الحياة تقريباً.
هل يعني ما تقدم أن برامج الصين العسكرية قد باتت مرتبطة ارتباطاً جذرياً بتقنيات الذكاء الاصطناعي، وعلى هذا الأساس تقوم المنافسة التي يخشى كيسنجر منها؟
مخاطر على حالة الأمن القومي
في تقرير صادر عن مؤسسة “راند” الأميركية للأبحاث، وهي أهم مصدر معلومات وتحليلات، بل وقراءات استشرافية لوزارة الدفاع الأميركية، نقرأ عن مخاطر الذكاء الاصطناعي على الأمن القومي الأميركي، إذ تم تحديد الأمن الإلكتروني كمجال خصب بشكل خاص لمواطن الضعف الناجمة من الذكاء الاصطناعي. فمن أبرز وظائف الأدوات الاصطناعية، التلاعب الفعال بالمعلومات، لذا فقد تلائم الأدوات الاصطناعية على نحو خاص حروب المعلومات وتطبيقات الأمن الإلكتروني.
كذلك، يفتح تطبيق الذكاء الاصطناعي في مجال المراقبة أو الأمن الإلكتروني للأمن القومي وجهة هجوم إلكتروني جديدة قائمة على إشكالية الضعف في ماهية البيانات المغذية، وقد يتعلم الخصوم كيفية تغذية نظام المراقبة العاملة بالذكاء الاصطناعي بمعلومات مضللة بشكل منهجي، فينشئون باختصار عميلاً مزدوجاً آلياً بشكل سري ومن غير قصد.
ويظهر موطن ضعف آخر لافت (أو ميزة لافتة) للأمن في عالم قائم على الذكاء الاصطناعي، ألا وهو استخدام تقنيات الذكاء الاصطناعي التي تطبقها جهات خارجية لأساليب التدخل في الشبكات… فهل حدث ذلك بالفعل في السنوات القليلة المنصرمة؟
يعلم كثيرون ما أفادت به الاستخبارات المركزية الأميركية بشأن انتخابات الرئاسة عام 2016، المتعلق بتدخل أجنبي تجاوز حده من خلال هجمات إلكترونية خارجية، وتمثلت هذه الهجمات بشكل إصدارات عامة انتقائية لبيانات خاصة مسربة في محاولة للتأثير في آراء الناخبين، وفي حين أن هذا النوع من الهجمات يمكن الكشف عنه والتعرف إليه متى توفرت المعلومات الملائمة، فإنه يمكن للأدوات الاصطناعية الأكثر تقدماً أن تزيد من كفاءة أي جهات ذات نيات، وأن تجعلها أقل قابلية ليتم اكتشافها في هذه العملية.
مرة أخرى، في أواخر عام 2020، كانت الانتخابات الرئاسية الأميركية قد انتهت، وآلت الأوضاع الشقاقية والفراقية إلى ما آلت إليه، تعرضت الولايات المتحدة إلى إحدى هجمات الذكاء الاصطناعي الضارية، المتمثلة في اختراقات سيبرانية طاولت وزارة الخارجية ووزارة الخزانة، وفي معظم الأحوال أضرت بأهداف استراتيجية أميركية. ويومها اتفق الديمقراطيون والجمهوريون على اسم الدولة القائمة وراء مثل ذلك الهجوم، وهي روسيا. وقد هدد الرئيس المنتخب جو بايدن بانتقام شديد لا يصد ولا يرد ممن قام على هذا الاختراق.
أما في أواخر شهر أبريل (نيسان) الماضي، فقد أعلنت شرطة العاصمة الأميركية واشنطن عن اختراق كبير لأحد خوادم الكمبيوتر الخاصة بها. ما أدى إلى تسريب كثير من المعلومات السرية عن تقارير الشرطة، ومذكرات داخلية، وعلاقات الشرطة مع عملاء سريين، وأسماء هؤلاء العملاء، فيما الكارثة تمثلت في دخول “الهاكرز” في مفاوضات مع شرطة واشنطن كي لا يقوم السارقون بنشر كل ما حصلوا عليه من معلومات. ما يعني أن الأجهزة الحكومية الأميركية باتت رهينة لقراصنة العصر عبر الفضاء السيبراني، وبات التساؤل المخيف هل يمكن أن تنسحب تهديدات الذكاء الاصطناعي على الأسلحة النووية؟
عن كارثة الاقتراب من الترسانة النووية
حين ضربت خودام وزارتي الخارجية والخزانة الأميركيتين في ديسمبر (كانون الأول) الماضي، تم التساؤل في همس مريب، عما إذا كانت ترسانة الولايات المتحدة قد جرى اختراقها، أو أن “الهاكرز” الخارجيين، مهما كانت جنسيتهم، قد قدر لهم الاقتراب من المنشآت العسكرية الأميركية.
بدا وقتها وكأن الأميركيين لا يريدون التطرق إلى مناقشة المشهد، والأرجح أنه كان لدى كيسنجر ما يكفي من معلومات لأن يطلق صيحته التحذيرية الأخيرة.
غير أنه وقبل تصريحات الرجل الأول الذي نسج علاقات بين واشنطن وبكين بنحو ثلاثة أشهر، كان هناك تقرير مثير وخطير ينذر ويحذر من تطبيقات الذكاء الاصطناعي على التسلح النووي… ماذا عن ذلك؟
في منتصف يناير (كانون الثاني) الماضي، حذر خبراء من معهد “ستوكهولم الدولي لبحوث السلام” من تهديدات نووية محتملة مصاحبة للسباق المحموم بين القوى النووية في العالم، وسعيها لتوظيف ابتكارات الذكاء الاصطناعي وتطبيقاتها المختلفة في مجال السلاح النووي، وهو أمر رأى الخبراء أنه ينطوي على مخاطر وتداعيات سلبية على الاستقرار العالمي بتصاعد احتمالات استخدام السلاح النووي.
في تقرير معهد “ستوكهولم” هذا، نقرأ عن التطورات في مجال الذكاء الاصطناعي، لا سيما تطبيقات التعلم الآلي والذاتي، وكيف أنه سيفتح الباب واسعاً في عالم التقنيات النووية إلى استخدام قدرات الذكاء الاصطناعي في القطاعات المتعلقة بالأسلحة النووية، بدءاً من وسائل الإنذار المبكر وصولاً إلى القيادة والمراقبة وتزويد الأسلحة.
ويلفت كبير الباحثين المشاركين في إعداد التقرير، فينسينت بولانيين، إلى إشكالية تجعل مخاوف كيسنجر عن نهاية العالم حقيقة لا خيالاً، ذلك أن الدول المالكة لأسلحة نووية، لا تتمتع بالشفافية في شأن الدور الحالي أو المستقبلي لاستخدامات الذكاء الاصطناعي في إدارة وتشغيل القوة النووية التي تمتلكها.
معدو التقرير، بحسب تقرير لوكالة “أنباء الشرق الأوسط”، يؤكدون أن هرولة الدول المالكة لأسلحة نووية نحو تبني تكنولوجيات الذكاء الاصطناعي لخدمة الأغراض العسكرية النووية بوجه عام، والأغراض المرتبطة بالخدمات النووية، سيكون تصرفاً طائشاً لا تُحمد عقباه، لافتين إلى أن التبني غير الناضج لتطبيقات الذكاء الاصطناعي سيزيد من مخاطر تعرض الأسلحة النووية والقدرات المرتبطة بالفشل، أو أن يساء استخدامها بوسائل قد تؤدي إلى حادثة أو تصعيد لأزمة أو نزاع قد يتطور إلى صراع نووي.
ومن بين الأصوات المهمة في هذا التقرير، يرتفع صوت الخبيرة البارزة في شؤون التسليح ونزع التسلح في معهد “سيبري”، لورا سالمان، التي ترى أنه في أي حال، ليس من المرجح أن تكون تكنولوجيات الذكاء الاصطناعي، في حد ذاتها، هي الباعث لاستخدام الأسلحة النووية. وتلفت إلى أن هناك مسببات أخرى مثل التوجهات الإقليمية، والتوترات الجيوسياسية، وإساءة فك الشفرات وتفسيرها، يتعين أن تؤخذ في الاعتبار لاستيعاب العوامل التي يمكن أن تسهم بها تكنولوجيات الذكاء الاصطناعي في إثارة أزمة لتصل إلى مستوى نووي.
نيك بوستروم ومستقبل الذكاء الاصطناعي
من بين الأصوات التي لفتت انتباه الإنسانية إلى ماورائيات الذكاء الاصطناعي، يأتي الفيلسوف السويدي نيكولاس (نيك) بوستروم، الذي يعمل بروفسوراً ومديراً مؤسساً لـ”معهد مستقبل الإنسانية”، في جامعة أوكسفورد البريطانية.
اشتهر بوستروم عالمياً بأبحاثه في المخاطر الوجودية للتقنية، والمبدأ الإنساني وعواقبه على نظرتنا للعالم ولدورنا فيه، والذكاء الفائق وما يمكن أن يفضي إليه من مشكلات غير مرتقبة أو مراحل حضارية جديدة.
ما هو الذكاء الفائق هذا الذي يحدثنا عنه بوستروم؟
باختصار، هو العقل الذي يملك القدرة على التفوق بشكل جذري على أفضل العقول البشرية في المجالات كلها تقريباً، بما في ذلك الإبداع العلمي، والحكمة العامة، والمهارات الاجتماعية.
وفي كتابه المعنون “ما فوق الإنسانية: دليل موجز إلى المستقبل”، يصف بوستروم الذكاء الفائق القوي، فيشير إلى العقل الذي لا يتجاوز سرعة الدماغ البشري فحسب، بل يفوقه ذكاء من ناحية نوعه.
عند بوستروم، إنه مهما سرعت من دماغ كلبك، فإنك لن تحصل على ما يعادل العقل البشري. وبنحو مماثل، فقد تكون هناك أنواع من الذكاء لا يمكن الوصول إليها حتى لأدمغة بشرية سريعة جداً نظراً لقدراتها الحالية. لكن شيئاً بسيطاً مثل زيادة حجم شبكاتنا العصبية أو توصيلاتها قد يمنحنا بعضاً من هذه القدرات. وقد تتطلب التحسينات الأخرى إعادة تنظيم كامل للهندسة الإدراكية، أو إضافة طبقات إدراكية جديدة فوق تلك القديمة.
هل من علاقة ما بين الذكاء الفائق والذكاء الاصطناعي، بحسب بوستروم؟
يرى الفيلسوف السويدي أن أنظمة الذكاء الاصطناعي الحالية أو المستقبلية لا تشكل على المدى القريب أي تهديد للوجود البشري، ولكن، إذا تم إنشاء نظام الذكاء الفائق، فمن الأهمية القصوى أن يمنح قيماً صديقة للبشر. ذلك أن الذكاء الخارق المصمم بخبث أو من دون حذر، مع أهداف ترقى إلى درجة اللامبالاة أو العداء لمصلحة الإنسان، يمكن أن يتسبب في انقراض البشرية.
وهناك مصدر آخر للقلق يتمثل في أن الذكاء الخارق الأول، وهو الذي قد يصبح قوياً للغاية بسبب قدرته الفائقة على التخطيط، وبسبب التقنيات التي يمكنه تطويرها بسرعة، سيبنى ليخدم شخصاً واحداً فقط أو مجموعة صغيرة مثل المبرمجين أو الشركة التي كلفته.
وفي حين قد لا ينطوي هذا السيناريو على انقراض كل الحياة الذكية حرفياً، إلا أنه يشكل خطراً وجودياً، لأن المستقبل سيكون دمر فيه جزءاً كبيراً من إمكانات البشرية بشكل دائم، وينعم فيه شطر ضئيل من البشر على الأغلب بفوائد من يسميهم بوستروم، ما بعد البشر.
نهاية عالم الذكاء الاصطناعي ومخاطره
بالعودة إلى قصص الأنظمة الإلكترونية قبل أربعة عقود، تطفو على سطح الذاكرة واقعة جرت في عام 1983. آنذاك، كانت الحرب الباردة على أشدها، والتحسب إلى حد التوجس ما بين واشنطن وموسكو قائماً بشكل حساس إلى أبعد حد.
في ذلك الوقت، قرعت أجهزة الإنذار المبكر السوفياتية، منذرة من هجوم بصاروخ أميركي، كان ولا شك إذا صدق التحذير، يحمل رأسا نووياً. ما يعني أن الأميركيين قد أخذوا زمام المبادرة بتوجيه الضربة الأولى للروس.
كان العالم وقتها على حافة حرب نووية، لولا يقظة ورجاحة فكر من الكولونيل الروسي، ستانيسلاف بتروف، الذي تجاهل التحذير الخاطئ، ولو لم يفعل ذلك لكانت حرب نووية قد اشتعلت حول العالم.
لم تكن أنظمة الذكاء الاصطناعي قبل أربعة عقود قد بلغت مبلغها الحالي، ولهذا أضحى التساؤل: هل يمكن أن تسلم البشرية مصيرها إلى عقول الذكاء الاصطناعي التي يمكن أن تخطئ مرة لتصيب العالم برمته في مقتل؟
تكاد البشرية تنقسم إلى جماعتين، واحدة ترى في الذكاء الاصطناعي كارثة محتملة ينبغي ألا تستمر أو تمضي قدماً، وفريق آخر يؤكد أهمية تطويرها بهدف الاستفادة من ميكانيزماتها.
من هذا المنطلق، أصدرت لجنة أميركية يترأسها المدير الأسبق لـ “غوغل”، إريك شميت، تقريراً مهماً تم رفعه إلى الرئيس الأميركي بايدن وأعضاء الكونغرس بغرفتيه الشيوخ والنواب.
يوصي التقرير برفض الدعوات المطالبة بفرض حظر عالمي على أنظمة الأسلحة التي تعمل بالذكاء الاصطناعي، معتبرين أن في مقدمة فوائد تلك الذكاءات، اتخاذ القرارات بسرعة كبيرة، وبهوامش خطأ ضئيلة للغاية. الأمر الذي لا يمكن للبشر القيام به.
وانطلاقاً من قناعة أميركية بأن الروس والصينيين لن يلتزموا مثل هذا الحظر لو دخل حيز التنفيذ، فقد أوصى القائمون على التقارير بتطوير أسلحة ذكاء اصطناعي أميركية جديدة، وإن لم يتم فعل ذلك، فإن القوات المسلحة الأميركية باعتراف كبار قادتها العسكريين، ستخسر تفوقها العسكري والتكنولوجي في السنوات المقبلة.
هل كان كيسنجر على حق حين حذر من نهاية العالم؟
لهم آذان ولا يسمعون وعيون ولا يبصرون… هذه هي حال العالم.