الذكاء الاصطناعي يقلق الاتحاد الأوروبي.. تحرك رسمي لفرض قواعد على استخدام برامج بينها Chatgpt

يصوِّت النواب الأوروبيون، الخميس 11 مايو/أيار 2023، على نص يهدف لتنظيم تطبيقات المحادثة القائمة على الذكاء الاصطناعي مثل “تشات جي بي تي”، في خطوة سبق أن تم تأجيلها بسبب نقاط الجدل المحيطة بهذه التقنية التي تزداد تطوراً وتكتسب شهرة حول العالم. 

يأتي هذا فيما يعتزم الاتحاد الأوروبي أن يكون أول جهة في العالم تُرسي إطاراً قانونياً متكاملاً للحد من التجاوزات في مجال الذكاء الاصطناعي، مع حماية الابتكار في الوقت نفسه، وفقاً لما ذكرته وكالة الأنباء الفرنسية. 

من المقرر أن يبلور النواب الأوروبيون المنقسمون بشدة حول هذه قضية الذكاء الاصطناعي موقفهم، في عملية تصويت ضمن لجان تجري في ستراسبورغ بفرنسا، قبل أن يتم إقرار النتيجة خلال جلسة موسعة في حزيران/يونيو المقبل، وعندها تبدأ مفاوضات صعبة بين مختلف المؤسسات.

يأمل النواب الأوروبيون في إرغام المزوّدين لخدمة الذكاء الاصطناعي، على ضمان وجود حماية من المحتويات غير القانونية، وعدم الكشف عن البيانات المحمية، بموجب حقوق النشر المستخدمة، لتطوير خوارزمياتهم.

ماذا يريد النواب الأوروبيون؟

تنص مسودة المفوضية التي كشف عنها في أبريل/نيسان 2021 على إطار لأنظمة الذكاء الاصطناعي التي تتفاعل مع البشر، يرغمها على إبلاغ المستخدم بأنه على تواصل مع آلة، ويرغم التطبيقات المولدة للصور على الإشارة إلى أنها مولّدة اصطناعياً.

يستوحي النص قوانينه من التشريعات الأوروبية السارية على صعيد سلامة المنتجات، وسيفرض مراقبة تكلف بها الشركات بالمقام الأول، فيما ستكون المحظورات نادرة، وهي تتعلق بالتطبيقات المخالفة للقيم الأوروبية مثل أنظمة تقييم المواطنين أو أنظمة المراقبة الجماعية المعتمدة في الصين.

كذلك يعتزم النواب الأوروبيون إدخال حظر على أنظمة التعرف على المشاعر، كما يعتزمون حظر جمع الصور بشكل عشوائي على الإنترنت لتطوير الخوارزميات بدون الحصول على موافقة الأشخاص المعنيين.

https://youtube.com/watch?v=OWqMwgxblNg%3Fstart%3D1%26feature%3Doembed

أيضاً يتضمن النص قائمة قواعد ستفرض فقط على التطبيقات التي تعتبرها الشركات نفسها “عالية المخاطر” بموجب معايير المشرعين، واقترحت المفوضية الأوروبية أن تستهدف الأنظمة المستخدمة في مجالات حساسة مثل البنى التحتية الحرجة والتعليم والموارد البشرية والحفاظ على النظام وإدارة الهجرة وغيرها.

من بين ما تفرضه القواعد رقابة بشرية على الآلة، ووضع وثائق إرشاديّة تقنية واعتماد نظام لإدارة المخاطر، على أن تشرف على تطبيقها سلطات الرقابة التي تعينها كل من الدول الأعضاء.

من جانبه، قال المقرر دراغوس تودوراش، في تصريح لوكالة الأنباء الفرنسية، “إنه نصّ معقد وأضفنا مجموعة جديدة من القواعد الخاصة بالذكاء الاصطناعي المولّد للمحتويات”.

بدورها، دعت نائبة رئيسة المفوضية الأوروبية مارغريتي فيستاغر، إلى عدم إهدار المزيد من الوقت، قائلة “آمل فعلاً أن نتمكن من إتمام المسألة هذه السنة”.

غير أن بعض الخبراء يعتبرون أن مخاطر الذكاء الاصطناعي المولد للمحتويات لا يتطلب قواعد خاصة للتعامل معه، وأوضح بيار لاروش خبير القانون الرقمي في جامعة مونتريال والباحث في مركز القوانين في أوروبا لـ”فرانس برس”: “لا أرى دوافع البرلمان، لا أرى كيف أن هذه المخاطر مختلفة عمّا تم التكهن به سابقاً”.

https://youtube.com/watch?v=RJJ6Wb1g8nU%3Ffeature%3Doembed%26enablejsapi%3D1

مخاوف من قدرات الذكاء الاصطناعي

يأتي هذا فيما تثير أنظمة الذكاء الاصطناعي التي تتسم بتقنيّات في غاية التعقيد، الكثير من الإعجاب والذهول، وفي الوقت نفسه الكثير من القلق.

الهواجس من مخرجات برامج الذكاء الاصطناعي دفعت شخصيات بارزة في عالم التكنولوجيا، مثل رئيس تويتر، إيلون ماسك، للمطالبة بتعليق تطوير هذه التقنيات، وهذه الهواجس تتمثل بنشر محتويات خطيرة والتلاعب بالرأي العام، من خلال إنتاج صور مزيفة بواسطة برمجيات مثل “ميدجورني”، وتطبيق أنظمة مراقبة جماعية، وغيرها من المخاطر غير المعروفة بعد. 

كان العالم قد اكتشف قدرات الذكاء الاصطناعي الهائلة في نهاية العام 2022، مع إطلاق شركة “أوبن إيه آي” برنامجها “تشات جي بي تي ” لإنتاج المحتويات التحريريّة، القادر على كتابة مواضيع بحثيّة وقصائد وترجمات في عدة ثوان.

من جهتها، تتسابق شركات التكنولوجيا الضخمة مثل مايكروسوفت، وجوجل، وغيرهما، لتحقيق تقدم في مجال الذكاء الاصطناعي، الذي يحذر بعض الخبراء من أنه قد يحل محل بعض وظائف البشر.