** يزعم تقرير داخلي أن نظام مسح الوجه يمكن أن يطلق “إنذار الأويغور” ، مما أثار مخاوف من أن البرنامج يمكن أن يساعد في تأجيج حملة الصين على الأقلية المسلمة.
نشرت صحيفة الواشنطن بوست العريقة خبرا كشفت فيه تفاصيل تقرير يشير إلى أن شركة هواوي الصينية للهواتف اختبرت برمجيات التعرف على الوجه التي يمكن أن ترسل “إنذارات الأويغور” الآلية إلى السلطات الحكومية، وفقًا لوثيقة داخلية تقدم مزيدًا من التفاصيل حول نظام مراقبة الذكاء الاصطناعي في الصين.
وتُظهر وثيقة موقعة من قبل ممثلي Huawei – واكتشفتها منظمة الأبحاث IPVM وتمت مشاركتها حصريًا مع صحيفة واشنطن بوست – أن شركة الاتصالات السلكية واللاسلكية عملت في عام 2018 مع شركة Megvii الناشئة للتعرف على الوجه لاختبار نظام كاميرا ذكاء اصطناعي يمكنه مسح الوجوه في حشد وتقدير عمر كل شخص وجنسه وعرقه.
وقال تقرير الاختبار إنه إذا اكتشف النظام وجه فرد من الأقلية المسلمة في الغالب، فقد يطلق “إنذارًا من الأويغور” – يحتمل أن يقوم بإبلاغ الشرطة في الصين، حيث تم اعتقال أعضاء المجموعة بشكل جماعي كجزء من قمع الحكومة الوحشي. فيما تمت إزالة المستند، الذي تم العثور عليه على موقع Huawei ، بعد فترة وجيزة من طلب The Post و IPVM من الشركات التعليق.
ويقول نشطاء حقوق الإنسان إن مثل هذه التكنولوجيا اكتسبت في السنوات الأخيرة دورًا متزايدًا بين أقسام الشرطة في الصين. لكن المستند يلقي ضوءًا جديدًا على كيفية مساهمة Huawei ، أكبر صانع لمعدات الاتصالات في العالم، وفي تطويرها أيضًا، من خلال توفير الخوادم والكاميرات والبنية التحتية للحوسبة السحابية وغيرها من الأدوات التي تدعم القوة التكنولوجية للأنظمة.
وقال جون هونوفيتش ، مؤسس IPVM ، وهي شركة مقرها بنسلفانيا تقوم بمراجعة والتحقيق في معدات المراقبة بالفيديو ، إن الوثيقة أظهرت كيف أصبحت هذه التكنولوجيا التمييزية “مرعبة” و “طبيعية تمامًا”.
وأعلنت كل من Huawei و Megvii عن ثلاثة أنظمة مراقبة تستخدم تكنولوجيا الشركتين في العامين الماضيين. لم تتمكن صحيفة The Post من تأكيد ما إذا كان النظام الذي تم اختباره باستخدام “إنذار الأويغور” في عام 2018 هو أحد الأنظمة الثلاثة المعروضة للبيع حاليًا.
وقال مسؤولون صينيون إن مثل هذه الأنظمة تعكس التقدم التكنولوجي للبلاد، لكن بالنسبة إلى المدافعين عن الحقوق الدولية ، فإنهم يمثلون علامة على حلم الصين بالسيطرة الاجتماعية – وهي طريقة لتحديد الأفراد غير المؤيدين في المجتمع وسحق المعارضة العامة. ولم ترد وزارة الخارجية الصينية على الفور على طلبات للتعليق.
وقال باحثو الذكاء الاصطناعي والمدافعون عن حقوق الإنسان إنهم قلقون من أن تطوير التكنولوجيا وتطبيعها قد يؤدي إلى انتشارها في جميع أنحاء العالم ، حيث تضغط السلطات الحكومية في أماكن أخرى من أجل طريقة سريعة وآلية للكشف عن أعضاء الجماعات العرقية التي تعتبرها غير مرغوب فيها أو تشكل خطر لسيطرتهم السياسية.
وقالت مايا وانغ ، باحثة أولى في الصين في منظمة هيومن رايتس ووتش الحقوقية ، إن البلاد تستخدم بشكل متزايد المراقبة بمساعدة الذكاء الاصطناعي لمراقبة عامة الناس وقمع الأقليات والمتظاهرين وغيرهم ممن يعتبرون تهديدات للدولة.
وقالت وانغ: “طموح الصين في المراقبة يذهب بعيدًا ، إلى حد بعيد ، بعيدًا عن اضطهاد الأقليات” ، لكن “من الواضح أن اضطهاد الأقليات لا يقتصر على الصين. … وستصلح هذه الأنظمة نفسها بشكل جيد للدول التي تريد تجريم الأقليات “.
وقالت كلير غارفي، كبيرة المساعدين في مركز الخصوصية والتكنولوجيا بجامعة جورج تاون، والتي درست برامج التعرف على الوجه ، إن برنامج “إنذار الأويغور” يمثل خطوة خطيرة نحو أتمتة التمييز العرقي على نطاق مدمر.
وقالت غارفي: “هناك بعض الأدوات التي ليس لها تطبيق إيجابي ، والكثير من التطبيقات السلبية ، وأداة التصنيف العرقي هي واحدة من تلك الأدوات”. “ضع اسمًا لقاعدة حقوق الإنسان ، وربما يكون هذا انتهاكًا لذلك.”
وتوفر وثيقة “إنذار الأويغور” التي حصل عليها الباحثون ، والتي تسمى “تقرير اختبار التشغيل البيني” ، معلومات تقنية حول كيفية قيام السلطات بمواءمة أنظمة Huawei-Megvii مع أدوات برمجية أخرى من أجل مراقبة عامة سلسة.
وقال تقرير الاختبار أيضًا إن النظام كان قادرًا على التقاط لقطات في الوقت الفعلي للمشاة وتحليل ملفات الفيديو وإعادة تشغيل 10 ثوانٍ من اللقطات قبل وبعد اكتشاف أي وجه من الأويغور.
ولم يقدم المستند معلومات حول مكان أو عدد مرات استخدام النظام. لكن يتم استخدام أنظمة مماثلة من قبل أقسام الشرطة في جميع أنحاء الصين ، وفقًا لوثائق رسمية راجعتها صحيفة نيويورك تايمز العام الماضي ، والتي وجدت نظام مدينة واحد قام بمسح الوجوه الأويغورية نصف مليون مرة في شهر واحد.
وقال جوناثان فرانكل ، الباحث في مجال التعلم العميق في مختبر علوم الكمبيوتر والذكاء الاصطناعي التابع لمعهد ماساتشوستس للتكنولوجيا ، إن مثل هذه الأنظمة أصبحت بوضوح أولوية بين المطورين المستعدين للاستفادة من القدرة التقنية على تصنيف الأشخاص حسب العرق أو العرق. وأضاف أنه يمكن استخدام تدفق بيانات صور الوجه من الجماهير لزيادة تطوير دقة الأنظمة وقوة المعالجة.
وقال فرانكل: “لا يتحمل الناس مشكلة بناء أنظمة باهظة الثمن مثل هذه بدون مقابل”. “هؤلاء ليسوا أشخاصًا يحرقون الأموال من أجل المتعة. إذا فعلوا ذلك ، فإنهم فعلوا ذلك لسبب محدد للغاية في الاعتبار. وهذا السبب واضح جدا “.
وأظهرت الشرطة والسلطات الفيدرالية في الولايات المتحدة اهتمامًا متزايدًا ببرمجيات التعرف على الوجه كأداة تحقيق ، لكن الأنظمة أثارت رد فعل شعبي عنيفًا بسبب تحيزها المحتمل وعدم دقتها ، واختارت بعض المدن وقوات الشرطة حظر هذه التكنولوجيا تمامًا .
ومع ذلك ، يمكن أن تجد مثل هذه التقنيات سوقًا بين الأنظمة الدولية في مكان ما في التوازن بين النفوذ الصيني والأمريكي. في أوغندا ، استخدمت الشرطة والمسؤولون الحكوميون بالفعل كاميرات التعرف على الوجه من هواوي لمراقبة المتظاهرين والمعارضين السياسيين.
لطالما ساد التمييز ضد الأويغور في غالبية سكان الصين من الهان. في منطقة شينجيانغ بشمال غرب الصين ، ونفذت السلطات حملة قمع قاسية بدأت في عام 2015 وأثارت إدانة من الولايات المتحدة ودول غربية أخرى. يقدر العلماء أن أكثر من مليون من الأويغور تم احتجازهم في معسكرات إعادة التأهيل، مع بعض مزاعم التعذيب.
ووصف مستشار الأمن القومي الأمريكي روبرت أوبراين المعاملة القمعية للأقليات في شينجيانغ بأنها “شيء قريب من” الإبادة الجماعية ، في حدث على الإنترنت استضافه معهد أسبن في أكتوبر.
وتم الإعلان عن أحد أنظمة Huawei-Megvii المعروضة للبيع بعد اختبار “إنذار الأويغور” ، في يونيو 2019 ، على أنه يوفر مساحة تخزين رقمية للحكومات المحلية عن طريق حفظ الصور في مكان واحد.
(واشنطن بوست)