دعت الأمم المتحدة الأربعاء إلى تجميد استخدام بعض أنظمة الذكاء الاصطناعي بينها تقنيات التعرف على الوجوه إلى حين وضع ضوابط مناسبة لحماية حقوق الإنسان من أي تجاوزات محتملة.
وقالت مفوضة الأمم المتحدة السامية لحقوق الإنسان ميشال باشليه إن “تقنيات الذكاء الاصطناعي قد تكون لها تبعات سلبية وحتى كارثية إذا ما استُخدمت من دون أخذ طريقة تأثيرها على حقوق الإنسان في الاعتبار بصورة كافية”.
ودعت باشليه إلى تقويم المخاطر المتأتية عن الأنظمة المختلفة التي تعتمد على الذكاء الاصطناعي، على صعيد الخصوصية أو حرية التنقل والتعبير، وثم حظر الاستخدامات التي تحمل المخاطر الأكبر أو وضع ضوابط قانونية كبيرة لها.
لكن بانتظار إنجاز عمليات التقويم هذه، “على الدول تجميد استخدام التقنيات التي قد تنطوي على خطر كبير”، وفق باشليه التي تولت سابقا رئاسة تشيلي، خلال تقديمها تقريرا جديدا للمفوضية في هذا الشأن.
وضربت باشليه خصوصا مثل التقنيات التي تتيح اتخاذ قرارات تلقائية أو تلك التي تُستخدم في تحديد مواصفات معينة للأشخاص.
تغيير حياة البشر
ولفتت باشليه إلى أن “أنظمة الذكاء الاصطناعي تُستخدم لتحديد الجهات القادرة على الإفادة من الخدمات العامة وتقرر من هم الأشخاص الذين يتمتعون بفرصة للحصول على وظيفة ما، كما لديها بطبيعة الحال أثر على المعلومات التي يمكن للناس رؤيتها وتشاركها عبر الإنترنت”.
هذا التقرير الذي وُضع بطلب من مجلس حقوق الإنسان، أعلى هيئة معنية بهذا الشأن في الأمم المتحدة، ركّز على الطريقة التي استُخدمت فيها هذه التقنيات في أحيان كثيرة من دون تقويم طريقة عملها أو أثرها بصورة صحيحة.
ومنعت الشوائب في الذكاء الاصطناعي أشخاصًا من تقاضي مساعدات اجتماعية أو إيجاد عمل، حتى أنها تسبب بتوقيف أناس أبرياء بسبب الاعتماد على أنظمة للتعرف على الوجوه لم تخضع لتجارب كافية ولا تستطيع التعرف جيدا على أشخاص من ذوي الملامح الإفريقية على سبيل المثال.
وقالت باشليه إن “خطر التمييز المرتبط بقرارات تستند إلى الذكاء الاصطناعي، وهي قرارات قد تغيّر حياة البشر أو تضع وصمة سلبية عليها أو تلحق الأذى بها، يشكل حقيقة مثبتة”.
وأشار التقرير إلى أن تقنيات الذكاء الاصطناعي هذه تستعين بقواعد بيانات ضخمة يكتنف الغموض طريقة تشكيلها في أحيان كثيرة.
ويمكن لقواعد البيانات هذه أن تكون معدة بصورة سيئة أو أن يكون قد طواها الزمن وبالتالي قد تساهم في انتهاكات لحقوق الإنسان.
تأجيج الانتهاكات الحقوقية
وتطرق التقرير خصوصا إلى الاستخدام المتزايد لأنظمة قائمة على الذكاء الاصطناعي من قوات الأمن بما يشمل أساليب للتوقع.
وعندما تستخدم تقنيات الذكاء الاصطناعي قواعد بيانات منحازة، ينعكس ذلك في التوقعات وقد يؤثر على مناطق يتم تصنيفها خطأ بأنها مصدر خطر مرتفع.
وتُستخدم تقنيات التعرف على الوجوه في الوقت الحقيقي ومن بُعد بشكل متزايد في العالم أجمع، ما قد يؤدي إلى تحديد دائم لمواقع الناس.
وقالت باشليه “لا يمكننا السماح بالاستمرار في محاولة اللحاق بالقطار الذي يسير حاليًا على سكة الذكاء الاصطناعي والسماح باستخدامها مع رقابة معدومة أو شبه معدومة، من ثم إصلاح التبعات التي ستعقب ذلك على صعيد حقوق الإنسان”.
وأقرت باشليه بأن “قدرة الذكاء الاصطناعي على خدمة الناس لا يمكن إنكارها”، لكنها حذرت من أن “الأمر عينه يسري على قدرة” هذه التقنيات في “تأجيج انتهاكات حقوق الإنسان على مستوى هائل وبصورة غير مرئية بشكل شبه كامل”.
وأضافت “يجب التحرك لوضع ضوابط للذكاء الاصطناعي تستند إلى حقوق الإنسان لخير الجميع”.