"قد تغيّر حياة البشر"... الأمم المتحدة تحذر من مخاطر بعض أنظمة الذكاء الاصطناعي

مفوضة الأمم المتحدة السامية لحقوق الإنسان تدعو إلى "التحرك لوضع ضوابط للذكاء الاصطناعي تستند إلى حقوق الإنسان"، وتطالب الدول بتجميد استخدام التقنيات التي "قد تنطوي على خطر كبير".

  • تُستخدم تقنيات التعرف على الوجوه في الوقت الحقيقي ومن بُعد بنحو متزايد في العالم

دعت الأمم المتحدة، اليوم الأربعاء، إلى تجميد استخدام بعض أنظمة الذكاء الاصطناعي، بينها تقنيات التعرف على الوجوه، إلى حين وضع ضوابط مناسبة لحماية حقوق الإنسان من أي تجاوزات محتملة.

وقالت مفوضة الأمم المتحدة السامية لحقوق الإنسان، ميشال باشليه، إنّ "تقنيات الذكاء الاصطناعي قد تكون لها تبعات سلبية وحتى كارثية، إذا ما استُخدمت من دون أخذ طريقة تأثيرها على حقوق الإنسان في الاعتبار بصورة كافية".

ودعت باشليه إلى "تقويم المخاطر المتأتية عن الأنظمة المختلفة التي تعتمد على الذكاء الاصطناعي، على صعيد الخصوصية أو حرية التنقل والتعبير، وثم حظر الاستخدامات التي تحمل المخاطر الأكبر أو وضع ضوابط قانونية كبيرة لها".

لكن بانتظار إنجاز عمليات التقويم هذه، "على الدول تجميد استخدام التقنيات التي قد تنطوي على خطر كبير، خصوصاً التقنيات التي تتيح اتخاذ قرارات تلقائية، أو تلك التي تُستخدم في تحديد مواصفات معينة للأشخاص"، وفق باشليه. 

كما لفتت باشليه إلى أنّ "أنظمة الذكاء الاصطناعي تُستخدم لتحديد الجهات القادرة على الإفادة من الخدمات العامة وتقرر من هم الأشخاص الذين يتمتعون بفرصة للحصول على وظيفة ما، كما لديها بطبيعة الحال أثر على المعلومات التي يمكن للناس رؤيتها وتشاركها عبر الإنترنت".

وقالت باشليه إنّ "خطر التمييز المرتبط بقرارات تستند إلى الذكاء الاصطناعي، وهي قرارات قد تغيّر حياة البشر أو تضع وصمة سلبية عليها أو تلحق الأذى بها، يمثّل حقيقة مثبتة"، مضيفةً أنّه "يجب التحرك لوضع ضوابط للذكاء الاصطناعي تستند إلى حقوق الإنسان لخير الجميع". 

الأمم المتحدة وضعت تقريراً يدرس استخدامات تقنيات الذكاء الاصطناعي

هذا ووُضع تقرير بطلب من مجلس حقوق الإنسان، أعلى هيئة معنية بهذا الشأن في الأمم المتحدة، ركّز على الطريقة التي استُخدمت فيها هذه التقنيات في أحيان كثيرة، من دون تقويم طريقة عملها أو أثرها بصورة صحيحة.

وبحسب التقرير، فقد منعت الشوائب في الذكاء الاصطناعي أشخاصاً من تقاضي مساعدات اجتماعية أو إيجاد عمل، حتى إنها تسبّب في توقيف أناس أبرياء بسبب الاعتماد على أنظمة للتعرف على الوجوه لم تخضع لتجارب كافية، ولا تستطيع التعرف جيداً على أشخاص من ذوي الملامح الأفريقية على سبيل المثال.

وأشار التقرير إلى أنّ تقنيات الذكاء الاصطناعي هذه تستعين بقواعد بيانات ضخمة يكتنف تشكيلها بعض الغموض في أحيان كثيرة. ويمكن لقواعد البيانات هذه أن تكون معدة بصورة سيئة أو أن يكون قد طواها الزمن، وبالتالي قد تسهم في انتهاكات لحقوق الإنسان.

كما تطرّق التقرير خصوصاً إلى الاستخدام المتزايد لأنظمة قائمة على الذكاء الاصطناعي من قوات الأمن، بما يشمل أساليب للتوقع.

وعندما تستخدم تقنيات الذكاء الاصطناعي قواعد بيانات منحازة، ينعكس ذلك في التوقعات، وقد يؤثر على مناطق يتم تصنيفها خطأ بأنها مصدر خطر مرتفع.

وتُستخدم تقنيات التعرف على الوجوه في الوقت الحقيقي ومن بُعد بشكل متزايد في العالم أجمع، ما قد يؤدي إلى تحديد دائم لمواقع الناس.