Press release

اعتماد الدول الأعضاء في اليونسكو الاتفاق العالمي الأول من نوعه بشأن أخلاقيات الذكاء الاصطناعي

25/11/2021
10 - Reduced Inequalities
16 - Peace, Justice and Strong Institutions

عرضت المديرة العامة لليونسكو، أودري أزولاي، يوم الخميس المعيار العالمي الأول من نوعه بشأن أخلاقيات الذكاء الاصطناعي، الذي اعتمدته الدول الأعضاء في اليونسكو إبَّان المؤتمر العام.

ويحدِّد هذا النص التاريخي القيم والمبادئ المشتركة التي ستوجه عملية إعداد الهيكل الأساسي القانوني اللازم لضمان تطوير الذكاء الاصطناعي بطريقة سليمة.

ينتشر الذكاء الاصطناعي ويتغلغل في العديد من عاداتنا اليومية، مثل حجز مقعد في رحلة طيران وتوجيه سيارة من دون سائق، وعرض الأخبار الصباحية بطريقة مخصًّصة لكل منَّا. ويدعم الذكاء الاصطناعي أيضاً عمليات اتخاذ القرار لدى الحكومات والقطاع الخاص.

وتحقق تكنولوجيات الذكاء الاصطناعي نتائج بارزة في التخصصات البالغة الدقة مثل الكشف عن أمراض السرطان وتهيئة بيئات تلائم الأشخاص ذوي الإعاقة. كما أنَّ للذكاء الاصطناعي دوراً في حلِّ مشكلات عالمية مثل تغيُّر المناخ والجوع، وفي المساعدة على الحدِّ من الفقر من خلال تقديم أقصى حدٍّ من المعونة الاقتصادية.   

ولكن التكنولوجيا تولِّد أيضاً تحديات جديدة منقطعة النظير، فقد أصبحنا نرى مجموعة من التحديات مثل تفاقم التحيز الجنساني والإثني، وتعرض الخصوصية والكرامة والأهلية لتهديدات جدية، وبروز خطر المراقبة الجماعية، وزيادة استخدام تكنولوجيات الذكاء الاصطناعي غير الموثوق بها في مجال إنفاذ القانون. ولم يكن يوجد حتى الآن معايير عالمية تتصدَّى لهذه المسائل.

وكانت المديرة العامة لليونسكو، أودري أزولاي، قد استهلّت مشروعاً طموحاً في عام 2018، يرمي إلى تزويد العالم بإطار أخلاقيّ ينظِّم استخدام الذكاء الاصطناعي. وبعد مضي ثلاثة أعوام، اعتمدت الدول الأعضاء المائة والثلاثة والتسعون في اليونسكو لتوِّها هذا الإطار الأخلاقي رسمياً، بفضل جهود مئات الخبراء من مختلف أنحاء العالم إلى جانب إجراء مفاوضات دولية مكثَّفة.

يحتاج العالم إلى وضع قواعد للذكاء الاصطناعي تعود بالنفع على البشرية، وتعتبر التوصية إحدى هذه القواعد الرئيسية، فهي تحدِّد أول إطار تقنيني عالمي، وتحمِّل الدول مسؤولية تطبيقه على الصعيد الوطني لديها. وستقدِّم اليونسكو الدعم إلى دولها الأعضاء المائة والثلاثة والتسعين، وتطلب منها تقديم تقارير دورية عن التقدم الذي تحرزه والممارسات التي تطبقها

المديرة العامة لليونسكو، أودري أزولاي

مضمون التوصية

تسعى هذه التوصية إلى الاستفادة من المزايا التي يقدِّمها الذكاء الاصطناعي إلى المجتمع، والحدِّ من المخاطر المترتبة على استخدامه. وهي تكفل قيام التحولات الرقمية بتعزيز حقوق الإنسان والمساهمة في تحقيق أهداف التنمية المستدامة، والتصدي لمسائل تتعلق بالشفافية والمساءلة والخصوصية، ووضع سياسات عملية المنحى بشأن إدارة البيانات والتعليم والثقافة والعمل والرعاية الصحية والاقتصاد.

1- حماية البيانات

تدعو التوصية إلى عمل يتجاوز ما تقوم به الحكومات والشركات لضمان المزيد من الحماية للأفراد، من خلال تأمين الشفافية والأهلية والمراقبة في التعامل مع بياناتهم. وهي تنصُّ على أنَّه ينبغي أن يتمكَّن الأفراد من الحصول على سجلات بياناتهم الشخصية أو حتى حذفها. كما تتضمَّن إجراءات لحماية بيانات الأفراد ومعارفهم، وحقهم في التحكم ببياناتهم. كما أنها ترفع قدرة الهيئات التنظيمية في العالم على إنفاذها.    

2- حظر وضع العلامات الاجتماعية وإجراء عمليات المراقبة الجماعية

تنص التوصية صراحة على حظر استخدام نظم الذكاء الاصطناعي لأغراض وضع العلامات الاجتماعية أو إجراء عمليات مراقبة جماعية. وتكتسي هذه الأنواع من التقنيات طابعاً شديد التوسع، إذ تنتهك حقوق الإنسان والحريات الأساسية، وتستخدم على نطاق واسع. وتشدد التوصية على أنّه ينبغي على الدول الأعضاء، عند إعداد الأطر التنظيمية، مراعاة وجوب اقتصار تحمّل المسؤولية النهائية والخضوع إلى المساءلة على البشر، وأنّه لا ينبغي منح تقنيات الذكاء الاصطناعي بحدّ ذاتها شخصية معنوية.

3- المساعدة في عمليات الرصد والتقييم

تحدد التوصية أيضاً الأساس لوضع الأدوات التي ستساعد في إنفاذها. ويتمثل الهدف من تقييم العواقب الأخلاقية في مساعدة البلدان والشركات في إعداد نظم الذكاء الاصطناعي ونشرها بغية تقييم تأثير هذه النظم في الأفراد والمجتمع والبيئة. وتساعد منهجيّة تقييم الاستعداد الدول الأعضاء على تقييم مدى جاهزيتها على صعيد الهياكل التقنية والقانونية الأساسية. وسوف تساعد هذه الأداة في تعزيز القدرة المؤسسية للبلدان، وتوصي باتخاذ التدابير المناسبة لضمان العمل بهذه الأخلاقيات على أرض الواقع. وتحثّ التوصية الدول الأعضاء على النظر في استحداث وظيفة جديدة لمسؤول مستقل عن أخلاقيات الذكاء الاصطناعي أو في وضع آلية معيّنة للإشراف على الجهود المطردة المبذولة من أجل تقييم العواقب الأخلاقية ومراجعة العمل ومواصلة الرصد.

4- حماية البيئة

وتؤكد التوصية أنّه يجب على الجهات الفاعلة في مجال الذكاء الاصطناعي تفضيل اختيار وسائل الذكاء الاصطناعي التي تتسم بالكفاءة في استخدام البيانات والطاقة والموارد، كي تسهم هذه الوسائل في ضمان توطيد دور الذكاء الاصطناعي البارز باعتباره إحدى أدوات التصدي لتغير المناخ ومعالجة القضايا البيئية. وتدعو التوصية الحكومات إلى تقييم العواقب البيئية المباشرة وغير المباشرة لأي نظام من نُظم الذكاء الاصطناعي طوال دورة حياة النظام المعني، ومنها على سبيل المثال لا الحصر انبعاثات الكربون الناجمة عن نظام الذكاء الاصطناعي ومقدار الطاقة التي يستهلكها، والعواقب البيئية الناتجة عن استخراج المواد الأولية اللازمة لصناعة وسائل تكنولوجيا الذكاء الاصطناعي. كما يهدف إلى التخفيف من التأثير البيئي لنظم الذكاء الاصطناعي والبنى التحتية للبيانات، ويحفز الحكومات على الاستثمار في التكنولوجيا الخضراء، وفي حال ثبت وجود تأثير سلبي لنظم الذكاء الاصطناعي في البيئة، فإن التوصية تنص على عدم استخدامها.

يجب أن تتسم القرارات التي تؤثر في ملايين البشر بالعدل والشفافية وأن تكون قابلة للدحض. ويجب أن تساعدنا هذه التقنيات الحديثة في التصدي لأبرز التحديات التي تعترض طريقنا في عالم اليوم، وذلك على غرار استفحال أوجه عدم المساواة والأزمة البيئية، أي أنّه يجب ألّا تساهم هذه التقنيات في تعميق هذه التحديات.

مساعدة المديرة العامة لليونسكو لشؤون العلوم الاجتماعية والإنسانية، غابرييلا راموس

وقد برهنت التقنيات الناشئة، على غرار الذكاء الاصطناعي، قدرتها الهائلة على تحقيق المنفعة، بيد أنّه لا بدّ من السيطرة على آثارها السلبية التي تزيد من حدّة الانقسامات وأوجه عدم المساواة القائمة بالفعل في عالمنا. ويجب أن تمتثل التطورات الحاصلة في مجال الذكاء الاصطناعي لسيادة القانون، مما يحول دون وقوع الأذى ويضمن، في حال وقوعه، قدرة المتضررين على اللجوء إلى آليات المساءلة والتظلّم.

 

***

جهة الاتصال للشؤون الإعلامية: كلير أوهاغان، c.o-hagan@unesco.org