زاوية كبرى

في خدمتنا، وليسَ على حسابنا

cou_03-18_ethics_01.jpg

هل هي نهاية حرمة الحياة الخاصة في العصر الرقمي؟ عمل من انتاج المصوّر الكوبي فالكو

نحن متجهون لا محالة نحو مستقبل آلي وذكاء اصطناعي بإمكانات تكاد أن تكون بلا حدود. ومن ثم يتعين علينا تقويم جميع التداعيات الأخلاقية الناجمة عن هذه التكنولوجيا الحديثة، والتصدي للتحديات القانونية والاجتماعية غير المسبوقة التي قد تنشأ.

 

بقلم تي وي آنغ ودفنا فينهولز (اليونسكو)

 

ترغمنا التكنولوجيات الحديثة أحيانا على التساؤل حول ما يؤلّف البعد البشري. وعلى أية حال، هذا صحيح في ما يتعلق بالذكاء الاصطناعي باعتبار أن تداعياته المحتملة تستدعي اجتهادا فكريا يتناسب مع أهميتها. وبعد أن طارد هذا المفهوم مخيلتنا الجماعية على مدى عدة عقود، ها أنه اليوم يقتحم حياتنا.

إن التقدم الذي أحرزه حديثا الذكاء الاصطناعي، لا سيما في مجال تعلم الآلة والتعلم العميق، يبرهن على قدرة هذه الأنظمة على التفوق على البشر في مجالات عديدة، بما في ذلك المهام التي تقتضي مقداراً معيناً من الاستدلال المعرفي. وهذا يدل على أن الذكاء الاصطناعي قد يمثل مصدراً هائلاً للتقدم والمنفعة للبشرية، ولكنه في نفس الوقت، قد يزعزع الدعائم الاجتماعية والاقتصادية والسياسية للمجتمع البشري.

وقبل أن نتساءل حول التداعيات الأخلاقية للذكاء الاصطناعي، لا بد من تحديد مكوناته في الوقت الحاضر. عندما نتحدث عن الذكاء الاصطناعي، نعني عموما «الذكاء الاصطناعي المحدود»، أو «الذكاء الاصطناعي الضعيف» الذي تم تصميمه لإنجاز مهمّة محددة، ألا وهي التحليل وتيسير تداول المعلومات، مثل الحث على شراء بضائع عن طريق الإنترنت استناداً إلى مشتريات سابقة. وهذا النمط من الذكاء الاصطناعي الضعيف موجود بالفعل، ولكنه سوف يصبح أكثر تعقيدا وسوف يتغلغل أكثر فأكثر في حياتنا اليومية.

نحن لا نتحدث هنا عمّا يُسمى بـ«الذكاء الاصطناعي القوي» أو «الذكاء الاصطناعي العام»، الذي تصفه الكثير من الروايات وأفلام الخيال العلمي، والذي يُفترض أنه قادر على القيام بجميع أصناف النشاط المعرفي البشري، وحتى على بلوغ درجة نسبية من الوعي، حسب ما يذهب إليه بعض الخبراء. غير أننا لم نبلغ أي توافق حول جدوى استخدام مثل هذا الذكاء الاصطناعي وآفاقه.

 

جمع للبيانات لا نهاية له

يقتضي تعلّم الآلة والتعلّم العميق قدراً كبيراً من البيانات التاريخية والبيانات التي يتم تجميعها آنيا، إذا أردنا أن يكون نظام الذكاء الاصطناعي قادرا على «التعلم» على أساس ما اكتسبه من «تجربة». كما أن تطوير هذين النمطين من التعلّم يحتاج إلى بُنى تحتية تسمح للذكاء الاصطناعي بتحقيق مهامه أو أهدافه استنادا إلى ما تعلّمه. وينبغي لنا أن نأخذ في الحسبان، عندما نفكر في التداعيات الأخلاقية للذكاء الاصطناعي، المحيط التكنولوجي المعقد الذي يحتاجه ليشتغل والذي يشمل التجميع المستمر للبيانات الضخمة الصادرة عن إنترنت الأشياء، وتخزينها في السحاب المعلوماتي، واستخدامها من قِبل الذكاء الاصطناعي حتى يقوم بتغذية عملية «التعلم» وتنفيذ التحاليل أو الأنشطة في المدن الذكية، والسيارات المستقلة، والروبوتات، وغيرها.

وكلّما تعقّد التطور التكنولوجي، كلّما زادت المسائل الأخلاقية التي يثيرها تعقيدا.  وحتى إذا بقيت المبادئ الأخلاقية ثابتة، لا يُستبعد أن يتغيّر بصفة جذرية أسلوبنا في تناولها، ولو أدى ذلك، عن قصد أو عن غير قصد، إلى إعادة النظر  فيها بشكل خطير .

وعلى سبيل المثال، قد يتغيّر تماما تصوّرنا لحرمة الحياة الشخصية ولمفهومَي السريّة والاستقلالية. وبفضل التطبيقات أو الآليات التي توصف بأنها ذكية والتي أصبحت تشكل أدوات الاتصال الخاصة بشبكات التواصل الاجتماعي، مثل فيسبوك أو تويتر، فإننا نقوم بالكشف عن معلوماتنا الشخصية بصفة «حرّة» أو طوعية، دون معرفة تامة للاستخدامات الممكنة لهذه البيانات، ولا للأطراف التي سوف تستخدمها. ثم تُنقل هذه البيانات إلى نُظم للذكاء الاصطناعي يطورها بالأساس القطاع الخاص. وتبقى هذه البيانات إسمية، بحيث أن المعلومات المتعلقة بمُيولاتنا وعاداتنا يمكن استغلالها لخلق نماذج سلوكية تتيح للذكاء الاصطناعي مثلا أن يوجه لنا رسائل ذات الطابع السياسي، أو أن يبيع لنا تطبيقات تجارية أو أن يخزّن معلومات تتعلق بمُعالجتنا الطبية.

 

الأفضل والأسوأ

هل انتهت حرمة حياتنا الشخصية؟ وماذا عن أمن البيانات وهشاشتها إزاء أعمال القرصنة؟ هل بإمكان الدولة أن تستحوذ على هذه البيانات لفرض الرقابة على السكان، مع احتمال أن يكون ذلك على حساب حقوق الإنسان الفردية؟ ألا يمثل هذا المحيط المعتمد على الذكاء الاصطناعي الذي يراقب ميُولاتنا ويستخدمها ليعرض علينا مختلف الخيارات، تهديدا لحريتنا في الاختيار وقدرتنا على الإبداع؟

وهناك سؤال آخر له أهميته وهو: إلى أي مدى تحمل البيانات المستخدمة من قِبل الذكاء الاصطناعي في مجال «التعلّم» في طياتها أفكارا موروثة ومسبقة من المحتمل أن تسفر عن «قرارات» - يتّخذها الذكاء الاصطناعي - قد تكون من باب التمييز أو الشجب؟ إن هذا من شأنه أن يُضعِف نُظم الذكاء الاصطناعي بصفة خاصة تلك التي تتولى العلاقات مع الجمهور أو توفر الخدمات الاجتماعية. علينا أن ندرك أن بعض البيانات، مثل تلك التي يتم تطويرها على شبكة الإنترنت، تحتوي على معلومات تعكس أفضل ما في البشرية كما أسوَأه. ومن ثم، لا يمكن الاعتماد على الذكاء الاصطناعي دون غيره لاستخلاص الدروس من هذه البيانات دون المخاطرة على الصعيد الأخلاقي. وبالتالي، لا يمكن الاستغناء عن التدخل البشري المباشر.

هل من الممكن تلقين الذكاء الاصطناعي سلوكاً أخلاقياً؟ في نظر بعض الفلاسفة، هناك تجارب - لاسيما تلك التي لها طابع جمالي وأخلاقي - ملازمة للجنس البشري، وهي بالتالي ليست قابلة للبرمجة. ويرى البعض الآخر أنه إذا كانت للأخلاق صفة عقلانية، فمن الممكن أن تخضع للبرمجة، شريطة احترام حرية الاختيار. ولم يحصل لحد الآن توافق حول مسألة الاعتماد على العقل دون غيره لتلقين البشر القيم والأخلاقيات. فكيف يمكن إذن تحقيق التوافق عندما يتعلق الأمر بتعلّم الآلة! وإذا افترضنا أنه سوف يصبح، في يوم ما، من الممكن برمجة ذكاء اصطناعي حتى يكتسب طابعاً أخلاقياً، فما عسى أن تكون هذه المبادئ الأخلاقية؟ هل هي المبادئ التي يتبعها مصممو البرمجيات؟ إن تطوير الذكاء الاصطناعي بين أيدي القطاع الخاص بالأساس، ولهذا القطاع أفكار حول الأخلاقيات لا تتماشى بالضرورة مع تلك التي يفضلها المجتمع.

وحتى يشتغل الذكاء الاصطناعي لخدمة مصالحنا وليس على حسابنا، لا بد أن نشرع في مناقشة موضوعية تأخذ في عين الاعتبار وجهات النظر الأخلاقية لجميع الأطراف المعنية. وإزاء التقلبات التي قد يثيرها الذكاء الاصطناعي في المجتمع، ينبغي أن نحرص على أن يراعي الإطار الأخلاقي الذي سوف يندرج فيه تطوره المستقبلي، مسألة أوسع نطاقاً، ألا وهي المسؤولية الاجتماعية.

 

دفنا فينهولز

حاصلة على الدكتوراه في علم النفس وأخلاقيات البيولوجيا، دفنا فينهولز (المكسيك) رئيسة قسم أخلاقيات البيولوجيا والعلوم في اليونسكو. وشغلت منصب الأمينة العامة للجنة الوطنية المكسيكية المعنية بأخلاقيات البيولوجيا.

 

تي وي آنغ

أخصائي في قسم أخلاقيات البيولوجيا والعلوم في اليونسكو، اشتغل تي وي آنغ (ماليزيا) في مجال هندسة التصميم وهندسة الإدارة، قبل أن يلتحق بالمنظمة في عام 2005.