<
 
 
 
 
×
>
You are viewing an archived web page, collected at the request of United Nations Educational, Scientific and Cultural Organization (UNESCO) using Archive-It. This page was captured on 11:15:50 Jun 11, 2019, and is part of the UNESCO collection. The information on this web page may be out of date. See All versions of this archived page.
Loading media information hide
زاوية كبرى

ماذا عن المخاطر الأخلاقية للذكاء الاصطناعي؟

يمكن استغلال الذكاء الاصطناعي لزيادة فعالية التدابير التمييزية القائمة، مثل التنميط العنصري والتنبؤ بالسلوك، بل وحتى تحديد التوجه الجنسي للأفراد. تستوجب الأسئلة الأخلاقية التي يثيرها الذكاء الاصطناعي سن تشريعات لضمان تطبيقه بمسؤولية.

مارك-أنطوان ديلاك يجيب عن أسئلة ريجيس ميران

 

ما هي المشاكل التي تثيرها برمجيات تحليل السلوك التي تستند إلى أشرطة مصوّرة؟

يساعد الذكاء الاصطناعي على تحسين الاستخدام الوقائي لأنظمة المراقبة بالفيديو في الفضاءات العامة. أصبح الآن  من الممكن تحليل الصوّر ‏باستمرار من قبل برامج قادرة على استشعار الأعمال العُدوانية والإبلاغ عنها بسرعة. وعلى سبيل المثال، تمّ  اختبار هذا النظام الجديد في أروقة محطة شاتلي في مترو باريس. وإذا ما قبلنا بمبدأ المراقبة بالفيديو، فإنّ المشكلة الوحيدة التي يطرحها استخدام الذكاء الاصطناعي تكمن في احتمال وقوع خطأ. وهذا الاحتمال ليس على درجة عالية، طالما أن البشر هم الذين يقررون في نهاية الأمر إن كان عليهم التدخل أم لا.

إلا أن الأخطاء في التعرّف على الوجه تتكرر بكثرة. ويكفي أن تضطرب الصورة حتى يرى الذكاء الاصطناعي آلة تحميص بدلاً عن وجه بشري! وقد يولّد الشعور بمراقبة مفرطة وتكرار الأخطاء إحساسا بالقلق.

ومن ناحية أخرى، علينا أن نحذر التجاوزات التي قد تنجم عن تلك الأنظمة الذكّية وعن أساليب التنميط (العنصري والاجتماعي) التي قد تستخدمها.

 

تجاوزات من أي قبيل؟

أفكّر على وجه الخصوص في البرمجيات التي يتمّ تطبيقها بالفعل في العديد من البلدان، والتي تهدف الى تحديد «السلوك الإرهابي» أو «الشخصيّة الإجرامية» لدى الأفراد، باستخدام تقنية التعرّف على ملامح الوجه. هذا يعني أن ملامح الوجوه تكفي للكشف عن الميولات الإجرامية الكامنة في الذات!

وقد ذُعر الباحثان  ميشال كوزينسكي وييلون وانغ من جامعة ستانفورد (الولايات المتحدة) من هذا الانبعاث الجديد لنظرية الفِراسة - التي تحلل شخصية الفرد اعتمادا على معالم وجهه وتعابيره - فقررا الكشف عن مخاطر هذه النظرية الزائفة التي تدّعي أنها علمية والتي كنا نخالها قد دفنت في طيات التاريخ. ولفتًا للانتباه حول ما تحمله من تهديد بانتهاك الحياة الخاصة، ابتكرا سنة 2007 برنامج «غيدار»، وهو برنامج يهدف إلى التعرف على المثليين من خلال تحليل صورتهم! وقد بينا أن هامش خطأ البرنامج يمثل نسبة 20٪ فقط. وبالإضافة إلى تشويه السُمعة، فإنّ تطبيق هذه التقنية يؤدي إلى انتهاك حق كل شخص في عدم الكشف عن توجهه الجنسي.

إن أيّ بحث علمي يتم إجراؤه بدون الاعتماد على مرجعيات فلسفية وبدون بوصلة اجتماعية أو قانونية، معرض لإثارة مشاكل أخلاقية. إن الأمثلة القليلة التي ذكرتها تبيّن الحاجة الملحّة لفرض إطار أخلاقي للبحوث في مجال الذكاء الاصطناعي.

 

ماذا عن التجاوزات في مجال تحسين النسل؟

في رأيي، الذكاء الاصطناعي في ذاته لا يشكّل عاملا لتحسين النسل. يتكهّن البعض بعالم يصبح فيه تحسين سلالة البشر ممكنا من خلال استخدام الذكاء الاصطناعي: رقائق الكترونية لتوسيع الذاكرة أو تحسين التعرّف على ملامح الوجه، الخ. إن كانت الروبوتات الذكيّة قادرة على تقديم حلول طبيّة لبعض أشكال الإعاقة (مثل استعادة امكانيّة التنقل بفضل أجهزة متطوّرة)، تبقى فرضية بناء «إنسان خارق»، حسب نظرية ما بعد الإنسانية، من باب الخيال العلمي.

 

مارك-أنطوان ديلاك

أستاذ مساعد في الأخلاقيات والفلسفة السياسية في جامعة مونتريال، مارك-أنطوان ديلاك (فرنسا) حاصل على كرسي كندا للبحث في الأخلاق العامة، ومدير مشارك لقسم الأخلاقيات والسياسة في مركز البحث في الأخلاقيات.