<
 
 
 
 
×
>
You are viewing an archived web page, collected at the request of United Nations Educational, Scientific and Cultural Organization (UNESCO) using Archive-It. This page was captured on 11:35:09 Jun 11, 2019, and is part of the UNESCO collection. The information on this web page may be out of date. See All versions of this archived page.
Loading media information hide
Editorial

من أجل أخلاقيّات للبحث في الذكاء الاصطناعي على الصعيد العالمي

cou_03-18_dg_itw_02.jpg

من واجبنا الوقاية من انحرافات الذكاء الاصطناعي.

شهد الذكاء الاصطناعي في السنوات الأخيرة تقدّما مُذهلا أفرز اختراعات لم نكن نخالها ممكنة. أصبحت الحواسيب والروبوتات قادرة على تعلّم كيفية تحسين أدائها وحتى على اتّخاذ القرارات – ويتمّ  ذلك طبعا بواسطة خوارزمي وبدون ضمير فردي. لكن ذلك لا يُثنينا عن طرح بعض التساؤلات. هل يُمكن لآلة أن تُفكّر؟ ما هي قدرات الذكاء الاصطناعي في المرحلة الحاليّة من تطوّره؟ ما هو مدى استقلاليّته؟ وماذا عن التحكم البشري في كل ذلك؟

لقد أحدث الذكاء الاصطناعي الثورة الصناعية الرابعة، بل أكثر من ذلك، لأنه بصدد إحداث ثورة ثقافية. وإن كنا لا ننكر أنه سوف يغير مستقبلنا، لا نعرف كيف سيحدث ذلك. وهذا ما يجعله مغريا ومُخيفا في نفس الوقت.

بعد أن حققت الرسالة في هذا الموضوع، تُقدّم للقارئ ما يجب الاحتفاظ به بخصوص هذا الموضوع الجديد في مجال البحث العلمي، الذي يقع على الحدود بين الإعلامية والهندسة والفلسفة. وتقوم في الأثناء بتصحيح بعض الأمور. فالذّكاء الاصطناعي في وضعه الحالي، ونقول ذلك بكل وضوح، ليس قادرا على التفكير. وما زلنا بعيدين كل البعد عن امكانية تحميل كافة مُكوّنات الكائن البشري في حاسوب! إن الروبوت يخضع لجملة من الأعمال الرتيبة التي تسمح له بالتفاعل معنا معشر البشر، لكن ذلك لا يخول له ربط صلة اجتماعية حقيقية خارج الإطار الذي وضع لتحديد نطاق تفاعلاته.

ورغم ذلك، أصبحت بعض تطبيقات الذكاء الاصطناعي محلّ شك: منها تجميع معطيات فيها انتهاك للحياة الخاصة، وخوارزميّات للتعرّف على الوجه يُفترض استعمالها لتحديد سلوك عدواني أو فيه تحيز عنصري، وطائرات حربية دون طيّار وأسلحة فتّاكة مُستقلّة… يُثير الذكاء الاصطناعي العديد من المشاكل الأخلاقية، ولا شك أن خطورتها سوف تتفاقم في المستقبل.

وبينما يتقدّم البحث العلمي بسرعة فائقة في ما يتعلّق بالجوانب التقنية للذكاء الاصطناعي، نجده مُتعثّرا عندما يتعلّق الأمر بجوانبه الأخلاقية. صحيح أن العديد من الباحثين يعبرون عن قلقهم، وأن بعض الدول شرعت في التفكير الجدّي حول هذه المسألة، لكنه لا يوجد لحدّ اليوم أي إطار قانوني لتوجيه البحث مستقبلا على الصعيد العالمي. وتصرح أودري أزولاي، المديرة العامة لليونسكو، في هذا العدد من الرسالة: «من مسؤوليتنا إدارة حوار كوني ومستنير حتى نقتحم هذا العصر الجديد بأعين مفتوحة، دون أن نُضحّي بقِيمنا، وحتى نتيح إمكانية التوصّل إلى أرضية مشتركة من المبادئ الأخلاقية».

لكي يتطوّر الذكاء الاصطناعي بشكل مسؤول، من الضروري وضع آلية دولية تضبط معاييره: وهي مهمّة اضطلعت بها اليونسكو، ويسعى هذا العدد من الرسالة إلى مساندتها باقتراح بعض سبل التفكير فيها.