معضلات تحديد معايير أخلاقية للذكاء الاصطناعي

يتفق البشر على السعي إلى الخير والعدل والجمال، لكنهم كثيرًا ما يختلفون حول تحديد ما هو صواب والسبل المثلى لتحقيق الخير والعدل وتتأثر الآراء بعوامل كالميل الطبيعي لتحقيق المصالح الذاتية وبالتحيزات العرقية، وهو موضوع نظريات فلسفية ونقاشات عامة وربما يقف الخلاف وراء نزاعات أشد خطرًا وحروب.

وفي الوقت الراهن تزداد هذه المعضلات أهمية وتعقيدًا في ظل الحاجة الملحة إلى وضع مبادئ أخلاقية تُوجِّه عمل الخوارزميات وبرامج الذكاء الاصطناعي، وهو أمر يحمل تساؤلات أكثر مما يُقدم إجابات شافية، وربما يتشابه مع تربية الأطفال وحرص الوالدين على التحكم في المؤثرات التي يتعرض لها أطفالهما وحمايتهم دون إفراط. وبالمثل تتعلم أنظمة الذكاء الاصطناعي من مجموعة بيانات، ومثلًا عند تطوير خوارزمية للتعرف على صور القطط تدرس آلاف الصور التي تتضمن قططًا وأشياءً أخرى وتتعلم عبر التجارب وتصويب الأخطاء تمييز الفارق فيما بينها.

لكن رحلة التعلم قد تنحرف عن مسارها المنشود كما حدث مع روبوت الدردشة “تاي” Tay الذي أطلقته “مايكروسوفت” في موقع “تويتر” هذا العام ليتعلم من خلال الحوار مع البشر، وخلال أقل من يوم واحد تلاعب به البعض لدفعه إلى كتابة عبارات عنصرية.

وفي بعض الحالات تُبرِز الخوارزميات تحيزات خفية في المجتمع. وقالت الباحثة في الذكاء الاصطناعي في “آي بي إم”، فرانشيسكا روسي: “لا نحتاج إلى تدريب خوارزمياتنا فحسب، وإنما أيضًا إلى الانفتاح على احتمالات أن تعلمنا أشياءً عن أنفسنا”.

ومن بين التجارب التي حيرت علماء الأخلاق على مدار عقود “إشكالية العربة”، وتبحث الخيار السليم في حالة عربة قطار تُوشك على دهس خمسة أشخاص لا يمكنهم التحرك، والطريقة الوحيدة لإنقاذهم هي تغيير طريق العربة الأمر الذي سيتسبب في مقتل شخص واحد.

وفي التعامل مع هذه المعضلة لن تنفع النظريات الأخلاقية وقاعدة ألا تتسبب الروبوتات بقتل البشر أو إلحاق الضرر بهم، كما أن تحقيق أكبر قدر من النفع وتقليل الأضرار إلى حدها الأدنى، أي تغيير مسار العربة لقتل شخص واحد، ليس خيارًا يسيرًا.

ويفرض صعود الذكاء الاصطناعي تعاملًا أكثر جدية مع هذه المعضلات الأخلاقية والإجابة على أسئلة مثل: هل ينبغي على السيارات ذاتية القيادة التسبب بقتل ركابها لإنقاذ المشاة؟، وإلى أي حد تحتسب الطائرات بدون طيار العسكرية الأضرار الجانبية التي قد تلحق بمدنيين عند تنفيذ عمليات قتالية؟، وهل ينبغي منح الروبوتات سلطة اتخاذ قرارات تتسبب في موت أشخاص؟ وترى روسي أن البرمجيات ربما تُساعد البشر في الحصول على رؤى جديدة لهذه المسائل والإجابة عليها.

وعلاوةً على صعوبة حسم المبادئ الأخلاقية، تتغير القواعد المجتمعية بمضي الوقت، كما تختلف من مجتمع إلى آخر، وتتباين حسب السياقين الاجتماعي والتاريخي. وفي بعض الحالات سيكون على المطورين وضع قواعد صارمة تحكم الخوارزميات، وفي غيرها ستُعتبر مجرد تفضيلات ضمن خيارات مقبولة، وقد تختلف برمجة الخوارزميات المستخدمة في دولة أو مدينة عن أخرى مثلما تتباين الآن القوانين من بلدٍ لآخر.

وتزداد صعوبة المسألة حين تتخذ الخوارزميات قرارات ترتبط بتخصصات مهنية متباينة كما هو الحال في الرعاية الصحية، فهل سيكون عليها مثلًا وضع التكاليف في الاعتبار عند اقتراح علاج ملائم للمريض، وهل ستتدخل شركات التأمين في برمجة الخوارزميات.

وتفوق حاجة الخوارزميات إلى اتباع معايير أخلاقية مرتفعة حاجة البشر. وبحسب ما قالت روسي، يفترض الأشخاص أن لدى غيرهم قدرات مماثلة على الاستدلال السليم والمعايير الأخلاقية بعكس الآلات. ولا يُطلب من البشر تفسير جميع قراراتهم وتوضيح أسبابهم سوى عند وقوع الأخطاء.

ويرى جوش ساتون، الرئيس المسؤول عن البيانات والذكاء الاصطناعي في شركة “بابليكس سابينت” Publicis.Sapient لتكنولوجيا المعلومات والتحول الرقمي، أن من الضروري السماح بمراجعة المسار الأخلاقي والبيانات التي تتعلم منها الخوارزميات وتقود قرارتها. ولفت إلى تفضيل البشر قدرًا أقل من الشفافية في بعض الحالات، فيرحبون مثلًا بتوظيف الخوارزميات بيانات عن سلوكياتهم وتنقلاتهم دون أن يسمحوا لغيرهم بالحصول عليها؛ بسبب احتمالات إقدام البشر على إساءة استغلال البيانات وتفوق البرمجيات والآلات في الالتزام بمعايير صارمة.

وتحتاج هذه القضايا إلى مزيدٍ من البحث والمناقشة بين الشركات والأكاديميين والحكومات والقطاعات التي تتأثر بالذكاء الاصطناعي، وهي مسؤولية تقع على عاتق المجتمع بأكمله، وينبغي منحها اهتمامًا تُعادل ما تناله معايير الأنظمة السياسية والتعليمية.

المصدر

الصورة