مواجهة عنف الشرطة الأمريكية بالذكاء الاصطناعي

خلال الأعوام الثلاثة الأخيرة اكتسبت قضية عنف الشرطة في الولايات المتحدة الأمريكية أهميةً مُتزايدة في ظل تكرار حوادث مثل التنميط العنصري وإطلاق النار غير المُبرر.

وسعيًا لعلاج المشكلة تختبر إدارة الشرطة في مدينة شارلوت ومقاطعة كلينبرج في ولاية كارولينا الشمالية بالتعاون مع فريق بحثي من “جامعة شيكاغو” نظامًا يعتمد على تعلم الآلة، وهي إحدى تقنيات الذكاء الاصطناعي. ويُحلل النظام البيانات ليرصد العلامات الدالة على احتمال تورط أحد الضباط في سلوكيات غير مهنية، بما يسمح للإدارة بالتدخل المُبكر قبل حدوث خطر فعلي.

وتكمن فكرة النظام الجديد في محاولة منع الضباط الذين يعانون من إجهاد أو ضغوط العمل من الإقدام على سوء التصرف والعنف، وهو ما يحدث أحيانًا بعد تعامل الضابط مع حالات متعددة للانتحار والعنف المنزلي.

ومن المُفترض أن تنجح أنظمة الإنذار المُبكر في تحديد أفراد الشرطة ممن أنجزوا في الآونة الأخيرة مهامًا صعبة، وتُجنبهم الاستجابة للمكالمات والقضايا الحساسة الأخرى. ولا يُعد لجوء الشرطة إلى أنظمة التحذير المُبكر أمرًا جديدًا، لكن في كثير من الأحيان اقتصرت على توظيف أشخاص لمراقبة الضباط الذين يظهر تعرضهم لضغوط كبيرة.

ويشمل النظام الذي يجري تجربته في شارلوت جميع سجلات إدارة الشرطة عن كل فرد من ضباطها، ومنها تفاصيل عن حوادث سوء التصرف السابقة واستخدام الأسلحة النارية وعدد حوادث الانتحار والعنف المنزلي التي تعامل معها. ورصد النظام 48 من بين 83 من الحوادث السلبية التي وقعت من عام 2005 حتى الآن، وهو ما يتجاوز بنسبة 12% نتائج نظام التحذير المُبكر المُستخدم حاليًا في إدارة شرطة شارلوت ومكلينبرج.

وعلاوةً على ذلك، توصل النظام الجديد إلى مُعدل أقل بنسبة 32% من أخطاء الإيجابية الكاذبة، أي نسبة الضباط التي يُشير البرنامج إلى تعرضهم لضغوط ولا يتصرفون بطريقة عنيفة في الواقع.

وقال رياض غني، مدير “مركز علوم البيانات والسياسة العامة” في “جامعة شيكاغو”، أن الأنظمة القائمة التي تدعي إنجاز هذه المهمة تُظهِر تعرض جميع الضباط لضغوط، حينها يصعب التدخل لإصلاح الأمور.

ومن المُقرر أن يعرض غني وزملاؤه نتائج التجربة خلال “المؤتمر الدولي لاكتشاف المعرفة والتنقيب في البيانات” الذي يُعقد هذا الشهر في مدينة سان فرانسيسكو. وفي الوقت الراهن يختبرون النظام في إدارات أخرى للشرطة منها في مقاطعة لوس أنجليس.

ومع دور أنظمة الذكاء الاصطناعي في رصد الأخطار المحتملة، يكمن السؤال الأهم فيما ينبغي القيام به إذا ما جرت الإشارة إلى ضابط باعتباره مصدرًا محتملًا للخطر بإقدامه على سلوك سلبي مع الجمهور.

ولا يزال فريق البحث في المراحل الأولى من التعاون مع إدارة الشرطة في مدينة شارلوت ومقاطعة مكلينبرج للتوصل إلى التدخل الأكثر مُلائمة. وربما يكون تقديم مسار تدريبي أو نقاش مع المدير أو الاكتفاء بإجراء غير مُباشر مثل تغيير تخصص عمل الضباط لمدة أسبوع.

ويعتقد غني بضرورة تولي البشر تصميم التدخلات المحتملة وتنفيذها، ويرى أن تولي الأشخاص إجراء المحادثات يُقلل احتمالات تطور الأمور على غير ما يُرام.

وأعرب فرانك باسكوال، الذي يدرس التاثير الاجتماعي للخوارزميات في “جامعة ميرلاند”، عن شعوره الحذر بالتفاؤل. وقال أن الترتيب الحسابي أو المعتمد على الخوارزميات يُزعجه في الكثير من مناحي الحياة، لكن قد يكون نافعًا في سياق الشرطة.

وقال باسكوال أنه على الرغم من حداثة هذا النظام لمُعالجة سوء سلوكيات الشرطة، إلا أن الأنظمة الأقدم تسببت على الأرجح في المشكلة، وبذلك يُمكن اعتباره محاولة لتصويب إخفاق خوارزمي سابق. وأضاف أن كثيرين يُرجعون مشكلة الاحتكاك بين الأقليات والشرطة إلى نظام “كومب ستيت” CompStat الذي يُكافئ الضباط الذين يقومون بالعدد الأكبر من الاعتقالات.

ويختصر “كومب ستيت” اسم “إحصاءات الحاسب”، وهو نظام للإدارة والمُساءلة في الشرطة، واسُتخدم لتطبيق نظرية “النوافذ المُحطمة” التي تقترح التعامل الجدي مع المخالفات البسيطة مثل التخريب لدعم أجواء القانون والنظام العام والحد من الجرائم الأخطر. ويرى الكثير من الباحثين أن هذا النهج قد تسبب في إحداث التوتر الخطير القائم بين الشرطة ومجتمعات الأقليات.

ولفت باسكوال إلى أن النظام الذي طورته “جامعة شيكاغو” كغيره من الأنظمة من المُحتمل أن يتضمن بيانات يشوبها الانحياز، كما هو الحال بوجود ضابط أسود في مجتمع يغلب عليه البيض، وبالتالي من المُرجح أن يصيبه عدد أكبر من الشكاوى مُقارنةً بزميله الأبيض؛ نظرًا لأن الشرطة قد تكون مجال للممارسات العنصرية. وأشار إلى أهمية منح ضباط الشرطة مجالًا للتدارك والتصويب دون أن يقتصر الأمر على معالجة الأرقام.

المصدر والصورة