كيف سيفوز الذكاء الاصطناعي بثقة البشر؟

صاحبت مشاعر القلق بداية الذكاء الاصطناعي، وشارك فيها بدرجات متفاوتة خبراء التكنولوجيا والعلوم الإنسانية الذين عبروا عن مخاوفهم حيال الآثار المحتملة للتكنولوجيا الجديدة على المجتمعات، وكذلك أفلام السينما التي عرضت تصورات أكثر حدة وتشاؤمًا. وهو الحال مع أي تغيير تكنولوجي جديد؛ فيُثير في البداية مشاعر الارتباك قبل أن يتطور وينضج بالقدر الكافي ويحظى بثقة البشر.

ويرى جورو بانفار، الرئيس العلمي للحوسبة الإدراكية في شركة “آي بي إم”، أن لدى الذكاء الاصطناعي القدرة على نفع المجتمعات أكثر من أي تكنولوجيا سابقة، وتتعلم الأنظمة الذكية من قدرٍ هائل ومعقد من البيانات لتحولها إلى أفكار يُمكن تنفيذها في مجالات مختلفة من الصحة والإدارة إلى دعم قرارات الأفراد في الحياة المهنية والشخصية، لكن الاستفادة الحقيقية من الذكاء الاصطناعي تستلزم أولًا الثقة بقدراته.

وبمضي الوقت ستفوز أنظمة الذكاء الاصطناعي بثقة البشر، لكن ذلك لا يعني أن الوقت وحده كفيل بحل هذه الأزمة، وتتمثل أولى خطوات العلاج في الاعتراف بوجود تحيزات والسعي للحد منها.

وقد يرجع التحيز في أنظمة الذكاء الاصطناعي إلى البيانات المستخدمة في تدريبها أو الخوارزميات؛ فقد تتضمن البيانات تحيزًا -مثلًا- ضد فئات سكانية بسبب ميول المسؤولين عن جمع البيانات أو افتقار البيانات إلى الدقة اللازمة. كما قد يكمن التحيز في التعليمات البرمجية والخوارزميات سواءً قصد المطورون ذلك أم لا. ويعتقد أغلب الخبراء أن فحص أنظمة الذكاء الاصطناعي يكفل اكتشاف هذه المشكلات مبكرًا.

وتُشكل إدارة التحيز جزءًا من قضية أكبر؛ وهي مراجعة عمل الخوارزميات وإخضاعها للمساءلة، ويعني ضرورة تقديم أنظمة الذكاء الاصطناعي تفسيرًا لنتائجها وقراراتها ليتمكن البشر من تقييم دوافعها. وتعتمد تخصصات كثيرة مثل الطب والقانون والخدمات المالية المراجعات كممارسة معتادة لتوفير الشفافية في اتخاذ القرارات وتحديد الالتزامات والمسؤوليات.

وفي حالات كثيرة ربما تحتاج أنظمة الذكاء الاصطناعي إلى تفسير قراراتها من خلال تفاعلات حوارية بدلًا من التقارير. كما ينبغي أن تتوافر على الآليات اللازمة لإضافة مجموعة من القيم الأخلاقية المناسبة للسياق مثل الثقافة والتخصص ونوع المهمة، وهو أمر أقل صعوبة مما يبدو عليه؛ نظرًا لأن الأنظمة الأخلاقية تعتمد، مثل الخوارزميات، على قواعد محددة، ويُمكن إضافة هذه القواعد خلال مراحل التطوير والنشر والاستخدام، كما تستطيع أنظمة الذكاء الاصطناعي مع مضي الوقت والتعلم ملاحظة السلوكيات الإنسانية وسد بعض الثغرات.

ويتعين على مطوري الأنظمة الذكية مراعاة هذه الأمور، وتُدرك صناعة التكنولوجيا هذا الجانب، ويتضح ذلك في تعاون شركات متنافسة مثل “آي بي إم” و”جوجل” و”فيسبوك” و”أمازون” تحت عنوان “شراكة حول الذكاء الاصطناعي” Partnership on AI لتوجيه التطوير الأخلاقي للذكاء الاصطناعي.

ويقع جزءٌ من المسؤولية على عاتق قيادات المؤسسات التي تستخدم الذكاء الاصطناعي، وينبغي عليهم اعتبار الثقة والمساءلة ضمن معايير استخدام الأنظمة الجديدة، بالإضافة إلى البحث الجدي في دور هذه التقنيات ضمن مؤسساتهم والتعاون مع الشركات المطورة للتكنولوجيا لاكتشاف أية سلوكيات غير مرغوب فيها وتصويبها عند الحاجة.

ويرى الكاتب أن هذه التحديات لا يجب أن تقود إلى التخلي عن الذكاء الاصطناعي، فيدفع البشر بالفعل ثمنًا باهظًا يوميًا بسبب ما يجهلونه وتستطيع أنظمة الذكاء الاصطناعي تقديمه كتحليل حالة كل مريض واكتشاف المخاطر الكامنة في الاقتصاد العالمي والعثور على الموارد الطبيعية.

ويُعد الذكاء الاصطناعي تكنولوجيا بالغة القوة لا يُمكن إنكار تأثيرها، ولذلك يتوجب توخي الحذر الشديد في تطويرها واستخدامها، والالتزام بتوظيفها لعلاج مشكلات مجتمعية، وتطويرها بطريقة تكفل الثقة وتحمي الإنسانية من أية تداعيات سلبية.

الصورة