هكذا يصبح الذكاء الاصطناعي “كارثياً” في قطاع الشرطة

حذرت باحثة وخبيرة أمن معلوماتي في جامعة نيويورك الأمريكية من خطورة آليات الذكاء الاصطناعي في قطاع الشرطة وأمن الدولة على مستقبل البشر، في حال اتخاذ قرار مصيري قائم على برمجية خاطئة في أنظمة التعلم الآلي. وتسلط البروفيسورة كيت كروفورد الضوء على الخوف والقلق من النفوذ والسلطة والقوة الواحدة المتحكمة في هذا المجال، والتي قد ينتج عنها برمجة أنظمة الذكاء الاصطناعي بمعطيات وصيغ ناتجة عن تحيز بشري وتعصب وقرارات خاطئة، تؤدي في نهاية المطاف إلى مستقبل “مظلم” و”فاسد” و”غير عادل”.

وتُحذر كروفورد من دمج العنصرية مع طبيعة عمل آليات الذكاء الاصطناعي، القائمة على الشبكات العصبية التي تحاول محاكاة العقل البشري والكيفية التي يعمل بها دماغ الإنسان من أجل التعلم.

وهذه الشبكات العصبية يمكن تدريبها لتتعرف على الأنماط الموجودة في المعلومات من ضمنها الحوار والبيانات النصية والصور البصرية. وهذه المعلومات المعطاة لها مصدرها الإنسان، ومن المحتمل أن تنطوي على نفس الأخطاء والعيوب التي تعتبر جزءاً لا يتجزأ من طبيعة البشر.

والخوارزميات التي تُشكل هذه الشبكات العصبية يمكن أن تعزز من دون قصد التحيز البشري، ما يعطيها أهمية بالغة غير مبررة تؤثر في صنع القرارات.

تقول كروفورد إن “هذه الأنظمة تتعلم من البيانات الاجتماعية التي تعكس التاريخ البشري، بكل تحيزاته السلبية ومواقفه الإيجابية، بحسب صحيفة “وول ستريت جورنال” الأمريكية.

واستندت كروفورد على تجربة أجراها باحثون في مايو (أيار) 2016 بتدريب نظام ذكاء الاصطناعي على بيانات أنتجها أشخاص قائمة على الأخطاء والتمييز العنصري والتحيز، واستخدامه على نطاق واسع من قبل الشرطة الأمريكية، فكان ينحاز ضد الأمريكيين من أصول أفريقية.

وكانت المعدلات المتوقعة لإعادة الانحياز أكثر احتمالاً بين السود عنها بين البيض، وذلك لأن الصيغ التي اعتمد عليها الذكاء الاصطناعي كانت قائمة على التفرقة والعنصرية بين السود والبيض، وربط كلمتي السود مع السجن مثلاً.

زر الذهاب إلى الأعلى