يحذر خبراء الذكاء الاصطناعي من القرارات العنصرية التي تتخذها الآلات في مكان العمل

أصدر خبير بارز في الذكاء الاصطناعي تحذيراً صارخاً من استخدام الخوارزميات المتحيزة جنسانياً لاتخاذ قرارات حاسمة.

بدأت الخوارزميات بالفعل في الإشراف على العمليات التي تتراوح من طلبات العمل وتطبيقات الهجرة إلى شروط الرعاية وتطبيقات المزايا ، ويستكشف الباحثون العسكريون حتى ما إذا كانت تقنية التعرف على الوجه يمكن أن تسمح للطائرات بدون طيار ذاتية القيادة بتعريف نفسها ، حسبما ذكرت صحيفة ديلي ميل.

بينما قال نويل شاركي ، خبير الكمبيوتر في جامعة شيفيلد ، إن الخوارزميات متحيزة وغير جديرة بالثقة ، دعا إلى منع الذكاء الاصطناعي من تغيير حياة الناس ودعا إلى اختبار قوي قبل استخدامه في الأماكن العامة.

ويجب تعليق جميع الخوارزميات التي تؤثر على حياة الناس ، قائلة ، “إنها لا تعمل بشكل جيد ، وقد ثبت أنها متحيزة في جميع المجالات.”

وأضاف: “هناك الكثير من التحيز في الوقت الحالي ، من مقابلات العمل إلى الرعاية الاجتماعية إلى تحديد من يجب الإفراج عنه بكفالة ومن يجب أن يذهب إلى السجن”.

وشدد على أنه “من الواضح أنه يتعين علينا حقًا التوقف عن استخدام خوارزميات اتخاذ القرار” ، كما تحدث البروفيسور شاركي مع بعض المؤسسات التكنولوجية ووسائل الإعلام الاجتماعية الرائدة في العالم ، بما في ذلك Facebook و Google ، حول التحيزات التي نراها حاليًا في الذكاء الاصطناعي مناقشة. منظمة.

وقال: “إنهم يعلمون أنها مشكلة ، وكانوا يحاولون إيجاد حل خلال السنوات القليلة الماضية ، لكن لم يتم العثور على شيء” ، مضيفًا ، “يجب أن تخضع هذه الخوارزميات لنفس الاختبارات الصارمة مثل أي عقار جديد من قبل. في نهاية المطاف متاحة للاستهلاك البشري والإنتاج. “.

في جميع أنحاء العالم ، بدأت الخوارزميات في الإشراف على عمليات مختلفة ، بما في ذلك طلبات العمل والهجرة وشروط الرعاية وتطبيقات المزايا.

يستكشف الباحثون العسكريون حتى ما إذا كانت تقنية التعرف على الوجه يمكن أن تسمح للطائرات بدون طيار بتحديد أهدافها.

قال نويل شاركي ، خبير الكمبيوتر في جامعة شيفيلد بالمملكة المتحدة ، لصحيفة الغارديان ، إن الخوارزميات متحيزة ولا يمكن الوثوق بها.

دعا البروفيسور شاركي إلى إجراء اختبارات قوية قبل الاستخدام العام للذكاء الاصطناعي.

“يجب التحكم في جميع الخوارزميات التي تؤثر على حياة الناس. لماذا؟ لأنها لا تعمل ، وقد ثبت أنها متحيزة في جميع المجالات. هناك الكثير من التحيز يحدث الآن ، من مقابلات العمل إلى التواصل الاجتماعي وقال “يهتم ويقرر من يذهب إلى السجن”.

كشفت صحيفة الغارديان أن البروفيسور شاركي ناقش التحيزات التي نراها حاليًا في الذكاء الاصطناعي مع بعض المؤسسات التكنولوجية ووسائل التواصل الاجتماعي الرائدة في العالم – بما في ذلك Facebook و Google.

قال شاركي: “إنهم يعلمون أنها مشكلة وكانوا يبحثون بشكل عادل عن حل خلال السنوات القليلة الماضية ، لكنهم لم يجدوا حلاً”. – اختبار متدرج على غرار الأدوية. ”

يتطلب اختبار هذه الأنظمة وتنقيحها بواسطة مئات الآلاف أو الملايين من الأشخاص حتى لا تظهر أي تحيز داخلي. أوضح شاركي أن هذه الخوارزميات يجب أن تخضع لنفس الاختبارات الصارمة مثل أي دواء جديد يتم إنتاجه للاستهلاك البشري.

وأشار شاركي أيضًا إلى أن اهتمامه بالانحياز الحسابي تداخل مع عمله السابق في الحركة ضد الأسلحة المستقلة وما يسمى بـ “الروبوتات القاتلة”. وقال “في الوقت الحالي ، فإن الفكرة الجديدة المتمثلة في إرسال سلاح ذاتي التشغيل وإيجاد هدف واحد مع التعرف على الوجه دون أي سيطرة بشرية مباشرة هي أكثر خطورة بكثير”.

 

يحذر خبراء الذكاء الاصطناعي من القرارات العنصرية التي تتخذها الآلات في مكان العمل