خوارزميّات توظيف لا ترى النّساء
أُنجز هذا التقرير بدعم من أريج
يسلط التقرير الضوء على وجود تمييز على أساس النوع، لدى خوارزميات أدوات الذكاء الاصطناعي المُعدة لفحص السير الذاتية، عند اختيار الموظفين/ات؛ ما يقلل فرص النساء في الحصول على الوظائف مقارنة بالرجال.
متفائلة على الدوام، تواصل منّة فتحي رحلتها في البحث عن وظيفة مناسبة؛ فمهما كانت المتاعب في سبيل تحقيق ذلك، تعتقد منّة أن التطبيقات الذكية تُعزّز من فرصها في التقديم والمنافسة على الوظائف المتاحة.
في الوقت ذاته، تفصح منّة عن معاناتها منذ فترة، في رحلة البحث عن وظيفة: “قدمت في 75 وظيفة، ولم يتصل بي أحد ولا أعلم السبب، كلها تذهب في ثقب أسود”.
منّة ليست حالة وحيدة، فمثلها كثيرون؛ إذ يعتقد 88 في المئة من أصحاب العمل أنهم يخسرون المرشحين ذوي المؤهلات العالية الذين يُستبعدون من عمليات التوظيف بواسطة “ATS“؛ لأنّ المرشحين لا يقدمون سِيَراً ذاتية “متوافقة مع معايير البرنامج وكلماته المفتاحية المُبرمَجة”. ولذلك تُرفض 75 في المئة من السِّير الذاتية وتُحذف من قاعدة البيانات، ولا تُعرض مطلقاً على فريق التوظيف.
المفاجآت تتوالى
رغم معرفة رواد الأعمال بخسارتهم أفضل المرشحين، فإن 70 في المئة من الشركات الكبرى، و20 في المئة من الشركات الصغيرة والمتوسطة، و75 في المئة من مسؤولي التوظيف، يستخدمون حالياً برامج “ATS”، أو أيّ أداة توظيف أخرى تعمل بالذكاء الاصطناعي لمراجعة طلبات المتقدمين.
وبعيداً عن دهشة الجمهور لاعتقادهم أن التكنولوجيا صديقة للبشر، فإنّ برامج فحص طلبات التوظيف “ATS” تعتمد على ما تُزوَّد به من معلومات، فالتحدي لم يعد في أتمتة الوظائف، أو توفير النفقات؛ فكل مَن لم يتمّ تمثيله تمثيلاً دقيقاً وعادلاً داخل البيانات الضخمة، لن يستطيع الذكاء الاصطناعي معاملته بشكل حيادي لأنه “غير موجود” بالنسبة لنموذج البرمجة، والمعايير المسبقة الخاصة بتصنيفات الخوارزميات.
أجرت البروفيسورة إليزابيث كيلان، أستاذة القيادة والتنظيم بكلية إسيكس للأعمال، ومديرة مركز كرانفيلد الدولي، مقابلات مع 69 خبيراً من مطوري الذكاء الاصطناعي؛ لمعرفة موقفهم من استخدام التكنولوجيا في العمل، بما في ذلك التوظيف، ليكشف الخبراء عن أن أنظمة الذكاء الاصطناعي يمكنها أن تخلق تحيزاً خوارزمياً ضد المرأة، من خلال تخفيض تلقائي لرتبة المتقدمات من النساء، بسبب تدريبه مسبقاً على سِيَر ذاتية لم تتضمن النساء، حيث يتم التعلم الآلي من خلال التعرف على الأنماط السابقة، ومن ثم التّنبؤ بالأنماط الحالية والمستقبلية.
فالخوارزميات -في حد ذاتها- ليست متحيزة، ولكن نسبة تمثيل الرجال في البيانات المُدخلة تبلغ نحو 90 في المئة، وبالتالي تصبح النساء غير مرئيات للبرنامج.
نحن مَن يُعلّم الذكاء الاصطناعي
يؤكد المهندس أحمد عوض، خبير الذكاء الاصطناعي وتطوير برامج التعلم الآلي، وجود تحيز أثناء فرز السير الذاتية، يحدث عند تدريب النموذج من خلال مجموعة البيانات المُدخَلة، التي قد لا تحتوي على معلومات متساوية لكلا الجنسين، أو حتى تعطي تفاصيل أكثر أو أقل عن مجموعة دون أخرى، وبالتالي عندما تبدأ عملية التعلم الآلي، وتحليل الأنماط، والبحث عن السمات المشتركة؛ تصبح التنبؤات ضعيفة لفئة ما وأقوى بالنسبة للفئة الأخرى .
ويوضح عوض أن للتحيز أشكالاً متعددة، فربما يعطي الأولوية لجنس، أو فئة عمرية، أو عرق معين، فهذا لا يعني أن البيانات غير صحيحة، ولكنها غير متساوية لتتبع السرديات التي يغذيها القائمون على تدريب نموذج البرنامج.
وللتقريب، فإنه إذا ما غُذّيت بيانات البرنامج بأن الرجل هو من يمتلك شارباً (مثلاً)، فكل من لا يمتلك شارباً فهو من الفئة الأخرى! ويضخم الذكاء الاصطناعي التحيزات الموجودة بسبب التكرار، لأنه يستمد نماذج اللغة وموادها من المعلومات المنشورة بالفعل.
ويشير المهندس معتز عثمان، خبير تطوير البرامج الرقمية بشركة جو ميديا، إلى إمكانية الكشف عن التمييز أو التحيز المحتمل في أنظمة الذكاء الاصطناعي و”ATS”، باستخدام تقنيات ومنهجيات التدقيق الخوارزمي لتحليل مخرجات النظام، وللتحقق من وجود تباينات غير مبررة بين الفئات المختلفة .
العدالة الجندرية
ويتفق دكتور محمود خالد، الخبير التقني والمحاضر بكلية تكنولوجيا المعلومات بجامعة سيناء، بأن دقة هذه الأنظمة تعتمد على جودة وتنوع البيانات وتنظيفها من التحيزات، بسبب التغذية الراجعة للبشر. ولذلك لابد من دعم التشريعات واللوائح لضمان العدالة الجندرية في استخدام التكنولوجيا، إضافة إلى ضرورة توعية وتدريب الموظفين على كيفية التعامل مع برامج الفحص وتقييم البرامج بشكل مستمر .
الخوارزميات -في حد ذاتها- ليست متحيزة، ولكن نسبة تمثيل الرجال في البيانات المُدخلة تبلغ نحو 90 في المئة، وبالتالي تصبح النساء غير مرئيات للبرنامج.
ومن واقع أحد مشاريع تطوير وتدريب برامج الذكاء الاصطناعي، تقول تسنيم قورة، المتخصصة في برامج تحليل البيانات بمنحة ALX بإفريقيا، إن سيطرة الرجال على القوى العاملة، تعدّ من الأمثلة الواضحة على وجود التحيزات. فمن دون قصد، تُستخدم كلمات مباشرة بصيغة المذكر، لا تركز على المشاعر ولا تراعي الجوانب الإنسانية، وهي سمات تخص المجتمع الذكوري، ومن ثمّ تُدَّرب البرامج عليها، ناهيك عن تفضيلات المطورين والمراجعين.
وتقترح قورة استحداث مهنة التدقيق والمراجعة الأخلاقية من بعد مطوري ومدربي الذكاء الاصطناعي، كإجراء للتخفيف من التحيز والتمييز، لضمان التعامل بمسؤولية وعدالة في التطرق للموضوعات كافة وبشكل متساوٍ، مثلما يحدث في قضية برامج النسخ العربية، بسبب الاعتماد على المصادر الأجنبية.
إننا مكشوفون أمامهم
تضيف تسنيم قورة، المتخصصة في برامج تحليل البيانات بمنحة ALX بإفريقيا، أنه ليس هناك ما يسمى بـ “الصدفة”، و”الحظّ” في عالم الإنترنت، فالخوارزميات تتبعك في كل مكان لتسجل تفضيلاتك، بل وتتنبأ برغباتك وتفاعلاتك .
وبالرجوع لمتخصصي تحسين محركات البحث، أوضح عبد الحسيب طارق، مشتري وسائل إعلام (Media Buyer) ()، أن منصات مثل لينكدإن تقدم خيارات استهداف تفصيلية تسمح للمعلنين بالوصول إلى شبكة احترافية، والاستفادة من بيانات المستخدمين الدقيقة؛ لضمان وصول الإعلان عن الوظيفة إلى الفئة المستهدفة من المهنيين .
ويشير طارق إلى أن الخوارزميات قد تؤدي دوراً مهماً في تقديم إعلانات الوظائف، أو انحرافها حسب الجنس أو العرق، بسبب التحسين الخوارزمي الخفي الخاص بالمنصات، والذي يعمل دون الرجوع لموافقة المعلنين. ويتمّ اختيار شرائح الجمهور طبقا لشخصية المعلن، وتحليل بيانات السوق والمنافسين.
معوقات إضافية للمرأة
ووفقاً لليونسكو، فإن النساء أقل بنسبة 25 في المئة من الرجال في معرفة كيفية الاستفادة من التكنولوجيا الرقمية، 12 في المئة فقط من الباحثين في مجال الذكاء الاصطناعي، وستة في المئة من مطوري البرمجيات هم من النساء. فعندما يتعلق الأمر بالأدوار الفنية الخاصة بعلوم الكمبيوتر والبرمجة وعلوم البيانات وهندسة البرمجيات؛ يشغل الرجال 75 في المئة من الوظائف.
لا تزال منّة تحاول الحصول على وظيفة قائلة: “ربما ارتكبت خطأً ما في السيرة الذاتية، فليس لديّ تجربة سلبية أو حتى إيجابية لأرويها، فكل شيء ينتهي عند حدود التقديم”، ولكنها ستكمل السعي للحصول على فرصة يوماً ما.