العديد من أنصار الذكاء الاصطناعي يعتقدون بأن القرارات التي سوف تتخذها الآلة بالمستقبل هي خالية من الخطأ البشري، التحيز، أو التمييز التي من الممكن ان يقع فيها الانسان، لكن للأسف هذا الأمر غير صحيح. التمييز و التحيز في تعلم الآلة وعلم البيانات يعد من أهم الأمور التي تعمل الشركات على تجنبه خلال تطويرمنتجاتها.
بشكل مختصر، التمييز يعني معاملتك بشكل سيء أو مختلف مقارنة مع أشخاص اخرين لديهم نفس المؤهلات التي تمتلكها.
حددت بعض القوانين عدة عوامل أساسية يجب عدم التمييز فيها بين الأشخاص وهي:
التمييز في الذكاء الاصناعي أو علم البيانات يعني أن الخوارزمية المستخدمة في أتمتة أو اتخاذ قرارات معينة تعتمد على عوامل تمييزية وتقوم باستخدامها للتمييز بين الأفراد!
دعونا نقوم بمراجعة هذه الحالة العملية (التخيلية) لكي نتعرف أكثر على الأسباب التي تؤدي لحصول هذا التمييز.
لاحظت الشركة X بأنها تستهلك الكثير من الوقت والموارد البشرية حتى تقوم بعملية فرز واختيار الأفراد المتقدمين لوظيفة معينة وترشيحهم لمقابلة العمل. وفي معظم الأحيان قد يصل عدد المتقدمين لوظيفة واحدة المئات من الأشخاص.
تطوير نظام يقوم بتصفية وفرز المتقدمين بشكل أوتماتيكي وترشيح أكثر 10 أشخاص ملائمين لهذه الوظيفة. حتى يتم تحقيق ذلك، سوف تقوم الشركة باستخدام أحد خوارزميات تعلم الآلة (Machine Learning).
كأي خوارزمية تعتمد على تعلم الآلة، فإنها تحتاج إلى البيانات حتى تقوم بعملها بشكل مناسب. ولحل المشكلة السابقة قامت الشركة باستخدام البيانات القديمة لقرارات عمليات التوظيف التي قامت بها سابقاً.
يوضح الجدول التالي جزء من البيانات المستخدمة:
الجنس | تاريخ الولادة | الجنسية | رمز مكان السكن | الحالة الاجتماعية | سنوات الخبرة | التحصيل العلمي | علامة الفحص الاختباري | السيرة الذاتية | هل تم توظيفه؟ |
ذكر | 1990 | AAA | 123 | غير متزوج | 3 | بكالوريوس | 8 | CV | نعم |
انثى | 1986 | AAA | 123 | غير متزوجة | 4 | بكالوريوس | 8 | CV | |
انثى | 1992 | BBB | 1234 | غير متزوجة | 4 | بكالوريوس | 8 | CV | نعم |
ذكر | 1985 | SSS | 123 | متزوج | 3 | ماجستير | 9 | CV | |
ذكر | 1990 | SSS | 1234 | غير متزوج | 3 | ماجستير | 10 | CV |
ملاحظة
CV: تدل ضمنياً على النص المستخدم في كتابة السيرة الذاتية، لكننا لن نتطرق هنا لكيفية توصيف النصوص واستخدامها في الخوارزمية وسنكتفي بكتابة كلمة CV.
لتطوير نموذج يقوم بتحديد في ما إذا كان المتقدم لوظيفة معينة سوف يتم توظيفه أو رفضه بناءً على البيانات السابقة، يتم استخدام خوارزميات تدعى بخوارزميات التصنيف والتبؤ. وبذلك سوف تقوم الشركة بتزويد الخوارزمية ببيانات المتقدمين للوظيفة الجديدة وسيتم فلترة جميع المتقدمين بشكل سريع وتأهيل الأشخاص ال 10 التي تنبأت الخوازمية بأنهم سوف يكونوا ماهلين لهذه الوظيفة.
تم استخدام النظام السابق في عملية فلترة المتقدمين لوظائف الشركة لفترة سنة كاملة وكانت الشركة سعيدة بالنتائج التي حصلت عليها من حيث الوقت والموارد البشرية التي تم ترشيدها بسبب استخدام هذا النظام.
لاحظت الشركة بعد هذه الفترة بأن أغلب الحاصلين على الوظائف بعد استخدام النظام السابق هم من الشباب، الغير متزوجين ومن جنسيات محددة. واكتشفوا بأن الخوارزمية التي استخدموها في بناء النظام تقوم بتمييز المتقدمين بناءً على الجنس, الجنسية، العمر، والحالة الاجتماعية بغض النظرعن المؤهلات العلمية وعلامة الفحص الاختباري الذي قاموا به!
بالعديد من الدول وخاصة الأوروبية، يوجد هنالك قوانين صارمة بخصوص التمييز ضد الأفراد، لذلك تم توقيف النظام بشكل نهائي حتى يتم معرفة الأسباب العلمية لهذا التمييز وكيف يمكنهم بناء تطبيق يستخدم خوارزميات تعلم الآلة بدون أن يقوم بأي نوع من التمييز ضد المتقدمين!
سوف نتعرف في مقالة اخرى عن أسباب كيفية كشف التمييز في خوارزميات تعلم الآلة والحد منه.
برأيكم كيف يمكن تجنب مثل هذه الأخطاء؟
سعيد بالإجابة على جميع استفساراتكم عبر التعليقات. أو يمكنكم إرسال السؤال عبر صفحة الفيسبوك مباشرةً.
مهندس برمجيات،ماجستير قيد الإنجاز في علم البيانات في University of Southampton أعشق تحليل وتفسير البيانات لجعل الأعمال تتخذ قرارات أفضل. ومهتم بكل ما يتعلق بـ الذكاء الاصطناعي و تعلم الآلة.
1 Comment
من الممكن تسجيل البيانات التي تسببت في التمييز كتعليقات او لا تتضمن الدوال الشرطية الا اللوازم كالعمر الذي لا يتجاوز عمر التقاعد وهكذا