Bold von Bild von Pixabay
13/02/2024

التمييز الرقمي ضد المهاجرين واللاجئين وإمكانية الوقاية منه!

تجري حاليا مفاوضات على مستوى الاتحاد الأوروبي لوضع لائحة جديدة لتنظيم استخدام الذكاء الاصطناعي. موضوع واحد: (التمييز الرقمي – بواسطة الخوارزميات)! إذ يمكن للأنظمة الخوارزمية أن تتسبب بالتمييز ضمن مجموعة واسعة من المجالات، ما يؤثر على قرارات حيوية في حياة الأفراد. هذا يظهر من خلال أمثلة واقعية، كبرنامج التعرف على الوجه. وكثيراً ما  تستخدم الخوارزميات في تقييم طلبات العمل، والإسكان، والتأمين، والإعلانات، والتشخيص الطبي، بالإضافة إلى استخدامها بالإجراءات الإدارية وأمور الأمان والشرطة.

التمييز الرقمي.. التكنولوجيا لردع طالبي اللجوء!

تعمل تدخلات التكنولوجيا الرقمية بشكل متزايد على تشكيل وتنفيذ سياسات إدارة الهجرة واللجوء في الدول. تقوم منظمة العفو الدولية وغيرها من منظمات المجتمع المدني منذ فترة طويلة بتوثيق الانتهاكات الجسيمة لحقوق الإنسان. التي ترتكبها الحكومات لردع الأشخاص المتنقلين ومنعهم وصدهم ومعاقبتهم، بمن فيهم اللاجئون وطالبو اللجوء! فقد أصبحت هذه السياسات والممارسات في الآونة الأخيرة متطورة مع قدرات التكنولوجيا الرقمية سريعة التوسع التي طورتها شركات التكنولوجيا الخاصة.

تزايد سلسلة التهديدات المتعلقة بحقوق الإنسان

أدى انتشار التقنيات الرقمية وما يسمى بتكنولوجيا “الحدود الذكية” إلى خلق أشكال من الشراكات بين القطاعين العام والخاص. ومعها سلسلة من التهديدات المتعلقة بحقوق الإنسان. من المراقبة الإلكترونية والأقمار الصناعية والطائرات دون طيار، إلى التعرف على الوجوه و”أجهزة كشف الكذب” ومسح قزحية العين. هناك حاجة متزايدة وملحة للتحقيق في هذه التقنيات وفهم تأثيرها. تعمل التقنيات الرقمية على تعزيز الأنظمة الحدودية التي تميز على أساس العرق والأصل القومي والمواطنة. تذكر منظمة العفو الدولية في تقريرها الأخير أن العنصرية متأصلة بعمق في إدارة الهجرة وأنظمة اللجوء. وتخاطر هذه التكنولوجيات بإدامة وإخفاء التحيزات العنصرية والتمييز تحت ستار الحياد والموضوعية المتجذرين في الممارسات التاريخية والاستعمارية للإقصاء العنصري. هذا الاستخدام يخلق أشكالا مختلفة من التمييز.

تأثير التكنولوجيا ومخاطر الإقصاء والتمييز

تعمل الكثير من المنظمات لإيجاد ضمانات أكثر قوة ضد هذه التكنولوجيات. إذ لا تزال مخاطر حقوق الإنسان على المهاجرين واللاجئين وطالبي اللجوء في ازدياد مطرد وتستمر في إدامة الإقصاء العنصري والتمييز. تدرك منظمة العفو الدولية أن التكنولوجيا الرقمية يمكن أن تدعم احترام حقوق اللاجئين والمهاجرين وحمايتها وتعزيزها في حالات معينة. على سبيل المثال من خلال ربط الأشخاص المتنقلين بالخدمات الحيوية والمعلومات الموثوقة.

ومع ذلك، فإنها لا تزال تنطوي على مخاطر، بما في ذلك الحق بالخصوصية وعدم التمييز. وينظر إلى الأشخاص المتنقلين بشكل متزايد على أنهم “يشكلون تهديدًا أمنيًا”. ويتم تنفيذ تدابير “الأمن القومي” باستمرار لاستبعاد الأشخاص على أساس عرقهم وإثنيتهم ودينهم. فعلى سبيل المثال، المراقبة غير المتناسبة وغير القانونية وغيرها من التدابير التي يتزايد استخدامها في التنميط العنصري وحفظ الأمن، تؤدي إلى انتهاكات لحقوق الإنسان وتديمها! كما يتم اعتمادها بشكل متزايد لاستخدامها ضد طالبي اللجوء واللاجئين والمهاجرين على نطاق واسع.

هذه التدابير واستخدامات التقنيات الرقمية هي منحدر زلق نحو تآكل حماية مجموعات البشر المتنقلة. وتؤكد منظمة العفو الدولية أن الجمع بين مصالح الشركات التكنولوجية، وعدم الاحترام العام لحقوق الأشخاص المتنقلين، والعنصرية والتمييز المنهجيين، كل ذلك يمكن أن يسمح للتكنولوجيا بالتطور بشكل أسرع من تطور الضمانات والرقابة الكافية المطلوبة لمحاسبة قطاع التكنولوجيا المتنامي باستمرار.

الذكاء الاصطناعي وحماية الحقوق الأساسية

تعتمد نظم صنع القرار الآلي على الخوارزميات الثابتة وخوارزميات التعلم، ما يشمل الذكاء الاصطناعي. إذ يمكنها دعم أو تسليم قرارات مهمة! كما يظهر أن الخوارزميات قد تتسبب بوقوع التمييز بسبب البيانات غير الكاملة أو الخاطئة، ما يؤدي لصعوبة بتحديد كيفية حدوث التمييز وفهم القرارات الآلية. ويصعب على المتضررين فهم حدوث التمييز وكيفية حدوثه أصلاً، وهذا يجعل التحقق والإثبات في غاية الصعوبة! مع ضرورة وجود تشريعات لحماية الأفراد من التمييز. لذا هناك مستحقات قانونية لمراقبة التمييز الخوارزمي، مع جهود على مستوى الاتحاد الأوروبي لتنظيم استخدام الذكاء الاصطناعي وحماية الحقوق الأساسية. لكن اللائحة القانونية قيد النقاش، وتشمل استثناءات لاستخدام الذكاء الاصطناعي الخطرة، مع انتقادات حول التنظيم بالمجالات الحيوية وضرورة مراعاة حقوق الأفراد.

مخاطر التمييز من خلال استخدام الخوارزميات

كانت الوكالة الاتحادية لمكافحة التمييز في ألمانيا خلال وقت سابق، موّلت دراسة “مخاطر التمييز من خلال استخدام الخوارزميات”. والتي قدمها الدكتور كارستن أوروات، وتبحث في أسباب التمييز القائم على الخوارزميات، بالإضافة إلى خيارات العمل للحماية منه. وتناقش على وجه الخصوص الإمكانيات المتاحة لهيئات مكافحة التمييز في هذا الصدد.

فعلى سبيل المثال، تناقش خوارزميات إدارة المخاطر التي تحدد مخاطر التخلف عن سداد الائتمانات، وأداء مقدمي الطلبات، وخطر فقدان الإيجار أو خطر عودة مرتكبي الجرائم إلى الإجرام. وبالتالي تستخدم للتمييز بين الأشخاص. ومع ذلك، فإن خوارزميات الإعلانات المستهدفة أو التسعير الفردي أو خدمة العملاء أو استخدامها في ما يسمى ب “إلغاء التسويق”. كل ذلك يمكن أن يحمل أيضا مخاطر التمييز، كما تظهر الأمثلة المقدمة في الدراسة.

ثغرات في الحماية من التمييز

ما زالت المناقشات مستمرة حول الثغرات الموجودة بجدار الحماية من التمييز، لتعزيز دور مراكز المشورة المناهضة للتمييز من أن تكون نقاط اتصال مركزية للمتضررين، لزيادة إمكانية تحديد مخاطر التمييز على نحو أفضل، من خلال نظم صنع القرار الآلية. لذلك تقوم الوكالة الاتحادية لمكافحة التمييز بتمويل مشروع “الفحص التلقائي – تعليمات للتعامل مع النظم الآلية لصنع القرار لوكالات مكافحة التمييز”. كما يجري وضع تعليمات وأدوات مفهومة وتصميم دورات تدريبية لتمكين موظفي مراكز إسداء المشورة المناهضة للتمييز، من تقييم المخاطر على نحو أفضل، ومن ثم تقديم دعم أفضل للمتضررين في حالات محددة من التمييز.

حتى الآن في ألمانيا لا يوجد تسجيل موحد لحالات التمييز -ليس هناك إحصاءات شاملة- ونتيجة لذلك، لا يعرف سوى القليل عن مدى التمييز على أساس الأصل والإثنية والعرق!

المصدر1
المصدر 2
المصدر 3