تبعیض میتواند دلایل زیادی داشته باشد. از جمله تعصب، نفرت یا قوانین ضعیف از بزرگترین علل آن است. از این رو، کمیسر فدرال ضد تبعیض متعهد به محافظت از شهروندان در برابر مضرات ناشی از هوش مصنوعی است.
فردا آتامان، کمیسر فدرال ضد تبعیض، خواستار وضع مقررات قانونی برای محافظت در برابر تبعیض از طریق فرآیندهای دیجیتالی شده است. آتامان روز چهارشنبه در برلین گفت: «دیجیتالی شدن، هوش مصنوعی و الگوریتمها خیلی چیزها از جمله تبعیض را آسانتر میسازد.» این کمیسر از دولت فدرال میخواهد که از اصلاحات برنامهریزی شده قانون رفتار برابر عمومی (AGG) برای محافظت از مردم در برابر خطرات تبعیض دیجیتال استفاده کند.
خطا در تصمیمگیریهای خودکار
در آینده، سیستمهای خودکار یا هوش مصنوعی تصمیمهای بیشتری اتخاذ خواهند کرد که برای افراد در زندگی روزمره مهم است. آتامان از جمله به درخواستها، وامها، بیمه و خدمات دولتی اشاره کرد.
او هشدار داد که آنچه در نگاه اول عینی به نظر میرسد در واقع میتواند تعصبات و کلیشهها را تقویت کند. آتامان با ارائه یک نظر حقوقی گفت که مشکل عمدهای را در خطاپذیری تصمیمات خودکار میبیند. او همچنین نسبت به “تبعیض از طریق آمار” هشدار میدهد.
بر اساس این مطالعه، کیفیت تصمیم گیریهای خودکار بستگی به دادههای وارد شده به یک سیستم دارد. افرادی که درخواستهای شان در حال تصمیمگیری است نمیتوانند بفهمند که آیا این تصمیمگیریها بدون خطا یا مناسب هستند یا خیر. این امر در مورد کاربران برنامهها نیز صدق میکند. به گفته آتامان، با این حال، مردم باید بتوانند اعتماد کنند که از طریق هوش مصنوعی (AI) آسیبی نخواهند دید و در صورت وقوع، از خود دفاع کنند.
الگوریتم تبعیضآمیز در هالند
نمونههایی دیده شده در کشورهای دیگر نشان میدهد که در صورت خطای هوش مصنوعی چه اتفاقی میتواند بیفتد. به گفته آتامان، به تازگی در هالند از حدود ۲۰ هزار والدین به شکل ناعادلانه و تحت تهدید مجازات، خواسته شده است که کمکهزینه کودکان را بازپرداخت کنند.
گفته میشود یک الگوریتم تبعیضآمیز در نرم افزار تا حدی مسئول این قضیه بودهاست. در این قضیه والدین با پیشینه مهاجرت بهویژه تحت تاثیر قرار گرفتند. آنها به عنوان کلاهبرداران معرفی شدند و قرار بود دهها هزار یورو را پس دهند.
آتامان همچنین درخواست میکند که چنین “اقدام از طریق سیستمهای تصمیم گیری خودکار” باید به عنوان تبعیض در قانون مبارزه با تبعیض گنجانده شود. اپراتورهای سیستمهای هوش مصنوعی باید موظف به ارائه اطلاعات در مورد دادههای مورد استفاده و نحوه عملکرد سیستمهای خود باشند و در صورت شک، در دادگاه ثابت کنند که این امر منجر به ضرر رساندن به کاربران نمیشود.
امروز کسانی که به دادگاه میروند باید ثابت کنند که مورد تبعیض قرار گرفته اند.
Foto: Sebastian Gollnow/dpa