Foto: Sebastian Gollnow/dpa
31/08/2023

هوش مصنوعی؛ قانون باید از تبعیض دیجیتال جلوگیری کند

تبعیض می‌تواند دلایل زیادی داشته باشد. از جمله تعصب، نفرت یا قوانین ضعیف از بزرگ‌ترین علل آن است. از این رو، کمیسر فدرال ضد تبعیض متعهد به محافظت از شهروندان در برابر مضرات ناشی از هوش مصنوعی است.

فردا آتامان، کمیسر فدرال ضد تبعیض، خواستار وضع مقررات قانونی برای محافظت در برابر تبعیض از طریق فرآیندهای دیجیتالی شده است. آتامان روز چهارشنبه در برلین گفت: «دیجیتالی شدن، هوش مصنوعی و الگوریتم‌ها خیلی چیزها از جمله تبعیض را آسان‌تر می‌سازد.» این کمیسر از دولت فدرال می‌خواهد که از اصلاحات برنامه‌ریزی شده قانون رفتار برابر عمومی (AGG) برای محافظت از مردم در برابر خطرات تبعیض دیجیتال استفاده کند.

خطا در تصمیم‌گیری‌های خودکار

در آینده، سیستم‌های خودکار یا هوش مصنوعی تصمیم‌های بیشتری اتخاذ خواهند کرد که برای افراد در زندگی روزمره مهم است. آتامان از جمله به درخواست‌ها، وام‌ها، بیمه و خدمات دولتی اشاره کرد.
او هشدار داد که آنچه در نگاه اول عینی به نظر می‌رسد در واقع می‌تواند تعصبات و کلیشه‌ها را تقویت کند. آتامان با ارائه یک نظر حقوقی گفت که مشکل عمده‌ای را در خطاپذیری تصمیمات خودکار می‌بیند. او همچنین نسبت به “تبعیض از طریق آمار” هشدار می‌دهد.

بر اساس این مطالعه، کیفیت تصمیم گیری‌های خودکار بستگی به داده‌های وارد شده به یک سیستم دارد. افرادی که درخواست‌های شان در حال تصمیم‌گیری است نمی‌توانند بفهمند که آیا این تصمیم‌گیری‌ها بدون خطا یا مناسب هستند یا خیر. این امر در مورد کاربران برنامه‌ها نیز صدق می‌کند. به گفته آتامان، با این حال، مردم باید بتوانند اعتماد کنند که از طریق هوش مصنوعی (AI) آسیبی نخواهند دید و در صورت وقوع، از خود دفاع کنند.

الگوریتم تبعیض‌آمیز در هالند

نمونه‌هایی دیده شده در کشورهای دیگر نشان می‌دهد که در صورت خطای هوش مصنوعی چه اتفاقی می‌تواند بیفتد. به گفته آتامان، به تازگی در هالند از حدود ۲۰ هزار والدین به شکل ناعادلانه و تحت تهدید مجازات، خواسته شده است که کمک‌هزینه کودکان را بازپرداخت کنند.

گفته می‌شود یک الگوریتم تبعیض‌آمیز در نرم افزار تا حدی مسئول این قضیه بوده‌است. در این قضیه والدین با پیشینه مهاجرت به‌ویژه تحت تاثیر قرار گرفتند. آن‌ها به عنوان کلاهبرداران معرفی شدند و قرار بود ده‌ها هزار یورو را پس دهند.

آتامان همچنین درخواست می‌کند که چنین “اقدام از طریق سیستم‌های تصمیم گیری خودکار” باید به عنوان تبعیض در قانون مبارزه با تبعیض گنجانده شود. اپراتورهای سیستم‌های هوش مصنوعی باید موظف به ارائه اطلاعات در مورد داده‌های مورد استفاده و نحوه عملکرد سیستم‌های خود باشند و در صورت شک، در دادگاه ثابت کنند که این امر منجر به ضرر رساندن به کاربران نمی‌شود.

امروز کسانی که به دادگاه می‌روند باید ثابت کنند که مورد تبعیض قرار گرفته اند.

Foto: Sebastian Gollnow/dpa