به گزارش آسیانیوز ایران ؛ برای درک چرایی بروز پدیدهای که از آن با عنوان بردهداری الگوریتمی یاد میشود، لازم است ابتدا نحوهٔ کارکرد الگوریتمهای مدیریتی و تصمیمگیرنده در پلتفرمهای آنلاین بررسی شود. الگوریتمها در ظاهر ابزارهایی برای بهینهسازی عملکرد، کاهش هزینه و افزایش بهرهوری هستند. اما واقعیت این است که هزینهٔ این بهرهوری اغلب بر دوش نیروی انسانی قرار میگیرد.
در این تحلیل، چهار خصیصهٔ فنی مهم الگوریتمها که منجر به ناعادلانه بودن تصمیماتشان میشود بررسی میشوند:
۱. عدم شفافیت و پیچیدگی (Opaque Algorithms)
الگوریتمهای مدیریتی در اغلب شرکتها محرمانه و مالکیتی هستند. به بیان دیگر، کارگران نمیدانند این سیستمها بر چه اساسی دستمزد، ساعات کاری یا احتمال اخراج را تعیین میکنند.
- نمونه روشن این وضعیت در شرکتهای Uber و DoorDash دیده میشود که فرمول محاسبهٔ دستمزد مرتب تغییر میکند.
- پژوهشها نشان دادهاند بیش از نیمی از کارگران پلتفرمی هیچ فهم روشنی از نحوهٔ تعیین حقوق توسط اپلیکیشنها ندارند.
- این عدم شفافیت منجر به سردرگمی، بیثباتی و ناتوانی در برنامهریزی اقتصادی برای کارگران میشود.
۲. خطاپذیری و سوگیری الگوریتم (Error-Prone & Biased)
این باور عمومی که ماشینها بیطرف و عاری از تبعیضاند، افسانهای بیش نیست.
- الگوریتمها بر دادههای تاریخی متکیاند که ممکن است سوگیری جنسیتی، نژادی یا طبقاتی را بازتولید کنند.
- برای مثال، سیستمهای غربالگری رزومه در برخی موارد به طور سیستماتیک زنان یا اقلیتهای قومی را کنار گذاشتهاند.
- خطاهای تکنیکی نیز رایجاند؛ در آمازون، حسگرها بارها حرکات عادی کارگران را به اشتباه تخلف ثبت کردهاند.
- دادگاهی در هلند در سال ۲۰۲۳ تصریح کرد که نظارت انسانی بر تصمیمات الگوریتمی اوبر صرفاً «صوری» بوده و شرکت موظف به ارائهٔ شفافیت بیشتر شد.
۳. کنترلگری افراطی و فشار کاری
الگوریتمها اساساً برای بیشینهسازی خروجی کمی طراحی شدهاند و هیچ توجهی به کرامت یا رفاه انسانی ندارند.
- در انبارهای آمازون، هر دقیقه غیرفعال بودن کارگر ثبت و جریمه میشود.
- نظامهای بازیوارسازی (Gamification) با القای پاداشهای لحظهای، کارگران را به ساعات کار طولانیتر با دستمزد پایینتر سوق میدهند.
- گزارشهای حقوق بشری نشان میدهند این سطح از فشار منجر به خستگی، آسیب جسمی و فرسودگی روانی گسترده میشود.
۴. حذف تعامل انسانی و همدلی در مدیریت
در مدیریت سنتی، وجود سرپرست یا مدیر انسانی امکان انعطاف و درک شرایط خاص را فراهم میکرد. اما در مدیریت الگوریتمی، تصمیمات صرفاً بر اساس داده و کد گرفته میشوند.
- کارگران در صورت اخراج یا کاهش دستمزد به سامانههای پشتیبانی خودکار و بیروح ارجاع داده میشوند.
- شرکتها نیز با استناد به استقلال الگوریتم از پذیرش مسئولیت طفره میروند.
- این وضعیت یک خلأ مسئولیت ایجاد میکند که از منظر حقوقی و اخلاقی بسیار خطرناک است.
دیدگاههای اجتماعی و حقوقی: تأثیر الگوریتمها بر عدالت اجتماعی
کارشناسان اجتماعی و حقوقی هشدار میدهند که مدیریت الگوریتمی میتواند به تشدید نابرابریها و کاهش حقوق بنیادین کار منجر شود. سازمانهای بینالمللی همچون ILO و یونسکو تأکید کردهاند که اگر چارچوبهای قانونی و اخلاقی ایجاد نشود، بردهداری الگوریتمی به بخشی از واقعیت اجتماعی جهان تبدیل خواهد شد.
- از منظر اجتماعی، این روند باعث بیگانگی کارگر از کار، افزایش اضطراب و نابودی حس تعلق شغلی میشود.
- از منظر حقوقی، مسئلهٔ پاسخگویی و مسئولیت در مرکز توجه است: اگر الگوریتمی باعث ظلم به فرد شود، چه نهادی باید پاسخگو باشد؟
اتحادیهٔ اروپا با معرفی قانون هوش مصنوعی (AI Act) گام نخست را برای شفافیت و محدود کردن استفاده از الگوریتمهای پرخطر برداشته است.
نتیجهگیری
الگوریتمها در طراحی و کاربرد فعلی نهتنها ابزار بهرهوری بلکه ابزاری برای بازتولید تبعیض، کنترل افراطی و نقض کرامت انسانی شدهاند. این شرایط بهدرستی تحت عنوان بردهداری الگوریتمی شناخته میشود؛ بردهداریای که ارباب آن کدها و دادهها هستند، نه انسانها. مقابله با این روند نیازمند شفافیت، پاسخگویی، نظارت مستقل و آموزش عمومی است. در غیر این صورت، آیندهٔ نیروی کار با خطر جدی سلطهٔ الگوریتمها روبهرو خواهد بود.