به گزارش آسیانیوز ایران ؛ «بردهداری الگوریتمی» اصطلاحی انتقادی است که برای توصیف وضعیتی به کار میرود که در آن الگوریتمها و سیستمهای خودکار چنان بر کار و زندگی انسانها مسلط میشوند که افراد احساس میکنند تحت انقیاد يک «ارباب دیجیتال» قرار گرفتهاند. در چنین حالتی، تصمیمهای حیاتی مانند استخدام، میزان دستمزد، ارزیابی عملکرد و حتی اخراج، نه توسط مدیران انسانی بلکه بهوسیله کدهای پیچیده و جعبهسیاه الگوریتمی اتخاذ میشوند.
این مفهوم از اواسط دهه ۲۰۱۰ و همزمان با گسترش اقتصاد پلتفرمی و گیگی (Gig Economy) پدیدار شد؛ جایی که شرکتهایی مانند Uber، Lyft، Amazon و DoorDash الگوریتمها را جایگزین مدیران کرده و با دادههای کلان و هوش مصنوعی نیروی کار را مدیریت کردند.
خاستگاه مفهومی و ریشههای انتقادی
فیلسوفان و منتقدان فناوری هشدار دادهاند که چنین روندی نهتنها عاملیت انسانی را به حاشیه میراند بلکه نابرابریهای عمیقتری خلق میکند. شوشانا زوبوف در نظریه «سرمایهداری نظارتی» نشان داد که چگونه دادههای رفتاری افراد برای کنترل و دستکاری تصمیمها بهکار گرفته میشوند. در همین چارچوب، اصطلاح «بردهداری الگوریتمی» بهعنوان نمادی از نگرانیها نسبت به سلطه ماشینها بر انسان تثبیت شد.
مصادیق جهانی بردهداری الگوریتمی
۱. اقتصاد پلتفرمی؛ Uber و DoorDash
در این پلتفرمها، رانندگان و پیکها بهعنوان «پیمانکار مستقل» طبقهبندی میشوند تا شرکتها از تعهدات قانونی شانه خالی کنند. اما واقعیت آن است که دستمزد، ساعات کار، انتخاب سفر و حتی تداوم همکاری، تماما در اختیار الگوریتمهاست. سیستم امتیازدهی مشتریان – که میتواند بر پایه تبعیض یا بدخلقی باشد – گاه بهطور خودکار به قطع همکاری منجر میشود. نتیجه، کارگرانی است که به تعبیر خودشان «برده اپلیکیشن» شدهاند.
۲. Amazon و شلاق الکترونیکی انبارها
آمازون برای مدیریت صدها هزار کارگر انبار، از الگوریتمهایی بهره میگیرد که تکتک حرکات کارگران را پایش میکند. سهمیههای کاری سنگین، زمانبندیهای فشرده و اخراج خودکار در صورت استراحت بیش از حد مجاز، محیط کار را به «زندان دیجیتال» بدل کرده است. حتی تلاش کارگران برای تشکیل اتحادیه با تحلیل دادههای رفتاریشان شناسایی و سرکوب میشود.
۳. سیستم امتیاز اجتماعی چین
مدل حاکمیتی چین نشاندهنده بُعدی دیگر از بردهداری الگوریتمی است؛ جایی که الگوریتمها شهروندان را براساس رفتارشان رتبهبندی کرده و بهطور خودکار حقوقی مانند سفر، دسترسی مالی یا اینترنت را محدود میکنند. در سال ۲۰۱۸ بیش از ۲۳ میلیون خرید بلیت قطار و هواپیما به دلیل امتیاز پایین شهروندان لغو شد.
کارخانههای دیجیتال در آفریقا
پلتفرمهای جهانی برای پالایش محتوا از نیروی کار ارزان در کشورهای در حال توسعه استفاده میکنند. در نایروبی، کارگران با دستمزدی ناچیز و در شرایطی پرتنش، روزانه صدها محتوای خشونتآمیز را بررسی میکنند و در معرض آسیبهای روحی شدید قرار میگیرند. این وضعیت بهحق «کارخانه عرقریزی دیجیتال» نام گرفته است.
تحلیل فنی و اخلاقی
الگوریتمهای مدیریتی دارای ضعفهای جدیاند:
- عدم شفافیت: کارگران از منطق محاسبات دستمزد بیخبرند.
- خطاپذیری و سوگیری: دادههای مغرضانه میتواند به تبعیض نژادی یا جنسیتی منجر شود.
- کنترل افراطی: فشار برای بهرهوری حداکثری کرامت انسانی را نابود میکند.
- حذف همدلی انسانی: تصمیمات صرفاً بر دادهها استوار است و جایی برای انعطاف وجود ندارد.
این وضعیت پرسشی بنیادین را ایجاد میکند: اگر الگوریتمی به انسان ظلم کند، چه کسی پاسخگوست؟
دیدگاههای اجتماعی و حقوقی
بردهداری الگوریتمی موجب:
- تضعیف حقوق کارگران و بازگشت به وضعیت پیشامدرن
- تشدید شکاف طبقاتی و گسترش طبقه «کارگران فقیر»
- جلوگیری از تشکلیابی و فعالیتهای جمعی
- تهدید کرامت انسانی و استقلال فردی
اتحادیههای کارگری اروپا و نهادهای حقوق بشری جهانی بر این باورند که بدون دخالت قانونی، شرکتها به استثمار سیستماتیک ادامه خواهند داد.
واکنشهای جهانی و راهکارها
- اتحادیه اروپا: تدوین دستورالعمل شرایط کار پلتفرمی با الزام به شفافیت الگوریتمی و نظارت انسانی.
- ایالات متحده: طرح «No Robot Bosses Act» برای ممنوعیت تصمیمات کاملاً خودکار در حوزه کار.
- سازمان بینالمللی کار (ILO): درخواست برای تضمین «کار شایسته» در اقتصاد دیجیتال.
راهکارهای پیشنهادی شامل:
- بازتعریف وضعیت استخدامی کارگران پلتفرمی
- الزام شفافیت الگوریتمها و حق دسترسی به منطق تصمیمگیری
- ممنوعیت اخراج خودکار بدون بازبینی انسانی
- محدودیت نظارت دیجیتال دائمی
- تقویت اتحادیهها و آموزش حقوق کارگران
- توسعه الگوریتمهای اخلاقی و پاسخگو
جمعبندی
«بردهداری الگوریتمی» نه یک استعاره، بلکه واقعیتی عینی است که میلیونها کارگر در سراسر جهان تجربه میکنند. از پلتفرمهای تاکسی اینترنتی تا انبارهای غولهای فناوری و سیستمهای نظارتی دولتی، الگوریتمها به اربابانی بیچهره تبدیل شدهاند. مقابله با این روند، نیازمند شفافیت، مقررات سختگیرانه و بازگرداندن عنصر انسانی به قلب فرآیندهای کاری است. در غیر این صورت، کرامت انسانی در عصر دیجیتال بیش از پیش به حاشیه رانده خواهد شد.