به گزارش آسیانیوز ایران ؛ موج فزاینده استفاده از الگوریتمها در مدیریت کار—از تخصیص مأموریت و قیمتگذاری پویا تا امتیازدهی، تعلیق و اخراج—پرسشهای بنیادینی درباره عدالت، کرامت و مسئولیتپذیری در محیطهای کاری ایجاد کرده است. در پاسخ، سه سطح کنشگری حقوقی و نهادی قابل رصد است:
۱) اروپا: پیشتازی مقرراتگذاری هدفمند
اتحادیه اروپا پیشنویس «دستورالعمل بهبود شرایط کار در پلتفرمها» را با دو ستون اصلی پیش میبرد:
- بازتعریف رابطه کار: فرض کارمندبودن کارگران پلتفرمی تا زمانی که شرکت خلاف آن را اثبات کند؛ بههمراه حقوق پایه مانند حداقل مزد، مرخصی و پوشش بیمهای.
- تنظیم مدیریت الگوریتمی: الزام به شفافیت درباره دادههای گردآوریشده، منطق تصمیمگیری و اثرات آن بر شرایط کار؛ ممنوعیت تصمیمات مهم شغلیِ کاملاً خودکار و ضرورت بازبینی انسانی.
- پیش از این، اسپانیا با «Riders’ Law» (2021)شرکتهای تحویل غذا را ملزم به استخدام رسمی پیکها و افشای منطق الگوریتم تخصیص سفارش کرد. در هلند، رأی دادگاه آمستردام (۲۰۲۳) Uber را به ارائه اطلاعات معنادار درباره سیستمهای خودکار ملزم کرد. ایتالیا نیز از طریق نهاد حفاظت از دادهها، بابت ردیابی خارج از ساعات کار و امتیازدهی پنهان در Glovo/Foodinho شرکت را جریمه و به اصلاح رویهها ملزم کرد. این زنجیره قضایی-تقنینی، قاعدهای تازه در تقاطع حقوق کار × حاکمیت داده × هوش مصنوعی میسازد.
۲) ایالات متحده: فشارهای فدرال، ایالتی و شهری
در سطح فدرال، وزارت کار آمریکا معیارهای تشخیص رابطه استخدامی را برای جلوگیری از برچسبزنی صوری «پیمانکار مستقل» بهروزرسانی میکند. در کنگره، طرح «No Robot Bosses Act» محدودیت بر تصمیمات تمامخودکار و حق بازنگری انسانی را دنبال میکند؛ طرحهای حمایتیِ دادههای کارگران نیز در جریان است. NLRB استفاده ارعابآمیز از نظارت الگوریتمی را با اصول روابط کار در تعارض دانسته است. در سطح ایالتی، کالیفرنیا با AB5 تلاش کرد گیگورکرها را کارمند تلقی کند؛ هرچند همهپرسی Prop 22 مسیر را پیچیده کرد، جدال حقوقی همچنان ادامه دارد. در سطح شهری، نیویورک ارزیابی عدمتبعیض برای ابزارهای استخدامی الگوریتمی را الزامی کرده است. مجموع این کنشها نشان میدهد اصل مسئولیتپذیری الگوریتمی بهتدریج به هنجار حقوقی بدل میشود.
۳) سطح بینالمللی و سایر کشورها
سازمان بینالمللی کار (ILO) در گزارشهای خود بر «کار شایسته در اقتصاد پلتفرمی» تأکید و حداقلهای جهانیِ حمایت اجتماعی را توصیه کرده است. اتحادیههای فراملی (مانند ITF) کارزارهای حقوق رانندگان حملونقل آنلاین را پی میگیرند. در آسیا و آمریکای لاتین، مقرراتی مانند تعیین حداقل کرایه یا سهم بیمه رانندگان وضع شده، هرچند خلأهای نظارتی هنوز قابلتوجه است.
بسته سیاستیِ پیشنهادی برای مهار «بردهداری الگوریتمی»:
- پایان برچسبزنی صوری و تضمین حقوق پایه: آزمونهای چندمعیاره برای تشخیص رابطه کار، حداقل مزد معیشتی، بیمه حوادث، مرخصی استعلاجی، بازنشستگی و مشارکت کارفرما در تأمین اجتماعیِ گیگورکرها.
- شفافیت و حق آگاهی از منطق الگوریتم: اطلاعرسانی درباره دادههای گردآوریشده، شاخصهای امتیازدهی و قواعد تخصیص کار/قیمت؛ ممیزی دورهای مستقل برای تبعیضزدایی و ارزیابی اثرات بر حقوق بشر و کار.
- خط قرمزهای الزامآور: منع اخراج/تعلیق تمامخودکار؛ محدودیت قیمتگذاریهای پویا و رتبهبندیهایی که رقابت ناسالم و تبعیض میآفرینند؛ سقفگذاری بر نظارت مداوم (مثلاً ردیابی GPS خارج از شیفت).
- حق اعتراض و دادرسی منصفانه: «هیچ تصمیم شغلیِ مهم بدون انسان در حلقه»؛ دسترسی کارگر به دلایل، ادله و مسیر اعتراض قابلپیگیری نزد ناظر انسانی/هیئت مستقل؛ اخطارهای تدریجی بهجای قطع دسترسی آنی.
- توانمندسازی و تشکلیابی: حمایت قانونی از اتحادیههای نوین کارگران پلتفرمی و شبکههای همیاری؛ آموزش سواد داده و حقوق دیجیتال (نمونههای اروپاییِ استفاده از ابزارهای GDPR برای مطالبه داده).
- طراحی مسئولانه و استانداردهای صنعتی: گنجاندن اصول عدمتبعیض، توضیحپذیری، بهکمینهسازی داده و امنیت در چرخه عمر سیستم؛ هیئتهای اخلاقی و گواهیهای کیفیت برای ابزارهای مدیریت منابع انسانی.
- مشارکت ذینفعان و بدیلهای دموکراتیک: حضور نمایندگان کارگران در تنظیم پارامترهای الگوریتم؛ حمایت از پلتفرمهای تعاونی که قواعد عادلانهتری را پیاده میکنند.
رؤسای ربات ممنوع:
فناوری میتواند رهاییبخش باشد—اگر در ریلِ حکمرانیِ انسانمحور حرکت کند. روندهای قانونگذاری نشان میدهد عصر «بیسرپرستی» الگوریتمها رو به پایان است: شفافیت، پاسخگویی و حق انسان برای دانستن و اعتراض، در حال تبدیل شدن به خطوط قرمز جهانیاند. مأموریت امروز سیاستگذاران و جامعه مدنی این است که مطمئن شوند کارگران «زیردست» الگوریتمها نمیشوند، بلکه از مزایای آن سهمِ عادلانه میبرند.