آسیانیوز ایران؛ سرویس علم و تکنولوژی:

پوریا زرشناس - دکترای اقتصاد انرژی های تجدیدپذیر
در عصر شبکههای اجتماعی و انفجار اطلاعات، بسیاری از ما تصور میکنیم که سانسور دیگر معنایی ندارد و همه اطلاعات در دسترس ماست. اما واقعیت چیز دیگری است. در پشت پرده این آزادی ظاهری، الگوریتمها نقش سانسورچیهای مدرن را ایفا میکنند. آن ها بیصدا و بدون ردپا، محتوای ما را فیلتر میکنند و تصمیم میگیرند چه چیزی دیده شود و چه چیزی در سکوت دفن شود.
سانسور الگوریتمی یا سانسور پنهان، پدیدهای است که در آن محتوای ما حذف نمیشود، اما دیده هم نمیشود. این نوع سانسور، تأثیرات اجتماعی، فرهنگی و حتی سیاسی عمیقتری نسبت به سانسور کلاسیک دارد. در این گزارش، به بررسی این پدیده و تأثیرات آن بر آزادی بیان و دسترسی به اطلاعات میپردازیم. یک مثال را برای شروع بررسی می کنیم: فلسطین! ممکن است شما با مسئله فلسطین مشکل داشته باشید یا اصلا هیچ احساسی به آن نداشته باشید. اشکالی ندارد. اصلا مسئله فلسطین را با نسل کشی مسلمانان روهینگیا در میانمار یا اصلا آزار و اذیت و سرکوب مسلمانان اویغور توسط حزب کمونیست چین در ذهنتان جایگزین کنید.
در دورهای که آزادی بیان و گردش آزادانه اطلاعات ادعای کشورهای مدعی پیشرفت و تمدن است، محدودیت محتوای مرتبط با موضوعات حساس مانند فلسطین در پلتفرمهای متا، فریاد اعتراض بسیاری را بلند کرده است. به گزارش یورونیوز، در بازه اکتبر تا نوامبر ۲۰۲۳، سازمان دیدهبان حقوق بشر بیش از ۱۰۵۰ مورد حذف یا سرکوب محتوای مرتبط با فلسطین را در اینستاگرام و فیسبوک مستند کرده است. این اقدامات شامل حذف پستها، کاهش دسترسی و محدودیت در نمایش محتواهای کاربران فلسطینی و حامیان آن ها بود. این سازمان اعلام کرد که این سانسورها به صورت نظاممند و جهانی اعمال شدهاند.
تحلیل عمیق این موضوع
سانسور الگوریتمی چالشی جدی در فضای دیجیتال است که میتواند بر آزادی بیان و دسترسی به اطلاعات تأثیر بگذارد. شفافسازی عملکرد الگوریتمها و پاسخگویی پلتفرمها به کاربران، گامهای مهمی در جهت مقابله با این نوع سانسور محسوب میشوند. الگوریتمها در پلتفرمهایی مثل اینستاگرام، توییتر، یوتیوب و تیکتاک، میلیاردها پست، توییت، ویدیو و نظر روزانه را تحلیل و چینش میکنند. این الگوریتمها بر اساس معیارهایی مثل تعداد لایک و کامنت، نرخ تعامل، مدتزمان تماشا، محتوای تصویری یا متنی، سوابق قبلی کاربر و علایقش تصمیم میگیرند که چه چیزی به چه کسی نشان داده شود.
در واقع چیزهایی بیشتر نمایش داده می شوند که موردعلاقهی برندهای تجاری باشد، مثل پستهایی دربارهٔ سگها و گربهها، چالشهای فراگیرشده، طرز تهیهٔ غذاها و... اما صدای اعتراض به نسلکشی، سیاستهای استعماری، خغقان حکومتی دیکتاتور گونه و... اغلب خفه میشوند. این الگوریتمها ناخودآگاه محتوای انتقادی، مستقل، سیاسی یا اخلاقمحور را به حاشیه میرانند. به همین خاطر، ساختار رسانهای ما به تدریج تبدیل به فضایی میشود که در آن اخبار روز جای خود را به داباسمش، چالشهای اینستاگرامی و ویدیوهای کوتاه زرد و تفریحی میدهند.
بلایی که سانسور الگوریتمی بر سر جامعه میآورد
سانسور پنهان الگوریتمی، فراتر از حذف یک پست یا ویدیو است و پیامدهایی گسترده و چندلایه دارد. از جمله:
تحریف واقعیت اجتماعی
مردم تصور میکنند چیزی که در فید آن ها نیست، وجود خارجی ندارد. این باعث «واقعیتسازی جعلی» توسط پلتفرمها میشود.
تضعیف مشارکت اجتماعی و سیاسی
کاربران به این باور میرسند که «هیچچیز تغییر نمیکند» و «هیچ صدایی شنیده نمیشود»، پس کمکم کنشگری را کنار میگذارند.
افزایش بیاعتمادی به رسانهها و شبکهها
این بیاعتمادی ممکن است به انزوا، قطع ارتباط دیجیتال یا گرایش به منابع اطلاعاتی ناسالم منجر شود.
افزایش سهم محتوای کمعمق
محتوای زرد، بدون تحلیل و غیرانتقادی، بیشتر دیده میشود. این مسئله موجب سطحی شدن فرهنگ عمومی و بیتفاوتی اجتماعی میشود.
shadow banning: پستهایی که عملا به انتهای فید سقوط میکنند!
اما در کنار این چینش هوشمند، موضوعی به نام shadow banning یا downgrading هم وجود دارد؛ پستهایی که عملا به انتهای فید سقوط میکنند و هیچکس آن ها را نمیبیند، بدون اینکه حذف شده باشند یا اخطاری به کاربر داده شده باشد. بسیاری از مطالبی که تحت سانسور پنهان قرار میگیرند، بهظاهر «خطرناک» نیستند. اما از دید پلتفرمها، به دلایلی ترجیح داده میشود که کمتر دیده شوند. این دلایل ممکن است شامل محتوای سیاسی یا اعتراضی، موضوعات جنجالی دربارهٔ اقلیتهای جنسی، قومی یا مذهبی، مطالبی که با منافع تجاری شرکتها یا برندها در تضاد باشد، انتقاد از قدرتهای سیاسی، نظامی یا اقتصادی جهانی و اخبار مستقل و تحلیلهای انتقادی باشد.
سانسور الگوریتمی خطرناکتر از سانسور کلاسیک است؛ زیرا کاربر متوجه نمیشود که محتوایش فیلتر یا حذف شده است. این ویژگی نهتنها اعتراض را غیرممکن میکند، بلکه باعث افزایش خودسانسوری میشود. الگوریتمها محصول شرکتهای خصوصی هستند و هدف نهایی آن ها، حداکثرسازی سود و حفظ کاربران و تبلیغدهندگان است. بنابراین محتوایی که بیحاشیه، سرگرمکننده و موردعلاقه برندهای تجاری باشد، بیشتر در معرض دید قرار میگیرد؛ اما صدای اعتراض به نسلکشی، سیاستهای استعماری و... اغلب خفه میشوند.
چگونه میتوان با سانسور پنهان مقابله کرد؟
مقابله با پدیدهٔ سانسور پنهان، نیازمند کنشگری جمعی، شفافسازی نهادی و ارتقای آگاهی عمومی است. این مسئله، صرفا یک دغدغهٔ فنی یا موردی نیست. بلکه موضوعی اجتماعی و ساختاری است که مستقیما با آزادی بیان، عدالت اطلاعاتی و دموکراسی رسانهای گره خورده است.برای مواجههٔ مؤثر با این پدیده، میتوان به راهکارهای زیر اندیشید:
شفافسازی در عملکرد الگوریتمها
ضروری است که پلتفرمهای دیجیتال، سازوکارهای تصمیمگیری الگوریتمی خود را برای کاربران شفاف کنند. کاربران باید بدانند بر چه اساسی محتوای آنها کمتر دیده میشود، دسترسیشان محدود میشود یا از چرخهٔ پیشنهاد خارج میشود.ایجاد سازوکارهای رسمی برای اعتراض و پیگیری: ضرورت دارد سازوکارهایی مؤثر و پاسخگو برای اعتراض کاربران نسبت به محدودسازی محتوایشان پیشبینی شود. سیستمهای فعلی گزارشدهی اغلب ناکارآمد، غیرشفاف و بدون بازخورد مشخص هستند.
ارتقای سواد رسانهای در سطوح مختلف جامعه
آگاهی از نقش الگوریتمها در شکلدهی به واقعیتهای اجتماعی، ضرورتی اجتنابناپذیر است. آموزش عمومی در این حوزه میتواند کاربران را به ناظران فعال و نقاد فضای مجازی بدل کند، نه صرفاً مصرفکنندگانی منفعل.حمایت از پلتفرمهای جایگزین و غیرمتمرکز: با توجه به تمرکز قدرت در پلتفرمهای انحصاری، حمایت از شبکههای اجتماعی مستقل، متنباز یا غیرمتمرکز میتواند فضای تنوع رسانهای و آزادی بیان را تقویت کند.
همصدایی فراملی برای تدوین مقررات روشن و الزامآور
تدوین قوانین بینالمللی با هدف الزام پلتفرمها به شفافیت، پاسخگویی و رعایت حقوق کاربران، میتواند گامی مؤثر در مقابله با دستکاریهای پنهان الگوریتمی باشد. تحقق این امر نیازمند همکاری دولتها، نهادهای مدنی و جامعهٔ کاربران در سطح جهانی است. الگوریتمها دیگر فقط ابزار نیستند؛ آنها قاضیانی خاموشاند که تصمیم میگیرند چه کسی دیده شود و چه کسی در سکوت دفن شود. در جهانی که سکوت به معنی حذف است، دیده نشدن یعنی سانسور. اگر امروز نسبت به این روند بیتفاوت باشیم، فردا در جهانی بیدار خواهیم شد که حقیقت تنها با اجازهٔ الگوریتمها قابل دیدن است.برای حفظ دموکراسی اطلاعاتی، باید این «سانسور بیصدا» را دید، شناخت و دربارهاش سخن گفت.