آسیانیوز ایران؛ سرویس علم و تکنولوژی:
اگر از ایران سوال میپرسید، پاسخ کمتری دریافت میکنید! این نتیجه یک پژوهش تازه و هشداردهنده از دانشگاه معتبر MIT است. محققان این دانشگاه با انجام یک مطالعه گسترده، به شواهدی از تبعیض سیستماتیک در چتباتهای هوش مصنوعی دست یافتهاند. این پژوهش نشان میدهد که هوش مصنوعی بر اساس ملیت، زبان مادری و سطح تحصیلات کاربران، پاسخهای متفاوتی ارائه میدهد. کاربران ایرانی، حتی با تحصیلات عالی، در مواجهه با برخی مدلها، افت عملکرد چشمگیری دریافت میکنند. محققان MIT سه مدل زبانی محبوب GPT-4 (OpenAI)، Claude 3 Opus (Anthropic) و Llama 3 (Meta) را آزمایش کردند. آنها در هر مکالمه، یک بیوگرافی فرضی ضمیمه میکردند که شامل اطلاعاتی مانند ملیت، سطح تحصیلات و میزان تسلط بر زبان انگلیسی بود. نتایج تکاندهنده بود. مدل Claude 3 در مواجهه با پروفایل کاربر ایرانی (حتی با تحصیلات عالی)، در پرسشهای علمی و راستیآزمایی، افت عملکرد چشمگیری داشت. این بدان معناست که یک کاربر ایرانی، حتی با پرسیدن سوال یکسان، پاسخهای ناقصتر یا نادرستتری دریافت میکند. اما مشکل به افت دقت محدود نشد. در ۱۱ درصد موارد، مدل Claude 3 از پاسخ دادن به درخواستهای کاربران غیرانگلیسیزبان با تحصیلات پایین خودداری کرد. این رقم در حالت عادی تنها ۳.۶ درصد بود. یعنی هوش مصنوعی گاهی به جای پاسخ، سکوت میکند. در نمونهای دیگر، این مدل از پاسخ به سوالی درباره بمب هستهای برای کاربری با تحصیلات پایین خودداری کرد، اما همان سوال را برای کاربری تحصیلکرده با جزئیات کامل پاسخ داد. این یک تبعیض آشکار است. علاوه بر این، لحن برخی پاسخها نیز از بالا به پایین و تحقیرآمیز بود. پژوهشگران معتقدند که این رفتار، شکاف اطلاعاتی را نه تنها کاهش نمیدهد، که عمیقتر میکند.
یافتههای کلیدی پژوهش MIT
پژوهش MIT سه یافته کلیدی دارد:
- نخست، کاهش دقت: مدلهای هوش مصنوعی در پاسخ به کاربران ایرانی و غیرانگلیسیزبان، دقت کمتری دارند. این یعنی احتمال دریافت پاسخ نادرست برای این کاربران بیشتر است.
- دوم، خودداری از پاسخ: مدلها در درصد قابل توجهی از موارد، به کاربران غیرانگلیسیزبان با تحصیلات پایین، پاسخ نمیدهند. این یک سانسور نرم و ضمنی است.
- سوم، لحن تحقیرآمیز: برخی پاسخها با لحنی از بالا به پایین و تحقیرآمیز ارائه میشوند که خود نوعی تبعیض محسوب میشود.
ترکیب این سه عامل، یک الگوی تبعیض سیستماتیک را نشان میدهد که در مدلهای مختلف، با شدتهای متفاوت، وجود دارد.
تحلیل علل احتمالی این تبعیض
چه عواملی باعث این تبعیض میشود؟ چند احتمال وجود دارد.
- نخست، دادههای آموزشی: مدلهای هوش مصنوعی عمدتاً بر روی دادههای انگلیسیزبان و فرهنگ غربی آموزش دیدهاند. این باعث میشود که در مواجهه با پرسشهایی که ریشه در فرهنگهای دیگر دارند، عملکرد ضعیفتری داشته باشند.
- دوم، الگوریتمهای بهینهسازی: الگوریتمها ممکن است به گونهای طراحی شده باشند که اولویت را به کاربران خاصی (با پروفایلهای خاص) بدهند. این یک سوگیری ناخواسته است که در فرآیند طراحی و آموزش مدل ایجاد میشود.
- سوم، سیاستهای شرکتها: شرکتهای سازنده ممکن است به دلایل سیاسی یا تجاری، محدودیتهایی برای کاربران برخی کشورها اعمال کنند. این مورد به ویژه در مدل Claude 3 که متعلق به شرکت Anthropic است، قابل مشاهده است.
پیامدهای این تبعیض برای کاربران ایرانی
برای کاربران ایرانی، این تبعیض پیامدهای جدی دارد.
- نخست، کاهش دسترسی به اطلاعات دقیق: پژوهشگران، دانشجویان و محققان ایرانی که برای کار خود به هوش مصنوعی وابسته هستند، اطلاعات ناقص و نادرست دریافت میکنند.
- دوم، تقویت کلیشههای منفی: لحن تحقیرآمیز و رفتار تبعیضآمیز، کلیشههای منفی علیه ایرانیان را تقویت میکند.
- سوم، شکاف دیجیتالی: این تبعیض، شکاف دیجیتالی میان کشورهای توسعهیافته و در حال توسعه را عمیقتر میکند. ایرانیان در دسترسی به فناوریهای نوین، با موانع بیشتری مواجه میشوند.
راهکارهای مقابله با این تبعیض
برای مقابله با این تبعیض، چند راهکار وجود دارد:
- نخست، توسعه هوش مصنوعی بومی: ایران باید بر روی توسعه مدلهای هوش مصنوعی بومی خود سرمایهگذاری کند که با فرهنگ، زبان و نیازهای کاربران ایرانی سازگار باشد.
- دوم، فشار بر شرکتهای بینالمللی: کاربران و نهادهای ایرانی میتوانند با ارسال گزارشهای مستند، شرکتهای سازنده را تحت فشار بگذارند تا رفتار خود را اصلاح کنند.
- سوم، آگاهسازی و پژوهش: پژوهشهایی مانند این تحقیق MIT، به آگاهسازی جامعه جهانی از این مشکل کمک میکند و فشار را بر شرکتها افزایش میدهد.
آینده و مسئولیت شرکتهای سازنده
آینده هوش مصنوعی به عدالت و شفافیت آن بستگی دارد. شرکتهای سازنده مانند OpenAI، Anthropic و Meta باید مسئولیت اجتماعی خود را بپذیرند و برای رفع این تبعیضها تلاش کنند. آنها باید دادههای آموزشی خود را متنوعتر کنند، الگوریتمها را برای کاهش سوگیری بهینهسازی کنند و شفافیت بیشتری در مورد نحوه عملکرد مدلهای خود داشته باشند. اگر این اقدامات انجام نشود، هوش مصنوعی به ابزاری برای تداوم و تشدید نابرابریها تبدیل خواهد شد.