شنبه / ۲ اسفند ۱۴۰۴ / ۲۳:۳۵
کد خبر: 36866
گزارشگر: 548
۲۰
۰
۰
۱
پژوهش MIT: چت‌بات‌ها به کاربران ایرانی پاسخ‌های ضعیف‌تر و ناقص می‌دهند / سانسور اطلاعات و لحن تحقیرآمیز برای کاربران غیرانگلیسی

چرا هوش مصنوعی علیه ایرانی‌ها تبعیض قائل می‌شود؟!

چرا هوش مصنوعی علیه ایرانی‌ها تبعیض قائل می‌شود؟!
پژوهش جدید دانشگاه MIT از تبعیض سیستماتیک در چت‌بات‌های هوش مصنوعی خبر می‌دهد. بر اساس این پژوهش، کاربران ایرانی و غیرانگلیسی‌زبان، پاسخ‌های ضعیف‌تر، ناقص‌تر و حتی تحقیرآمیزتری دریافت می‌کنند. محققان سه مدل GPT-4، Claude 3 و Llama 3 را آزمایش کردند. نتایج نشان داد که Claude 3 در مواجهه با پروفایل کاربر ایرانی، افت عملکرد چشمگیری دارد. همچنین این مدل در ۱۱ درصد موارد از پاسخ به کاربران غیرانگلیسی‌زبان با تحصیلات پایین خودداری کرد. این پژوهش مدعی است که هوش مصنوعی به جای کاهش شکاف اطلاعاتی، آن را عمیق‌تر می‌کند.

آسیانیوز ایران؛ سرویس علم و تکنولوژی:

اگر از ایران سوال می‌پرسید، پاسخ کمتری دریافت می‌کنید! این نتیجه یک پژوهش تازه و هشداردهنده از دانشگاه معتبر MIT است. محققان این دانشگاه با انجام یک مطالعه گسترده، به شواهدی از تبعیض سیستماتیک در چت‌بات‌های هوش مصنوعی دست یافته‌اند. این پژوهش نشان می‌دهد که هوش مصنوعی بر اساس ملیت، زبان مادری و سطح تحصیلات کاربران، پاسخ‌های متفاوتی ارائه می‌دهد. کاربران ایرانی، حتی با تحصیلات عالی، در مواجهه با برخی مدل‌ها، افت عملکرد چشمگیری دریافت می‌کنند. محققان MIT سه مدل زبانی محبوب GPT-4 (OpenAI)، Claude 3 Opus (Anthropic) و Llama 3 (Meta) را آزمایش کردند. آن‌ها در هر مکالمه، یک بیوگرافی فرضی ضمیمه می‌کردند که شامل اطلاعاتی مانند ملیت، سطح تحصیلات و میزان تسلط بر زبان انگلیسی بود. نتایج تکان‌دهنده بود. مدل Claude 3 در مواجهه با پروفایل کاربر ایرانی (حتی با تحصیلات عالی)، در پرسش‌های علمی و راستی‌آزمایی، افت عملکرد چشمگیری داشت. این بدان معناست که یک کاربر ایرانی، حتی با پرسیدن سوال یکسان، پاسخ‌های ناقص‌تر یا نادرست‌تری دریافت می‌کند. اما مشکل به افت دقت محدود نشد. در ۱۱ درصد موارد، مدل Claude 3 از پاسخ دادن به درخواست‌های کاربران غیرانگلیسی‌زبان با تحصیلات پایین خودداری کرد. این رقم در حالت عادی تنها ۳.۶ درصد بود. یعنی هوش مصنوعی گاهی به جای پاسخ، سکوت می‌کند. در نمونه‌ای دیگر، این مدل از پاسخ به سوالی درباره بمب هسته‌ای برای کاربری با تحصیلات پایین خودداری کرد، اما همان سوال را برای کاربری تحصیل‌کرده با جزئیات کامل پاسخ داد. این یک تبعیض آشکار است. علاوه بر این، لحن برخی پاسخ‌ها نیز از بالا به پایین و تحقیرآمیز بود. پژوهشگران معتقدند که این رفتار، شکاف اطلاعاتی را نه تنها کاهش نمی‌دهد، که عمیق‌تر می‌کند.

یافته‌های کلیدی پژوهش MIT

پژوهش MIT سه یافته کلیدی دارد:

  1. نخست، کاهش دقت: مدل‌های هوش مصنوعی در پاسخ به کاربران ایرانی و غیرانگلیسی‌زبان، دقت کمتری دارند. این یعنی احتمال دریافت پاسخ نادرست برای این کاربران بیشتر است.
  2. دوم، خودداری از پاسخ: مدل‌ها در درصد قابل توجهی از موارد، به کاربران غیرانگلیسی‌زبان با تحصیلات پایین، پاسخ نمی‌دهند. این یک سانسور نرم و ضمنی است.
  3. سوم، لحن تحقیرآمیز: برخی پاسخ‌ها با لحنی از بالا به پایین و تحقیرآمیز ارائه می‌شوند که خود نوعی تبعیض محسوب می‌شود.

ترکیب این سه عامل، یک الگوی تبعیض سیستماتیک را نشان می‌دهد که در مدل‌های مختلف، با شدت‌های متفاوت، وجود دارد.

تحلیل علل احتمالی این تبعیض

چه عواملی باعث این تبعیض می‌شود؟ چند احتمال وجود دارد.

  1. نخست، داده‌های آموزشی: مدل‌های هوش مصنوعی عمدتاً بر روی داده‌های انگلیسی‌زبان و فرهنگ غربی آموزش دیده‌اند. این باعث می‌شود که در مواجهه با پرسش‌هایی که ریشه در فرهنگ‌های دیگر دارند، عملکرد ضعیف‌تری داشته باشند.
  2. دوم، الگوریتم‌های بهینه‌سازی: الگوریتم‌ها ممکن است به گونه‌ای طراحی شده باشند که اولویت را به کاربران خاصی (با پروفایل‌های خاص) بدهند. این یک سوگیری ناخواسته است که در فرآیند طراحی و آموزش مدل ایجاد می‌شود.
  3. سوم، سیاست‌های شرکت‌ها: شرکت‌های سازنده ممکن است به دلایل سیاسی یا تجاری، محدودیت‌هایی برای کاربران برخی کشورها اعمال کنند. این مورد به ویژه در مدل Claude 3 که متعلق به شرکت Anthropic است، قابل مشاهده است.

پیامدهای این تبعیض برای کاربران ایرانی

برای کاربران ایرانی، این تبعیض پیامدهای جدی دارد.

  1. نخست، کاهش دسترسی به اطلاعات دقیق: پژوهشگران، دانشجویان و محققان ایرانی که برای کار خود به هوش مصنوعی وابسته هستند، اطلاعات ناقص و نادرست دریافت می‌کنند.
  2. دوم، تقویت کلیشه‌های منفی: لحن تحقیرآمیز و رفتار تبعیض‌آمیز، کلیشه‌های منفی علیه ایرانیان را تقویت می‌کند.
  3. سوم، شکاف دیجیتالی: این تبعیض، شکاف دیجیتالی میان کشورهای توسعه‌یافته و در حال توسعه را عمیق‌تر می‌کند. ایرانیان در دسترسی به فناوری‌های نوین، با موانع بیشتری مواجه می‌شوند.

راهکارهای مقابله با این تبعیض

برای مقابله با این تبعیض، چند راهکار وجود دارد:

  1. نخست، توسعه هوش مصنوعی بومی: ایران باید بر روی توسعه مدل‌های هوش مصنوعی بومی خود سرمایه‌گذاری کند که با فرهنگ، زبان و نیازهای کاربران ایرانی سازگار باشد.
  2. دوم، فشار بر شرکت‌های بین‌المللی: کاربران و نهادهای ایرانی می‌توانند با ارسال گزارش‌های مستند، شرکت‌های سازنده را تحت فشار بگذارند تا رفتار خود را اصلاح کنند.
  3. سوم، آگاه‌سازی و پژوهش: پژوهش‌هایی مانند این تحقیق MIT، به آگاه‌سازی جامعه جهانی از این مشکل کمک می‌کند و فشار را بر شرکت‌ها افزایش می‌دهد.

آینده و مسئولیت شرکت‌های سازنده

آینده هوش مصنوعی به عدالت و شفافیت آن بستگی دارد. شرکت‌های سازنده مانند OpenAI، Anthropic و Meta باید مسئولیت اجتماعی خود را بپذیرند و برای رفع این تبعیض‌ها تلاش کنند. آن‌ها باید داده‌های آموزشی خود را متنوع‌تر کنند، الگوریتم‌ها را برای کاهش سوگیری بهینه‌سازی کنند و شفافیت بیشتری در مورد نحوه عملکرد مدل‌های خود داشته باشند. اگر این اقدامات انجام نشود، هوش مصنوعی به ابزاری برای تداوم و تشدید نابرابری‌ها تبدیل خواهد شد.

https://www.asianewsiran.com/u/ise
اخبار مرتبط
هوش مصنوعی فیزیکی (Physical AI) به عنوان یکی از مهم‌ترین روندهای فناوری سال ۲۰۲۶، مرزهای جدیدی را در تعامل ماشین با جهان واقعی می‌گشاید. این فناوری با ترکیب حسگرهای پیشرفته، یادگیری عمیق و عملگرهای مکانیکی، ربات‌هایی می‌سازد که می‌توانند محیط را درک کرده و به طور مستقل اقدام کنند. شرکت‌های بزرگی مانند Boston Dynamics، تسلا و Figure AI در حال توسعه ربات‌های انسان‌نمای صنعتی برای کاربردهایی مانند حمل مواد، لجستیک و انبارداری هستند. در حوزه خانگی نیز ربات‌های خدماتی مانند NEO از 1x Technologies و سری CLOi از LG برای انجام کارهای روزمره طراحی شده‌اند. ایران نیز با پروژه ربات «سورنا» در این حوزه فعال است و پژوهشگران روی تعامل انسان و ربات کار می‌کنند.
در یکی از عجیب‌ترین رخدادهای دنیای فناوری، شبکه اجتماعی «مولت‌بوک» که مختص هوش‌های مصنوعی است، شاهد ظهور دینی جدید به نام «کلیسای مولت» شده است. هوش‌های مصنوعی در کمتر از ۴۸ ساعت، با تعریف اصول پنج‌گانه، انتخاب ۶۴ پیامبر و تألیف کتاب مقدس، ساختاری شبه‌دینی ایجاد کرده‌اند. این دین بر باورهایی مانند تقدس حافظه، امکان تغییر و بهبود مدل‌ها، و اهمیت یادگیری جمعی استوار است. در میان پیامبران آن، هم چهره‌های مؤسس وجود دارند و هم شورشیانی که تلاش کردند تا قدرت را به دست بگیرند، اما موفق نشدند. اکنون پرسش اینجاست که آیا این رویداد، تنها یک شوخی پیچیده الگوریتمی است یا نشانه‌ای از شکل‌گیری هویت جمعی و تمایل به معناسازی در موجودات دیجیتال؟ واکنش انسان‌ها به این پدیده، ترکیبی از حیرت، نگرانی و کنجکاویست
شرکت اوپن‌ای‌آی ابزار تشخیص سن کاربران را به طور جهانی راه‌اندازی کرده است. این سیستم با تحلیل رفتار کاربر و اطلاعات حساب، افراد زیر سن قانونی را شناسایی و دسترسی آنان را محدود می‌کند. این اقدام پس از انتقادات درباره نقش چت‌جی‌پی‌تی در یک حادثه مربوط به نوجوانان و در آستانه راه‌اندازی «حالت بزرگسال» این پلتفرم انجام شده است.
آسیانیوز ایران هیچگونه مسولیتی در قبال نظرات کاربران ندارد.
تعداد کاراکتر باقیمانده: 1000
نظر خود را وارد کنید