چهارشنبه / ۱ بهمن ۱۴۰۴ / ۲۳:۱۰
کد خبر: 36123
گزارشگر: 548
۲۷
۰
۰
۱
در پی انتقادات و حوادث مرتبط با نوجوانان

هوش مصنوعی هم محدودیت سنی گذاشت!

هوش مصنوعی هم محدودیت سنی گذاشت!
شرکت اوپن‌ای‌آی ابزار تشخیص سن کاربران را به طور جهانی راه‌اندازی کرده است. این سیستم با تحلیل رفتار کاربر و اطلاعات حساب، افراد زیر سن قانونی را شناسایی و دسترسی آنان را محدود می‌کند. این اقدام پس از انتقادات درباره نقش چت‌جی‌پی‌تی در یک حادثه مربوط به نوجوانان و در آستانه راه‌اندازی «حالت بزرگسال» این پلتفرم انجام شده است.

آسیانیوز ایران؛ سرویس علم و تکنولوژی:

موج رعایت حریم شخصی و ایمنی کودکان در فضای مجازی، این بار به دنیای هوش مصنوعی هم رسیده است. شرکت اوپن‌ای‌آی، خالق چت‌جی‌پی‌تی، به تازگی اعلام کرده که یک ابزار جهانی برای تشخیص سن کاربران راه‌اندازی کرده است. هدف از این اقدام، شناسایی کاربران زیر سن قانونی و اعمال محدودیت‌های لازم برای محافظت از آنان در برابر محتوای نامناسب یا خطرناک است. این حرکت واکنشی است به انتقادات فزاینده درباره مسئولیت اخلاقی شرکت‌های هوش مصنوعی در قبال کاربران خردسال. بر اساس اطلاعیه اوپن‌ای‌آی، این مدل تشخیصی ترکیبی از چندین سیگنال را بررسی می‌کند: مدت زمان فعالیت حساب کاربری، ساعات معمول فعالیت کاربر در طول روز، الگوهای استفاده از پلتفرم در طول زمان و سنی که کاربر خود اعلام کرده است.

اگر سیستم به اشتباه کاربری را زیر سن قانونی تشخیص دهد، روشی برای اصلاح این خطا در نظر گرفته شده است: کاربر باید یک عکس سلفی ارسال کند تا از طریق پلتفرم تأیید هویت «پرسونا» سن واقعی او بررسی و تأیید شود. این اقدام در حالی صورت می‌گیرد که اوپن‌ای‌آی پیشتر در یک پرونده قتل غیرعمد تحت تعقیب قرار گرفت. در این پرونده ادعا شده بود یک نوجوان از چت‌جی‌پی‌تی برای برنامه‌ریزی خودکشی خود استفاده کرده است. پس از این حادثه بود که شرکت به فکر تقویت محدودیت‌های خودکار محتوا برای کاربران کم‌سن و تشکیل شورای مشاوره سلامت روان افتاد.

اکنون به نظر می‌رسد اوپن‌ای‌آی در حال آماده‌سازی قابلیت جدیدی به نام «حالت بزرگسال» است. این حالت به کاربران مجاز اجازه خواهد داد محتوای مخصوص بزرگسالان را تولید و مصرف کنند. با این حال، تجربه مشابه در پلتفرم «رابلوکس» که سابقه متزلزلی در حفاظت از کودکان دارد، چندان موفق نبوده است. این سابقه نشان می‌دهد نوجوانان اگر مصمم باشند، راه‌هایی برای دور زدن این محدودیت‌ها پیدا خواهند کرد. حرکت اوپن‌ای‌آی بخشی از روند گسترده‌تر در صنعت فناوری است که در آن شرکت‌ها پس از رویارویی با عواقب منفی، به فکر افزایش محافظت‌های ایمنی می‌افتند. پرسش اینجاست که آیا این اقدامات دیرهنگام می‌تواند آسیب‌های قبلی را جبران کند و آینده امن‌تری برای کاربران جوان بسازد؟

انگیزه‌ها و فشارهای پشت این تصمیم: از مسؤولیت اجتماعی تا اجبار قانونی

تصمیم اوپن‌ای‌آی برای اعمال محدودیت سنی را می‌توان در چارچوب چند عامل تحلیل کرد:

  1. اول، فشار افکار عمومی و رسانه‌ها پس از حوادثی مانند برنامه‌ریزی خودکشی نوجوانان که اعتبار اخلاقی شرکت را خدشه‌دار کرد.
  2. دوم، الزامات قانونی فزاینده مانند قانون حفاظت از حریم خصوصی کودکان در فضای آنلاین (COPPA) در آمریکا و مقررات عمومی حفاظت از داده‌ها (GDPR) در اروپا که شرکت‌ها را ملزم به محافظت ویژه از داده‌های کودکان می‌کند.
  3. سوم، رقابت در حوزه اخلاق هوش مصنوعی و تلاش برای پیشدستی در ایجاد استانداردهای ایمنی. این اقدام نشان می‌دهد شرکت‌های فناوری به تدریج از رویکرد «اول عرضه کن، بعد اصلاح کن» فاصله می‌گیرند، زیرا هزینه‌های حقوقی و اعتباری این رویکرد بسیار بالا رفته است.

فناوری تشخیص سن: ترکیب تحلیل رفتاری و احراز هویت بیومتریک

سیستم پیشنهادی اوپن‌ای‌آی یک رویکرد چندلایه است:

  • لایه رفتاری

    تحلیل الگوهای استفاده مانند زمان فعالیت (که برای نوجوانان در ساعات مدرسه متفاوت است)، مدت عمر حساب و تناوب استفاده. این روش غیرمستقیم اما ممکن است با خطا مواجه باشد (مثلاً یک بزرگسال با الگوی کاری نامنظم).
  • لایه اعلامی

    سنی که کاربر خود ثبت کرده که به سادگی قابل دستکاری است.
  • لایه بیومتریک (احراز هویت)

    در صورت اعتراض کاربر، از او خواسته می‌شود سلفی ارسال کند تا توسط سرویس شخصا تأیید شود.

این روش مؤثرتر اما مشکلات حریم خصوصی جدی ایجاد می‌کند. ذخیره و پردازش تصاویر بیومتریک کاربران، خطر سوءاستفاده و نشت داده را افزایش می‌دهد و نیازمند استانداردهای امنیتی بسیار بالا است.

چالش دور زدن محدودیت‌ها و شکست مدل «رابلوکس»

تاریخچه فناوری نشان داده که نوجوانان در دور زدن محدودیت‌های سنی بسیار مبتکر هستند. تجربه پلتفرم رابلوکس که برای بازی کودکان طراحی شده اما پر از محتوای نامناسب است، گواه این موضوع است. نوجوانان می‌توانند از حساب والدین خود استفاده کنند، اطلاعات جعلی وارد کنند، از VPN برای تغییر موقعیت جغرافیایی بهره ببرند یا حتی نرم‌افزارهای جانبی برای فریب سیستم‌های تشخیصی ایجاد کنند. بنابراین، هر سیستم مبتنی بر «اعتماد به اعلام کاربر» یا حتی تحلیل رفتاری، آسیب‌پذیر است. راه‌حل نهایی احتمالاً نیازمند احراز هویت سخت‌گیرانه‌تر (مانند ارتباط با مدارک شناسایی رسمی) است که خود با مسائل حریم خصوصی و شمول دیجیتال در تعارض است.

مفهوم «حالت بزرگسال» و دلالت‌های آن برای آزادی بیان و خلاقیت

طرح «حالت بزرگسال» نشان می‌دهد اوپن‌ای‌آی می‌خواهد ضمن محافظت از کودکان، دست کاربران بزرگسال را برای تولید و مصرف طیف وسیع‌تری از محتوا باز بگذارد. این می‌تواند شامل موضوعات پیچیده، خشن، سیاسی یا دارای بار عاطفی شدید باشد. اما این رویکرد چند خطر دارد:

  1. اول، ایجاد یک اینترنت دو قطبی که در آن فضای «ایمن» برای کودکان و فضای «آزاد» برای بزرگسالان کاملاً جدا می‌شود.
  2. دوم، مشکل تعریف «محتوای بزرگسالان»— آیا فقط محتوای جنسی است یا بحث‌های فلسفی درباره مرگ و خشونت را هم شامل می‌شود؟
  3. سوم، خطر سوءاستفاده: حتی در حالت بزرگسالان نیز باید محدودیت‌هایی علیه تولید محتوای خطرناک (مانند ساخت سلاح) وجود داشته باشد.

تعادل بین آزادی و ایمنی در این حالت به یک چالش مدیریت محتوا تبدیل خواهد شد.

آینده نظارت بر هوش مصنوعی و نقش نهادهای مستقل

اقدام اوپن‌ای‌آی بخشی از یک تحول بزرگ‌تر است: انتقال از خودتنظیمی صنعت به نظارت بیرونی. تشکیل «شورای مشاوره سلامت روان» توسط اوپن‌ای‌آی گامی در این جهت است، اما آیا یک شورای داخلی منتخب خود شرکت می‌تواند بی‌طرف باشد؟ فشارهای آینده احتمالاً منجر به ایجاد نهادهای مستقل نظارتی بر هوش مصنوعی — شاید شبیه به سازمان‌های نظارت بر دارو یا هواپیمایی — خواهد شد. این نهادها می‌توانند استانداردهای اجباری برای محافظت از گروه‌های آسیب‌پذیر (کودکان، افراد دارای بیماری روانی) تعیین کنند. در این صورت، ابزار تشخیص سن تنها اولین گام کوچک در یک منظومه بزرگ‌تر از مقررات ایمنی هوش مصنوعی خواهد بود که هم از کاربران محافظت می‌کند و هم بار مسئولیت حقوقی را از دوش شرکت‌ها برمی‌دارد.

https://www.asianewsiran.com/u/igl
اخبار مرتبط
هوش مصنوعی روزبه‌روز در تولید چهره‌های انسانی واقع‌گراتر می‌شود؛ تا جایی که حتی «اَبَرتشخیص‌دهنده‌ها»، یعنی همان افرادی که توانایی فوق‌العاده در تشخیص چهره دارند نیز در شناسایی تصاویر جعلی عملکردی چشمگیر نداشتند. با این حال، یک پژوهش تازه نشان می‌دهد که آموزش کوتاه‌مدت می‌تواند این ضعف را تا حد قابل‌توجهی جبران کند. پژوهشی که در نشریه علمی Royal Society Open Science منتشر شده، تصاویر چهره‌ای که با هوش مصنوعی تولید می‌شوند آن‌قدر واقعی‌اند که حتی افراد دارای مهارت‌های استثنایی در پردازش چهره نیز اغلب فریب می‌خورند. افراد با توانایی تشخیص معمولی، حتی عملکرد ضعیف‌تری دارند و در بیشتر موارد، چهره‌های تولیدشده با هوش مصنوعی را واقعی تلقی می‌کنند.
انتخاب نام فرزند یکی از شخصی‌ترین تصمیم‌های زندگی است، اما زوجی تصمیم گرفتند این وظیفه را به هوش مصنوعی بسپارند و صدای اعتراض همه را درآوردند. اقدامی که بسیاری آن را مرگ خلاقیت انسانی و فرار از مسئولیت‌های اولیه والدگری نامیده‌اند. سارا و استیون وینکلر اعتراف کردند که برای پیداکردن نامی هماهنگ با نام خانوادگی‌شان، دست‌به‌دامان ChatGPT شده‌اند. مادر و پدر از چت‌بات خواستند نام‌های پسرانه‌ای را پیشنهاد دهد که با «وینکلر» هم‌خوانی داشته باشد و حتی برای انتخاب نام میانی هم از همین ابزار کمک گرفتند. نتیجه‌ی تعامل ماشینی، تولد نوزادی با نام «هادسون اوکلی وینکلر» بود؛ ترکیبی که اگرچه خوش‌آهنگ است، بلافاصله با برچسب‌هایی نظیر بی‌روح، تکراری و نامی مخصوص نسل هزاره، از سوی کاربران اینترنت بمباران شد.
گزارش مؤسسه آکسفورد اینسایتس، عربستان سعودی را در رتبه هفتم جهان و نخست خاورمیانه در شاخص آمادگی دولت‌ها برای هوش مصنوعی در سال ۲۰۲۵ قرار داد. این موفقیت با حمایت مستقیم محمد بن سلمان از سازمان داده و هوش مصنوعی عربستان محقق شده و نشان از سرعت بالای دیجیتالی‌سازی خدمات عمومی در این کشور دارد. در مقابل، انتقادها از نگاه امنیتی و فیلترینگ‌محور ایران به فناوری شدت گرفته و هشدار می‌دهند کشور در خطر تبدیل شدن به یک «جزیره عقب‌مانده دیجیتال» است.
آسیانیوز ایران هیچگونه مسولیتی در قبال نظرات کاربران ندارد.
تعداد کاراکتر باقیمانده: 1000
نظر خود را وارد کنید