آسیانیوز ایران؛ سرویس علم و تکنولوژی:
موج رعایت حریم شخصی و ایمنی کودکان در فضای مجازی، این بار به دنیای هوش مصنوعی هم رسیده است. شرکت اوپنایآی، خالق چتجیپیتی، به تازگی اعلام کرده که یک ابزار جهانی برای تشخیص سن کاربران راهاندازی کرده است. هدف از این اقدام، شناسایی کاربران زیر سن قانونی و اعمال محدودیتهای لازم برای محافظت از آنان در برابر محتوای نامناسب یا خطرناک است. این حرکت واکنشی است به انتقادات فزاینده درباره مسئولیت اخلاقی شرکتهای هوش مصنوعی در قبال کاربران خردسال. بر اساس اطلاعیه اوپنایآی، این مدل تشخیصی ترکیبی از چندین سیگنال را بررسی میکند: مدت زمان فعالیت حساب کاربری، ساعات معمول فعالیت کاربر در طول روز، الگوهای استفاده از پلتفرم در طول زمان و سنی که کاربر خود اعلام کرده است.
اگر سیستم به اشتباه کاربری را زیر سن قانونی تشخیص دهد، روشی برای اصلاح این خطا در نظر گرفته شده است: کاربر باید یک عکس سلفی ارسال کند تا از طریق پلتفرم تأیید هویت «پرسونا» سن واقعی او بررسی و تأیید شود. این اقدام در حالی صورت میگیرد که اوپنایآی پیشتر در یک پرونده قتل غیرعمد تحت تعقیب قرار گرفت. در این پرونده ادعا شده بود یک نوجوان از چتجیپیتی برای برنامهریزی خودکشی خود استفاده کرده است. پس از این حادثه بود که شرکت به فکر تقویت محدودیتهای خودکار محتوا برای کاربران کمسن و تشکیل شورای مشاوره سلامت روان افتاد.
اکنون به نظر میرسد اوپنایآی در حال آمادهسازی قابلیت جدیدی به نام «حالت بزرگسال» است. این حالت به کاربران مجاز اجازه خواهد داد محتوای مخصوص بزرگسالان را تولید و مصرف کنند. با این حال، تجربه مشابه در پلتفرم «رابلوکس» که سابقه متزلزلی در حفاظت از کودکان دارد، چندان موفق نبوده است. این سابقه نشان میدهد نوجوانان اگر مصمم باشند، راههایی برای دور زدن این محدودیتها پیدا خواهند کرد. حرکت اوپنایآی بخشی از روند گستردهتر در صنعت فناوری است که در آن شرکتها پس از رویارویی با عواقب منفی، به فکر افزایش محافظتهای ایمنی میافتند. پرسش اینجاست که آیا این اقدامات دیرهنگام میتواند آسیبهای قبلی را جبران کند و آینده امنتری برای کاربران جوان بسازد؟
انگیزهها و فشارهای پشت این تصمیم: از مسؤولیت اجتماعی تا اجبار قانونی
تصمیم اوپنایآی برای اعمال محدودیت سنی را میتوان در چارچوب چند عامل تحلیل کرد:
- اول، فشار افکار عمومی و رسانهها پس از حوادثی مانند برنامهریزی خودکشی نوجوانان که اعتبار اخلاقی شرکت را خدشهدار کرد.
- دوم، الزامات قانونی فزاینده مانند قانون حفاظت از حریم خصوصی کودکان در فضای آنلاین (COPPA) در آمریکا و مقررات عمومی حفاظت از دادهها (GDPR) در اروپا که شرکتها را ملزم به محافظت ویژه از دادههای کودکان میکند.
- سوم، رقابت در حوزه اخلاق هوش مصنوعی و تلاش برای پیشدستی در ایجاد استانداردهای ایمنی. این اقدام نشان میدهد شرکتهای فناوری به تدریج از رویکرد «اول عرضه کن، بعد اصلاح کن» فاصله میگیرند، زیرا هزینههای حقوقی و اعتباری این رویکرد بسیار بالا رفته است.
فناوری تشخیص سن: ترکیب تحلیل رفتاری و احراز هویت بیومتریک
سیستم پیشنهادی اوپنایآی یک رویکرد چندلایه است:
-
لایه رفتاری
تحلیل الگوهای استفاده مانند زمان فعالیت (که برای نوجوانان در ساعات مدرسه متفاوت است)، مدت عمر حساب و تناوب استفاده. این روش غیرمستقیم اما ممکن است با خطا مواجه باشد (مثلاً یک بزرگسال با الگوی کاری نامنظم).
-
لایه اعلامی
سنی که کاربر خود ثبت کرده که به سادگی قابل دستکاری است.
-
لایه بیومتریک (احراز هویت)
در صورت اعتراض کاربر، از او خواسته میشود سلفی ارسال کند تا توسط سرویس شخصا تأیید شود.
این روش مؤثرتر اما مشکلات حریم خصوصی جدی ایجاد میکند. ذخیره و پردازش تصاویر بیومتریک کاربران، خطر سوءاستفاده و نشت داده را افزایش میدهد و نیازمند استانداردهای امنیتی بسیار بالا است.
چالش دور زدن محدودیتها و شکست مدل «رابلوکس»
تاریخچه فناوری نشان داده که نوجوانان در دور زدن محدودیتهای سنی بسیار مبتکر هستند. تجربه پلتفرم رابلوکس که برای بازی کودکان طراحی شده اما پر از محتوای نامناسب است، گواه این موضوع است. نوجوانان میتوانند از حساب والدین خود استفاده کنند، اطلاعات جعلی وارد کنند، از VPN برای تغییر موقعیت جغرافیایی بهره ببرند یا حتی نرمافزارهای جانبی برای فریب سیستمهای تشخیصی ایجاد کنند. بنابراین، هر سیستم مبتنی بر «اعتماد به اعلام کاربر» یا حتی تحلیل رفتاری، آسیبپذیر است. راهحل نهایی احتمالاً نیازمند احراز هویت سختگیرانهتر (مانند ارتباط با مدارک شناسایی رسمی) است که خود با مسائل حریم خصوصی و شمول دیجیتال در تعارض است.
مفهوم «حالت بزرگسال» و دلالتهای آن برای آزادی بیان و خلاقیت
طرح «حالت بزرگسال» نشان میدهد اوپنایآی میخواهد ضمن محافظت از کودکان، دست کاربران بزرگسال را برای تولید و مصرف طیف وسیعتری از محتوا باز بگذارد. این میتواند شامل موضوعات پیچیده، خشن، سیاسی یا دارای بار عاطفی شدید باشد. اما این رویکرد چند خطر دارد:
- اول، ایجاد یک اینترنت دو قطبی که در آن فضای «ایمن» برای کودکان و فضای «آزاد» برای بزرگسالان کاملاً جدا میشود.
- دوم، مشکل تعریف «محتوای بزرگسالان»— آیا فقط محتوای جنسی است یا بحثهای فلسفی درباره مرگ و خشونت را هم شامل میشود؟
- سوم، خطر سوءاستفاده: حتی در حالت بزرگسالان نیز باید محدودیتهایی علیه تولید محتوای خطرناک (مانند ساخت سلاح) وجود داشته باشد.
تعادل بین آزادی و ایمنی در این حالت به یک چالش مدیریت محتوا تبدیل خواهد شد.
آینده نظارت بر هوش مصنوعی و نقش نهادهای مستقل
اقدام اوپنایآی بخشی از یک تحول بزرگتر است: انتقال از خودتنظیمی صنعت به نظارت بیرونی. تشکیل «شورای مشاوره سلامت روان» توسط اوپنایآی گامی در این جهت است، اما آیا یک شورای داخلی منتخب خود شرکت میتواند بیطرف باشد؟ فشارهای آینده احتمالاً منجر به ایجاد نهادهای مستقل نظارتی بر هوش مصنوعی — شاید شبیه به سازمانهای نظارت بر دارو یا هواپیمایی — خواهد شد. این نهادها میتوانند استانداردهای اجباری برای محافظت از گروههای آسیبپذیر (کودکان، افراد دارای بیماری روانی) تعیین کنند. در این صورت، ابزار تشخیص سن تنها اولین گام کوچک در یک منظومه بزرگتر از مقررات ایمنی هوش مصنوعی خواهد بود که هم از کاربران محافظت میکند و هم بار مسئولیت حقوقی را از دوش شرکتها برمیدارد.