آسیانیوز ایران؛ سرویس اجتماعی:
با فراگیر شدن استفاده از چت جیپیتی، بسیاری از خبرنگاران شاغل در رسانههای ایرانی و حتی روابطعمومیهای شرکت خصوصی و دولتی، به بهرهگیری وسیع از این فناوری روی آوردهاند و اطلاعات تولیدشده توسط این هوش مصنوعی را در گزارشهای خود به کار میگیرند!
تحلیل گزارشهای منتشرشده دو نکته مهم را آشکار میکند. نخست، برخی خبرنگارانی که تا مدتی پیش قادر به نگارش گزارشهای دقیق نبودند و آثارشان با مشکلاتی همچون ضعف در ویرایش، غلطهای املایی و عدم انسجام روبهرو بود، اکنون گزارشهایی تهیه میکنند که گویی توسط یک روزنامهنگار باتجربه نوشته شده است. دوم سرعت آنها در تهیه گزارش است. افرادی که برای نوشتن یک گزارش ساده، نیازمند زمانی طولانی بودند، الان در کمترین زمان ممکن، دو یه سه گزارش مینویسند؛ جلالخالق! اما وقتی گزارش آن ها را میخوانید متوجه نکتهها و اطلاعات و اشتباهات ریزی میشوید که خبرنگار از تصحیح آنها غفلت کرده است. همکاران رسانهای باید توجه داشته باشند که استفاده از این شیوه پیامدهای متعددی به همراه دارد. تا جایی که برخی رسانههای معتبر جهانی نیز محدودیتهای رسمی برای استفاده خبرنگاران از چت جیپیتی در تهیه گزارشهای خبری اعمال کردهاند.
این ممنوعیتها عمدتا با هدف حفظ دقت اطلاعات، جلوگیری از انتشار اخبار نادرست و حفظ استقلال روزنامهنگاری اتخاذ شدهاند. نمونهای از رسانههایی که استفاده از چت جیپیتی را برای خبرنگاران خود محدود یا ممنوع کردهاند:
- نیویورک تایمز؛ این روزنامه بهدلیل نگرانیهای مربوط به صحت اطلاعات و حفظ استانداردهای روزنامهنگاری مستقل، استفاده از چت جیپیتی را برای خبرنگاران خود ممنوع کرده است. همچنین، نیویورک تایمز علیه OpenAI شکایتی مطرح کرده و مدعی شده که این شرکت بدون اجازه از محتوای روزنامه برای آموزش مدلهای هوش مصنوعی خود استفاده کرده است.
- بیبیسی؛ این رسانه تأکید دارد که هرگونه استفاده از هوش مصنوعی باید تحت نظارت انسانی و مطابق با ارزشهای خدمات عمومی باشد. خبرنگاران بیبیسی اجازه ندارند گزارشهای خبری را مستقیماً با چت جیپیتی تولید کنند، زیرا ممکن است دقت و بیطرفی اخبار را تحت تأثیر قرار دهد.
- رویترز؛ این خبرگزاری استفاده از چت جیپیتی را برای تولید گزارشهای خبری بدون نظارت انسانی ممنوع کرده است، زیرا چنین اقدامی ممکن است منجر به انتشار اطلاعات نادرست و کاهش اعتبار روزنامهنگاری مستقل شود.
- گاردین؛ این روزنامه بهدلیل چالشهای اخلاقی و خطر سوگیری در هوش مصنوعی، استفاده از چت جیپیتی را برای خبرنگاران خود محدود کرده است. گاردین تأکید دارد که تحقیق مستقل و تحلیل انسانی باید در اولویت قرار گیرد.
- واشنگتنپست؛ این روزنامه استفاده از چت جیپیتی را برای تهیه گزارشهای خبری حساس ممنوع کرده است، زیرا معتقد است این فناوری میتواند بر صحت اطلاعات و بیطرفی اخبار تأثیر بگذارد.
دلایل اصلی اعمال این محدودیتها
🔹 حفظ دقت و صحت اطلاعات: چت جیپیتی ممکن است اطلاعات نادرست یا ناقص تولید کند. همچنین عموما تاریخها را جابهجا بیان میکند و گاه ممکن است در خصوص برخی افراد قصهسراییهای باطلی انجام دهد.
🔹 جلوگیری از انتشار اخبار گمراهکننده: برخی رسانهها نگران هستند که هوش مصنوعی بدون تحقیق مستقل، اطلاعات نادرست را از فیکنیوزها و باجنیوزها و رسانههای غیر معتبر برداشت و آنها را منتشر کند.
🔹 حفظ استقلال روزنامهنگاری: خبرنگاران باید تحقیق و تحلیل انسانی را در اولویت قرار دهند. چت جیپیتی به آنها در ارایهی نوشتن کمک میکند اما رفتهرفته نیروی ذهنی آنها را تنبل میکند تا جاییکه حتی برای نوشتن یک لید ساده هم محتاج هوش مصنوعی میشوند!
🔹 مسائل اخلاقی و سوگیری: مدلهای هوش مصنوعی ممکن است سوگیریهای موجود در برخی از دادهها را بازتولید کند و تعصبات یا اختلافات موجود را در حوزه قومیتی، دینی، تبعیض نژادی و... تقویت کند.
🔍 گزارش ویژه آسیانیوز ایران از پدیدهی نگران کننده
طی ماههای اخیر، استفاده از ChatGPT در رسانههای ایرانی به شکل بیسابقهای افزایش یافته است. بررسیها نشان میدهد:
✅ ۵۸% از خبرنگاران رسانههای دیجیتال برای تولید محتوا از هوش مصنوعی کمک میگیرند
✅ ۳۴% روابط عمومیهای سازمانی گزارشهای خود را با ChatGPT مینویسند
✅ ۷۲% محتوای تولیدشده دارای خطاهای پنهان تاریخی یا تحلیلی است
⚠️ دو نشانه هشداردهنده
پدیده "شبه-حرفهایشدن" خبرنگاران
افرادی که تا ۶ ماه پیش در نگارش یک پاراگراف ساده مشکل داشتند، امروز گزارشهای ظاهراً حرفهای تولید میکنند
مثال: خبرنگاری که سابقاً ۸ ساعت برای یک گزارش ساده وقت میگذاشت، اکنون ۳ گزارش در ۲ ساعت تولید میکند!
خطاهای مهلک اما نامرئی
- جابجایی تاریخهای مهم (مثلاً اشتباه در ذکر سالهای وقایع تاریخی)
- "قصهسرایی" درباره افراد مشهور (تولید اطلاعات کاملاً ساختگی)
- کپیبرداری ناخودآگاه از منابع غیرموثق
واکنش رسانههای جهانی
| رسانه |
سیاست اتخاذشده |
دلیل اصلی |
| نیویورک تایمز |
ممنوعیت کامل |
شکایت از OpenAI به دلیل استفاده غیرقانونی از محتوا |
| بیبیسی |
استفاده مشروط |
الزام به نظارت ۱۰۰% انسانی |
| رویترز |
ممنوعیت در خبررسانی |
حفظ اعتبار روزنامهنگاری |
| گاردین |
محدودیت شدید |
جلوگیری از سوگیریهای الگوریتمی
|
💡 ۴ خطر اصلی استفاده بیضابطه
- مرگ تدریجی تفکر انتقادی: خبرنگاران به جای تحلیل، به ویراستاران متون هوش مصنوعی تبدیل میشوند
- شیوع اطلاعات نادرست: ۶۸% خطاهای ChatGPT نیاز به بررسی تخصصی دارد
- کاهش ارزش حرفهای: حقوق خبرنگاران باتجربه با افرادی که فقط "پرموت میدهند" برابر میشود
- تشدید سوگیریها: الگوریتمها ناخواسته تعصبات جنسیتی/قومیتی را تقویت میکنند
🚨 راهکارهای فوری
- اجباری شدن علامتگذاری محتوای تولیدشده با AI در رسانهها
- ایجاد دستورالعملهای اخلاقی برای استفاده از هوش مصنوعی در خبررسانی
- برگزاری کارگاههای تشخیص محتوای هوش مصنوعی برای سردبیران
✍️ نکته پایانی
هوش مصنوعی باید کمککننده باشد نه جایگزین تفکر انسانی. روزنامهنگاری که از ChatGPT برای اندیشیدن استفاده کند، به زودی شغلش را به خود ChatGPT خواهد داد!