۲۴ مهر ۱۴۰۴ ۲۰:۰۰
شما از یک چتبات در حوزه تخصصی خود سوال میپرسید و پاسخ میگیرید؛ پاسخی نادرست اما با لحنی کاملاً مطمئن و فریبنده. کاظم عاشوری گیلده، محقق و نویسنده، در تحلیل اخیر خود برای آسیانیوز ایران، از این پدیده به نام "توهم هوش مصنوعی" (Hallucination) یاد میکند و هشدار میدهد که مدلهای زبانی بزرگ (LLM) برای "احتمال" بهینه شدهاند، نه برای "حقیقت". این مقاله به بررسی ریشههای این خطاها، خطرات باور کردن آنها و ارائه ۸ راهکار عملی برای کاربران عادی و متخصص میپردازد.