ایتنافناوری

هوش مصنوعی هم می‌تواند مثل انسان‌ها متوهم و مغرض باشد

پژوهشی که به‌تازگی در نشریهٔ Manufacturing & Service Operations Management منتشر شده، نشان می‌دهد که سامانهٔ چت‌بات ChatGPT در تقریباً نیمی از سناریوهای آزمایشی، دچار سوگیری‌های شناختی شناخته‌شده‌ای شد که پیش‌تر تنها در انسان‌ها مشاهده می‌شد.

به گزارش ایتنا و به نقل از لایوساینس، این اولین مطالعه‌ای است که عملکرد مدل‌های زبانی GPT-3.5 و GPT-4 در برابر ۱۸ نوع از رایج‌ترین سوگیری‌های روان‌شناختی انسان بررسی می‌کند.
 
این تحقیق توسط گروهی از پژوهشگران پنج دانشگاه در کانادا و استرالیا انجام شده و تمرکز آن بر بررسی رفتار این مدل‌های هوش مصنوعی در تصمیم‌گیری‌های تجاری، روان‌شناختی و موقعیت‌های فرضی بوده است.
 

مطلب مشابه: محققین “توهمات” هوش مصنوعی را چگونه تشخیص می‌دهند؟

شباهت عجیب میان انسان و ماشین
 یافته‌ها نشان می‌دهد که با وجود ثبات چشمگیر در استدلال‌های GPT، این مدل‌ها در مقابل خطاهای شناختی بشر مصون نیستند.

یانگ چن (استاد مدیریت عملیات در مدرسهٔ کسب‌وکار آیوی و نویسندهٔ اصلی مطالعه) می‌گوید: «مدیران زمانی بیشترین بهره را از این ابزارها خواهند برد که از آن‌ها در مسائلی با پاسخ‌های روشن و فرمول‌محور استفاده کنند. اما در تصمیم‌هایی که وابسته به ترجیحات شخصی یا قضاوت‌های ذهنی هستند، باید با احتیاط عمل کرد.»
 
محققان سوگیری‌هایی همچون ریسک‌گریزی، توهم دانایی و اثر مالکیت (که در آن افراد به چیزی که مالکش هستند ارزش بیشتری می‌دهند) را به چالش کشیدند و بررسی کردند که آیا ChatGPT در این دام‌ها گرفتار می‌شود یا خیر.
 
وقتی تصمیمات غیرمنطقی ظاهر می‌شوند
 در این پژوهش، از پرسش‌های فرضی برگرفته از آزمایش‌های کلاسیک روان‌شناسی استفاده شد. این پرسش‌ها همچنین در بستر موقعیت‌های واقعی مانند مدیریت موجودی انبار یا مذاکره با تأمین‌کنندگان نیز بازنویسی شدند. هدف این بود که مشخص شود آیا مدل‌های GPT فقط در قالب‌های روان‌شناختی دچار خطا می‌شوند یا در مسائل عملی تجاری نیز همان سوگیری‌ها را نشان می‌دهند.
 
 

نتایج نشان داد GPT-4 در مسائل منطقی و ریاضی عملکرد بهتری نسبت به GPT-3.5 دارد و کمتر دچار اشتباه در احتمالات و منطق می‌شود. اما در سناریوهای ذهنی، مانند انتخاب بین گزینه‌ای پرریسک یا امن، گاهی همان ترجیحات غیرعقلانی انسان‌ها را تکرار می‌کرد.
 
در بخشی از مطالعه آمده: «GPT-4 حتی تمایل بیشتری نسبت به انسان‌ها به انتخاب گزینه‌های قطعی و قابل‌پیش‌بینی دارد»، که به سوگیری برای اطمینان اشاره دارد؛ یعنی ترجیح گزینه‌ای که نتیجه‌اش مشخص‌تر است، حتی اگر از نظر منطقی بهینه نباشد.
 
سوگیری‌هایی که تقویت می‌شوند
 شاید شگفت‌آورترین نتیجه این باشد که GPT-4 گاهی خطاهای شناختی را بیش‌ازپیش تشدید می‌کند. در یکی از آزمون‌ها مربوط به سوگیری تأیید، GPT-4 همواره پاسخ‌های مغرضانه ارائه داد. همچنین در خطای معروف «دست داغ» (باور به وجود الگو در پدیده‌های تصادفی)، این مدل بیشتر از GPT-3.5 دچار اشتباه شد.
 
با این حال، ChatGPT موفق شد از برخی سوگیری‌های انسانی دیگر بپرهیزد. از جمله، در برابر بی‌توجهی به نرخ پایه (نادیده‌گرفتن آمار کلی به نفع اطلاعات خاص) و مغلطهٔ هزینهٔ ازدست‌رفته (تأثیر هزینهٔ قبلاً پرداخت‌شده بر تصمیم‌گیری‌های فعلی) مقاومت نشان داد.
 

در همین رابطه: توهمات هوش مصنوعی: چرا مدل‌های پیشرفته بیشتر دچار خطا می‌شوند؟

تکرار خطاهای انسانی، محصول داده‌های انسانی
 به گفتهٔ پژوهشگران، دلیل بروز این سوگیری‌ها در مدل‌های GPT، استفاده از داده‌هایی است که خود از رفتارها و زبان مغرضانهٔ انسان‌ها تشکیل شده‌اند. این سوگیری‌ها سپس در مرحلهٔ آموزش با بازخورد انسانی تقویت می‌شوند، چراکه پاسخ‌های قابل‌قبول و طبیعی معمولاً ترجیح داده می‌شوند، حتی اگر منطقی نباشند.
 
یانگ چن توصیه می‌کند: «اگر خواهان تصمیم‌گیری دقیق و بدون سوگیری هستید، از GPT در همان زمینه‌هایی استفاده کنید که به ماشین‌حساب اعتماد دارید.» در شرایطی که تصمیم‌گیری بیشتر به ورودی‌های استراتژیک یا ذهنی وابسته است، نظارت انسانی همچنان لازم است — حتی اگر فقط در قالب تنظیم دقیق پرسش‌ها برای کاهش خطا باشد.
 
مینا اندیاپان (استاد مدیریت منابع انسانی در دانشگاه مک‌مستر کانادا و از نویسندگان این مطالعه) نیز تأکید دارد: «هوش مصنوعی باید مانند یک کارمند تلقی شود؛ کارمندی که تصمیم‌های مهم می‌گیرد و نیاز به نظارت و دستورالعمل‌های اخلاقی دارد. در غیر این صورت، به‌جای بهبود تصمیم‌گیری، ممکن است به خودکارسازی تفکر معیوب منجر شود.»

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اخبار مشابه

دکمه بازگشت به بالا