
به گزارش ایتنا و به نقل از لایوساینس، این اولین مطالعهای است که عملکرد مدلهای زبانی GPT-3.5 و GPT-4 در برابر ۱۸ نوع از رایجترین سوگیریهای روانشناختی انسان بررسی میکند.
این تحقیق توسط گروهی از پژوهشگران پنج دانشگاه در کانادا و استرالیا انجام شده و تمرکز آن بر بررسی رفتار این مدلهای هوش مصنوعی در تصمیمگیریهای تجاری، روانشناختی و موقعیتهای فرضی بوده است.
مطلب مشابه: محققین “توهمات” هوش مصنوعی را چگونه تشخیص میدهند؟
شباهت عجیب میان انسان و ماشین
یافتهها نشان میدهد که با وجود ثبات چشمگیر در استدلالهای GPT، این مدلها در مقابل خطاهای شناختی بشر مصون نیستند.
یانگ چن (استاد مدیریت عملیات در مدرسهٔ کسبوکار آیوی و نویسندهٔ اصلی مطالعه) میگوید: «مدیران زمانی بیشترین بهره را از این ابزارها خواهند برد که از آنها در مسائلی با پاسخهای روشن و فرمولمحور استفاده کنند. اما در تصمیمهایی که وابسته به ترجیحات شخصی یا قضاوتهای ذهنی هستند، باید با احتیاط عمل کرد.»
محققان سوگیریهایی همچون ریسکگریزی، توهم دانایی و اثر مالکیت (که در آن افراد به چیزی که مالکش هستند ارزش بیشتری میدهند) را به چالش کشیدند و بررسی کردند که آیا ChatGPT در این دامها گرفتار میشود یا خیر.
وقتی تصمیمات غیرمنطقی ظاهر میشوند
در این پژوهش، از پرسشهای فرضی برگرفته از آزمایشهای کلاسیک روانشناسی استفاده شد. این پرسشها همچنین در بستر موقعیتهای واقعی مانند مدیریت موجودی انبار یا مذاکره با تأمینکنندگان نیز بازنویسی شدند. هدف این بود که مشخص شود آیا مدلهای GPT فقط در قالبهای روانشناختی دچار خطا میشوند یا در مسائل عملی تجاری نیز همان سوگیریها را نشان میدهند.

نتایج نشان داد GPT-4 در مسائل منطقی و ریاضی عملکرد بهتری نسبت به GPT-3.5 دارد و کمتر دچار اشتباه در احتمالات و منطق میشود. اما در سناریوهای ذهنی، مانند انتخاب بین گزینهای پرریسک یا امن، گاهی همان ترجیحات غیرعقلانی انسانها را تکرار میکرد.
در بخشی از مطالعه آمده: «GPT-4 حتی تمایل بیشتری نسبت به انسانها به انتخاب گزینههای قطعی و قابلپیشبینی دارد»، که به سوگیری برای اطمینان اشاره دارد؛ یعنی ترجیح گزینهای که نتیجهاش مشخصتر است، حتی اگر از نظر منطقی بهینه نباشد.
سوگیریهایی که تقویت میشوند
شاید شگفتآورترین نتیجه این باشد که GPT-4 گاهی خطاهای شناختی را بیشازپیش تشدید میکند. در یکی از آزمونها مربوط به سوگیری تأیید، GPT-4 همواره پاسخهای مغرضانه ارائه داد. همچنین در خطای معروف «دست داغ» (باور به وجود الگو در پدیدههای تصادفی)، این مدل بیشتر از GPT-3.5 دچار اشتباه شد.
با این حال، ChatGPT موفق شد از برخی سوگیریهای انسانی دیگر بپرهیزد. از جمله، در برابر بیتوجهی به نرخ پایه (نادیدهگرفتن آمار کلی به نفع اطلاعات خاص) و مغلطهٔ هزینهٔ ازدسترفته (تأثیر هزینهٔ قبلاً پرداختشده بر تصمیمگیریهای فعلی) مقاومت نشان داد.
در همین رابطه: توهمات هوش مصنوعی: چرا مدلهای پیشرفته بیشتر دچار خطا میشوند؟
تکرار خطاهای انسانی، محصول دادههای انسانی
به گفتهٔ پژوهشگران، دلیل بروز این سوگیریها در مدلهای GPT، استفاده از دادههایی است که خود از رفتارها و زبان مغرضانهٔ انسانها تشکیل شدهاند. این سوگیریها سپس در مرحلهٔ آموزش با بازخورد انسانی تقویت میشوند، چراکه پاسخهای قابلقبول و طبیعی معمولاً ترجیح داده میشوند، حتی اگر منطقی نباشند.
یانگ چن توصیه میکند: «اگر خواهان تصمیمگیری دقیق و بدون سوگیری هستید، از GPT در همان زمینههایی استفاده کنید که به ماشینحساب اعتماد دارید.» در شرایطی که تصمیمگیری بیشتر به ورودیهای استراتژیک یا ذهنی وابسته است، نظارت انسانی همچنان لازم است — حتی اگر فقط در قالب تنظیم دقیق پرسشها برای کاهش خطا باشد.
مینا اندیاپان (استاد مدیریت منابع انسانی در دانشگاه مکمستر کانادا و از نویسندگان این مطالعه) نیز تأکید دارد: «هوش مصنوعی باید مانند یک کارمند تلقی شود؛ کارمندی که تصمیمهای مهم میگیرد و نیاز به نظارت و دستورالعملهای اخلاقی دارد. در غیر این صورت، بهجای بهبود تصمیمگیری، ممکن است به خودکارسازی تفکر معیوب منجر شود.»