
به گزارش ایتنا و به نقل از تککرانچ، پژوهشی تازه به رهبری دانشگاه آکسفورد هشدار میدهد که تکیه بیش از حد به پاسخهای این چتباتها میتواند خطرآفرین باشد؛ بخشی از این خطر به این دلیل است که بسیاری از کاربران نمیدانند چه نوع اطلاعاتی را باید در اختیار چتبات قرار دهند تا بهترین توصیه ممکن را دریافت کنند.
آدام مهدی (Adam Mahdi)، مدیر تحصیلات تکمیلی در مؤسسه اینترنت آکسفورد و یکی از نویسندگان این مطالعه، در گفتوگو با وبسایت تککرانچ توضیح داد: «نتایج این تحقیق نشان داد که بین کاربران و چتباتها نوعی اختلال ارتباطی دوجانبه وجود دارد. تصمیمات اتخاذشده توسط این افراد، در مقایسه با کسانی که از روشهای سنتی مانند جستوجوی اینترنتی یا قضاوت شخصی بهره میبردند، از کیفیت یا دقت بالاتری برخوردار نبود.»

در این تحقیق، پژوهشگران حدود هزار و سیصد نفر از ساکنان بریتانیا را برای شرکت در مطالعه انتخاب کردند و سناریوهایی پزشکی تهیهشده توسط یک گروه پزشک را در اختیار آنها قرار دادند. از شرکتکنندگان خواسته شد تا با بررسی این سناریوها، مشکلات احتمالی سلامت را تشخیص داده و اقدام مناسب—مانند مراجعه به پزشک یا رفتن به بیمارستان—را با استفاده از چتباتها یا روشهای معمول خودشان انتخاب کنند.
چتباتهایی که در این مطالعه مورد استفاده قرار گرفتند شامل نسخههای پیشفرض مدلهای هوش مصنوعی نظیر ChatGPT، مدل GPT-4o، مدل Command R+ شرکت Cohere و مدل Llama 3 شرکت Meta بودند. طبق گزارش پژوهشگران، استفاده از چتباتها نهتنها توانایی شرکتکنندگان را در تشخیص بیماریها کاهش داد، بلکه در مواردی حتی باعث شد شدت بیماریها نیز کمتر از واقعیت ارزیابی شود.
مهدی افزود که بسیاری از شرکتکنندگان هنگام پرسش از چتباتها، اطلاعات کلیدی را فراموش میکردند یا پاسخهایی دریافت میکردند که فهم آنها دشوار بود.
او همچنین گفت: «پاسخهایی که شرکتکنندگان از چتباتها دریافت میکردند، اغلب ترکیبی از توصیههای درست و نادرست بود. در حال حاضر، شیوههای ارزیابی عملکرد چتباتها نمیتوانند پیچیدگی تعامل آنها با انسانها را بهخوبی بازتاب دهند.»