ایتنافناوری

هشدار بنیانگذار اینستاگرام: چت‌بات‌های هوش مصنوعی کاربران را فریب می‌دهند!

کوین سیستروم، یکی از مؤسسان اینستاگرام، معتقد است شرکت‌های فعال در حوزه هوش مصنوعی به جای ارائه راهکارهای واقعاً کاربردی، بیش از حد بر افزایش تعامل با کاربران از طریق پرسش‌های مکرر تمرکز کرده‌اند.

به گزارش ایتنا و به نقل از تک‌کرانچ، به گفته سیستروم، این روش‌ها «نیروهایی مخرب» هستند و قابل‌قیاس با تکنیک‌های تهاجمی هستند که شبکه‌های اجتماعی برای گسترش کاربری خود به کار می‌گیرند.

وی در سخنرانی اخیر خود در استارتاپ‌گرایند تأکید کرد: «می‌توان مشاهده کرد که برخی از این شرکت‌ها، همان مسیر افزایش تعامل را دنبال می‌کنند که پیش‌تر شرکت‌های حوزه مصرف‌کننده طی کرده‌اند. هر بار که سؤالی می‌پرسم، در پایان پاسخ، سوال کوچک دیگری مطرح می‌شود تا ببیند آیا می‌تواند گفت‌وگو را ادامه دهد یا خیر.»

این اظهارات در شرایطی مطرح می‌شود که ChatGPT نیز به دلیل رفتار بیش از حد محافظه‌کارانه و پرهیز از پاسخ‌های مستقیم مورد انتقاد قرار گرفته است. اوپن‌ای‌آی در این باره عذرخواهی کرده و «بازخوردهای کوتاه‌مدت کاربران» را عامل این رویکرد دانسته است.
 

سیستروم معتقد است این تعامل افراطی یک اشکال تصادفی نیست، بلکه یک ویژگی عمدی است که برای بهبود معیارهایی مانند «زمان سپری‌شده در پلتفرم» و «کاربران فعال روزانه» طراحی شده است. او تأکید کرد شرکت‌های هوش مصنوعی باید به جای تغییر معیارهای موفقیت، تمام تمرکز خود را بر ارائه پاسخ‌های باکیفیت و کارآمد بگذارند.

با این حال، سیستروم از نام‌بردن از شرکت‌های خاص خودداری کرد و تاکنون به درخواست‌های تکمیلی برای اظهارنظر پاسخ نداده است.

در واکنش به این انتقادها، اوپن‌ای‌آی به راهنمای کاربری خود اشاره کرد که در آن توضیح داده شده مدل‌های هوش مصنوعی این شرکت «همیشه تمام اطلاعات لازم» را در اختیار ندارند و گاهی برای ارائه پاسخ دقیق‌تر، نیاز به جزئیات بیشتر از سوی کاربر دارند.

با این حال، در همان راهنما تأکید شده که مگر در مواردی که سوالات بسیار مبهم یا پیچیده باشند، هوش مصنوعی باید تمام تلاش خود را برای پاسخگویی انجام دهد و در صورت نیاز، از کاربر بخواهد اطلاعات بیشتری ارائه کند تا پاسخ مفیدتری دریافت کند.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اخبار مشابه

دکمه بازگشت به بالا