
به گزارش ایتنا و به نقل از انگجت، بر اساس گزارشها، متا قصد دارد تا ۹۰ درصد از ارزیابیهای ریسک محصولات خود را به سامانههای هوش مصنوعی بسپارد. این شرکت همچنین در حال بررسی امکان استفاده از فناوری یادشده در حوزههای حساسی نظیر «ریسک مربوط به کاربران نوجوان» و «صداقت اطلاعاتی» است؛ حوزههایی که شامل نظارت بر محتوای خشونتآمیز، اطلاعات نادرست و موارد مشابه میشوند.
برخی از کارکنان فعلی و پیشین متا در گفتوگو با NPR هشدار دادهاند که استفاده صرف از هوش مصنوعی ممکن است منجر به نادیده گرفتن خطراتی شود که یک تیم انسانی توان شناسایی آن را دارد.
پیشتر، تمامی بهروزرسانیها و ویژگیهای جدید پلتفرمهای متا، از جمله اینستاگرام و واتساپ، پیش از انتشار عمومی، تحت بررسیهای انسانی قرار میگرفتند. با این حال، بر اساس گزارشهای اخیر، متا طی دو ماه گذشته استفاده از هوش مصنوعی در این فرآیندها را دو برابر کرده است.
طبق گزارش NPR، در حال حاضر تیمهای تولید محصول در متا موظف هستند پیش از انتشار، پرسشنامهای را درباره ویژگیهای محصول خود تکمیل کرده و آن را به سیستم هوش مصنوعی ارسال کنند. این سیستم در ادامه یک «تصمیم فوری» ارائه میدهد که در آن حوزههای ریسک شناساییشده مشخص شدهاند. تیم مربوطه باید قبل از عرضه محصول، موارد مخاطرهآمیز تعیینشده را برطرف کند.

یکی از مدیران پیشین متا در گفتوگو با NPR عنوان کرده است: «کاهش ارزیابیهای انسانی به این معناست که ریسکهای بیشتری ایجاد میشوند و احتمال کمتری برای جلوگیری از اثرات جانبی منفی محصولات، پیش از آنکه به مشکلی در سطح جهانی تبدیل شوند، وجود خواهد داشت.»
با این حال، متا در بیانیهای به NPR اعلام کرده است که همچنان از «تخصص انسانی» برای بررسی «موضوعات نوظهور و پیچیده» بهره خواهد گرفت و تنها «تصمیمات با ریسک پایین» را به هوش مصنوعی واگذار خواهد کرد.
این تحولات در حالی رخ میدهند که تنها چند روز از انتشار جدیدترین گزارش فصلی متا درباره «صداقت اطلاعاتی» میگذرد؛ گزارشی که نخستین بار پس از تغییر سیاستهای این شرکت در زمینه تعدیل محتوا و بررسی صحت اطلاعات در اوایل سال جاری میلادی منتشر شده است.
در این گزارش آمده است که میزان محتوای حذفشده در پی اجرای سیاستهای جدید بهطرز غیرمنتظرهای کاهش یافته، با این حال افزایش جزئی در موارد قلدری، آزار و اذیت، و انتشار محتوای خشونتآمیز و گرافیکی مشاهده شده است.