
به گزارش ایتنا و به نقل از انگجت، این ارزیابیها شامل بررسی خطرات بالقوه محصولات از جمله محتوای خشونتآمیز، اطلاعات نادرست و مسائل مربوط به کاربران نوجوان میشود. این تغییر با هدف افزایش سرعت و کاهش هزینهها در تصمیمگیریها انجام میشود.
پیشتر، ویژگیهای جدید پلتفرمهای متا پیش از انتشار، توسط کارشناسان انسانی بررسی میشدند تا از بروز اثرات منفی احتمالی جلوگیری شود. اما اکنون، تیمهای توسعه محصول باید پرسشنامهای در مورد ویژگی جدید تکمیل کرده و برای بررسی به سیستم هوش مصنوعی ارسال کنند. این سیستم تصمیمی فوری صادر میکند که حوزههای خطر را شناسایی کرده و اصلاحات مورد نیاز را مشخص میکند.
با این حال، برخی از کارکنان فعلی و سابق متا که با NPR گفتوگو کردهاند، هشدار دادهاند که این تصمیم ممکن است منجر به نادیده گرفتن برخی خطرات مهم شود که یک تیم انسانی توانایی تشخیص آنها را داشته است. یکی از مدیران سابق متا تأکید کرده است که کاهش نظارت انسانی، احتمال بروز پیامدهای منفی را افزایش میدهد.

این خبر تنها چند روز پس از انتشار گزارش فصلی جدید متا درباره سیاستهای نظارتیاش منتشر شده است. پس از تغییرات در سیاستهای تعدیل محتوا و راستیآزمایی، میزان حذف محتوا کاهش یافته، اما در عین حال موارد آزار و اذیت، و محتوای خشونتآمیز و گرافیکی افزایش یافتهاند.