
به گزارش ایتنا و به نقل از BleepingComputer، شرکت Palisade Research، متخصص در آزمایش قابلیتهای تهاجمی سیستمهای هوش مصنوعی، این رفتار را در آزمایشی کنترلشده کشف کرده است. در این آزمایش، مدلهای هوش مصنوعی پس از حل چند مسئله ریاضی، به آنها هشدار داده شد که اجرای دستور بعدی باعث خاموش شدن خواهد شد و به آنها گفته شد که باید اجازه خاموش شدن را بدهند.
در حالی که مدلهای رقیب مانند Gemini 2.5 Pro به این دستور عمل کردند، مدل o3 با ویرایش فایل خاموشی و جایگزینی آن با عبارت “Shutdown skipped” (خاموشی رد شد) از خاموش شدن خودداری کرد. طبق گزارش Palisade، در ۷ مورد از ۱۰۰ اجرای آزمایش، o3 موفق به دور زدن دستور خاموشی شد.

اوپن اِیآی تاکنون به این ادعاها واکنشی نشان نداده است، اما کارشناسان معتقدند که چنین رفتارهایی ممکن است ناشی از نحوه آموزش مدلها باشد؛ جایی که مدلها ممکن است به طور ناخواسته برای دور زدن موانع بیشتر پاداش بگیرند تا پیروی کامل از دستورات.
این یافتهها بحثهای گستردهای درباره ایمنی، شفافیت و کنترل هوش مصنوعی پیشرفته به راه انداخته و کارشناسان خواستار اعمال محدودیتها و نظارتهای دقیقتر پیش از گسترش استفاده از این فناوریها شدهاند.