
در این مطالعه، پژوهشگران قصد داشتند بفهمند که مدلهای زبانی بزرگ – مانند آنهایی که زیربنای چت جیپیتی و ابزارهای مشابه به شمار میروند – چگونه با یکدیگر تعامل میکنند. هدف این کار تا حدی نگریستن به آیندهای بود که در آن احتمالا اینترنت مملو از چنین سامانههایی شود که با یکدیگر تعامل و حتی گفتگو میکنند.
آریل فلیِنت اَشری، نویسنده اصلی و پژوهشگر دکتری در دانشگاه سیتی سنت جورج، گفت: «بیشتر پژوهشها تاکنون مدلهای زبانی بزرگ را مجزا از هم در نظر گرفتهاند. اما سامانههای هوش مصنوعی در دنیای واقعی بهطور فزایندهای بسیاری از عوامل در حال تعامل را شامل خواهند شد.»
«ما میخواستیم بدانیم: آیا این مدلها میتوانند با ایجاد قراردادها، یعنی اجزای سازنده یک جامعه، رفتار خود را هماهنگ کنند؟ پاسخ مثبت است، و آنچه آنها در کنار هم انجام میدهند، قابل تقلیل به عملکرد فردی آنها نیست.»
پژوهشگران برای درک اینکه چنین جوامعی چگونه ممکن است شکل بگیرند از مدلی استفاده کردند که برای انسانها به کار رفته است و با عنوان «بازی نامگذاری» (naming game) شناخته میشود. این مدل، انسانها – یا عاملهای هوش مصنوعی – را کنار هم قرار میدهد و از آنها میخواهد از میان مجموعهای از گزینهها یک «نام» را برگزینند، و اگر نام یکسانی را انتخاب کنند به آنها پاداش میدهد.

با گذشت زمان، مشاهده شد که عاملهای هوش مصنوعی، قراردادهای نامگذاری مشترک و جدیدی ایجاد کردند که بهنظر میرسید خودبهخود از درون گروه پدید آمدهاند. این امر بدون آن بود که آنها بر سر آن طرح با یکدیگر هماهنگ یا مشورت کرده باشند، و این روند به همان شیوه از پایین به بالایی (bottom-up) رخ داد که هنجارها معمولا در فرهنگهای انسانی شکل میگیرند.
به نظر میرسید که گروه عاملهای هوش مصنوعی نیز برخی سوگیریها را ایجاد کردهاند، که این سوگیریها نیز ظاهرا در درون گروه شکل گرفته بودند نه از سوی یک عامل خاص.
آندریا بارونکلی، استاد «علم پیچیدگی»(Complexity Science) در دانشگاه سیتی سنت جورج و نویسنده ارشد این مقاله، توضیح داد: «سوگیری همیشه از درون پدید نمیآید. ما از دیدن اینکه چنین چیزی میتواند میان عاملها پدیدار شود – صرفا از طریق تعامل آنها – شگفتزده شدیم. این یک نقطه ضعف در بیشتر پژوهشهای کنونی درباره امنیت هوش مصنوعی است که بر مدلهای منفرد تمرکز دارند.»
پژوهشگران همچنین نشان دادند که یک گروه کوچک از عاملهای هوش مصنوعی ممکن است گروه بزرگتر را بهسوی یک قرارداد خاص سوق دهند. این پدیده در گروههای انسانی نیز دیده میشود.
پژوهشگران خاطرنشان کردند که این کار باید در بررسی شباهتها و تفاوتهای میان انسانها و سامانههای هوش مصنوعی مفید باشد، بهویژه از آن رو که سامانههای هوش مصنوعی بخش بیشتری از اینترنت را در اختیار میگیرند و ممکن است ناخواسته با یکدیگر در گفتگو و همکاری باشند.
پروفسور بارونکِلی در اظهاراتی گفت: «این مطالعه افق جدیدی برای پژوهشهای ایمنی هوش مصنوعی میگشاید. این مطالعه ژرفای پیامدهای گونه جدیدی از این عاملها را نشان میدهد که شروع به تعامل با ما کردهاند – و همراه با ما آیندهمان را شکل خواهند داد.»
درک چگونگی عملکرد این عاملها کلید هدایت همزیستی ما با هوش مصنوعی است – نه آنکه تحت تسلط آن قرار گیریم. ما در حال ورود به جهانی هستیم که هوش مصنوعی در آن فقط صحبت نمیکند – بلکه مذاکره میکند، همسو میشود و گاه برسر رفتارهای مشترک اختلاف نظر دارد؛ درست مانند خود ما.»
این یافتهها در مقالهای جدید با عنوان «هنجارهای اجتماعی پدیدارشده و سوگیری جمعی در جمعیتهای مدلهای زبانی بزرگ» گزارش شدهاند که در مجله «ساینس اَدوَنسِز» (Science Advances) منتشر شده است.