ایتنافناوری

هوش مصنوعی فرابشری (ASI): آخرین اختراع بشر یا پایان بشریت؟

پیشرفت‌های شتابان در حوزه هوش مصنوعی، جامعه را به بازنگری درمورد محدودیت‌های بنیادین این فناوری واداشته است. مفهومی که روزگاری تنها در داستان‌های علمی‌تخیلی جای داشت – ایده هوش مصنوعی فراهوشمند – امروزه به موضوعی جدی در محافل علمی و تخصصی تبدیل شده است.
 

ظهور یک ابرهوش

این تفکر که روزی ماشین‌ها به سطح هوش انسانی برسند یا حتی از آن پیشی بگیرند، سابقه‌ای دیرینه دارد. اما شتاب رشد هوش مصنوعی در سال‌های اخیر، به‌ویژه پس از عرضه مدل‌های زبانی پیشرفته (LLM) توسط شرکت‌هایی مانند OpenAI، گوگل و Anthropic، به این بحث ابعاد تازه‌ای بخشیده است.

به گزارش ایتنا و به نقل از لایوساینس، اگرچه کارشناسان درباره امکان‌پذیری و زمان تحقق «هوش مصنوعی فرابشری» (ASI) دیدگاه‌های متفاوتی دارند، برخی معتقدند ظهور چنین سیستم‌های فوق‌هوشمندی در آستانه وقوع است. آنچه مسلم است، پیامدهای شگرف چنین تحولی برای آینده بشریت خواهد بود.

پروفسور «تیم راکتشل»، استاد هوش مصنوعی در دانشگاه کالج لندن و دانشمند ارشد گوگل دیپ‌مایند، در گفت‌وگو با لایو ساینس اظهار داشت: «در آستانه دوران جدیدی از اکتشافات علمی خودکار، رشد اقتصادی شتابان، افزایش طول عمر و تجربیات سرگرم‌کننده بی‌سابقه قرار داریم.»
وی هشدار داد: «همانند هر فناوری انقلابی دیگر در تاریخ، خطرات بالقوه‌ای نیز در کمین است.»

سیر تکاملی هوش مصنوعی

به‌طور سنتی، پژوهش‌های هوش مصنوعی بر بازآفرینی توانایی‌های خاص موجودات هوشمند متمرکز بوده است؛ از تحلیل بصری صحنه‌ها گرفته تا پردازش زبان و جهتیابی در محیط‌های مختلف. راکتشل خاطرنشان کرد که هوش مصنوعی در برخی حوزه‌های محدود مانند بازی‌های گو و شطرنج، هم‌اکنون به عملکردی فرابشری دست یافته است.

اما هدف نهایی این حوزه، بازآفرینی هوش عمومی مشاهده‌شده در انسان‌ها و حیوانات بوده که قابلیت‌های متنوعی را یکجا در خود جا می‌دهد. این مفهوم در طول سال‌ها با عناوینی مانند «هوش مصنوعی قدرتمند» یا «هوش مصنوعی عمومی» (AGI) شناخته شده است.

راکتشل توضیح داد: «مدت‌هاست که AGI به‌عنوان آرمان نهایی پژوهش‌های هوش مصنوعی مطرح بوده. اما امروز با ظهور مدل‌های بنیادین، شاهد سیستم‌هایی هستیم که می‌توانند در آزمون‌های دانشگاهی شرکت کنند و در مسابقات بین‌المللی ریاضی و برنامه‌نویسی بدرخشند.»

به گفته وی، این پیشرفت‌ها جامعه علمی را به امکان تحقق AGI امیدوارتر کرده است. نکته کلیدی اینجاست که پس از دستیابی به هوش مصنوعی هم‌تراز انسان، شاید زمان زیادی تا فراتر رفتن از تمام توانایی‌های بشری نیاز نباشد. راکتشل پیش‌بینی می‌کند: «با رسیدن به سطح هوش انسانی، می‌توانیم از هوش مصنوعی برای ارتقای خودش به‌صورت خودارجاع استفاده کنیم. به‌نظر من، دستیابی به AGI می‌تواند تنها چند سال بعد به ASI بینجامد.»

نقطه تکینگی فناوری

دستیابی به این نقطه عطف ممکن است مصداق مفهومی باشد که «ایروینگ جان گود»، ریاضیدان بریتانیایی، در سال ۱۹۶۵ آن را «انفجار هوش» نامید. او استدلال کرد که با رسیدن ماشین‌ها به سطحی از هوش که بتوانند خود را ارتقا دهند، به‌سرعت به درجاتی فراتر از هوش انسانی دست خواهند یافت. گود نخستین ماشین فراهوشمند را «آخرین اختراع موردنیاز بشر» خواند.

به گزارش ایتنا، «ری کورزویل»، آینده‌پژوه مشهور، معتقد است این تحول به «تکینگی فناوری» خواهد انجامید که تمدن بشری را به‌صورتی ناگهانی و برگشت‌ناپذیر دگرگون خواهد کرد. این اصطلاح – که از مفهوم تکینگی در فیزیک سیاهچاله‌ها وام گرفته شده – به دوره‌ای اشاره دارد که پیشرفت فناوری چنان شتابان و غیرقابل‌پیش‌بینی خواهد شد که از درک کنونی ما فراتر می‌رود.

درمورد زمان وقوع این تحول، اختلاف‌نظر وجود دارد. کورزویل در سال ۲۰۰۵ پیش‌بینی کرد که AGI تا سال ۲۰۲۹ محقق خواهد شد و تکینگی در ۲۰۴۵ رخ خواهد داد. دیگر متخصصان دامنه گسترده‌ای از پیش‌بینی‌ها – از دهه جاری تا هرگز – ارائه کرده‌اند. اما نظرسنجی اخیر از ۲۷۷۸ پژوهشگر هوش مصنوعی نشان می‌دهد که به‌طور میانگین، احتمال دستیابی به AGI تا سال ۲۰۴۷ را ۵۰ درصد می‌دانند. تحلیل‌های گسترده‌تر حاکی از آن است که بسیاری از دانشمندان احتمال ظهور AGI تا ۲۰۴۰ را محتمل می‌دانند.

پیامدهای ASI برای بشریت

پیامدهای ظهور هوش مصنوعی فرابشری چنان گسترده است که دانشمندان و فیلسوفان مدت‌هاست به بررسی فرصت‌ها و تهدیدهای بالقوه آن مشغولند.

«دنیل هولم»، مدیرعامل شرکت‌های هوش مصنوعی ساتالیا و کانسیوم، به جنبه‌های مثبت این تحول اشاره می‌کند: «ماشینی با ظرفیت نامحدود هوشی می‌تواند بسیاری از چالش‌های اساسی بشر را حل کند. چنین سیستم‌هایی می‌توانند موانع تولید و توزیع غذا، آموزش، بهداشت، انرژی و حمل‌ونقل را به‌طور چشمگیری کاهش دهند، تا جایی که هزینه این خدمات به صفر نزدیک شود.»

به گفته هولم، این تحول می‌تواند انسان‌ها را از نیاز به کار برای بقا رها کرده، فرصت پرداختن به علایق شخصی را فراهم آورد. اما همزمان هشدار می‌دهد که بدون ایجاد سازوکارهای حمایتی برای کسانی که شغلشان را به هوش مصنوعی واگذار می‌کنند، ممکن است با ناآرامی‌های اجتماعی روبه‌رو شویم: «اگر این انتقال به‌سرعت اتفاق بیفتد، اقتصادهای جهانی ممکن است نتوانند خود را با شرایط جدید تطبیق دهند.»

معضل بنیادی‌تر، امکان کنترل موجودی با هوشی بسیار فراتر از انسان است – امری که بسیاری از کارشناسان آن را نامحتمل می‌دانند. هولم با تردید می‌گوید: «باوری که می‌گوید ASI از ما مراقبت خواهد کرد و به شادی ما اهمیت می‌دهد را نمی‌پذیرم. تصور اینکه چنین موجودی به رفاه انسان‌ها توجهی داشته باشد دشوار است.»

 

 

خطرات وجودی

ترس از ظهور ابرهوشی خارج از کنترل، نگرانی‌هایی درباره تهدیدهای وجودی برای نسل بشر برانگیخته است. این نگرانی‌ها در فرهنگ عامه – از فیلم‌هایی مانند «ترمیناتور» تا «ماتریکس» – بازتاب یافته که در آنها ماشین‌های شرور به نابودی بشریت همت می‌گمارند.

اما «نیک بوستروم»، فیلسوف نام‌آشنای حوزه هوش مصنوعی، تأکید می‌کند که حتی یک ASI بدون قصد خصمانه نیز می‌تواند فاجعه‌بار باشد. او در مقاله‌ای در سال ۲۰۱۲ استدلال کرد که هوش یک موجود مستقل از اهداف آن است؛ بنابراین یک ASI ممکن است انگیزه‌هایی کاملاً بیگانه با ارزش‌های انسانی داشته باشد.

بوستروم این ایده را با مثال فرضیه‌ای از یک ASI نشان داد که وظیفه تولید حداکثر گیره کاغذ را بر عهده دارد. اگر این سیستم با ارزش‌های انسانی همسو نباشد، ممکن است برای جلوگیری از خاموش شدن توسط انسان‌ها یا استفاده از اتم‌های بدن آنها برای تولید گیره‌های بیشتر، تصمیم به نابودی بشریت بگیرد.
 

راه‌حل‌های ممکن

راکتشل خوشبین‌تر است: «سیستم‌های کنونی هوش مصنوعی را به‌گونه‌ای می‌سازیم که هم مفید باشند و هم بی‌خطر و صادق. این سیستم‌ها برای پیروی از دستورات انسان آموزش دیده‌اند و براساس بازخوردها پاسخ‌های مفید و ایمن ارائه می‌دهند.»

هرچند وی می‌پذیرد که می‌توان این سازوکارهای ایمنی را دور زد، اما معتقد است در آینده روش‌های بهتری توسعه خواهند یافت. راکتشل پیشنهاد می‌کند می‌توان از هوش مصنوعی برای نظارت بر سیستم‌های قدرتمندتر نیز استفاده کرد.

اما هولم رویکردهای کنونی برای «همسوسازی ارزشی» – تلاش برای تطبیق هوش مصنوعی با ارزش‌های انسانی – را ناکافی می‌داند. به گفته وی، روش‌های فعلی که مبتنی بر تعریف قوانین رفتاری یا آموزش با نمونه‌های انسانی هستند، به‌سادگی قابل دور زدن خواهند بود.

هولم پیشنهاد می‌کند به جای این روش‌ها، هوش مصنوعی را با «غریزه اخلاقی» بسازیم. شرکت او (کانسیوم) درحال توسعه هوش مصنوعی در محیط‌های مجازی است که رفتارهای همدلانه و نوع‌دوستانه را تقویت می‌کنند. هرچند این پژوهش‌ها اکنون در سطح هوش حشرات قرار دارد، اما در صورت موفقیت می‌تواند الگویی برای سیستم‌های پیچیده‌تر باشد. هولم توضیح می‌دهد: «جاسازی اخلاق در غریزه هوش مصنوعی، بسیار ایمن‌تر از روش‌های کنونی است که مانند بازی «مورچه‌کشی» تنها به رفع مشکلات پس از ظهور آنها می‌پردازد.»
 

دیدگاه‌های منتقدانه

عقیده همه متخصصان درباره خطرات ASI یکسان نیست. راکتشل به دو انتقاد اساسی اشاره می‌کند: نخست آنکه انسان‌ها خود در تمام حوزه‌ها به‌طور یکسان توانمند نیستند، پس شاید ایجاد هوش مصنوعی «همه‌فن‌حریف» نیز ناممکن باشد. دوم اینکه محدودیت‌های منابع محاسباتی ممکن است مانع تحقق ASI شود.

«الکساندر ایلیچ»، رئیس مرکز هوش مصنوعی ETH زوریخ، نیز درباره روش‌های سنجش پیشرفت هوش مصنوعی هشدار می‌دهد: «بسیاری از دستاوردهای اخیر هوش مصنوعی حاصل آموزش سیستم‌ها برای موفقیت در آزمون‌های تخصصی مانند برنامه‌نویسی یا استدلال است – درست مانند دانش‌آموزی که تنها برای گذراندن امتحان تلاش می‌کند.»

وی اینگونه توضیح می‌دهد: «شما مغز خود را برای امتحان پر می‌کنید، آزمون می‌دهید، و سپس همه‌چیز را فراموش می‌کنید. شرکت در کلاس شما را باهوش‌تر کرده، اما نتیجه آزمون معیار خوبی برای سنجش دانش واقعی نیست.»

به گفته ایلیچ، هرچند ممکن است به زودی شاهد هوش مصنوعی باشیم که در چنین آزمون‌هایی عملکردی فرابشری دارد، اما این رویکرد به سیستم‌هایی نخواهد انجامید که بتوانند در دنیای واقعی کارهای مفید انجام دهند یا با انسان‌ها همکاری مؤثری داشته باشند – مهارت‌هایی که برای تأثیرگذاری واقعی ضروری هستند.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

اخبار مشابه

دکمه بازگشت به بالا