آیا می‌توانیم ابر هوش مصنوعی بسازیم که ما را نابود نکند؟

آیا می‌توانیم ابر هوش مصنوعی بسازیم که ما را نابود نکند؟

زمانی در آینده هوش مصنوعی‌ای خواهیم داشت که باهوش‌تر، سریع‌تر و قدرتمندتر از ما خواهد بود. وقتی که چنین اتفاقی بیفتد دیگر ما انسان‌ها در صدر قدرت نخواهیم بود. اما چه اتفاقی برای بشریت می‌افتد؟ و چطور می‌توانیم خود را برای چنین روزی آماده کنیم؟ در ادامه به بررسی این سوال‌ها می‌پردازیم.

«لوک ملهاسر»‌ مدیر اجرایی «انستیتو تحقیق در زمینه‌ی هوش مصنوعی (MIRI)» است، گروهی که در حال تحقیق روی راه‌هایی هستند تا بتوان هوش مصنوعی‌ای هوشمندتر از انسان و در عین حال دوست دار انسان تولید کرد. اخیراً «ملهاسر» به صورت مشترک همراه با «نیک بوستروم» از «انستیتو آینده‌ی بشر (FHI)» مقاله‌ای با نام «در مورد نیاز به توسعه‌ی هوش مصنوعی دوستانه» منتشر کرده‌اند.

سوال: اولین برخودرتان با مسئله‌ی دوستانه بودن یک ابرهوش چه زمانی اتفاق افتاد؟

در اواسط سال 2010 بود که در هنگام خواندن مقاله‌ای از سال 1965 از «ایروینگ جان گود»، همکار «آلن تورینگ» در جنگ جهانی دوم که با یکدیگر به کشف کردن کدهای آلمان‌ها می‌پرداختند، به پاراگراف زیر رسیدم:

«بگذارید فرض کنیم که ماشینی ابر هوشمند به این صورت تعریف می‌شود که ماشینی است که می‌تواند از فعالیت‌های هوشمندانه‌ی هر انسانی پیشی بگیرد. از آن‌جایی که طراحی خود این ماشین یکی از این فعالیت‌های ذهنی هوشمندانه است این ماشین قادر خواهد بود ماشینی حتی بهتر از خود طراحی کند. در چنین شرایطی «انفجاری از هوش» رخ خواهد داد و هوش انسان بسیار ضعیف‌تر از ماشین ابر هوشمند ساخته شده خواهد بود. به این ترتیب اولین ماشین ابر هوشمندی که توسط انسان ساخته می‌شود آخرین ماشینی است که انسان نیاز به ساخت آن خواهد داشت.»

من تا آن زمان داستان‌های علمی تخیلی نمی‌خواندم و با مفهوم «ترابشریت» نیز به خوبی آشنا نبودم، اما به سرعت فهمیدم که نتیجه‌گیری آقای گود دقیقاً حاصل از همان چیزهایی است که من به آن‌ها باور دارم، برای مثال این که هوش حاصل الگوریتم‌های شناختی است و فرآیندی جادویی نیست. به سرعت متوجه این شدم که انفجاری از هوش می‌تواند اتفاقی مهم در تاریخ بشریت باشد و مهم‌ترین کاری که می‌توانم بکنم این است که چنین انفجاری به جای تاثیری منفی، تاثیری مثبت روی انسان‌ها داشته باشد، به این صورت که به جای یک ابر هوش غیر دوستانه یا بی تفاوت با ابر هوشی دوستانه سر و کار داشته باشیم.

در ابتدا فکر کردم که چنین چالش بزرگی برای قرن بیست و یکم صدها میلیون دلار منابع مالی برای تحقیقات خواهد داشت و من در این زمینه کمک کمی به حساب خواهم آمد. اما در چند ماه بعد فهمیدم که کمتر از 5 نفر در سراسر جهان هستند که تمام وقت خود را صرف کار در این زمینه می‌کنند و حتی همین فعالیت‌ها نیز بدون منابع مالی انجام می‌شود. به این ترتیب بود که در آپریل 2011 شغل خود به عنوان مدیر شبکه را کنار گذاشتم و شروع به کارآموزی در MIRI کردم، تا بفهمم که چگونه می‌توانم در حل این مسئله کمک کنم. و فهمیدم که بهترین کاری که برای کمک می‌توانم انجام دهم قبول کردن مسئولیت‌های اجرایی MIRI است و این طور بود که از نوامبر 2011 به عنوان مدیر عامل اجرایی MIRI انتخاب شدم.

سوال: آخرین فیلم «اسپایک جانز» به اسم Her باعث بحث‌هایی در مورد هوش مصنوعی شده است. در مورد تصویر هوش مصنوعی در این فیلم و مقایسه‌ی آن با ابر هوش مصنوعی چه چیزهایی می‌توانید به ما بگویید؟

فیلم Her فیلم بسیار خوبی است و تصویری که از هوش مصنوعی نشان می‌دهد تصویر خوبی است اما لزوماً تصویری واقع گرایانه نیست. کارگردان این فیلم اسپایک جانز هنگام نوشتن فیلم‌نامه با دانشمندان علوم کامپیوتر مشورت نکرده است که چنین حقیقتی نیز برای دانشمندانی که این فیلم را مشاهده کرده‌اند واضح است.

آیا می‌توانیم ابر هوش مصنوعی بسازیم که ما را نابود نکند؟بدون این که بخواهم فیلم را لو بدهم می‌توانم بگویم که هوش مصنوعی فیلم Her، اگر واقعاً در جهان واقعی وجود داشته باشد، می‌تواند به راحتی اقتصاد جهانی را دگرگون کند. اما در این فیلم وجود یک هوش مصنوعی هوشمندتر از انسان که قابلیت بهبود خود را دارد به هیچ وجه روی جهان فیلم تاثیر نمی‌گذارد. همانطور که اقتصاددان «رابین هنسون» در فیسبوک خود نوشته:

«فیلمی مانند تایتانیک را تصور کنید که کوه یخی به کشتی برخورد می‌کند و شکافی عظیم در بدنه‌ی کشتی به وجود می‌آورد، با این تفاوت که چنین شکافی فقط روی شخصیت‌های فیلم این تاثیر را می‌گذارد که باعث می‌شود راه دیگری را برای گشت زنی در کشتی انتخاب کنند و هوای آزاد بیشتری را نیز وارد کشتی می‌کند. کشتی هیچ وقت غرق نمی‌شود و هیچ کس نمی‌ترسد که ممکن است چنین اتفاقی بیفتد. این همان احساسی است که هنگام تماشای فیلم Her داشتم.»

سوال: تئوریسین‌های هوش مصنوعی همچون شما هشدار می‌دهند که روزی می‌رسد که ما کنترل ماشین‌هایی که ساخته‌ایم را از دست می‌دهیم و چنین اتفاق ناگهانی و با سرعت رشد زیادی به دو دلیل اتفاق می‌افتد، یکی از آن‌ها تهدید پردازشی و دیگری قابلیت بهبود متوالی در سیستم‌ها است. می‌توانید هر کدام از این‌ها را برای ما توضیح دهید؟

خیلی سخت است که رفتارهای عاملی هدف‌دار که باهوش‌تر از خود ما است را کنترل کنیم. چنین مسئله‌ای به مراتب سخت‌تر از کنترل یک انسان دیگر در چنین شرایطی است.

اگر با فرآیندهای کنترلی مختلف آزمون و خطا کنیم و اشتباهات زیادی انجام دهیم و از اشتباهاتمان درس بگیریم، شاید بتوانیم بعد از 50 سال نحوه‌ی کنترل یک هوش مصنوعی خود بهبود دهنده را فرا بگیریم. متاسفانه به نظر می‌رسد که چنین فرصتی برای اشتباهات زیاد نداشته باشیم چون سرعت رشد چنین هوشی و سرعت در کنترل گرفتن اختیارات مختلف توسط آن ممکن است بسیار زیاد باشد. دو دلیل چنین اتفاقی می‌توانند تهدید پردازشی و خود بهبودی متوالی باشد.

در مقاله‌مان من و همکارم تهدید پردازشی را به این صورت تعریف می‌کنیم:

«فرض کنیم که توان پردازشی طبق قانون مور دو برابر می‌شود اما پیدا کردن الگوریتمی برای هوش مصنوعی عمومی در سطح هوش انسان بسیار سخت باشد. وقتی که بالاخره نرم‌افزاری برای هوش مصنوعی عمومی در سطح هوش انسان تولید شود یک تهدید پردازشی خواهیم داشت: منابع عظیمی از توان پردازشی کم هزینه در اختیار چنین هوش مصنوعی‌ای وجود خواهد داشت، هوش مصنوعی می‌تواند در چنین بستر سخت‌افزاری کپی شود و جمعیتش به سرعت از جمعیت انسان‌ها پیشی بگیرد.»

دلیلی دیگر برای از دست رفتن کنترل از دست انسان‌ها و افتادن چنین کنترلی به دست هوش مصنوعی توانایی هوش مصنوعی در بهبود خود به صورت متوالی است. یک هوش مصنوعی با توان هوشمندی عمومی در سطح انسان قدرت این را دارد که به سرعت بفهمد که اگر تحقیقاتی در زمینه‌ی هوشش انجام دهد و توانایی‌های هوشی خود را بهبود ببخشد می‌تواند بهتر به اهدافش برسد. بهبود خود، ارزشی همگرا برای هر ارزش نهایی دیگری است که هر عاملی می‌تواند داشته باشد و به همین دلیل است که انسان‌های زیادی هستند که دنبال کتاب‌هایی برای بهبود شرایط خود می‌روند. به این ترتیب همان‌طور که در مقاله‌مان اشاره کرده‌ایم:

«اگر هوش مصنوعی‌ای بسازیم که به اندازه‌ی خود ما در طراحی هوش مصنوعی مهارت داشته باشد، به این ترتیب سیکلی از خود بهبودی توسط هوش مصنوعی را شروع کرده‌ایم. وقتی که چنین هوش مصنوعی خودش را بهبود دهد، هوشی که چنین بهبودی را انجام می‌دهد را نیز بهبود داده است و رخ دادن چنین اتفاقی به صورت متوالی به هوشی منتهی می‌شود که به سرعت از توانایی هوشی انسان پیشی گرفته است.»

سوال: بعضی‌ها بر این باورند که هیچ چیزی برای ترس نسبت به هوش مصنوعی وجود ندارد. و اگر عاملی داشته باشیم که بسیار هوشمندتر از انسان باشد نمی‌تواند احمق یا ظالم باشد و بخواهد که ما را نابود کند. به چنین افرادی که فکر می‌کنند هوش مصنوعی بهتر از خود ما انسان‌ها رفتار خواهد کرد چه چیزی دارید که بگویید؟

در هوش مصنوعی توانایی‌های سیستم مستقل از اهداف آن است. به این ترتیب است که می‌توانید سیستمی بسیار هوشمند بسازید که هدف آن افزایش قیمت سهام شرکتی خاص، فیلتر کردن اسپم‌ها یا افزایش تولید یک کارخانه است. وقتی که چنین سیستمی را بهبود می‌دهید یا اگر خودش خود را بهبود دهد لزوماً اهداف چنین سیستمی تغییر نمی‌کنند بلکه سیستم در دست‌یابی به اهدافش بهتر عمل خواهد کرد.

اخطارها و استثناهایی برای چنین قانون کلی‌ای وجود دارد اما نکته این است که نباید سرنوشت جهان خود را روی این شرط بندی پر ریسک بگذاریم که هر هوش مصنوعی که ساخته می‌شود در نهایت ارزش‌های اخلاقی بهتری نسبت به ما خواهد داشت. در عوض می‌توانیم تلاش کنیم تا برای افرادی باهوش منابع مالی تهیه کنیم تا بتوانند روی این مسئله فکر کنند که برای یک ابر هوش مصنوعی چه راهکارهای کنترلی می‌توانیم پیدا کنیم.

سوال: چرا نمی‌توانیم هوش‌های مصنوعی خطرناک را ایزوله کنیم و از دسترسی‌شان به اینترنت جلوگیری کنیم؟

چنین سیستم‌هایی برای ایزوله کردن هوش مصنوعی در مراحل توسعه‌ی هوش مصنوعی دوستانه ضروری خواهند بود اما راه حلی کلی برای مشکل ما نیستند و این نیز دو دلیل دارد:

اول از همه این که حتی اگر اولین کسی که چنین پروژه‌ای را انجام می‌دهد آن قدر باهوش باشد که چینن کاری را بکند ممکن است چند نفر دیگری که در حال انجام پروژه‌های مشابه بعدی هستند این کار را نکنند. ممکن است وسوسه‌ای شدید برای خارج کردن هوش مصنوعی از محیط ایزوله وجود داشته باشد مخصوصاً اگر بر این باور باشید که می‌تواند به شما کمک کند تا در بورس به سهامی میلیاردی دست پیدا کنید. به هر هدفی که هوش مصنوعی خود را ساخته‌اید بهتر است این قابلیت را داشته باشید که آن را از محیط ایزوله‌اش خارج کنید چون اگر چنین قابلیتی نداشته باشید ممکن است تیم دیگری هوش مصنوعی خطرناک‌تری بسازد و آن را از محیط ایزوله‌اش خارج کند.

دلیل دوم این است که ایزوله کردن هوش مصنوعی هوش انسانی را در مقابل هوش ابر انسانی قرار می‌دهد و در چنین شرایطی نمی‌توانیم انتظار داشته باشیم که طرف برنده‌ی این رقابت باشیم. انسان‌ها می‌توانند وسوسه شوند و راه‌های فرار از محیط‌های ایزوله زیاد است.

با این حال ایزوله کردن هوش مصنوعی می‌تواند به عنوان راه حل خوبی برای شرایط خاصی در نظر گرفته شود و ارزش تحقیق را دارد.

سوال: اگر بخواهیم سیستم‌های هوشمندی بسازیم که ارزش‌های اخلاقی مشابهی همانند ما انسان‌ها داشته باشند چه ریسک‌هایی در پیش رو داریم؟

امیدواریم بتوانیم بهتر از این عمل کنیم که هوش مصنوعی‌ای بسازیم که بعضی از ارزش‌های انسانی را دنبال کند. فکر کردن به این ترسناک است که چه می‌شد اگر یونانیان باستان قادر به ساخت ابر هوش مصنوعی‌ای می‌شدند که ارزش‌های اخلاقی آن‌ها را دنبال می‌کرد. همین ترس نیز وجود دارد وقتی به این فکر می‌کنم که هوش مصنوعی‌ای بسازیم که ارزش‌های فعلی انسانی را دنبال کند.

رباتبیشتر بخوانید:

از کجا بدانیم که ربات‌هایی انسان‌نما نیستیم؟

 

 

پس چیزی که به دنبال آن هستیم این نیست که هوش مصنوعی بسازیم که ارزش‌های فعلی انسانی به طور مستقیم در آن وجود داشته باشد بلکه چنین سیستمی باید الگوریتمی داشته باشد که به صورت غیر مستقیم به شرایطی هنجارمند برسد. به جای اینکه لیستی از ارزش‌های انسانی را به چنین سیستمی بدهیم باید به عنوان اولین وظیفه برای سیستم مشخص کنیم که به دنبال ارزش‌های مخصوص خود بگردد و سپس دنیا را با این ارزش‌ها مورد بررسی قرار دهد. چند راهکار انتزاعی برای چنین کاری وجود دارد اما در مراحل بسیار ابتدایی هستند و نیاز به توسعه‌ی بسیار بیشتری دارند.

آیا می‌توانیم ابر هوش مصنوعی بسازیم که ما را نابود نکند؟سوال: در کنار «انستیتو آینده‌ی بشر» در آکسفورد، MIRI در حال تلاشی فعالانه برای حل مشکل غیردوستانه بودن هوش مصنوعی است و حتی قبل از اینکه چیزی در مورد نحوه‌ی طراحی هوش‌های مصنوعی آینده بدانیم چنین تلاشی را از این موسسات می‌بینیم. استراتژی فعلی شما چیست؟

بله، تا آن‌جایی که من می‌دانم فقط همین دو موسسه هستند که به صورت تمام وقت در حال تامین منابع مالی تحقیق روی این مسئله هستند. گروه جدیدی نیز در دانشگاه کمبریج به اسم CSER وجود دارد که به محض تامین منابع مالی تحقیقات خود را این زمینه گسترش می‌دهند و البته افراد بسیار معتبری را به عنوان مشاوران خود پیدا کرده‌اند افرادی همچون استیون هاوکینگ و جرج چرچ.

تا اینجا تلاش انستیتو آینده‌ی بشر بر این بوده است که نقشه‌ای از مشکل فعلی و وضعیت ما نسبت به آن فراهم کند و با استفاده از کنفرانس‌هایی همچون AGI Impacts در سال 2012 محققان بیشتری را درگیر این مسئله کند.

موسسه MIRI نیز در همکاری نزدیکی با FHI روی چنین تحلیل‌های استراتژیکی کار می‌کند، اما اخیراً تصمیم گرفته‌ایم که روی ریاضیات هوش مصنوعی دوستانه کار کنیم و این کار را نیز با کارگاه‌های تحقیق در مورد ریاضیات و حل ریزمسئله‌های هوش مصنوعی دوستانه انجام دهیم.

سوال: چه تفکراتی در این مورد وجود دارد که بتوانیم هوش مصنوعی دوستانه‌ای بسازیم که هم دوست‌دار انسان‌ها باشد و هم توانایی تغییر ارز‌ش‌های درونی خود را نداشته باشد؟

به نظر می‌رسد که راه حل مشکل «تغییر ارزش‌ها» راه حلی در مورد هنجارپذیری غیر مستقیم است. اما حتی چنین راه حلی نیز در چنین مرحله‌ی اولیه‌ای بسیار سخت است.

و در مورد مطمئن شدن برای حفظ اهداف مورد نظر ما هنگام خود بهبودی هوش مصنوعی در حال کار کردن روی مدل‌های اولیه‌ای هستیم. اما چنین مدل‌های اولیه‌ای از هوش مصنوعی واقعی بسیار فاصله دارند.

سوال: چقدر خوشبین هستید که بتوانیم جوابی برای این مسئله پیدا کنیم و هوش مصنوعی دوستانه‌ای که هدفش نابود کردن انسان‌ها نباشد چه فوایدی برای ما می‌تواند داشته باشد؟

فواید چنین هوش مصنوعی دوستانه‌ای می‌تواند نجومی باشد. خیلی سخت است که بگوییم هوشی توانمندتر از من اگر با ارزش‌هایی پیشرفته‌تر از من راهنمایی شود چطور می‌تواند جهان را بهبود دهد اما فکر می‌کنم یکی از تصاویری که می‌تواند ایده‌ای در مورد چنین جهانی در اختیار ما قرار دهد سفینه‌ای با قابلیت بازسازی خود است، سفینه‌ای که تمدن‌هایی شاد، ایمن و در حال پیشرفت را در جای جای جهان شروع بنا می‌گذارد.

متخصصان ابر هوش مصنوعی، کسانی که به طور تمام وقت روی پیدا کردن جواب سوالاتی در این زمینه کار می‌کنند، نظرات متفاوتی در مورد توانایی انسان برای حل این مسئله دارند.

اگر از خود من بپرسید باید بگویم که بسیار بدبین هستم. مشکل کنترل ابر هوش مصنوعی بسیار سخت‌تر از مشکلات فعلی جهان همچون گرم شدن کره‌ی زمین یا زیست شناسی مصنوعی است و فکر نمی‌کنم که سرعت بهبود توانایی و عقلانیت تمدن فعلی ما به اندازه‌ای باشد که بتوانیم قبل از دست یافتن به اولین ابر هوش مصنوعی به جواب سوال‌هایمان رسیده باشیم. اما خود این فرضیه نیز نیاز به مطالعه‌ی بیشتری دارد. در تحقیقاتمان نیز در حال پرداختن به همین سوال «شایستگی تمدن‌ها» در این مورد هستیم.

کانال دیجی رو
نظر دهید

2 دیدگاه

  1. این امر که هوش مصنوعی خطر بلقوه بر ای نسل بشر است صحیح است بهتر است ایشان بجای پرداختن به این کار ابتد ا د ربالا بر د ن سن انسان و همچنین پیوند هوش مصنوعی با یک انسان تلاش کنند نه یک ربات به جای م انسانها . عقلا انسان با آن هوش بالا د رصد کمتر ی خطا د ار د تا یک ماشین که فقط فکر ارتقا اهد اف خود است که حتما انسان ر ا مغایر با اهد اف می بیند

    • سلام
      ممنون از این که نظرتون را با ما در میون گذاشتید. اتفاقاً در حال نهایی کردن مطلبی در مورد «تقویت هوش انسان توسط تکنولوژی» هستیم که به زودی منتشرش می‌کنیم. در مقاله‌ای که ازش نام بردم با یکی از متخصصان این زمینه صحبت شده و در مورد قسمتی از حرف‌های شما و مشکلاتی که در این راه وجود داره توضیح داده می‌شه. خوشحال می‌شیم که بعد از انتشار مقاله‌ی جدید هم نظرتون رو با ما در میون بگذارید.

دیدگاه خود را ثبت کنید

دیدگاه خود را وارد کنید
لطفا نام خود را وارد کنید