خطر بازگشت به عصر حجر توسط هوش مصنوعی

خطر بازگشت به عصر حجر توسط هوش مصنوعی

خطر بازگشت به عصر حجر توسط هوش مصنوعی

گفتگو با مجری پادکست “پایان جهان “: ممکن است هوش مصنوعی ما را به عصر حجر بازگرداند

آیا ممکن است ما تبدیل به شامپانزه‌های قرن بیست و یکم شویم؟

Robot

بقای گونه‌ی بشر با موانع و خطرات مهمی روبرو است.
چه قرار باشد در نهایت، نژاد انسان در اثر برخورد یک شهاب سنگ بزرگ نابود شود یا در اثر یک بلای طبیعی فراگیر و یا یک جنگ هسته‌ای نابود کننده، در هر صورت چند خطر هستند که آینده ما انسان‌ها را تهدید می‌کنند. وقوع برخی از این خطرات احتمال کمتری دارد و بعضی از آنها کاملاً اجتناب ناپذیر هستند.
هر چند فجایع سراسری و جهانی مثل موارد ذکر شده می‌توانند برای گونه بشر نابود کننده باشند، اما اگر جنگ هسته‌ای 99 درصد انسان‌ها را نابود کند، ممکن است 1 درصد باقیمانده جان سالم به در ببرند و تا سال‌ها بعد از این فاجعه به زندگی خودشان ادامه دهند و هیچ آسیب همیشگی و ماندگاری به نژاد انسان وارد نشود.
فجایعی هم هستند که امکان جان سالم به در بردن از آنها، بازسازی شرایط و تداوم حیات انسان‌ها پس از آنها وجود ندارد.
به این اتفاقات فاجعه بار، خطرات یا تهدیدات وجودی گفته می‌شود – یعنی شرایطی که می‌تواند منجر به انقراض نسل بشر شده یا احتمال ادامه بقای انسان را به شدت کم کنند.
همین تهدیدات وجودی، موضوع اصلی یک پادکست 10 قسمتی به نام “پایان جهان با Josh Clark” هستند که قبلاً هم مجری پادکست “چیزهایی که باید حتما بدانید” بود (که اخیراً اولین پادکستی شد که توانست به رتبه 1 میلیارد دانلود برسد).
در این پادکست جدید، Clark راه‌های احتمالی برای به پایان رسیدن دنیا را بررسی می‌کند – از جمله تسلط یک هوش مصنوعی فوق العاده هوشمند بر دنیا.
Clark در دوره تحقیقاتش در رابطه با تهدیدات وجودی، با کارشناسان و متخصصین زیادی در عرصه هوش مصنوعی و تهدیدات وجودی مصاحبه کرده از جمله Nick Bostrom، فیلسوف سوئدی و بنیانگذار موسسه “Future of Humanity”، David Pearce فیلسوف و یکی از بنیانگذاران انجمن World Transhumanist و Sebastian Farquhar فیلسوف و از اساتید دانشگاه آکسفورد.
در این مطلب با وی در رابطه با پادکست جدیدش مصاحبه شده و این که چرا او و کارشناسان عرصه تهدیدات وجودی، تصور می‌کنند که پیشرفت انسان در عرصه هوش مصنوعی می‌تواند به سرنگونی بشریت منجر شود.

خطر وجودی چیست؟

شاید عده‌ای بگویند که همین حالا هم نسل بشر با خطرات مختلفی روبروست؛ یک نمونه بارز از این خطرات، تغییرات آب و هوایی است که اگر توجهی به آن نشود، به گفته Clark، “می‌تواند برای بشریت وحشتناک باشد و بشریت را به عصر حجر یا حتی قبل از آن برگرداند.”
اما به گفته Clark نمی‌توان این خطر را یک تهدید وجودی دانست “ما توانستیم طی ده‌ها هزار سال بشریت را به این نقطه برسانیم این بار شاید خیلی سریع تر از قبل بتوانیم این کار را انجام دهیم چون حالا دانشی را داریم که اولین باری که تمدن بشر ایجاد شد، این دانش را در اختیار نداشتیم.”
اما در مورد تهدید وجودی این طور نیست، به گفته Clark، در مورد تهدیدات وجودی امکان بازسازی وجود ندارد و بشریت برای همیشه محو می‌شود.
Nick Bostrom اولین فردی بود که این ایده را مطرح کرد که باید تهدیدات وجودی را جدی تلقی کنیم. وی در مقاله‌ای که در ژورنال Evolution and Technology منتشر شد، تهدید وجودی را به این صورت تعریف کرد “خطری که پیامدهای نامطلوب آن می‌تواند باعث از بین رفتن حیات در زمین شود یا به صورت دائم و به میزان زیادی پتانسیل‌های آن را کم کند.”

“این ایده که انسان‌ها می‌توانند به صورت تصادفی باعث محو شدن و نابودی خودشان شوند، جذاب [و محتمل] است.”
Josh Clark

Clark می‌گوید در این حالت “حتی اگر ما بتوانیم به بقای خودمان ادامه ندهیم، هرگز قادر نخواهیم بود مجدداً به همان میزان پیشرفت و توسعه که قبل از حادثه داشتیم، دست پیدا کنیم.”
شاید فکر کردن به اقدامات و کارهایی که باعث می‌شوند خودمان را به نابودی بکشیم، سخت و غیرقابل باور باشد، اما وقتی ما هم از دریچه‌ی پادکست “پایان جهان” Clark به این موضوع نگاه کنیم، شاید این شرایط قابل باورتر شود.
وقتی از او سوال شد که چرا چنین موضوع ترسناک و دلهره آوری را دنبال می‌کند گفت “این ایده که بشر می‌تواند تصادفاً منجر به انقراض و نابودی خودش شود، بسیار جذاب است.”
و شاید جذاب ترین تهدید وجودی برای انسان، خطر ناشی از یک هوش مصنوعی فوق العاده هوشمند است که کنترل جهان را به دست می‌گیرد.

Anki Vector : toy robot
Anki Vector یک ربات اسباب بازی همراه است که برای یادگیری از هوش مصنوعی استفاده می‌کند. منبع: Anki

اصول و پایه‌های هوش مصنوعی

در سال‌های اخیر پیشرفت تکنولوژی از جمله پیشرفت سفرهای فضایی، تولد اینترنت و جهش بزرگ در تکنولوژی کامپیوتر، زندگی انسان‌ها را دستخوش تغییرات بزرگی کرده است. هر چه تکنولوژی پیشرفته تر می‌شود، یک تهدید وجودی جدید هم بزرگتر می‌شود: هوش مصنوعی فوق العاده هوشمند.
برای درک این موضوع که چگونه ممکن است هوش مصنوعی انسان را تهدید کند، اول باید نحوه عملکرد آن را درک کنیم. در اپیزود “هوش مصنوعی” این پادکست، Clark بحث را با ارائه مثالی از یک ماشین که برای مرتب کردن و جدا کردن توپ‌های قرمز و سبز ساخته شده، شروع کرد.
تکنولوژی که در چنین ماشین به ظاهر ساده‌ای به کار رفته بسیار پیچیده تر از آنچه شما تصور می‌کنید، است.
در صورتی که این ماشین درست برنامه نویسی شده باشد، مهارت کاملی در دسته بندی توپ‌های قرمز و سبز پیدا می‌کند، درست مثل DeepBlue که در عرصه شطرنج مهارت دارد. اما هر چقدر که این ماشین‌ها جذاب و توانمند به نظر برسند، باز هم فقط قادر به انجام یک کار هستند.
Clarke توضیح داد که “هدف اصلی ابداع هوش مصنوعی، این نبوده که انسان را در شطرنج شکست دهد بلکه هدف اصلی ایجاد ماشینی با هوش عمومی مثل انسان بوده است.”
او ادامه داد “ماشین بودن یعنی خوب بودن فقط در یک عرصه مثل شطرنج. اما ترکیب خوب بودن در بازی شطرنج، محاسبه مالیات، اسپانیایی صحبت کردن، دنبال کردن دستور پخت پای سیب و … این یعنی تقریباً شبیه انسان شدن.”
مسئله‌ای که اولین پیشگامان هوش مصنوعی با آن روبرو شدند نیز همین موضوع بود که چطور می‌توان تجربیات انسان را به صورت کامل به یک ماشین آموخت؟ پاسخ این سوال، استفاده از شبکه‌های عصبی است.

puppy robot
اسباب بازی Aibo شرکت سونی به لطف استفاده از هوش مصنوعی مثل یک سگ واقعی آموزش می‌بیند. منبع: Sony

شبکه عصبی چیست؟

شبکه عصبی، یک روش یادگیری ماشینی است که با مدل سازی مغز انسان انجام می‌شود. در این روش از طریق یک الگوریتم، یک شبکه مصنوعی ساخته می‌شود که امکان یادگیری با استفاده از داده‌های جدید را برای کامپیوتر فراهم می‌کند.
یک نمونه از کارهای متداولی که شبکه‌های عصبی با استفاده از یادگیری عمیق انجام می‌دهند، تشخیص اشیا است. در این حالت شبکه، با تعداد زیادی از اشیایی با نوعی خاص، مثل گربه یا علائم راهنمایی و رانندگی شکل می‌گیرد.
این شبکه با تحلیل الگوهای تکرار شونده در تصاویری که به آن داده می‌شود، یاد می‌گیرد که تصاویر جدید را طبقه بندی کند.

پیشرفت‌های هوش مصنوعی

هوش مصنوعی در ابتدا ماشین‌هایی را تولید می‌کرد که فقط در یک کار مهارت داشتند اما پیشرفت‌های اخیر شبکه‌های مصنوعی امکان توسعه این تکنولوژی را فراهم کرده اند.
به لطف منابع داده عظیم اینترنت مثل تصاویر گوگل و ویدیوهای یوتیوب، تا سال 2006 اینترنت تبدیل به یک نیروی بزرگ برای توسعه شبکه‌های مصنوعی شد.
همین فراهم شدن دسترسی به منابع داده‌ای عظیم، باعث شد عرصه شبکه‌های عصبی به پیشرفت چشمگیری برسد و ماشین‌های مجهز به هوش مصنوعی امروزی دیگر برای یادگیری و آموزش نیاز به سرپرستی و نظارت انسان‌ها نداشته باشند – خود آنها با به کار بستن داده‌های جدید و تحلیل آنها می‌توانند آموزش ببینند.
هر چند شبکه‌های عصبی باعث شده هوش مصنوعی نسبت به گذشته بسیار بهتر عمل کند اما خطر اینجاست که ما به صورت کامل از طرز کار آنها اطلاع نداریم. به گفته Clarke “ما نمی توانیم درون فرایند تفکر و یادگیری هوش مصنوعی را ببینیم.” و همین موضوع می‌تواند باعث ترس و اضطراب افرادی شود که از تکنولوژی هوش مصنوعی استفاده می‌کنند.
مقاله‌ای که در سال 2017 توسط Technology Review منتشر شد، شبکه عصبی را شبیه یک “جعبه سیاه” توصیف کرد – یعنی داده‌ها وارد ماشین می‌شوند و ما خروجی را به صورت اقدامات ماشین می‌بینیم و درک کمی از فرایندی که در این بین اتفاق می‌افتد، داریم.
بعلاوه اگر استفاده از شبکه‌های عصبی باعث شود که خود هوش مصنوعی بتواند به راحتی پیشرفت کند و بدون نیاز به دریافت ورودی از انسان هوشمندتر شود، چطور می‌توان جلوی آن را گرفت که از انسان هوشمندتر نشود؟
به گفته Clark “هوش مصنوعی می‌تواند خودبخود پیشرفت کند، می‌تواند کدنویسی را یاد بگیرد. بذرهای ایجاد یک هوش مصنوعی فوق العاده هوشمند همین حالا هم کاشته شده” و طبق توصیفات Nick Bostrom می‌توان آن را یک تهدید وجودی برای بشریت دانست. وی در مقاله‌ای که در رابطه با تهدید وجودی برای ژورنال Evolution and Technology نوشته می‌گوید “وقتی اولین موجود فوق العاده هوشمند را ساختیم دچار اشتباه شده‌ایم و همین باعث ایجاد اهدافی برای این موجود می‌شود که می‌توانند به نابودی بشر ختم شوند؛ با این فرض که پیشرفت ذهنی فوق العاده زیاد این موجود، قدرت انجام این کار را به او بدهد.”

نشخه 5 nao
پنجمین نسخه‌ی Nao ربات مجهز به هوش مصنوعی شرکت SoftBank Robotics تولید شده و بیش از 10 هزار عدد از آن در سطح جهان فروخته شده است.
منبع: SoftBank Robotics

یک هوش مصنوعی بسیار هوشمند چه تهدیداتی برای انسان ایجاد می‌کند؟

“فرض کنیم که یک ماشین فوق العاده هوشمند، ماشینی باشد که بتواند از تمام فعالیت‌های ذهنی و فکری یک انسان (هر چقدر هوشمند) پیشی بگیرد. از آنجایی که طراحی این ماشین هم یکی از فعالیت‌های ذهنی انسان بوده، یک ماشین فوق العاده هوشمند باید بتواند ماشین‌های بهتری را طراحی کند که این موضوع می‌تواند در نهایت منجر به “انفجار هوشمندی” شود و هوش انسان بشدت از آن عقب خواهند ماند.
این یک نقل قول از I. J. Good یکی از ریاضیدانان بریتانیایی است که Clark هم در پادکست و در این گفتگو به آن به عنوان یکی از راههای چگونگی ایجاد یک هوش مصنوعی فوق العاده قوی اشاره کرد.
وی به عنوان مثال به ماشینی اشاره کرد که روزبروز هوشمندتر شده و قابلیت کدنویسی را دارد – چنین ماشینی قابلیت نوشتن نسخه‌هایی بهتر از خودش را دارد طوریکه با توجه به بهتر شدن دائم این ماشین در انجام کارها، نرخ پیشرفت او به صورت انفجاری افزایش پیدا می‌کند.
Clark توضیح می‌دهد “در نهایت ممکن است هوش مصنوعی ایجاد شود که نسبت به انسان قابلیت بیشتری در کدنویسی و طراحی الگوریتم داشته باشد. در چنین نقطه‌ای وارد مرحله‌ای به نام “انفجار هوشمندی” می‌شویم و اینجاست که انسان رو به نابودی خواهد رفت.”

خیرخواهی و نیک اندیشی یک خصلت انسانی است

اما چرا این موضوع یک تهدید وجودی محسوب می‌شود؟ Clark خواست “هوش مصنوعی را تصور کنیم که ما انسان‌ها ساختیم و فراتر از کنترل ما هوشمند شده است.”
وی ادامه داد “اگر آنچه را که نظریه پردازان هوش مصنوعی به نام ‘friendliness’ (مساعدت و مهربانی) می‌نامند در هوش مصنوعی ادغام نکنیم، هیچ دلیلی وجود ندارد که این هوش مصنوعی به صلاح ما و طبق منافع ما عمل کند.”
در حال حاضر از هوش مصنوعی برای توصیه فیلم در Netflix، پر کردن فید شبکه‌های اجتماعی با مطالب مورد علاقه کاربران و ترجمه زبان‌های انسانی از طریق اپلیکیشن‌هایی مثل Google Translate استفاده می‌شود.
فرض کنید گوگل‌ترنسلیت به لطف قابلیت‌های پیشرفت و بهبود خودکاری که از طریق شبکه‌های عصبی فراهم شده، فوق العاده هوشمند شود. به گفته Clark “هیچ خطر ذاتی در مترجمی که فوق العاده هوشمند شده باشد وجود ندارد چون این مترجم در کار خودش خیلی بهتر خواهد شد. خطر وقتی ایجاد می‌شود که این مترجم به این نتیجه برسد که برای پیشرفت و بهبود کاری که ما برایش در نظر گرفتیم، به چیزهای دیگری نیاز دارد.”
مثلاً ممکن است این هوش مصنوعی مترجم تصمیم بگیرد که برای پیشرفت خودش به فضای بیشتری از شبکه نیاز دارد یا این که برای ساخت سرورهای بیشتر باید جنگل‌ها را نابود کند.
Clark توضیح می‌دهد برای تولید این پادکست، نگاهی به تحقیقات افرادی مثل Bostrom داشته که باور دارد در چنین شرایطی ما “وارد نبردی بر سر منابع با هوشمندترین موجودات جهان خواهیم شد – و احتمالاً در این نبرد شکست خواهیم خورد.” قبلاً هم چنین صحبت‌هایی را از زبان افراد دیگر مثل یکی از محققین مایکروسافت به نام Eric Horvitz و Stephen Hawking هم شنیده بودیم.

دیدار دختربچه و ربات
ملاقات یک دختر بچه با یک ربات در اوساکای ژاپن. منبع تصویر: Andy Kelly در Unsplash

در مقاله ژورنالی که قبلاً هم اشاره کردیم Bostrom یک سناریوی فرضی را شرح می‌دهد که طبق این سناریو ممکن است یک هوش مصنوعی فوق العاده هوشمند یک تهدید وجودی برای انسان ایجاد کند: “ما از هوش مصنوعی می‌خواهیم که یک مسئله ریاضی را حل کند و او هم با تبدیل تمام مواد منظومه شمسی به یک دستگاه محاسباتی غول پیکر – فرایندی که باعث کشته شدن کسی که این سوال را پرسیده، می‌شود – سعی می‌کند به این خواسته عمل کند.”
پس مسئله، ایجاد هوش مصنوعی نیست که ذاتاً شیطانی و بدخواه باشد – در دنیای یادگیری ماشینی چیزی به اسم خوب و بد و شیطانی وجود ندارد. مسئه اینجاست که ممکن است هوش مصنوعی دائماً به تلاش برای بهبود و پیشرفت در انجام کاری که برای آن ساخته شده، ادامه دهد تا حدی که برایش مهم نباشد که اقدامات او برای بهبود کارایی یا دقتش، می‌توانند به ضرر انسان‌ها باشند.
به گفته Clarke مشکل تهدید وجودی ناشی از “عدم موفقیت ما برای برنامه ریزی دوستی و خیرخواهی در هوش مصنوعی‌ای است که در نهایت فوق العاده هوشمند می‌شود.”

“ممکن است یک هوش مصنوعی فوق العاده قوی بر دنیا مسلط شود و در نتیجه ما تبدیل به شامپانزه‌های قرن بیست و یکم شویم.”
Josh Clarke

راهکارهایی برای مشکل هوش مصنوعی

اما برای حل این مسئله چه کارهایی را می‌توان انجام داد؟ به گفته Clark این یک چالش بزرگ است و اولین گام برای حل این چالش این است که “محققین بپذیرند که این، یک مشکل واقعی است” و توضیح داد که عده زیادی حس می‌کنند هوش مصنوعی در مسیری قرار دارد که برنامه ریزی برای مقابله با خطرات احتمالی آن در آینده کار بی ارزشی است.
بعد از آن باید تشخیص دهیم که چطور می‌توانیم خیرخواهی را در هوش مصنوعی برنامه ریزی کنیم که انجام این کار برای محققین هوش مصنوعی هم در حال حاضر و هم در آینده دشواری‌های زیادی به همراه خواهد داشت.
یکی از مشکلات و مسائلی که هنگام تدریس ارزش‌ها و اخلاقیات به هوش مصنوعی ایجاد می‌شود، این است که ارزش‌ها و اخلاقیات چه کسی را باید به هوش مصنوعی آموخت؟ چون مسلماً یک توافق نظر جمعی و سراسری درباره این موضوع وجود ندارد.
حتی اگر یک مجموعه اخلاقیات را برای آموزش به هوش مصنوعی انتخاب کنیم، مسئله بعدی این است که چطور می‌توانیم مفهوم اخلاقی بودن را به یک ماشین توضیح دهیم؟

Robot
منبع تصویر: Franck V از Unsplash

چرا باید برای مقابله با تهدیدات وجودی برنامه ریزی کنیم؟

اما اگر هوش مصنوعی چنین خطر بزرگی را برای ما ایجاد می‌کند، چرا تحقیق و توسعه این تکنولوژی را متوقف نکنیم؟ به گفته I. J. Good هر چقدر این احتمال وجود دارد که هوش مصنوعی بشریت را به نابودی بکشاند این احتمال هم وجود دارد که تبدیل به بهترین اختراع بشر شود.
Clark می‌گوید ما در نقطه‌ای از تاریخ قرار داریم که می‌توانیم بزرگترین اختراع بشریت یعنی یک هوش مصنوعی فوق العاده قوی را ایجاد کنیم که بتواند تمام نیازهای بشر برای بقاء را برآورده کند.
“یکی از مسیرهای این جاده به سمت ایجاد تصادفی یک هوش مصنوعی فوق العاده قوی می‌رود که بر دنیا مسلط می‌شود و در نتیجه ما تبدیل به شامپانزه‌های قرن بیست و یکم می‌شویم.”
ما درباره مسیری که هوش مصنوعی در آینده طی خواهد کرد، اطلاع کافی نداریم اما Clark یک نکته را مشخص کرده: مسلماً باید تهدیدات وجودی را جدی بگیریم در غیر این صورت ممکن است بشریت پیش از آنکه به پتانسیل واقعی خودش دست پیدا کند، نابود شود.

منبع : Techradar

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *