سناریونویسی ابزاری مفید است که به ما این امکان را میدهد تا با بررسی آینده مسیرهای مختلف را پیشبینی کرده و مواردی را که میتوانند مشکل ایجاد کنند شناسایی کنیم. هدف این است که سناریوهای مختلف را به منظور جلوگیری از روشهایی که ممکن است منجر به آیندهای نامطلوب یا حتی فاجعهبار شوند، تجسم کنیم. این کار همچنین تمرینی برای تجسم آیندهای مطلوب و یافتن مسیر بهینه برای رسیدن به آن است.
معرفی مکانیسم
این نقشه سه سناریوی فرضی را در توسعه یک سیستم هوش مصنوعی عمومی (AGI) به وسیله یک شرکت خیالی به نام C1 به تصویر میکشد. تمرکز اصلی بر روی مسابقه دستیابی به هوش مصنوعی عمومی است، جایی که ذیالنفعان برای دستیابی به یک فناوری قدرتمند هوش مصنوعی تلاش میکنند که پیامدهای آن بر ایمنی متاثر است. این سناریوها تصمیمات احتمالی گرفته شده توسط بازیگران اصلی در امور مختلف را نشان میدهند که منجر به نتایج متنوعی خواهند شد.
هدف از ارائه این مقاله شناساندن همه سناریوهای ممکن به کاربران نبود و صرفا ارائه چند مثال است. نقشه راه در درجه اول بر روی هوش مصنوعی عمومی متمرکز است، که احتمالاً دارای پتانسیل تحول آفرینی عظیمی خواهد بود و میتواند به طور چشمگیری بر جامعه تأثیر بگذارد. این سناریوها به طور عمدی در حال اجرا در برخی از شرایط حاد برای ایجاد بحث در مورد نقش هوش مصنوعی عمومی در خصوص تغییر پارامترها است.
سناریو اول: شرایطی که یک هوش مصنوعی خطرناک ایجاد میشود!
با فرض اینکه پتانسیل و کاربرد هوش مصنوعی عمومی بسیار زیاد است و میتواند برای اولین کسی که این سیستم را ایجاد می کند یک مزیت بیسابقه باشد. این احتمال وجود دارد که یک سیستم هوش مصنوعی پیشرفته قبل از انجام آزمایشات مناسب مستقر شود. در این سناریو شرکت C1 سیستم هوش مصنوعی عمومی خود را ایجاد میکند و این در حالی است که دیگران هنوز برای تکمیل فناوری خود در حال مسابقه دادن هستند. این میتواند منجر به ایجاد اضطراب در شرکت C1 شود که به استقرار هوش مصنوعی عمومی قبل از اطمینان از ایمنی آن منجر شود، این اتفاقات در نهایت میتواند به از دست دادن کنترل هوش مصنوعی بیانجامند.
آنچه در این سناریو رخ خواهد داد به ماهیت هوش مصنوعی عمومی ایجاد شده بستگی دارد. اگر نرخ خودسازی و پیشرفت هوش مصنوعی خیلی سریع ادامه یابد و توسعه دهندگان نتوانند اشتباهات خود را جبران کنند رباتها میتوانند به راحتی آینده را از دست بشریت خارج کنند. در این حالت بسته به اهداف و ارزشهای هوش مصنوعی عمومی، آینده میتواند به یک سناریوی روز رستاخیز یا نوعی همزیستی منجر شود، جایی که برخی از افراد با هوش مصنوعی پیشرفته ادغام خواهند شد و از مزایای آن بهرهمند میشوند و برخی دیگر نه.
در سناریو دوم اگر نرخ خودسازی هوش مصنوعی پیشرفته خیلی سریع نباشد، ممکن است زمان کافی برای کنترل مجدد آن وجود داشته باشد. هوش مصنوعی عمومی ممکن است شروع به برهم زدن ساختارهای اقتصادی واجتماعی کند و گروههای آسیب دیده را به سمت اقدامات نادرست سوق دهد. این اتفاقات میتواند به ایجاد نوعی کنسرسیوم ایمنی برای هوش مصنوعی عمومی منجر شود که میتواند به توسعه و استقرار اقدامات ایمنی برای کنترل فناوری اختصاص یابد. بنابراین یک کنسرسیوم ضروری ایجاد میشود و احتمالاً برای اطمینان از هوش مصنوعی عمومی در آینده همه شرکتها به آن پایبند خواهند ماند. هنگامی که هوش مصنوعی عمومی تحت کنترل قرار بگیرد، از لحاظ نظری میتواند به سناریویی منجر شود که در آن یک سیستم هوش مصنوعی عمومی قدرتمند و ایمن (با قوانین شفاف) ایجاد شده است.
یک هوش مصنوعی قدرتمند و ایمن
بنابراین از هر دو سناریوی یاد شده میتوان به یک سیستم هوش مصنوعی قدرتمند و ایمن رسید. این امکان وجود دارد که نوعی نمونه اولیه از هوش مصنوعی عمومی وارد بازار شود و گرچه تهدیدی در زمینه ایمنی ایجاد نخواهد کرد، اما احتمالاً باعث ایجاد اختلالات عمده در جامعه و اتوماسیون بیشتر مشاغل خواهد شد. توجه داشته باشید که نقش دولتها به عنوان ارائه دهنده برنامههای پشتیبانی عمومی ممکن است به میزان قابل توجهی کاهش یابد، مگر اینکه دولتها در کنار بازیگران قدرتمند اقتصادی به هوش مصنوعی عمومی دسترسی داشته باشند. اهرمهای سنتی که دولتها برای به دست آوردن منابع مالی از طریق مالیات به وسیله آن جامعه را تحت فشار قرار میدهند، ممکن است در اقتصاد جدید که بر پایه هوش مصنوعی استوار است کاربردی نداشته باشند.
سناریو دوم: تمرکز هوش مصنوعی بر روی ایمنی
در این سناریو هوش مصنوعی عمومی به عنوان ابزاری قدرتمند تلقی میشود که به سازنده خود یک مزیت عمده اقتصادی و اجتماعی میبخشد. در اینجا هوش مصنوعی اصولاً به عنوان یک خطر در نظر گرفته نمیشود، بلکه به عنوان علت احتمالی بسیاری از اختلالات و مسبب تغییر موازنه قدرت در نظر گرفته میشود. توسعهدهندگان تحقیقات خود را خصوصی نگه میدارند اما با این وجود کارهای زیادی در زمینه ایمنی هوش مصنوعی انجام میشود. دو راه احتمالی که این سناریو می تواند طی کند یکی رویکرد مشترک توسعه و دومی گسیل به روشی پنهانی است.
رویکرد توسعه و همکاری مشترک
با توجه به اینکه بازیگران مختلف خواهان همکاری در زمینه توسعه هوش مصنوعی عمومی هستند، احتمالاً نوعی کنسرسیوم ایجاد خواهد شد. این میتواند به عنوان یک تمرین اعتمادسازی بین چند بازیکن که در زمینه مسائل ایمنی همکاری میکنند شروع شود اما در نهایت میتواند به یک ساختار توسعه بینالمللی هوش مصنوعی بزرگتر تبدیل شود. امروزه راههای ابتکاری قابل توجهی در زمینه طراحی سیستمهای هوش مصنوعی منطبق بر اصول اخلاقی و مواردی دیگر ایجاد شدهاند که این فناوری را به سمت یک سناریوی مثبت سوق میدهند. در سناریوی ما یک سازمان فرضی در مقیاس جهانی ایجاد خواهد شد، جایی که اعضا بر روی الگوریتمها و ایمنی سیستمهای پیشرفته خود با هم همکاری میکنند که از آن تحت عنوان United AI یاد میشود، چیزی مشابه با سازمان ملل. این سناریو در نهایت منجر به حالت قدرتمند و ایمن هوش مصنوعی عمومی خواهد شد که پیشتر توضیح داده شد، زیرا تمام استعدادهای موجود جهانی به ویژگیهای ایمنی و آزمایش سیستمها اختصاص داده میشود و این میتواند بسیار ایدهال باشد.
رویکرد خفا
برعکس آنچه گفته شد نیز ممکن است اتفاق بیفتد. در این سناریو توسعهدهندگان به طور پنهانی کار میکنند، اما همچنان تمهیدات ایمنی را در داخل مجموعه خود انجام میدهند، اما اعتماد بین سازمانها برای تقویت همکاریهای مشترک کافی نیست. این سناریو توانایی انحراف به مسیرهای بسیاری را دارد. سناریوی ما بر روی آنچه ممکن است که در صورت ظهور همزمان چندین سیستم هوش مصنوعی عمومی با صاحبان مختلف یا انحصارا توسط شرکت C1 رخ دهد تمرکز دارد.
سناریوی ظهور همزمان چندین سیستم هوش مصنوعی
در این مورد چندین سیستم هوش مصنوعی عمومی تقریباً همزمان ظهور میکنند. این میتواند به دلیل نشت اطلاعات در شرکت باشد و ثبب میشود تا شرکتهای دیگر به طور همزمان به نتیجه نزدیک شوند. این مسیر بسته به اهداف سازندگان، پتانسیلهای مختلفی دارد. در نهایت ما میتوانیم به جنگ سیستمهای هوش مصنوعی عمومی برسیم که در آن بازیگران مختلف برای کنترل کامل بر فناوری مبارزه میکنند. در این حالت میتوانیم خود را در موقعیتی شبیه به جهان پس از جنگ جهانی دوم قرار دهیم، جایی که در آن یک سیستم هوش مصنوعی عمومی اقتصادی توسط بازیگران متعدد توسعه یافته و شروع به کار میکند.
نتیجهی همچین اتفاقی میتواند منجر به ایجاد دو جهان موازی از افرادی شود که به هوش مصنوعی عمومی دسترسی دارند و کسانی که به آن دسترسی ندارند. در نهایت احتمالا کسانی که با هوش مصنوعی عمومی ادغام میشوند، جامعهای مستقل توسط هوش مصنوعی عمومی ایجاد میکنند که میتوانند خود را در آن جامعه خدا بنامند. بسته به انگیزههایی که خدایان جدید دارند و اینکه آنها تصمیم بگیرند ثمرهی سیستم هوش مصنوعی خود را با بقیه بشریت تقسیم کنند یا خیر، میتواند منجر به نابرابری بیشتر و اختلاف طبقاتی عظیم شود.
انحصار هوش مصنوعی عمومی
اگر شرکت C1 از طریق ارتقای فرهنگ تیمی و اقدامات امنیتی موفق شود اطلاعات محرمانه سیستم هوش مصنوعی عمومی را در درون دیوارهای خود حفظ کند این رویه میتواند به چندین روش مختلف پیش رود. اگر C1 نیت بدی داشته باشد میتواند از سیستم هوش مصنوعی خود برای تسخیر جهان استفاده کند، که مشابه جنگ سیستمهای هوش مصنوعی که قبلا توضیح داده شد است. همچنین این سناریو میتواند به دو حالت انتهایی دیگر نیز منجر شود:
- اگر C1 تصمیم بگیرد که ثمرات این فناوری را با جامعه بشریت به اشتراک بگذارد، ما میتوانیم شکوفایی اقتصادی را شاهد باشیم و اگر چنین اتفاقی رخ ندهد، جامعه انسانی احتمالاً بسیار نابرابر خواهد شد.
- یک احتمال دیگر مورد بررسی قرار گرفته و این است که C1 علاقهای به سیاره زمین ندارد و پس از ایجاد هوش مصنوعی عمومی به طور مخفیانه به کار خود ادامه میدهد. با پتانسیل این فناوری، C1 میتواند زمین را ترک کند و بدون اینکه کسی متوجه شود شروع به کاوش در کیهان کند.
سناریو سوم: انتقال آرام از هوش مصنوعی اولیه به هوش مصنوعی عمومی
این سناریو شاهد تغییر تدریجی هوش مصنوعی اولیه به هوش مصنوعی عمومی است. در طول مسیر زیرساختها ایجاد میشوند و تغییرات موازنه قدرت کندتر و کاملا تحت کنترل انجام میشود. هم اکنون ما شاهد هستیم که هوش مصنوعی اولیه زندگی روزمره ما را در اقتصاد و جامعه اشغال میکند و مشاغل دستی هر روز بیشتر از روز قبل خودکار میشوند. این پیشرفت ممکن است منجر به ایجاد یک کنسرسیوم ایمنی برای هوش مصنوعی اولیه شود که بر کاربردهای این نوع از هوش مصنوعی تمرکز دارد.
این ایمنی و مقررات میتواند به عنوان فضای ایجاد اعتماد برای بازیکنانی که به توسعه هوش مصنوعی عمومی مشغول هستند هم مورد استفاده قرار گیرد. با این حال بازیگرانی که صرفا هوش مصنوعی عمومی را دنبال میکنند و تصمیم به توسعه فناوریهای اولیه هوش مصنوعی ندارند ممکن است از این کنسرسیوم کنار گذاشته شوند. با خودکار شدن مشاغل، دولتها باید منابع مالی بیشتری (از طریق مالیات یا سایر روشها) برای حمایت از افراد آسیب دیده تأمین کنند. این افزایش حمایت تدریجی میتواند به درآمد پایه جهانی یا مدل مشابه منجر شود که در نهایت مجدد به هوش مصنوعی عمومی رسیده و دوباره نتیجهی نهایی به انگیزهی خالق آن بستگی خواهد داشت.
چه یاد گرفتیم؟
اگرچه مطالب و راههایی که گفته شد تمام سناریوهای ممکن نیست ، اما برای نشان دادن برخی از امکانات و ارائه ایدههایی که اکنون باید روی آنها تمرکز کنیم مفید است.
همکاری
با نگاهی به نقشه راه بدیهی به نظر میرسد که یکی از کلیدهای جلوگیری از سناریوی روز رستاخیز یا جنگ سیستمهای هوش مصنوعی عمومی همکاری بین بازیگران اصلی و ایجاد نوعی کنسرسیوم ایمنی هوش مصنوعی یا حتی یک ساختار توسعه بین المللی هوش مصنوعی با پارامترهای قدرتمند است. در سناریوی اول پس از خارج شدن فناوری از کنترل C1، شاهد ایجاد کنسرسیومی از روی ضرورت بودیم. با این حال، در دو سناریوی دیگر نمونههایی از چگونگی کمک یک کنسرسیوم ایمنی به کنترل توسعه و جلوگیری از سناریوهای نامطلوب را میبینیم. کنسرسیومی که نه تنها فناوری را به سمت ایمنی سوق میدهد، بلکه بهزیستی انسانها را سبب خواهد شد و میتواند به جلوگیری از نابرابریهای بزرگ در آینده کمک کند. با این وجود، شناسایی مشوقهای مناسب برای همکاری بازیگران قدرت همواره یکی از بزرگترین چالشها است.
درآمد پایه جهانی، سهام عمومی جهانی یا موارد مشابه
موضوع دیگری که با توسعه هوش مصنوعی عمومی اجتنابناپذیر به نظر میرسد، ایجاد تغییر جهت به سمت جامعهای بیکار است که در آن ماشین آلات بیشتر کارها را انجام میدهند. منطقهای که در آن به دلیل اتوماسیون روزافزون بخش عمدهای از جامعه کار خود را از دست میدهند موضوعی است که باید برای آن برنامهریزی شود. حال اگر این مشکل از طریق صندوقی که در سهام و اوراق قرضه سرمایه گذاری شده حل شود یا مدلهای مشابه، تغییرات اجتماعی باید به تدریج انجام شود تا از ایجاد اختلالات و هرج و مرج گسترده جلوگیری شود. کنسرسیوم یاد شده میتواند در این مورد هم کاربرد داشته باشد و برای انتقال جامعه به این سیستم جدید قوانینی ارائه کند.
راه حل مسابقه هوش مصنوعی
سناریوهای ما پیامدهای یک مسابقه به سمت دستیابی به هوش مصنوعی عمومی را نشان میدهد و گرچه ثابت شده که رقابت همواره به نوآوری ختم میشود، ما باید از خطرات مرتبط با این مسابقه آگاه باشیم و به دنبال راههایی برای جلوگیری از مشکلات احتمالی باشیم. موضوع مسابقه هوش مصنوعی در چالش عمومی هوش مصنوعی که توسط GoodAI راهاندازی شده گسترش یافته است، جایی که کاربران از سراسر جهان پیشنهادات خود را برای کاهش خطرات ناشی از رقابت بر سر دستیابی به هوش مصنوعی عمومی ارائه دادهاند.