بشریت همه دیوانه میشوند؛ هوش مصنوعی مافوق بشر چگونه ما را از بین میبرد؟ بیگانگان فرود آمدند و ما آنان را خلق کردیم!
نیل فرگوسن، یک استاد دانشگاه هاروارد به خبرگزاری بلومبرگ گفته: روزی نیست که پیش بینیهایی را درباره عذاب پیش رو نخوانم. در تازهترین مورد "الیزر یودکوفسکی" در نشریه "تایم" در هفته گذشته نوشته بود: "محتملترین نتیجه ساخت یک هوش مصنوعی فوقالعاده هوشمند تحت هر چیزی شبیه به شرایط فعلی این است که به معنای واقعی کلمه همه روی زمین خواهند مُرد. این یک احتمال بعید نیست بلکه در عمل رخ خواهد داد. اگر کسی یک هوش مصنوعی بسیار قدرتمند بسازد در شرایط کنونی من انتظار دارم که تک تک اعضای گونه انسانی و تمام حیات بیولوژیکی روی زمین اندکی پس از آن خواهند مُرد".
یودکوفسکی یک کاساندرای تصادفی نیست. او موسسه تحقیقاتی هوش ماشینی را رهبری میکند یک موسسه غیرانتفاعی در برکلی در کالیفرنیا و پیشتر در مورد مسئله هوش مصنوعی مطالب زیادی نوشته است. من هنوز به خوبی به یاد دارم زمانی که در حال تحقیق در مورد کتاب ام با نام "سرنوشت" بودم او درباره این که ممکن است کسی ناخواسته هوش مصنوعیای ایجاد کند که علیه ما باشد هشدار داده بود.
من در کتاب ام اشاره کردم که برای مثال، به هوش مصنوعی میگوییم که تغییرات آب و هوایی را متوقف کند و آن نتیجه میگیرد که برای این کار نابودی هوموساپینس یا انسان خردمند راه حل بهینه است. این یودکوفسکی بود که چند سال پیش قانون مور اصلاح شده را پیشنهاد کرد: هر ۱۸ ماه حداقل ضریب هوشی لازم برای نابودی جهان یک امتیاز کاهش یابد.
اکنون یودکوفسکی فراتر رفته است. او معتقد است که ما به سرعت در حال نزدیک شدن به یک دوره مهلک هستیم که در آن هوش مصنوعی هوشمندتر از خودمان را ایجاد میکنیم که "آن چه ما میخواهیم را انجام نمیدهد و به ما و به طور کلی به زندگی حساس اهمیت نمیدهد. نتیجه محتمل مواجه شدن بشر با یک هوش مافوق بشری مخالف یک ضرر کامل است".
او معتقد است که چنین هوش مصنوعیای میتواند به راحتی از اینترنت فرار کند تا "شکلهای زندگی مصنوعی بسازد" و در واقع جنگ بیولوژیکی را علیه ما راه اندازی کند. توصیه او روشن است. ما به یک تعلیق کامل برای توسعه هوش مصنوعی نیاز داریم.
این بسیار فراتر از نامه سرگشاده امضا شده توسط "ایلان ماسک" و "استیو وزنیاک" بنیانگذار اپل و بیش از ۱۵۰۰۰ چهره برجسته دیگر است که خواستار توقف شش ماهه توسعه هوش مصنوعی قدرتمندتر از وضعیت فعلی شده اند.
با این وجود، انگیزه آنان از امضای آن نامه همان انگیزه یودکوفسکی است: این باور که توسعه هوش مصنوعی با قابلیتهای مافوق بشری در غیاب هرگونه چارچوب نظارتی بین المللی، خطر ایجاد یک فاجعه را به همراه خواهد داشت. تنها تفاوت واقعی این است که یودکوفسکی شک دارد که چنین چارچوبی میتواند ظرف مدت شش ماه ابداع شود. او تقریبا در این مورد حق دارد.
تشابه آشکار با دو زمینه قبلی تحقیقات علمی بالقوه کشنده است: تسلیحات هستهای و جنگ بیولوژیکی. ما از همان ابتدا در تاریخ این رشتهها میدانستیم که ظرفیت بالقوه ایجاد فاجعه بسیار زیاد است و اگر نه انقراض بشریت بلکه دست کم مرگ در مقیاس وسیع را به همراه خواهد داشت.
با این وجود، تلاشها برای مهار گسترش تسلیحات هستهای و بیولوژیکی بسیار بیشتر از شش ماه به طول انجامید و تنها تا حدی موفقیتآمیز بود. در سال ۱۹۴۶ میلادی ایالات متحده طرح باروخ را برای بین المللی کردن تحقیقات هستهای پیشنهاد کرد.
با این وجود، اتحاد جماهیر شوروی آن طرح را رد کرد و به زودی یک مسابقه تسلیحات هستهای دیوانه کننده آغاز شد. بیشترین دستاوردی که حاصل شد محدود کردن تعداد کشورهایی بود که دارای تسلیحات هستهای بودند (از طریق معاهده منع گسترش سلاحهای هستهای که در سال ۱۹۷۰ میلادی لازم الاجرا شد) و کاهش سرعت و در نهایت معکوس کردن رشد زرادخانههای ابرقدرت ها.
کنوانسیون سلاحهای بیولوژیکی که در سال ۱۹۷۵ میلادی لازم الاجرا شد به طور کامل تحقیقات در مورد این سلاحها را پایان نداد. شوروی هرگز دست از این کار برنداشت و ما گمان میکنیم که انواع تحقیقات بیولوژیکی بسیار خطرناک در چین و جاهای دیگر انجام میشود از جمله آزمایشها با ویروسها که به نظر میرسد به طور فزایندهای منجر به پاندمی کووید -۱۹ شده است.
بنابراین، اگر یودکوفسکی درست میگوید که هوش مصنوعی بالقوه به اندازه سلاحهای هستهای یا بیولوژیکی خطرناک است بعید به نظر میرسد که مکثی شش ماهه دستاوردهای زیادی به همراه داشته باشد. از سوی دیگر، درخواست او برای توقف کامل تحقیق و توسعه تقریبا به اندازه طرح باروخ شانس موفقیت دارد. یکی از تفاوتهای آشکار بین آن سلاحهای کشنده قدیمی و هوش مصنوعی این است که بخش عمده تحقیقات در مورد هوش مصنوعی توسط بخش خصوصی انجام میشود.
طبق آخرین گزارش موسسه هوش مصنوعی استنفورد با محوریت انسان، سرمایهگذاری خصوصی جهانی در هوش مصنوعی در سال ۲۰۲۲ میلادی بالغ بر ۹۲ میلیارد دلار بوده که بیش از نیمی از آن در ایالات متحده صورت گرفته است. در مجموع ۳۲ مدل یادگیری ماشینی قابل توجه توسط شرکتهای خصوصی تولید شدند در مقایسه با تنها سه مدل تولید شده توسط موسسات دانشگاهی.
با چنین وضعیتی آیا قیاس وضعیت فعلی در مورد هوش مصنوعی با آن چه پیشتر "بمب" مینامیدیم درست است؟ این بستگی به سلیقه شما در داستانهای علمی - تخیلی دارد.
خداوند بابای هوش مصنوعی را بیامرزد که ما را از دست این آخوندهای عقب افتاده ماقبل تاریخ با این دین کج و کوله این دعاهای عصر حجری آنها نجات دهد *
مردیم از بس چهل و چهار سال چرت و پرت از ایران به گوش مان رسید * ما از فضا و آزادی و زندگی صحبت می کنیم آنوقت این مرده شور بردهها در ایران هنوز در حجاب درجا میزنند * دنیا دارد از تسخیر کهکشان صحبت می کند آنوقت ایران دارد از حجاب آری یا نه صحبت می کند * اسم این اگر بدبختی نیست دیگه نمی دانم بدبختی به چه می گویند *
کی این مردم یک دست و میلیونی بلند می شوند و این کثافت خانهای که آخوندها درست کردند را پاک می کنند و حکومت جهل و جنون را پودر می کنند و به این بدبختی خاتمه می دهند؟ نمی دانم، اما با این حال و روز ایران هوش مصنوعی هم خوش است * خیلی هم خوش است *