سه شنبه، 22 فروردین ماه 1402 = 11-04 2023

هوش مصنوعی مافوق بشر چگونه ما را از بین می‌برد؟ همه دیوانه..!

بشریت همه دیوانه می‌شوند؛ هوش مصنوعی مافوق بشر چگونه ما را از بین می‌برد؟ بیگانگان فرود آمدند و ما آنان را خلق کردیم!

نیل فرگوسن، یک استاد دانشگاه هاروارد به خبرگزاری بلومبرگ گفته: روزی نیست که پیش بینی‌هایی را درباره عذاب پیش رو نخوانم. در تازه‌ترین مورد "الیزر یودکوفسکی" در نشریه "تایم" در هفته گذشته نوشته بود: "محتمل‌ترین نتیجه ساخت یک هوش مصنوعی فوق‌العاده هوشمند تحت هر چیزی شبیه به شرایط فعلی این است که به معنای واقعی کلمه همه روی زمین خواهند مُرد. این یک احتمال بعید نیست بلکه در عمل رخ خواهد داد. اگر کسی یک هوش مصنوعی بسیار قدرتمند بسازد در شرایط کنونی من انتظار دارم که تک تک اعضای گونه انسانی و تمام حیات بیولوژیکی روی زمین اندکی پس از آن خواهند مُرد".

یودکوفسکی یک کاساندرای تصادفی نیست. او موسسه تحقیقاتی هوش ماشینی را رهبری می‌کند یک موسسه غیرانتفاعی در برکلی در کالیفرنیا و پیش‌تر در مورد مسئله هوش مصنوعی مطالب زیادی نوشته است. من هنوز به خوبی به یاد دارم زمانی که در حال تحقیق در مورد کتاب ام با نام "سرنوشت" بودم او درباره این که ممکن است کسی ناخواسته هوش مصنوعی‌ای ایجاد کند که علیه ما باشد هشدار داده بود.

من در کتاب ام اشاره کردم که برای مثال، به هوش مصنوعی می‌گوییم که تغییرات آب و هوایی را متوقف کند و آن نتیجه می‌گیرد که برای این کار نابودی هوموساپینس یا انسان خردمند راه حل بهینه است. این یودکوفسکی بود که چند سال پیش قانون مور اصلاح شده را پیشنهاد کرد: هر ۱۸ ماه حداقل ضریب هوشی لازم برای نابودی جهان یک امتیاز کاهش یابد.

اکنون یودکوفسکی فراتر رفته است. او معتقد است که ما به سرعت در حال نزدیک شدن به یک دوره مهلک هستیم که در آن هوش مصنوعی هوشمندتر از خودمان را ایجاد می‌کنیم که "آن چه ما می‌خواهیم را انجام نمی‌دهد و به ما و به طور کلی به زندگی حساس اهمیت نمی‌دهد. نتیجه محتمل مواجه شدن بشر با یک هوش مافوق بشری مخالف یک ضرر کامل است".

او معتقد است که چنین هوش مصنوعی‌ای می‌تواند به راحتی از اینترنت فرار کند تا "شکل‌های زندگی مصنوعی بسازد" و در واقع جنگ بیولوژیکی را علیه ما راه اندازی کند. توصیه او روشن است. ما به یک تعلیق کامل برای توسعه هوش مصنوعی نیاز داریم.

این بسیار فراتر از نامه سرگشاده امضا شده توسط "ایلان ماسک" و "استیو وزنیاک" بنیانگذار اپل و بیش از ۱۵۰۰۰ چهره برجسته دیگر است که خواستار توقف شش ماهه توسعه هوش مصنوعی قدرتمندتر از وضعیت فعلی شده اند.

با این وجود، انگیزه آنان از امضای آن نامه همان انگیزه یودکوفسکی است: این باور که توسعه هوش مصنوعی با قابلیت‌های مافوق بشری در غیاب هرگونه چارچوب نظارتی بین المللی، خطر ایجاد یک فاجعه را به همراه خواهد داشت. تنها تفاوت واقعی این است که یودکوفسکی شک دارد که چنین چارچوبی می‌تواند ظرف مدت شش ماه ابداع شود. او تقریبا در این مورد حق دارد.

تشابه آشکار با دو زمینه قبلی تحقیقات علمی بالقوه کشنده است: تسلیحات هسته‌ای و جنگ بیولوژیکی. ما از همان ابتدا در تاریخ این رشته‌ها می‌دانستیم که ظرفیت بالقوه ایجاد فاجعه بسیار زیاد است و اگر نه انقراض بشریت بلکه دست کم مرگ در مقیاس وسیع را به همراه خواهد داشت.

با این وجود، تلاش‌ها برای مهار گسترش تسلیحات هسته‌ای و بیولوژیکی بسیار بیش‌تر از شش ماه به طول انجامید و تنها تا حدی موفقیت‌آمیز بود. در سال ۱۹۴۶ میلادی ایالات متحده طرح باروخ را برای بین المللی کردن تحقیقات هسته‌ای پیشنهاد کرد.

با این وجود، اتحاد جماهیر شوروی آن طرح را رد کرد و به زودی یک مسابقه تسلیحات هسته‌ای دیوانه کننده آغاز شد. بیش‌ترین دستاوردی که حاصل شد محدود کردن تعداد کشور‌هایی بود که دارای تسلیحات هسته‌ای بودند (از طریق معاهده منع گسترش سلاح‌های هسته‌ای که در سال ۱۹۷۰ میلادی لازم الاجرا شد) و کاهش سرعت و در نهایت معکوس کردن رشد زرادخانه‌های ابرقدرت ها.

کنوانسیون سلاح‌های بیولوژیکی که در سال ۱۹۷۵ میلادی لازم الاجرا شد به طور کامل تحقیقات در مورد این سلاح‌ها را پایان نداد. شوروی هرگز دست از این کار برنداشت و ما گمان می‌کنیم که انواع تحقیقات بیولوژیکی بسیار خطرناک در چین و جا‌های دیگر انجام می‌شود از جمله آزمایش‌ها با ویروس‌ها که به نظر می‌رسد به طور فزاینده‌ای منجر به پاندمی کووید -۱۹ شده است.

بنابراین، اگر یودکوفسکی درست می‌گوید که هوش مصنوعی بالقوه به اندازه سلاح‌های هسته‌ای یا بیولوژیکی خطرناک است بعید به نظر می‌رسد که مکثی شش ماهه دستاورد‌های زیادی به همراه داشته باشد. از سوی دیگر، درخواست او برای توقف کامل تحقیق و توسعه تقریبا به اندازه طرح باروخ شانس موفقیت دارد. یکی از تفاوت‌های آشکار بین آن سلاح‌های کشنده قدیمی و هوش مصنوعی این است که بخش عمده تحقیقات در مورد هوش مصنوعی توسط بخش خصوصی انجام می‌شود.

طبق آخرین گزارش موسسه هوش مصنوعی استنفورد با محوریت انسان، سرمایه‌گذاری خصوصی جهانی در هوش مصنوعی در سال ۲۰۲۲ میلادی بالغ بر ۹۲ میلیارد دلار بوده که بیش از نیمی از آن در ایالات متحده صورت گرفته است. در مجموع ۳۲ مدل یادگیری ماشینی قابل توجه توسط شرکت‌های خصوصی تولید شدند در مقایسه با تنها سه مدل تولید شده توسط موسسات دانشگاهی.

با چنین وضعیتی آیا قیاس وضعیت فعلی در مورد هوش مصنوعی با آن چه پیش‌تر "بمب" می‌نامیدیم درست است؟ این بستگی به سلیقه شما در داستان‌های علمی - تخیلی دارد.

نسل بیدار | April 11, 2023 10:27 AM

خداوند بابای هوش مصنوعی را بیامرزد که ما را از دست این آخوند‌های عقب افتاده ماقبل تاریخ با این دین کج و کوله این دعاهای عصر حجری آنها نجات دهد *

مردیم از بس چهل و چهار سال چرت و پرت از ایران به گوش مان رسید * ما از فضا و آزادی و زندگی صحبت می کنیم آنوقت این مرده شور برده‌ها در ایران هنوز در حجاب درجا میزنند * دنیا دارد از تسخیر کهکشان صحبت می کند آنوقت ایران دارد از حجاب آری یا نه صحبت می کند * اسم این اگر بدبختی نیست دیگه نمی دانم بدبختی به چه می گویند *

کی این مردم یک دست و میلیونی بلند می شوند و این کثافت خانه‌ای که آخوند‌ها درست کردند را پاک می کنند و حکومت جهل و جنون را پودر می کنند و به این بدبختی خاتمه می دهند؟ نمی دانم، اما با این حال و روز ایران هوش مصنوعی هم خوش است * خیلی هم خوش است *


گزارش یا اعتراض به این نظر
Translate by Google: English | Français | Deutsch | Español
  به اشتراک بگذارید:







تبلیغات







به ایران پرس نیوز بپیوندید

آدرس پست الکترونيک [email protected]

ایران‌پرس‌نیوز به هیچ گروه سیاسی وابسته نیست و از هیچ کجا حمایت مالی دریافت نمی‌کند.



بازگشت به برگ نخست