کاخ سفید شرکت های توسعه دهنده هوش مصنوعی را متعهد کرد بر روی محتوای تولیدی خود برچسب بزنند.
به گفته رییس جمهور آمریکا، شرکت های هوش مصنوعی از جمله متا، گوگل و اوپن ای آی به طور داوطلبانه به کاخ سفید تعهد دادند تا اقداماتی مانند برچسب زدن محتوای تولید شده با هوش مصنوعی را انجام دهند و به ایمن شدن فناوری کمک کنند.
به گزارش رویترز، بایدن در این باره گفت: تعهدات گامی نویدبخش هستند اما باید فعالیت های زیادی با یکدیگر انجام دهیم.
رییس جمهور آمریکا در رویدادی در کاخ سفید به گسترش نگرانی ها درباره خطرات احتمالی استفاده از هوش مصنوعی برای مقاصد اختلال آمیز گفت: ما باید با چشمانی باز و هوشیار تهدیدهای فناوری های نوین را رصد کنیم.
شرکت های مختلف از جمله آنتروپیک، اینفلکشن، آمازون، اوپن ای آی تعهد کرده اند تا سیستم هایشان را قبل از عرضه به طور کامل تست کنند و اطلاعات درباره شیوه کاهش ریسک ها و میزان سرمایه گذاری در امنیت سایبری را کاهش دهند.
این اقدام یک دستاورد برای دولت بایدن به حساب می آید که سعی دارد هوش مصنوعی را قانونمند کند. مایکروسافت (شرکت اوپن ای آی) در پست وبلاگی در این باره نوشت: ما از رهبری رییس جمهور برای گردهم جمع کردن دست اندرکاران صنعت فناوری جهت ایجاد گام هایی محکم برای ایمن سازی و سودمندسازی هوش مصنوعی استقبال می کنیم.
اروپا نگران گسترش هوش مصنوعی؛ تعیین فرمانروای جهان؟
گزارش قبلی: "ولادیمیر پوتین" رئیس جمهور روسیه در سال ۲۰۱۷ میلادی گفته بود " کسی که در حوزه هوش مصنوعی رهبر شود، فرمانروای جهان خواهد بود".
به گزارش خبرگزاری فرانسه، جمعی از نمایندگان پارلمان اتحادیه اروپا از رهبران جهان خواستند تا برای یافتن راههایی برای مهار گسترش سامانههای هوش مصنوعی پیشرفته مانند «چت جی.پی.تی.» نشستی برگزار کنند. به اعتقاد این افراد، سامانههای اینچنینی سریعتر از حد انتظار در حال توسعه هستند.
آنها اعلام کردند که کشورهای دموکراتیک و غیر دموکراتیک «در مسیر دستیابی به هوش مصنوعی باید به خویشتنداری و مسئولیت پذیری» فراخوانده شوند.
این در حالیست که تازهترین هوش مصنوعی که به عنوان ترانسفورماتورهای از پیش آموزشدیده مولد (GPT) شناخته میشود، نوید تغییر کامل ژئوپولیتیک جنگ و بازدارندگی را میدهد. جی پی تی این کار را به شیوههایی انجام میدهد که آرامش بخش نیست.
این فناوری میتواند جنگ را کمتر کشنده سازد و احتمالا بازدارندگی را تقویت کند. با گسترش چشمگیر نقش پهپادهای هدایت شده با هوش مصنوعی در نیروهای سه گانه ارتش، میتوان از جان انسانها محافظت کرد. با این وجود، در حال حاضر پنتاگون در حال آزمایش رباتهای هوش مصنوعی است که میتوانند با جت جنگنده اف -۱۶ اصلاح شده پرواز کنند و روسیه نیز خودروهای تانک مانند خودران را آزمایش کرده است.
چین عجله دارد تا سیستمهای هوش مصنوعی خود را راه اندازی کند و اثربخشی پهپادهای مسلح نیز در سالهای آینده افزایش خواهد یافت. یکی از بزرگترین تلاشها اگرچه هنوز نوپاست پیشبرد هوش مصنوعی در برنامه محرمانه نیروی هوایی ایالات متحده، نسل بعدی سلطه هوایی میباشد که بر اساس آن حدود ۱۰۰۰ فروند پهپاد جنگی "وینگمن" به نام هواپیماهای رزمی مشارکتی در کنار ۲۰۰ هواپیمای خلبان عمل میکنند.
"داگلاس شاو" مشاور ارشد ابتکار عمل تهدید هستهای میگوید: "من به راحتی میتوانم آیندهای را تصور کنم که در آن تعداد پهپادها بسیار بیشتر از افراد نیروهای مسلح باشند".
به گفته "چارلز والد" ژنرال بازنشسته نیروی هوایی ایالات متحده این یک عامل افزایش دهنده نیرو خواهد بود. یکی از بزرگترین مشکلات در حال حاضر جذب نیرو است.
از سوی دیگر، نرم افزار مبتنی بر هوش مصنوعی میتواند قدرتهای بزرگ را وادار کند که زمان تصمیم گیری خود را به جای ساعتها یا روزها به چند دقیقه کاهش دهند. آنان ممکن است بیش از حد به ارزیابیهای استراتژیک و تاکتیکی هوش مصنوعی وابسته باشند؛ حتی زمانی که صحبت از جنگ هستهای به میان میآید.
"هربرت لین" از دانشگاه استنفورد میگوید خطر این است که تصمیم گیرندگان میتوانند به تدریج به هوش مصنوعی جدید به عنوان بخشی از فرماندهی و کنترل تسلیحات تکیه کنند، زیرا این هوش مصنوعی با سرعتی بسیار بیشتر از انسانها عمل میکند.
"جیمز جانسون" از دانشگاه آبردین در اسکاتلند در کتابی که در سال جاری با عنوان "هوش مصنوعی و بمب" چاپ شد سناریوی یک جنگ هستهای تصادفی در دریای چین شرقی در سال ۲۰۲۵ میلادی را ترسیم میکند که توسط اطلاعات مبتنی بر هوش مصنوعی و توسط باتهای مجهز به هوش مصنوعی، دیپ فیکها (جعل عمیق) و عملیات پرچم دروغین تشدید میشود.
لین، کارشناس امنیت سایبری میگوید: "وقتی مردم باور میکنند که ماشینها در حال فکر کردن هستند احتمالا کارهای دیوانه وار انجام میدهند. آنچه واضح به نظر میرسد این است که یک مسابقه تسلیحاتی جدید هوش مصنوعی در حال انجام است و احتمالا کاری برای متوقف کردن آن نمیتوان انجام داد.
"ایلان ماسک" و "استیو وزنیاک" در نامهای سرگشادهای در اواخر ماه مارس به همراه بیش از دو هزار فرد پیشتاز و محقق در عرصه فناوری از آزمایشگاههای سراسر جهان خواستند تا آموزش جدیدترین مدلهای هوش دیجیتال را که ممکن است منجر به فاجعهای برای انسان شود متوقف سازند.