شنبه، 31 تیر ماه 1402 = 22-07 2023

شرکت‌های فناوری چه تعهدی درباره هوش مصنوعی به کاخ سفید دادند

کاخ سفید شرکت های توسعه دهنده هوش مصنوعی را متعهد کرد بر روی محتوای تولیدی خود برچسب بزنند.

به گفته رییس جمهور آمریکا، شرکت های هوش مصنوعی از جمله متا، گوگل و اوپن ای آی به طور داوطلبانه به کاخ سفید تعهد دادند تا اقداماتی مانند برچسب زدن محتوای تولید شده با هوش مصنوعی را انجام دهند و به ایمن شدن فناوری کمک کنند.

به گزارش رویترز، بایدن در این باره گفت: تعهدات گامی نویدبخش هستند اما باید فعالیت های زیادی با یکدیگر انجام دهیم.

رییس جمهور آمریکا در رویدادی در کاخ سفید به گسترش نگرانی ها درباره خطرات احتمالی استفاده از هوش مصنوعی برای مقاصد اختلال آمیز گفت: ما باید با چشمانی باز و هوشیار تهدیدهای فناوری های نوین را رصد کنیم.

شرکت های مختلف از جمله آنتروپیک، اینفلکشن، آمازون، اوپن ای آی تعهد کرده اند تا سیستم هایشان را قبل از عرضه به طور کامل تست کنند و اطلاعات درباره شیوه کاهش ریسک ها و میزان سرمایه گذاری در امنیت سایبری را کاهش دهند.

این اقدام یک دستاورد برای دولت بایدن به حساب می آید که سعی دارد هوش مصنوعی را قانونمند کند. مایکروسافت (شرکت اوپن ای آی) در پست وبلاگی در این باره نوشت: ما از رهبری رییس جمهور برای گردهم جمع کردن دست اندرکاران صنعت فناوری جهت ایجاد گام هایی محکم برای ایمن سازی و سودمندسازی هوش مصنوعی استقبال می کنیم.

اروپا نگران گسترش هوش مصنوعی؛ تعیین فرمانروای جهان؟

گزارش قبلی: "ولادیمیر پوتین" رئیس جمهور روسیه در سال ۲۰۱۷ میلادی گفته بود " کسی که در حوزه هوش مصنوعی رهبر شود، فرمانروای جهان خواهد بود".

به گزارش خبرگزاری فرانسه، جمعی از نمایندگان پارلمان اتحادیه اروپا از رهبران جهان خواستند تا برای یافتن راه‌هایی برای مهار گسترش سامانه‌های هوش مصنوعی پیشرفته مانند «چت جی.پی.تی.» نشستی برگزار کنند. به اعتقاد این افراد، سامانه‌های این‌چنینی سریعتر از حد انتظار در حال توسعه هستند.

آنها اعلام کردند که کشورهای دموکراتیک و غیر دموکراتیک «در مسیر دستیابی به هوش مصنوعی باید به خویشتنداری و مسئولیت پذیری» فراخوانده شوند.

این در حالیست که تازه‌ترین هوش مصنوعی که به عنوان ترانسفورماتور‌های از پیش آموزش‌دیده مولد (GPT) شناخته می‌شود، نوید تغییر کامل ژئوپولیتیک جنگ و بازدارندگی را می‌دهد. جی پی تی این کار را به شیوه‌هایی انجام می‌دهد که آرامش بخش نیست.

این فناوری می‌تواند جنگ را کم‌تر کشنده سازد و احتمالا بازدارندگی را تقویت کند. با گسترش چشمگیر نقش پهپاد‌های هدایت شده با هوش مصنوعی در نیرو‌های سه گانه ارتش، می‌توان از جان انسان‌ها محافظت کرد. با این وجود، در حال حاضر پنتاگون در حال آزمایش ربات‌های هوش مصنوعی است که می‌توانند با جت جنگنده اف -۱۶ اصلاح شده پرواز کنند و روسیه نیز خودرو‌های تانک مانند خودران را آزمایش کرده است.

چین عجله دارد تا سیستم‌های هوش مصنوعی خود را راه اندازی کند و اثربخشی پهپاد‌های مسلح نیز در سال‌های آینده افزایش خواهد یافت. یکی از بزرگ‌ترین تلاش‌ها اگرچه هنوز نوپاست پیشبرد هوش مصنوعی در برنامه محرمانه نیروی هوایی ایالات متحده، نسل بعدی سلطه هوایی می‌باشد که بر اساس آن حدود ۱۰۰۰ فروند پهپاد جنگی "وینگمن" به نام هواپیما‌های رزمی مشارکتی در کنار ۲۰۰ هواپیمای خلبان عمل می‌کنند.

"داگلاس شاو" مشاور ارشد ابتکار عمل تهدید هسته‌ای می‌گوید: "من به راحتی می‌توانم آینده‌ای را تصور کنم که در آن تعداد پهپاد‌ها بسیار بیش‌تر از افراد نیرو‌های مسلح باشند".

به گفته "چارلز والد" ژنرال بازنشسته نیروی هوایی ایالات متحده این یک عامل افزایش دهنده نیرو خواهد بود. یکی از بزرگترین مشکلات در حال حاضر جذب نیرو است.

از سوی دیگر، نرم افزار مبتنی بر هوش مصنوعی می‌تواند قدرت‌های بزرگ را وادار کند که زمان تصمیم گیری خود را به جای ساعت‌ها یا روز‌ها به چند دقیقه کاهش دهند. آنان ممکن است بیش از حد به ارزیابی‌های استراتژیک و تاکتیکی هوش مصنوعی وابسته باشند؛ حتی زمانی که صحبت از جنگ هسته‌ای به میان می‌آید.

"هربرت لین" از دانشگاه استنفورد می‌گوید خطر این است که تصمیم گیرندگان می‌توانند به تدریج به هوش مصنوعی جدید به عنوان بخشی از فرماندهی و کنترل تسلیحات تکیه کنند، زیرا این هوش مصنوعی با سرعتی بسیار بیش‌تر از انسان‌ها عمل می‌کند.

"جیمز جانسون" از دانشگاه آبردین در اسکاتلند در کتابی که در سال جاری با عنوان "هوش مصنوعی و بمب" چاپ شد سناریوی یک جنگ هسته‌ای تصادفی در دریای چین شرقی در سال ۲۰۲۵ میلادی را ترسیم می‌کند که توسط اطلاعات مبتنی بر هوش مصنوعی و توسط بات‌های مجهز به هوش مصنوعی، دیپ فیک‌ها (جعل عمیق) و عملیات پرچم دروغین تشدید می‌شود.

لین، کارشناس امنیت سایبری می‌گوید: "وقتی مردم باور می‌کنند که ماشین‌ها در حال فکر کردن هستند احتمالا کار‌های دیوانه وار انجام می‌دهند. آنچه واضح به نظر می‌رسد این است که یک مسابقه تسلیحاتی جدید هوش مصنوعی در حال انجام است و احتمالا کاری برای متوقف کردن آن نمی‌توان انجام داد.

"ایلان ماسک" و "استیو وزنیاک" در نامه‌ای سرگشاده‌ای در اواخر ماه مارس به همراه بیش از دو هزار فرد پیشتاز و محقق در عرصه فناوری از آزمایشگاه‌های سراسر جهان خواستند تا آموزش جدیدترین مدل‌های هوش دیجیتال را که ممکن است منجر به فاجعه‌ای برای انسان شود متوقف سازند.


Translate by Google: English | Français | Deutsch | Español
  به اشتراک بگذارید:
    1812 بازدید |







تبلیغات








بازگشت به برگ نخست