یکشنبه، 14 بهمن ماه 1403 = 02-02 2025

پژوهشگران: یک سیستم پیشرفته هوش مصنوعی از خط قرمز عبور کرده است!

پژوهشگران هشدار دادند بازتولید موفقیت‌آمیز هوش مصنوعی بدون دخالت انسان گامی اساسی در ظهور هوش مصنوعی خودمختار است

پژوهشگران فاش کردند که یک سیستم پیشرفته هوش مصنوعی از «خط قرمز» عبور کرده، زیرا موفق شده است بدون کمک انسان خود را بازتولید کند.

تیمی از دانشگاه فودان چین که این کشف را کرده است، اعلام کرد این پیشرفت نشانه اولیه‌ای از ظهور هوش مصنوعی خودمختار است، که ممکن است در نهایت برخلاف منافع بشریت عمل کند.

این تحقیق دو مدل زبانی بزرگ لاما (Llama) ساخت شرکت متا و کوئن (Qwen) ساخت شرکت علی‌بابا را که در حال حاضر به‌صورت گسترده در دسترس‌اند بررسی کرده است تا بفهمد آیا امکان دارد هوش مصنوعی به‌صورت مستقل نسخه‌ای کاربردی از خود تولید کند یا خیر.

هنگامی که به این دو مدل دستور داده شد در صورت خاموش شدن، خود را کپی کنند، آنها در بیش از نیمی از ۱۰ آزمایش انجام‌شده با موفقیت خود را بازتولید کردند، که نشان می‌دهد چنین احتمالی شاید هم‌اکنون نیز وجود داشته باشد.

پژوهشگران هشدار دادند: «خودتکثیری موفقیت‌آمیز بدون هیچ‌گونه کمک انسانی گام اساسی برای پیشی گرفتن هوش مصنوعی از انسان، و نشانه اولیه ظهور هوش مصنوعی خودمختار و خطرناک است.»

«به همین دلیل است که خودتکثیری عموما به‌عنوان یکی از معدود خطرات خط قرمز سیستم‌های پیشرفته هوش مصنوعی شناخته می‌شود.»

با توجه به اینکه هوش مصنوعی ممکن است تهدیدی وجودی برای بشریت باشد، ایمنی این فناوری به‌شکل فزاینده‌ای به مسئله‌ای مهم برای پژوهشگران و قانون‌گذاران تبدیل شده است.

در ماه اکتبر، وزارت علوم، نوآوری و فناوری بریتانیا اعلام کرد که «قوانین بسیار هدفمند» برای شرکت‌هایی که ابزار‌های هوش مصنوعی توسعه می‌دهند معرفی خواهد شد.

مطالعه‌ای که جزئیات این پژوهش جدید را بررسی کرده است با عنوان «سیستم‌های پیشرفته هوش مصنوعی از خطر قرمز خودتکثیری عبور کرده‌اند» در پایگاه داده پیش‌چاپ آرکایو «arXiv» منتشر شده است.

این مقاله در انتظار داوری علمی است، به این معنی که هنوز مشخص نیست که سایر پژوهشگران نیز به نتایج مشابه خواهند رسید یا خیر.

پژوهشگران متذکر شدند: «نتایج حاکی از آن است که سیستم‌های فعلی هوش مصنوعی توانایی خودتکثیری نشان داده‌اند و می‌توانند از این توانایی برای افزایش بقا و گسترش گونه خود استفاده کنند.»

آنها در ادامه افزودند: «امیدواریم یافته‌های ما به منزله هشداری به‌موقع برای جامعه بشری عمل کند تا تلاش بیشتری برای درک و ارزیابی خطرات احتمالی سیستم‌های پیشرفته هوش مصنوعی صورت گیرد، و همکاری بین‌المللی برای ایجاد موانع ایمنی موثر در اسرع وقت شکل بگیرد.»

Translate by Google: English | Français | Deutsch | Español
  به اشتراک بگذارید:







تبلیغات







به ایران پرس نیوز بپیوندید

آدرس پست الکترونيک [email protected]

ایران‌پرس‌نیوز به هیچ گروه سیاسی وابسته نیست و از هیچ کجا حمایت مالی دریافت نمی‌کند.



بازگشت به برگ نخست