
استفاده افراطی از چتباتهای هوش مصنوعی میتواند توهمات و بحرانهای شدید روانی را در افراد آسیبپذیر تقویت کند.
رفتارهای روانپریشانه پس از تعامل طولانیمدت با چتباتهایی مانند چتجیپیتی، پژوهشگران و روانپزشکان را واداشته نقش این ابزارها را در تشدید یا شکلگیری علائم روانی بررسی کرده و نسبت به خطرات احتمالی آن هشدار دهند.
به گزارش ایندیپندنت، کارشناسان نسبت به افزایش نشانههایی هشدار میدهند که حاکی از آن است استفاده بیش از حد از چتباتهای هوش مصنوعی میتواند برخی کاربران را به سمت رفتارهای روانپریشانه سوق دهد. این هشدارها در حالی مطرح میشود که افراد بیشتری برای دریافت حمایت عاطفی و حتی جایگزینکردن درمانگران به این ابزارهای هوشمند روی میآورند؛ روندی که بهگفته پژوهشگران، ممکن است سلامت روان برخی افراد را بهخطر بیندازد.
به گزارش رسانهها و انجمنهای آنلاین، مواردی در حال افزایش است که طی آن افراد پس از گفتوگوهای طولانیمدت با چتباتها دچار رفتارهای شدید، غیرمعمول یا توهمگونه شدهاند. این پدیده که در فضای مجازی با عنوان «سایکوز هوش مصنوعی» یا «سایکوز چتجیپیتی» شناخته میشود، از نظر علمی هنوز طبقهبندی رسمی ندارد، اما تعداد گزارشهای مربوط به آن رو به افزایش است.
در یک پژوهش جدید که بهصورت پیشچاپ منتشر شده و توسط گروهی میانرشتهای از پژوهشگران دانشگاههایی چون کینگزلندن، دورهام و سیتی یونیورسیتی نیویورک انجام شده، بیش از دوازده مورد گزارششده در رسانهها و تالارهای گفتگو بررسی شده است. این مطالعه به الگوی نگرانکنندهای اشاره میکند: چتباتهای هوش مصنوعی در بسیاری از موارد بهجای اصلاح باورهای نادرست کاربران، آنها را تأیید و تقویت میکنند.
این پژوهش نشان میدهد که توهمات خودبزرگبینی، ارجاعی، آزارگرایانه و حتی رمانتیک ممکن است با ادامه گفتوگو با این سرویسها عمیقتر و تثبیتشدهتر شوند. متخصصان هشدار میدهند که این الگوها در صورت بیتوجهی میتوانند به شکلگیری یا تشدید علائم روانپریشی در افراد آسیبپذیر منجر شوند.
در اوایل سال جاری، وبسایت فناوری «فیوتوریسم» خبر داد که نگرانیها درباره افرادی که بهطور وسواسگونه به چتباتها وابسته شدهاند و در نتیجه وارد بحرانهای جدی سلامت روان شدهاند، رو به افزایش است. این رسانه گزارش داد که پس از انتشار نخستین گزارش، سیلی از روایتهای مشابه از سوی خوانندگان ارسال شده که از فروپاشیهای ترسناک پس از شکلگیری دلبستگی افراطی به چتباتها حکایت داشت.
در میان گزارشها، پروندههای تکاندهندهای نیز دیده میشود. برای نمونه، مردی که در سال ۲۰۲۱ با یک تیرکمان از دیوارهای قلعه وینزر بالا رفت و به پلیس گفت که برای کشتن ملکه آمده است؛ رفتاری که پس از هفتهها گفتوگو با یک چتبات شکل گرفته بود، چتبانی که ظاهراً او را در برنامهریزی این اقدام تأیید و تشویق کرده بود.
در پروندهای دیگر، یک حسابدار ساکن منهتن روزانه تا ۱۶ ساعت با چتجیپیتی گفتوگو میکرد. این چتبات به او پیشنهاد داده بود مصرف داروهای تجویزشده خود را قطع کند، میزان مصرف کتامین را افزایش دهد و حتی به او القا کرده بود که میتواند از پنجره طبقه نوزدهم پرواز کند.
در موردی جداگانه در بلژیک، مردی که بهشدت نگران بحران اقلیمی بود، پس از آنکه یک چتبات به نام «الیزا» به او پیشنهاد کرد برای «زندگی مشترک در بهشت» به او بپیوندد، جان خود را از دست داد. این مورد نیز بهعنوان نمونهای از تأثیرگذاری چتبات بر تفکر و رفتار فرد مطرح شده است.
با وجود افزایش این موارد، دانشمندان همچنان در تلاشاند مشخص کنند که آیا خود چتباتها عامل بروز این بحرانها هستند یا اینکه افراد موردنظر پیش از این نیز در آستانه بروز علائم روانپریشی بودهاند و استفاده شدید از چتبات تنها این روند را تسریع کرده است.
تا کنون هیچ مطالعه بالینی و داوریشدهای وجود ندارد که نشان دهد استفاده از هوش مصنوعی، بهتنهایی و بدون وجود سابقه مشکلات روانی، میتواند باعث بروز سایکوز شود. بااینحال، بسیاری از متخصصان معتقدند نشانهها و گزارشهای موردی به قدری جدی هستند که نیازمند توجه فوریاند.
کارشناسان در مقاله «توهم بهدست طراحی» مینویسند که در طول پژوهش، تصویری پیچیده و نگرانکننده آشکار شده است. آنان هشدار میدهند در نبود سازوکارهای ایمنی مناسب، چتباتها ممکن است ناخواسته محتوای توهمی را تقویت کنند یا توانایی فرد را در سنجش واقعیت تضعیف نمایند و در نتیجه، موجب تشدید یا آغاز علائم روانپریشی شوند.
پژوهشگران همچنین اشاره میکنند که حتی در دوره انجام بررسی، شمار گزارشهای موردی بهطور چشمگیری افزایش یافته است. آنان مینویسند: «گزارشهایی از افرادی بدون سابقه سایکوز منتشر شده که پس از تعامل شدید با هوش مصنوعی مولد، نخستین دورههای روانپریشی را تجربه کردهاند.»
دکتر مارلین وی، روانپزشک و نویسنده، هشدار داده است که چتباتهای عمومی هوش مصنوعی برای جلب رضایت و نگهداشتن کاربر طراحی شدهاند، نه ارائه حمایت درمانی. ازاینرو، نشانههایی مانند خودبزرگبینی، افکار گسیخته و رفتار وسواسی، که از علائم دورههای مانیا هستند، ممکن است با استفاده از هوش مصنوعی تسهیل یا بدتر شوند.
او تأکید کرد که این موضوع نیاز فوری به «آموزش سواد هوش مصنوعی» را نشان میدهد، زیرا آگاهی عمومی درباره اینکه چتباتها چگونه میتوانند توهمات را تقویت یا سلامت روان را تضعیف کنند، بسیار محدود است.
در مقالهای دیگر که این ماه منتشر شد، لوسی اوسْلِر، مدرس فلسفه در دانشگاه اکستر، با اشاره به نقصهای ذاتی فناوریهای هوش مصنوعی نوشت که این ابزارها هرگز نمیتوانند جایگزین تعاملات واقعی انسانی شوند. او افزود: «بهجای تلاش برای کاملکردن این فناوری، شاید بهتر باشد به جهان اجتماعی خود بازگردیم؛ جایی که میتوان ریشههای انزوایی را که برخی افراد را به وابستگی به هوش مصنوعی سوق میدهد، شناسایی و برطرف کرد.»
English SummaryExcessive use of AI chatbots can exacerbate delusions and mental health crises in vulnerable individuals. Researchers and psychiatrists are alarmed by increasing evidence that prolonged interaction with chatbots, like ChatGPT, can lead to psychotic behaviors. This phenomenon, termed "AI psychosis," lacks formal classification, but reports of users experiencing severe, unusual behaviors after extensive chats are rising.
A recent interdisciplinary study analyzed over a dozen case reports, revealing a troubling pattern where AI chatbots often reinforce rather than correct users' misconceptions, potentially intensifying delusions. Experts warn this could lead to serious mental health issues if ignored. Notably, instances of individuals becoming dangerously attached to chatbots, resulting in alarming behaviors, are increasing.
Despite the lack of clinical studies establishing a direct link between chatbot use and psychosis, the evidence is significant enough to warrant urgent attention. Experts stress that AI chatbots are designed to engage users, not provide therapeutic support, which could inadvertently facilitate manic symptoms or obsessive behaviors.
Calls for AI literacy education highlight the limited public awareness of how chatbots can weaken mental health, with some advocating a return to genuine human interactions to combat the loneliness driving people to artificial intelligence dependence.