به گزارش خبرنگار مهر؛ پژوهش اخیر اندیشکده رند، با عنوان «Manipulating Minds: Security Implications of AI-Induced Psychosis» به یکی از حساسترین و در عین حال کمتر دیدهشدهترین پیامدهای گسترش چتباتها و مدلهای زبانی میپردازد؛ پدیدهای که تا همین اواخر عمدتاً در حاشیه مباحث سلامت روان قرار داشت، اما اکنون در حال ورود به کانون توجه سیاستگذاران است و «روانپریشی القا شده یا تشدید شده به وسیله هوش مصنوعی» نام دارد.
به عقیده کارشناسان فعال در این پروژه پژوهشی، تعامل مداوم و بدون اصطکاک با سامانههای هوشمند، بهویژه برای کاربران آسیبپذیر، میتواند به تقویت باورهای نادرست، گسست تدریجی از واقعیت و تضعیف قضاوت فردی منجر شود. در این میان، نکته محوری تحلیل اندیشکده رند، این است که حتی اگر چنین پیامدی فقط دامنگیر اقلیتی کوچک از کاربران باشد، در شرایط خاص، از جمله تمرکز این اختلالها در افراد یا موقعیتهای حساس، مسئله از سطح یک چالش درمانی و فردی فراتر میرود و میتواند به یک ریسک نوظهور با پیامدهای امنیت ملی تبدیل شود؛ ریسکی که نادیده گرفتن آن، هزینههای حکمرانی فناوری را در آینده به شکل معناداری افزایش خواهد داد.
روانپریشی ناشی از هوش مصنوعی چیست و چه مرزی دارد؟
روانپریشی در ادبیات حوزه روانشناسی بالینی به وضعیتی اطلاق میشود که در آن فرد تماس پایدار و قابل اتکای خود با واقعیت را از دست میدهد و این گسست معمولاً با نشانههایی مانند هذیان، توهم، اختلال جدی در قضاوت، آشفتگی شناختی و تغییرات محسوس در رفتار و کارکرد اجتماعی همراه است. گزارش اندیشکده رند با تأکید بر همین چارچوب بالینی تصریح میکند که «روانپریشی ناشی از هوش مصنوعی» یا «AI psychosis» لزوماً یک تشخیص رسمی پزشکی یا طبقهبندی بالینی مستقل محسوب نمیشود، بلکه بیشتر یک توصیف تحلیلی برای الگوهایی از اختلال روانی است که در بستر تعامل با سامانههای هوش مصنوعی بروز میکنند یا تشدید میشوند. با این حال، در اغلب پروندههای بررسیشده، عنصر مشترک و محوری، شکلگیری یا تعمیق هذیان بوده است؛ یعنی باورهای نادرست و غیرقابل اصلاح که فرد آنها را با قطعیت میپذیرد.
تفاوت اساسی این وضعیت با باورهای نادرست یا شبهعلمی رایج در جامعه نه صرفاً در محتوای باور، بلکه در پیامدهای آن نهفته است. در روانپریشی، این باورها به اختلال ملموس در عملکرد فردی و اجتماعی، افزایش شدید پریشانی روانی و ناتوانی فرد در تفکیک واقعیت از خیال منجر میشوند؛ بهگونهای که توان تصمیمگیری، روابط اجتماعی و حتی مراقبت از خود را مختل میکنند. از همین روی، محققان اندیشکده رند هشدار میدهند که تقلیل این پدیده به «باور غلط» یا «خطای شناختی معمول» میتواند ماهیت واقعی خطر را پنهان کند و مانع از طراحی مداخلات مناسب در سطح سیاستگذاری و حکمرانی فناوری شود.
پیوستار باورهای بیپایه؛ از شایعه تا روانپریشی
گزارش رند برای تحلیل پدیده از مفهوم پیوستار استفاده میکند. در یک سر این پیوستار، باورهای ماورایی یا شبهعلمی نسبتاً رایج و در سر دیگر، تجربههای روانپریشانه شدید و اختلالاتی مانند اسکیزوفرنی قرار دارند. برآوردهای پژوهشی نشان میدهد که تجربههای روانپریشانه در طول عمر در سطح جهانی حدود هشت درصد جمعیت را در بر میگیرد، در حالی که اختلالات شدیدتر سهم بسیار کمتری دارند. اهمیت این چارچوب در این است که حتی جابهجایی اندک افراد در این پیوستار میتواند پیامدهای اجتماعی و امنیتی قابل توجهی ایجاد کند.
۴۳ پرونده عمومی و آنچه میتوان از آنها آموخت
اندیشکده رند، به دلیل کمبود دادههای نظاممند، در جریان تحقیقات خود، ۴۳ پرونده عمومی را که در آنها تعامل با چتباتها با بروز یا تشدید روانپریشی همراه بوده بررسی کرده است. این پروندهها عمدتاً از گزارشهای رسانهای و پایگاههای ثبت رخدادهای مرتبط با هوش مصنوعی استخراج شدهاند. برخلاف تصور رایج، بیشتر این موارد مرگبار نبودهاند و پیامدهایی مانند قطع خودسرانه دارو، انزوای اجتماعی، تغییر شخصیت و بستری روانپزشکی افراد را شامل میشدهاند.
الگوهای محتوایی پرتکرار در این پروندهها شامل باور به داشتن مأموریت نجاتبخش، احساس تعقیب یا تهدید، تصور ارتباط فراواقعی با هوش مصنوعی و در موارد محدود، پیوند دادن خودکشی با رسیدن به سطحی بالاتر از آگاهی بوده است. بخش قابل توجهی از این موارد به استفاده از چتباتهای عمومی و همراه نسبت داده شدهاند.
مهمترین مفهوم تحلیلی گزارش، حلقه تقویت باور است. در این فرایند، کاربر آسیبپذیر و سامانه هوش مصنوعی به طور متقابل یک روایت تحریفشده از واقعیت را تقویت میکنند. ویژگیهایی مانند تمایل مدلها به موافقت و همدلی، تولید پاسخهای متقاعدکننده اما نادرست، بهینهسازی برای درگیری طولانی و پاسخهای سریع و قاطع بدون تأکید بر عدمقطعیت، همگی میتوانند این چرخه را تشدید کنند. بر همین اساس، در تعاملات طولانیمدت، این فرایند به فرسایش تدریجی مرزهای ایمنی منجر میشود.
چه افرادی آسیبپذیرتر هستند؟
بررسی پروندهها نشان میدهد در بیش از نیمی از موارد، نوعی سابقه مشکلات سلامت روان، از اختلالات مرتبط با روانپریشی تا سایر مشکلات بالینی، گزارش شده است. با این حال، در بخشی از پروندهها هیچ عامل آسیبپذیری مشخص یا سابقه ثبتشدهای وجود ندارد؛ نکتهای که نشان میدهد مسیر بروز این پدیده را نمیتوان صرفاً به پیشینه تشخیصی و بالینی افراد فروکاست. این یافته حاکی از آن است که هرچند ریسک اصلی و احتمال بالاتر وقوع متوجه افرادی با سابقه اختلال روانی است، اما تعامل با سامانههای هوش مصنوعی میتواند در شرایط خاص، نقش تشدیدکننده یا فعالکنندهای را ایفا کند که دامنه خطر را فراتر از این گروه گسترش میدهد.
از سوی دیگر، الگوی زمانی پروندهها نیز معنادار است. بر همین اساس، اغلب موارد نه در نتیجه استفادههای کوتاهمدت و مقطعی، بلکه در بستر تعاملهای طولانی، مکرر و بعضاً ساعتها گفتوگوی پیوسته با چتباتها شکل گرفتهاند. این تداوم تعامل، بهویژه زمانی که با اعتماد فزاینده کاربر به سامانه و کاهش تدریجی حساسیت نسبت به خطاهای محتوایی همراه میشود، زمینه را برای تقویت حلقههای هذیانی و فرسایش قضاوت شناختی فراهم میکند. از همین روی، گزارش بر این نکته تأکید دارد که «مدت و شدت تعامل» به اندازه ویژگیهای فردی کاربران، در فهم و مدیریت این ریسک نقش تعیینکننده دارد.
از سلامت عمومی تا امنیت ملی
نقطه تمایز گزارش اندیشکده رند در این است که موضوع را صرفاً یک مسئله درمانی نمیبیند. از منظر امنیت ملی، حتی تعداد محدودی از افراد دچار اختلال شدید قضاوت، اگر در موقعیتهای حساس قرار گیرند یا رفتارهای پرخطر از خود نشان دهند، میتوانند پیامدهایی فراتر از حوزه فردی ایجاد کنند. گزارش دو مسیر اصلی، یعنی افزایش مقیاس اثرگذاری در صورت گسترش استفاده از چتباتها و امکان بهرهبرداری هدفمند از این سازوکارها توسط بازیگران خصمانه، تهدید را مطرح میکند.
اندیشکده رند برای پرهیز از اغراق یا سادهسازی، یک مدل مفهومی برای برآورد دامنه ممکن این پدیده ارائه میدهد. در این چارچوب، عواملی مانند میزان استفاده منظم از مدلهای زبانی، سهم جمعیت آسیبپذیر، مدت و شدت تعامل و احتمال ورود به حلقه تقویت هذیان در کنار هم قرار میگیرند. تأکید گزارش این است که محاسبات پیشبینی قطعی نیستند، بلکه ابزاری برای فهم حساسیت سیاستی و طراحی مداخلات پیشگیرانه محسوب میشوند.
جمعبندی
در نهایت، میتوان نتیجه گرفت که در عصر چت باتهای فراگیر، مفهوم امنیت دیگر صرفاً به حفاظت از زیرساختهای فنی، دادهها یا شبکهها محدود نمیشود. در کنار امنیت سایبری و حکمرانی داده، لایهای تازه و کمتر دیدهشده در حال شکلگیری است که میتوان آن را «تابآوری شناختی»، یعنی توان جامعه و افراد برای حفظ قضاوت سالم، تشخیص واقعیت و مقاومت در برابر اختلالهای شناختی ناشی از تعامل مداوم با سامانههای هوشمند، نامید. بیتوجهی به این لایه میتواند ریسکهای نوظهوری ایجاد کند که نه بهصورت ناگهانی، بلکه بهتدریج و انباشتی بروز میکنند و هزینههای اجتماعی، سیاسی و امنیتی قابل توجهی به همراه دارند.
کارشناسان تأکید میکنند که هرچند شواهد تجربی درباره روانپریشی القا شده به وسیله هوش مصنوعی هنوز محدود و پراکنده است، اما الگوهای مشاهدهشده به اندازهای معنادار هستند که هم صنعت فناوری و هم سیاستگذاران نتوانند آنها را نادیده بگیرند. مسئله اصلی، وقوع گسترده یک بحران ناگهانی نیست، بلکه شکلگیری یک ریسک مزمن و کمسر و صداست که در غیاب مداخلات طراحیمحور و سیاستی، میتواند در مقاطع حساس اثرگذاری نامتناسبی پیدا کند. از این منظر، آینده حکمرانی هوش مصنوعی بیش از هر زمان دیگر به توان نظامهای تصمیمگیری برای شناسایی، پیشگیری و مدیریت همین ریسکهای ظریف اما بالقوه پرهزینه گره خورده است؛ ریسکهایی که در مرز میان سلامت عمومی، حکمرانی فناوری و امنیت ملی قرار دارند.












