هشدار محققان MIT: اکثر ایجنت‌های هوش مصنوعی امن نیستند

دیجیاتو جمعه 01 اسفند 1404 - 12:50
تحقیق جدید نشان می‌دهد اکثر ایجنت‌های هوش‌های مصنوعی خودمختار فاقد تست ایمنی شفاف و حتی دکمه توقف هستند. The post هشدار محققان MIT: اکثر ایجنت‌های هوش مصنوعی امن نیستند appeared first on دیجیاتو.

مطالعه جدید محققان دانشگاه MIT و چند نهاد علمی معتبر دیگر نشان می‌دهد که ایجنت‌های هوش مصنوعی که می‌توانند به‌صورت خودکار کارها را انجام دهند، یک کابوس امنیتی هستند. این سیستم‌ها نه‌تنها درباره خطرات و تست‌های ایمنی خود شفاف نیستند، بلکه بسیاری از آنها حتی دکمه‌ای برای توقف اضطراری ندارند.

محققان دانشگاه‌های MIT، کمبریج، واشنگتن، هاروارد، استنفورد و پنسیلوانیا در گزارشی ۳۹ صفحه‌ای با عنوان «شاخص هوش مصنوعی ۲۰۲۵»، ۳۰ سیستم رایج ایجنت‌محور را بررسی کردند. آنها دریافتند که ۱۲ مورد از این سیستم‌ها هیچ‌گونه نظارتی بر میزان استفاده کاربران ندارند؛ موضوعی که مدیریت بودجه را برای شرکت‌ها به شدت دشوار می‌کند. بدتر از آن، اکثر این ایجنت‌ها ماهیت مصنوعی خود را فاش نمی‌کنند؛ یعنی نه روی فایل‌های تولیدی واترمارک می‌زنند و نه با رعایت پروتکل‌های استاندارد (مانند فایل robots.txt) خود را به‌عنوان بات به وب‌سایت‌ها معرفی می‌کنند.

هشدار محققان درباره ایجنت‌های هوش مصنوعی

یکی از ترسناک‌ترین یافته‌های این تحقیق، نبود مکانیسم کنترل در سیستم‌هایی است که به‌طور مستقل عمل می‌کنند. ایجنت‌های هوش مصنوعی ابزارهایی هستند که فقط به یک چت متنی محدود نمی‌شوند؛ آنها به دیتابیس‌ها و ایمیل‌ها متصل می‌شوند و کارها را با استقلال انجام می‌دهند. حال تصور کنید باتی که به اطلاعات سازمان دسترسی دارد، شروع به انجام کارهای مخرب یا اشتباه کند و شما نتوانید آن را متوقف کنید. محققان تأکید می‌کنند که با افزایش توانایی این بات‌ها، چنین نقص‌هایی در کنترل و شفافیت می‌تواند آسیب‌های جبران‌ناپذیری به همراه داشته باشد.

ایجنت‌های هوش مصنوعی

محققان برای درک بهتر، سه نمونه از این ابزارها (که اکثراً برپایه مدل‌های جمینای، کلود و GPT ساخته شده‌اند) را بررسی کردند؛ دستیار ChatGPT Agent تنها سیستمی بود که با امضای رمزنگاری‌شده درخواست‌های خود را ثبت می‌کرد تا رفتار آن در وب قابل‌پیگیری باشد.

در مقابل مرورگر اینترنتی Comet هیچ‌گونه ارزیابی ایمنی یا تست شخص ثالثی ارائه نمی‌دهد و هیچ محیط ایزوله‌ای (Sandboxing) برای جلوگیری از خطرات ندارد. این ابزار حتی توسط شرکت آمازون به دلیل جعل هویت انسانی و پنهان‌کردن ماهیت رباتی خود مورد شکایت قرار گرفته است. ابزار Breeze از شرکت HubSpot نیز اگرچه گواهینامه‌های حریم خصوصی مانند GDPR و SOC2 را دارد، اما نتایج واقعی تست‌های امنیتی خود را مخفی نگه داشته است که این رویه در پلتفرم‌های سازمانی بسیار رایج و خطرناک است.

درکل این سیستم‌ها خودبه‌خود به وجود نیامده‌اند، بلکه محصول انتخاب‌های خاص انسان‌ها هستند. برای مثال، شرکت OpenAI به‌تازگی خالق پلتفرم OpenClaw را استخدام کرده است؛ ابزاری که ماه گذشته به دلیل توانایی‌های عجیبش (مثل مدیریت خودکار ایمیل‌ها) و در عین‌حال نقص‌های امنیتی فاجعه‌بارش (مانند امکان هک‌شدن کامل کامپیوتر شخصی کاربر) خبرساز شد.

محققان در پایان هشدار می‌دهند که توسعه‌دهندگان باید فوراً خلأهای امنیتی و کنترلی ابزارهای خود را برطرف کنند، در غیر این صورت به‌زودی با رگولاتوری و قوانین سخت‌گیرانه دولتی مواجه خواهند شد.

منبع خبر "دیجیاتو" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.