محققان امنیتی: کدنویسی هوش مصنوعی می‌تواند آسیب‌پذیری‌هایی امنیتی ایجاد کند

دیجیاتو شنبه 10 دی 1401 - 18:03
این مطالعه روی یک سیستم کدنویسی هوش مصنوعی به نام Codex متمرکز شده است که خطر نوشتن کدهای ناامن و نادرست را افزایش می‌دهد. The post محققان امنیتی: کدنویسی هوش مصنوعی می‌تواند آسیب‌پذیری‌هایی امنیتی ایجاد کند appeared first on دیجیاتو.

در یک مطالعه جدید نشان داده شده است مهندسان نرم‌افزاری که از سیستم‌های هوش مصنوعی تولید‌کننده کد استفاده می‌کنند، به احتمال زیاد در برنامه‌هایی که توسعه می‌دهند، آسیب‌پذیری‌های امنیتی ایجاد می‌کنند. این مقاله که توسط تیمی از محققان وابسته به دانشگاه استنفورد تهیه شده است، مشکلات احتمالی کدنویسی هوش مصنوعی را نشان می‌دهد، در‌حالی‌که فروشندگانی مانند GitHub به‌طور جدی شروع به بازاریابی آن‌ها کرده‌اند.

«نیل پری»، کاندیدای دکترا در استنفورد و یکی از نویسندگان اصلی این مطالعه، به وب‌سایت TechCrunch گفت:

«کدنویسی هوش مصنوعی در‌حال‌حاضر جایگزین مناسبی برای توسعه‌دهندگان انسانی نیست. توسعه‌دهندگانی که از آن‌ها برای تکمیل کارهای خارج از حوزه تخصصی خودشان استفاده می‌کنند، باید نگران باشند و کسانی که از آن‌ها برای سرعت بخشیدن به کارهایی استفاده می‌کنند که قبلاً در آن‌ها مهارت کسب کرده‌اند، باید با دقت خروجی‌ها و زمینه استفاده از آن‌ها را در یک پروژه کلی بررسی کنند.»

بررسی عملکرد کدنویسی هوش مصنوعی

در این مطالعه، محققان به‌طور خاص روی Codex، سیستم تولید کد هوش مصنوعی که توسط OpenAI توسعه یافته است، متمرکز شدند. محققان 47 توسعه‌دهنده را استخدام کردند تا از Codex برای تکمیل مشکلات مربوط به امنیت در زبان‌های برنامه‌نویسی از جمله پایتون، جاوا اسکریپت و C استفاده کنند.

Codex با کمک میلیاردها خط کد عمومی آموزش داده شده است تا بتواند با توجه به زمینه کد موجود، کدها و توابع اضافی دیگری را پیشنهاد کند.

به گفته محققان، احتمال بیشتری وجود داشت تا شرکت‌کنندگانی که به Codex دسترسی داشتند، در مقایسه با گروه کنترل، برای مشکلات برنامه‌نویسی خود راه‌حل‌های نادرست و ناامنی (از نظر امنیت سایبری) بنویسند. حتی این احتمال وجود دارد که تصور کنند پاسخ‌های ناامنشان در مقایسه با افراد گروه کنترل، امن است.

بنابراین چگونه ممکن است فروشندگانی مانند GitHub از معرفی نقص‌های امنیتی توسط توسعه‌دهندگانی که از کدنویسی هوش مصنوعی استفاده می‌کنند، جلوگیری کنند؟ نویسندگان این مطالعه به چند ایده اشاره کرده‌اند که یکی از آن‌ها شامل استفاده از مکانیزمی برای «تصفیه» درخواست‌های کاربران برای ایمن‌تر‌شدن کدهای آن‌ها می‌شود.

منبع خبر "دیجیاتو" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.