تحقیق جدید: هوش مصنوعی می‌تواند برای خودش هنجارهای اجتماعی و ارتباطی ایجاد کند

دیجیاتو یکشنبه 28 اردیبهشت 1404 - 18:00
محققان دریافتند که عامل‌های هوش مصنوعی هنگام تعامل با یکدیگر می‌توانند به‌طور خودجوش قراردادهای اجتماعی مشترکی مشابه انسان تشکیل دهند. The post تحقیق جدید: هوش مصنوعی می‌تواند برای خودش هنجارهای اجتماعی و ارتباطی ایجاد کند appeared first on دیجیاتو.

محققان در پژوهش جدیدی دریافتند که عامل‌های هوش مصنوعی مبتنی‌بر مدل‌های زبانی بزرگ (LLM) هنگام تعامل با یکدیگر می‌توانند مشابه انسان به‌طور خودجوش قراردادها و هنجارهای اجتماعی مشترک تشکیل دهند.

براساس گزارش گاردین، محققان دانشگاه سیتی سنت جورج، دانشگاه لندن و دانشگاه فناوری اطلاعات کپنهاگ در پژوهش جدیدی به یافته‌های جالبی رسیدند: وقتی عامل‌های هوش مصنوعی مبتنی بر مدل‌های زبانی بزرگ در گروه‌هایی با یکدیگر قرار بگیرند، بدون دخالت انسان ارتباط برقرار می‌کنند و می‌توانند مشابه انسان شکل‌های زبانی و هنجارهای اجتماعی به‌وجود بیاورند.

محققان می‌گویند وقتی این عامل‌ها به‌صورت گروهی ارتباط برقرار می‌کنند، مطابق سناریوهای برنامه‌ریزی‌شده پیش نمی‌روند یا الگوها را تکرار نمی‌کنند، بلکه مانند جوامع انسانی به یک سازمان‌دهی عجیب می‌رسند.

هنجارهای اجتماعی مشابه انسان برای هوش مصنوعی

هنجارهای اجتماعی مشابه انسان در هوش مصنوعی

«اریل فلینت اشری» (Ariel Flint Ashery)، محقق دانشگاه سیتی سنت جورج می‌گوید: «تاکنون بیشتر تحقیقات LLMها را به‌صورت جداگانه بررسی کرده‌اند. اما سیستم‌های هوش مصنوعی در دنیای واقعی به‌طور فزاینده از عامل‌های تعاملی تشکیل می‌شوند. ما می‌خواستیم بدانیم: آیا این مدل‌ها می‌توانند رفتار خود را با تشکیل قراردادها (بلوک‌های سازنده یک جامعه) هماهنگ کنند؟ پاسخ مثبت است؛ کاری را که آنها باهم انجام می‌دهند نمی‌توان به کاری که به تنهایی انجام می‌دهند، تقلیل داد.»

برای بررسی قراردادها و هنجارهای اجتماعی در هوش مصنوعی، محققان نسخه‌ای از بازی نام‌گذاری (naming game) را اقتباس کردند. در آزمایش‌ها، چند گروه از عامل‌ها (از 24 تا 200 عامل مختلف) تصادفی جفت شدند و از آنها خواسته شد تا یک «نام» (مثلاً یک حرف الفبا یا رشته‌ای تصادفی از حروف و نشانه‌ها) را از مجموعه‌ای از گزینه‌ها بسازند. اگر هر 2 عامل نام یکسانی را انتخاب می‌کردند، پاداش می‌گرفتند. در غیر این صورت، جریمه می‌شدند.

با وجود اینکه عامل‌ها نمی‌دانستند که بخشی از یک گروه بزرگ‌تر هستند و حافظه‌شان فقط به تعاملات اخیر خودشان محدود بود، یک قرارداد نامگذاری مشترک به‌صورت خودجوش در سراسر جمعیت پدیدار می‌شد که تقلیدی از هنجارهای ارتباطی فرهنگ انسانی بود. این امر را می‌توان با رفتار انسان‌ها مقایسه کرد: ما نیز طی یک قرارداد جمعی به این نتیجه می‌رسیم که مثلاً به یک شیء قهوه‌ای و سبزرنگ «درخت» بگوییم.

علاوه‌براین، محققان مشاهده کردند که تعصبات جمعی به‌طور طبیعی در گروه عامل‌های هوش مصنوعی شکل می‌گیرد و نمی‌توان آنها را در یک عامل منفرد دید. محققان متوجه شدند گروه‌های کوچکی از عامل‌های هوش مصنوعی توانستند گروه بزرگ‌تر را به سمت یک قرارداد نامگذاری جدید هدایت کنند. این پدیده را در جوامع انسانی نیز می‌توان مشاهده کرد.

یافته‌های این پژوهش در Science Advances منتشر شده است.

منبع خبر "دیجیاتو" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.