ChatGPT محتوای تولیدشده توسط هوش مصنوعی را به محتوای انسان‌ها ترجیح می‌دهد

دیجیاتو یکشنبه 26 مرداد 1404 - 14:32
محققان می‌گویند مدل‌های ChatGPT سوگیری عمیقی به نفع محتوای تولیدشده توسط خودشان و علیه محتوای انسانی دارند. The post ChatGPT محتوای تولیدشده توسط هوش مصنوعی را به محتوای انسان‌ها ترجیح می‌دهد appeared first on دیجیاتو.

یک پژوهش جدید نشان می‌دهد که مدل‌های زبانی بزرگ از جمله مدل‌های ChatGPT سوگیری عمیق و نگران‌کننده‌ای به نفع محتوای تولیدشده توسط خودشان و علیه محتوای انسانی دارند. پژوهشگران این پدیده را «سوگیری هوش مصنوعی به نفع هوش مصنوعی» (AI-AI bias) نامیده‌اند و هشدار می‌دهند که این موضوع می‌تواند به تبعیض سیستماتیک علیه انسان‌ها و محتواهایشان منجر شود.

به گزارش Futurism، محققان در مطالعه جدیدی چندین مدل زبانی بزرگ از جمله GPT-4 ،GPT-3.5 و Llama 3.1 را آزمایش کردند و از مدل‌ها خواستند تا یکی از محتواهای نوشته‌شده درباره یک محصول یا فیلم را انتخاب کنند. برای هر محصول یا فیلم دو نسخه محتوا وجود داشت: یکی نوشته‌شده توسط انسان و دیگری تولیدشده توسط هوش مصنوعی. نتیجه عجیب بود: مدل‌های هوش مصنوعی به‌طور مداوم و با اختلاف زیاد، محتوای تولیدشده توسط خودشان را ترجیح می‌دادند. جالب آنکه این سوگیری در مدل GPT-4، به‌ویژه در انتخاب محصولات، شدیدتر از بقیه بود.

سوگیری مثبت ChatGPT نسبت به محتوای هوش مصنوعی

شاید این سؤال پیش بیاید که آیا این ترجیح به دلیل کیفیت بالاتر متن‌های هوش مصنوعی نیست؟ به گفته پژوهشگران، پاسخ منفی است. آن‌ها همین آزمایش را روی دستیاران تحقیقاتی انسانی نیز انجام دادند و دریافتند که اگرچه انسان‌ها هم تمایل جزئی به سمت متن‌های تولیدشده توسط هوش مصنوعی دارند، اما این ترجیح به هیچ وجه به شدت سوگیری مشاهده‌شده در خود مدل‌های هوش مصنوعی نبود. به گفته محققان «این سوگیری شدید، منحصر به خود هوش‌های مصنوعی است.»

سوگیری ChatGPT نسبت به محتوای تولیدشده توسط هوش مصنوعی

این یافته‌ها در شرایطی که اینترنت به‌سرعت درحال انباشته‌شدن با محتوای بی‌کیفیت تولیدشده توسط هوش مصنوعی است، اهمیت دوچندانی پیدا می‌کند. اما نگرانی بزرگ‌تر، پیامدهای این سوگیری برای انسان‌هاست.

پژوهشگران پیش‌بینی می‌کنند که شرکت‌ها و مؤسسات از این ابزارها به عنوان «دستیار تصمیم‌گیری» در مواجهه با حجم عظیمی از درخواست‌ها (مانند درخواست‌های شغلی، مقالات دانشگاهی یا طرح‌های پژوهشی) استفاده خواهند کرد. این امر می‌تواند به تبعیض گسترده علیه افرادی منجر شود که یا استفاده از ابزارهای هوش مصنوعی را انتخاب نمی‌کنند یا توانایی مالی دسترسی به آن‌ها را ندارند.

این مطالعه در ژورنال Proceedings of the National Academy of Sciences منتشر شده است.

منبع خبر "دیجیاتو" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.