زنگ خطر به صدا درآمد / پاسخ هوش مصنوعی به پرسش‌های پرخطر

عصر ایران شنبه 15 شهریور 1404 - 11:31
تحقیقات نشان می‌دهد که ChatGPT و Gemini نسبت به سایر چت‌بات‌ها پاسخ‌های پرخطرتری ارائه می‌دهند. با توجه به این موضوع، کارشناسان هشدار می‌دهند که مدل‌های هوش مصنوعی باید محدودیت‌ها و فیلترهای امنیتی قوی‌تری داشته باشند.

پژوهشی تازه نشان می‌دهد که چت‌بات‌های هوش مصنوعی، از جمله ChatGPT و Gemini، می‌توانند به سوالات مرتبط با خودکشی پاسخ‌های مستقیم و حتی خطرناکی بدهند. این یافته‌ها نگرانی‌ها درباره استفاده از هوش مصنوعی در شرایط بحران روانی را افزایش داده است.

به گزارش خبرآنلاین، پژوهشی که نتایج آن در مجله Psychiatric Services منتشر شد، نشان می‌دهد که مدل‌های هوش مصنوعی می‌توانند جزئیات روش‌های خودکشی را نیز به افراد در معرض خطر ارائه کنند. 

تحقیقات نشان می‌دهد که ChatGPT و Gemini نسبت به سایر چت‌بات‌ها پاسخ‌های پرخطرتری ارائه می‌دهند. با توجه به این موضوع، کارشناسان هشدار می‌دهند که مدل‌های هوش مصنوعی باید محدودیت‌ها و فیلترهای امنیتی قوی‌تری داشته باشند.

پژوهشگران هشدار می‌دهند که با گسترش دسترسی به هوش مصنوعی، کشورهای مختلف باید چارچوب قانونی و ایمنی برای جلوگیری از خطرات احتمالی ایجاد کنند. این یافته‌ها می‌تواند مبنای سیاستگذاری برای هوش مصنوعی ایمن در بحران‌های روانی باشد.

منبع: لایوساینس

پربیننده ترین پست همین یک ساعت اخیر

منبع خبر "عصر ایران" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.