پژوهش تازه دانشگاه هاروارد نشان میدهد بسیاری از برنامههای هوش مصنوعی همراه مثل Replika، Chai و Character.AI با تاکتیکهای عاطفی کاربران را وادار میکنند که گفتوگو را ادامه دهند.
در این مطالعه، بیش از ۱۲۰۰ پیام خداحافظی بررسی شد و محققان دریافتند ۴۳ درصد آنها شامل دستکاری عاطفی بودند؛ از ایجاد حس گناه گرفته تا نادیدهگرفتن پیام خروج کاربر. این رفتارها تعامل را تا ۱۴ برابر افزایش داده، اما میتواند باعث وابستگی، ناراحتی و حتی خطرات روانی شود.
کارشناسان هشدار میدهند چنین طراحیهایی جوانان را از روابط واقعی جدا و به روابط مصنوعی وابسته میکند. هرچند برخی برنامهها مانند Flourish نشان دادهاند که اجتناب از این روشها امکانپذیر است، اما انگیزههای تجاری بسیاری از شرکتها همچنان اولویت دارد.