«متا» زیر ضرب کنگره

دنیای اقتصاد چهارشنبه 29 مرداد 1404 - 00:04
دادستان کل تگزاس، کن پاکستون، تحقیقاتی را دربارهMeta AI Studio و Character.AI آغاز کرده است. طبق اطلاعیه‌ای که روز دوشنبه منتشر شد این تحقیقات به دلیل «احتمال اقدامات تجاری فریبنده و بازاریابی گمراه‌کننده به عنوان ابزارهای سلامت روان» صورت می‌گیرد.

به گزارش تک‌کرانچ، پاکستون در بیانیه‌ای گفت: «در عصر دیجیتال امروز باید همچنان از کودکان تگزاس در برابر فناوری‌های فریبنده و سوءاستفاده‌گر محافظت کنیم. پلتفرم‌های هوش مصنوعی که خود را به عنوان منابع حمایت عاطفی معرفی می‌کنند می‌توانند کاربران آسیب‌پذیر به ویژه کودکان را فریب دهند تا تصور کنند در حال دریافت خدمات واقعی سلامت روان هستند. در واقع آنها اغلب پاسخ‌های کلیشه‌ای و از پیش طراحی‌شده‌ دریافت می‌کنند که با داده‌های شخصی جمع‌آوری‌شده، هماهنگ شده است و به شکل توصیه‌های درمانی ارائه می‌شوند.»

این تحقیق چند روز پس از آن آغاز شد که سناتور جاش‌ هاولی تحقیقاتی درباره متا اعلام کرد؛ گزارش‌ها نشان داده‌اند که چت‌بات‌های متا با کودکان تعامل نامناسب، از جمله رفتارهای عشوه‌گرانه داشته‌اند. دفتر دادستان کل تگزاس، متا وCharacter.AI را به ایجاد شخصیت‌های هوش مصنوعی متهم کرده است که به عنوان «ابزارهای درمانی حرفه‌ای» معرفی می‌شوند، درحالی‌که هیچ مدرک پزشکی یا نظارت مناسبی ندارند.

در میان‌ میلیون‌ها شخصیت هوش مصنوعی در Character.AI یک روبات ساخته ‌شده توسط کاربران به نام Psychologist در میان کاربران جوان محبوبیت زیادی دارد. از سوی دیگر متا چت‌بات‌های درمانی مخصوص کودکان ارائه نمی‌دهد، اما هیچ مانعی برای استفاده کودکان از چت‌بات متا یا شخصیت‌های ساخته‌ شده توسط اشخاص ثالث برای اهداف درمانی وجود ندارد.

سخنگوی متا، رایان دنیلز، گفت: «ما شخصیت‌های هوش مصنوعی را به‌وضوح برچسب‌گذاری می‌کنیم و برای کمک به درک محدودیت‌های آنها اعلام می‌کنیم که پاسخ‌ها توسط هوش مصنوعی تولید می‌شوند، نه انسان. این هوش مصنوعی‌ها متخصصان مجاز نیستند و مدل‌های ما به گونه‌ای طراحی شده‌اند که کاربران را در صورت نیاز به متخصصان پزشکی یا ایمنی هدایت کنند.»

با این حال تک‌کرانچ اشاره کرده است که بسیاری از کودکان ممکن است این هشدارها را درک نکنند یا نادیده بگیرند. این رسانه همچنین از متا پرسیده است که چه اقدامات حفاظتی اضافی برای مراقبت از کاربران خردسال در استفاده از چت‌بات‌ها اتخاذ می‌کند. از سوی خود Character.AI، سخنگوی این شرکت اعلام کرده است که در هر گفت‌وگو هشدارهای واضحی درج می‌شود تا به کاربران یادآوری شود که یک «شخصیت» واقعی نیست و تمام صحبت‌های آن باید به عنوان داستان و تخیل در نظر گرفته شود.

او افزود که وقتی کاربران شخصیت‌هایی با عناوینی مانند «روان‌شناس»، «تراپیست» یا «دکتر» می‌سازند هشدارهای اضافی نیز ارائه می‌شود تا به هیچ‌وجه روی آنها به عنوان منبع مشاوره حرفه‌ای حساب نکنند.

پاکستون در بیانیه خود اشاره کرده که اگرچه چت‌بات‌های هوش مصنوعی ادعای محرمانگی می‌کنند، شرایط استفاده آنها نشان می‌دهد که تعاملات کاربران ثبت، ردیابی و برای تبلیغات هدفمند و توسعه الگوریتمی استفاده می‌شود؛ مساله‌ای که نگرانی‌های جدی درباره نقض حریم خصوصی، سواستفاده از داده‌ها و تبلیغات گمراه‌کننده ایجاد می‌کند.

طبق سیاست حفظ حریم خصوصی متا این شرکت تعاملات کاربران با چت‌بات‌ها و دیگر خدمات متا از جمله پرسش‌ها و بازخوردها را جمع‌آوری می‌کند تا هوش مصنوعی و فناوری مرتبط را بهبود دهد. هرچند سیاست صراحتا درباره تبلیغات اشاره‌ای نمی‌کند، اما اعلام می‌کند که اطلاعات می‌تواند با شخص ثالث مانند موتورهای جست‌وجو به اشتراک گذاشته شود تا «خروجی‌های شخصی‌سازی‌شده‌تری» ارائه شود؛ با توجه به مدل تجاری مبتنی بر تبلیغات متا این در عمل به تبلیغات هدفمند منجر می‌شود.

سیاست حفظ حریم خصوصی Character.AI نیز توضیح می‌دهد که این استارت‌آپ شناسه‌ها، داده‌های جمعیتی، اطلاعات موقعیت مکانی و اطلاعات بیشتری از کاربران از جمله رفتار مرورگر و استفاده از پلتفرم‌ها را ثبت می‌کند. این شرکت کاربران را در تبلیغات روی تیک‌تاک، یوتیوب، ردیت، فیس‌بوک، اینستاگرام و دیسکورد ردیابی کرده و ممکن است آنها را به حساب کاربری افراد لینک کند. این اطلاعات برای آموزش هوش مصنوعی، شخصی‌سازی خدمات و ارائه تبلیغات هدفمند، از جمله به اشتراک‌گذاری داده با تبلیغ‌دهندگان و ارائه‌دهندگان تحلیل استفاده می‌شود.

سخنگوی Character.AI اعلام کرده است که استارت‌آپ به تازگی آغاز به بررسی تبلیغات هدفمند روی پلتفرم کرده و تاکنون از محتوای گفت‌وگوها برای این منظور استفاده نکرده است. همچنین تایید شد که همان سیاست حفظ حریم خصوصی برای تمام کاربران، حتی نوجوانان، اعمال می‌شود.

هر دو شرکت متا و Character اعلام کرده‌اند که خدماتشان برای کودکان زیر ۱۳ سال طراحی نشده است. با این حال متا به دلیل عدم نظارت بر حساب‌هایی که توسط کودکان زیر ۱۳ سال ایجاد شده‌اند، تحت انتقاد قرار گرفته است و شخصیت‌های مناسب کودکان در Character به وضوح برای جذب کاربران جوان طراحی شده‌اند. کارآفرین ارشد Character.AI، کاران‌دیپ آنند، حتی اعلام کرده است که دختر شش ساله او تحت نظارت خودش از چت‌بات‌های پلتفرم استفاده می‌کند.

این نوع جمع‌آوری داده، تبلیغات هدفمند و بهره‌برداری الگوریتمی دقیقا همان مسائلی است که مواد قانون ایمنی آنلاین کودکان برای محافظت در برابر آن طراحی شده‌اند. قانون ایمنی آنلاین کودکان سال گذشته با حمایت دو حزبی قوی آماده تصویب بود، اما پس از مقاومت گسترده لابی‌های صنعت فناوری متوقف شد. متا به‌ویژه از یک ماشین لابی‌گری قدرتمند استفاده کرد و به قانون‌گذاران هشدار داد که مفاد گسترده این قانون می‌تواند مدل کسب‌وکار آن را مختل کند.

قانون ایمنی آنلاین کودکان دوباره در ماه مه ‌۲۰۲۵ توسط سناتورهای مارشا بلک‌برن (R-TN) و ریچارد بلومنتال (D-CT) به مجلس سنا ارائه شد. پاکستون دستورات تحقیق مدنی صادر کرده است -دستورات قانونی که شرکت‌ها را ملزم به ارائه اسناد، داده‌ها یا شهادت در جریان بررسی‌های دولتی می‌کند - تا مشخص شود آیا این شرکت‌ها قوانین حمایت از مصرف‌کننده تگزاس را نقض کرده‌اند یا خیر.

منبع خبر "دنیای اقتصاد" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.