این تصویر من نیست ؛ بزرگترین مشکلی که با هوش مصنوعی خواهیم داشت

عصر ایران چهارشنبه 14 آبان 1404 - 20:06
یک وضعیت پیچیده است که می‌تواند افراد بی‌گناه را کاملا مقصر کند و یا برعکس خطاکاران با تکیه بر اینکه این ساخته هوش مصنوعی است حداقل در پیشگاه افکار عمومی خود را پاک و منزه جلوه دهند!
عصر ایران ؛ کاوه معین‌فر - واقعا این تصاویری که با هوش مصنوعی ساخته می‌شود جدای از سرگرمی و بامزه بودن دارد به سطح یک خطر بزرگ برای واقعیت رخ داده تبدیل می‌شود. 
 
تصور کنید عکسی از شما را با هوش مصنوعی تبدیل کنند به اینکه در حال انجام یک عمل شنیع هستید و با تکنیک‌های مختلف آنرا کاملا باورپذیر کنند، به عنوان  یک نمونه ساده مثلا با یک گوشی دیگر از یک صفحه نمایش که در حال پخش آن تصویر است، فیلمبرداری کنند چگونه می‌توان ثابت کرد که این شخص من نیستم؟
 
چند نفر حرف شما را باور خواهند کرد و چه تعدادی به آن شک می‌کنند و یا حتی آن تصویر جعلی را باور می‌کنند؟ با چه تمهیدی می‌توان ثابت کرد که آن شخص شما نیستید؟ 
 
پیشرفت هوش مصنوعی در ساخت تصاویر و ویدئوهای جعلی (deepfakes) باعث شده است که مرز بین واقعیت و جعل بسیار باریک شود. در گذشته تصویر یا ویدیو مدرک قاطعی برای اثبات یک رخداد بود؛ اما اکنون دیگر نمی‌توان به آن اطمینان مطلق داشت. این تغییر به پدیده‌ای منجر شده که فیلسوفان رسانه آن را «بحران واقعیت» می‌نامند یعنی از بین رفتن معیارهای اعتماد به شواهد دیداری.
 
بالشخصه بر این اعتقادم که در برابر چنین پدیده‌ای واقعا هیچ سپر دفاعی قابل اتکایی وجود ندارد. 
 
تغییر چهره یک شخ به شخصی دیگر چالش یزرگ هوش مصنوعی است
 
خود هوش مصنوعی در جواب به راه حل برای چنین موقعیتی گفت: «متخصصان می‌توانند با بررسی پیکسل‌ها، متادیتا، سایه‌ها، بازتاب‌ها و الگوریتم‌های تولید تصویر، جعلی بودن آن را تشخیص دهند. ابزارهایی مانند AI image forensics یا deepfake detection توسط شرکت‌هایی مثل Microsoft و Google در حال توسعه‌اند.
 
پروژه‌هایی مانند Content Authenticity Initiative (CAI) و Coalition for Content Provenance and Authenticity (C2PA) روی امضای دیجیتال تصاویر کار می‌کنند؛ یعنی در آینده هر تصویر معتبر دارای “زنجیره اعتماد” (chain of custody) خواهد بود تا معلوم شود از چه دوربینی و در چه زمانی گرفته شده است.»
 
از طرف مقابل باز تصور کنید که یک اتفاق واقعا بد مانند یک جنایت یا ... رخ داده است و تصویری هم از شخص جانی وجود دارد، حال او ادعا می‌کند که این تصویر من نیستم و با هوش مصنوعی ساخته شده است،چگونه می‌توان به اصالت این حرف پی برد؟  
 
به این پدیده در مطالعات رسانه‌ای اصطلاحاً می‌گویند «اثر دروغ دیپ‌فیک» (the liar’s dividend) یعنی «سود دروغ‌گو». وقتی جامعه بداند که تصاویر و ویدیوها ممکن است جعلی باشند، آنگاه هر کسی می‌تواند واقعیت را هم انکار کند. اگر ویدیوی واقعی از فردی منتشر شود که کار ناپسندی انجام می‌دهد، او می‌تواند بگوید: «این ویدیو هوش مصنوعی ساخته، من نبودم.»
 
چون مردم می‌دانند جعل ممکن است، تردید ایجاد می‌شود؛ حتی اگر ویدیو کاملاً واقعی باشد، به این ترتیب، هوش مصنوعی نه‌فقط واقعیت را تضعیف می‌کند، بلکه پناهگاه دروغ‌گویان هم می‌شود.
 
چون اعتماد اجتماعی به مدارک تصویری از بین می‌رود، و این اعتماد یکی از پایه‌های عدالت است. خبرنگاران یا نهادهای مربوطه سخت‌تر می‌توانند اسناد تصویری از جنایات را منتشر کنند.
 
دادگاه‌ها ممکن است نتوانند از تصاویر به عنوان مدرک معتبر استفاده کنند. افراد صاحب قدرت می‌توانند جنایت یا فساد خود را انکار کنند و بگویند: «فیکه.» این یعنی تزلزل بنیادین واقعیت رخ داده در فضای عمومی.
 
تغییر در چهره شناخته شده ترین تصاویر هم رخ می‌دهد
 
شاید بسیاری با توجه به آنچه که الان وجود دارد این موقعیت‌ها و این پرسش‌ها را تا حدی اغراق شده و یا به نوعی نگرانی بیش از حد قلمداد کنند ولی واقعیت این است که با سرعتی که رشد و تکامل هوش مصوعی در زمینه تصویرسازی دارد تا چند ماه دیگر تمام این اتفاقات با کمترین زمان ممکن و فقط با نوشتن یک درخواست (پرامپت) حدود 300 کلمه‌ای امکان پذیر است.
 
می‌توان عکس یا تصویر یک شخص و صدایش را به هوش مصنوعی داد هر آنچه می‌خواهی را ازش درخواست کرد تا برایت بسازد. حتی می‌توان از همان هوش مصنوعی خواست تا با تمهیدات مختلف تا جایی که ممکن است آنرا واقعی و باورپذیر کند.
 
حال پرسش اصلی این است که اگر واقعا یک تصویر این گونه از خودمان یا  هر شخص دیگری دیدیم چگونه می‌توانیم ثابت کنیم که این ما نیستیم؟   
 
واقعا در این چند مدت اخیر که به این قضیه فکر می‌کنم در پشت این رنگ و لعاب زیبای تصویر سازی‌های هوش مصنوعی و ورای ذوق زدگی و هیجان سرگرمی ساز بودن آن یک اتفاق هولناک را می‌بینم که شاید هیچ راهی برای مقابله با آن وجود نداشته باشد.
 
یک وضعیت پیچیده است که می‌تواند افراد بی‌گناه را کاملا مقصر کند و یا برعکس خطاکاران با تکیه بر اینکه این ساخته هوش مصنوعی است حداقل در پیشگاه افکار عمومی خود را پاک و منزه جلوه دهند!
 
تصویرسازی با هوش مصنوعی
 
بسیاری از کشورها (از جمله اتحادیه اروپا و اخیراً آمریکا) در حال تصویب قوانین علیه دیپ‌فیک‌های مضر هستند، که تولید یا انتشار چنین تصاویر بدون رضایت شخص را جرم‌انگاری می‌کند. اما واقعا چنین کاری تا چه اندازه چاره ساز است؟
 
آیا سازندگان هوش مصنوعی برای چنین موقعیتی هیچ راه حلی اندیشیده‌اند که ابزاری تا این حد توانا و تاثیرگذار را فقط با چند دلار در دسترس همگان قرار داده و یا می‌دهند؟ 
 
تا به اینجا فقط می‌توان گفت تکنولوژی باید مسئولانه‌تر طراحی شود تا هر تصویر واقعی قابل تأیید و هر تصویر جعلی قابل شناسایی باشد.
 
در عصر هوش مصنوعی، حقیقت دیگر فقط «آنچه دیده می‌شود» نیست، بلکه آنچه اثبات و راستی‌آزمایی می‌شود است. به قول یک پژوهشگر رسانه: «ما از دنیای Seeing is believing (دیدن، باور کردن است) وارد دنیای Verifying is believing (تأیید کردن، باور کردن است) شده‌ایم.»
 
واقعا گیج و منگ و بدون هیچ توانایی در مقابل چنین پدیده‌ای فقط به افق خیره شده‌ام شاید راه حلی امیدوار کننده از را برسد. شاید تنها راه این است که هیچ تصویری از تو در اینترنت یا جهان دیجیتال وجود نداشته باشد که این هم قطعا امکان پذیر نیست.

منبع خبر "عصر ایران" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.