یک وضعیت پیچیده است که میتواند افراد بیگناه را کاملا مقصر کند و یا برعکس خطاکاران با تکیه بر اینکه این ساخته هوش مصنوعی است حداقل در پیشگاه افکار عمومی خود را پاک و منزه جلوه دهند!
عصر ایران ؛ کاوه معینفر - واقعا این تصاویری که با هوش مصنوعی ساخته میشود جدای از سرگرمی و بامزه بودن دارد به سطح یک خطر بزرگ برای واقعیت رخ داده تبدیل میشود.
تصور کنید عکسی از شما را با هوش مصنوعی تبدیل کنند به اینکه در حال انجام یک عمل شنیع هستید و با تکنیکهای مختلف آنرا کاملا باورپذیر کنند، به عنوان یک نمونه ساده مثلا با یک گوشی دیگر از یک صفحه نمایش که در حال پخش آن تصویر است، فیلمبرداری کنند چگونه میتوان ثابت کرد که این شخص من نیستم؟
چند نفر حرف شما را باور خواهند کرد و چه تعدادی به آن شک میکنند و یا حتی آن تصویر جعلی را باور میکنند؟ با چه تمهیدی میتوان ثابت کرد که آن شخص شما نیستید؟
پیشرفت هوش مصنوعی در ساخت تصاویر و ویدئوهای جعلی (deepfakes) باعث شده است که مرز بین واقعیت و جعل بسیار باریک شود. در گذشته تصویر یا ویدیو مدرک قاطعی برای اثبات یک رخداد بود؛ اما اکنون دیگر نمیتوان به آن اطمینان مطلق داشت. این تغییر به پدیدهای منجر شده که فیلسوفان رسانه آن را «بحران واقعیت» مینامند یعنی از بین رفتن معیارهای اعتماد به شواهد دیداری.
بالشخصه بر این اعتقادم که در برابر چنین پدیدهای واقعا هیچ سپر دفاعی قابل اتکایی وجود ندارد.
خود هوش مصنوعی در جواب به راه حل برای چنین موقعیتی گفت: «متخصصان میتوانند با بررسی پیکسلها، متادیتا، سایهها، بازتابها و الگوریتمهای تولید تصویر، جعلی بودن آن را تشخیص دهند. ابزارهایی مانند AI image forensics یا deepfake detection توسط شرکتهایی مثل Microsoft و Google در حال توسعهاند.
پروژههایی مانند Content Authenticity Initiative (CAI) و Coalition for Content Provenance and Authenticity (C2PA) روی امضای دیجیتال تصاویر کار میکنند؛ یعنی در آینده هر تصویر معتبر دارای “زنجیره اعتماد” (chain of custody) خواهد بود تا معلوم شود از چه دوربینی و در چه زمانی گرفته شده است.»
از طرف مقابل باز تصور کنید که یک اتفاق واقعا بد مانند یک جنایت یا ... رخ داده است و تصویری هم از شخص جانی وجود دارد، حال او ادعا میکند که این تصویر من نیستم و با هوش مصنوعی ساخته شده است،چگونه میتوان به اصالت این حرف پی برد؟
به این پدیده در مطالعات رسانهای اصطلاحاً میگویند «اثر دروغ دیپفیک» (the liar’s dividend) یعنی «سود دروغگو». وقتی جامعه بداند که تصاویر و ویدیوها ممکن است جعلی باشند، آنگاه هر کسی میتواند واقعیت را هم انکار کند. اگر ویدیوی واقعی از فردی منتشر شود که کار ناپسندی انجام میدهد، او میتواند بگوید: «این ویدیو هوش مصنوعی ساخته، من نبودم.»
چون مردم میدانند جعل ممکن است، تردید ایجاد میشود؛ حتی اگر ویدیو کاملاً واقعی باشد، به این ترتیب، هوش مصنوعی نهفقط واقعیت را تضعیف میکند، بلکه پناهگاه دروغگویان هم میشود.
چون اعتماد اجتماعی به مدارک تصویری از بین میرود، و این اعتماد یکی از پایههای عدالت است. خبرنگاران یا نهادهای مربوطه سختتر میتوانند اسناد تصویری از جنایات را منتشر کنند.
دادگاهها ممکن است نتوانند از تصاویر به عنوان مدرک معتبر استفاده کنند. افراد صاحب قدرت میتوانند جنایت یا فساد خود را انکار کنند و بگویند: «فیکه.» این یعنی تزلزل بنیادین واقعیت رخ داده در فضای عمومی.
شاید بسیاری با توجه به آنچه که الان وجود دارد این موقعیتها و این پرسشها را تا حدی اغراق شده و یا به نوعی نگرانی بیش از حد قلمداد کنند ولی واقعیت این است که با سرعتی که رشد و تکامل هوش مصوعی در زمینه تصویرسازی دارد تا چند ماه دیگر تمام این اتفاقات با کمترین زمان ممکن و فقط با نوشتن یک درخواست (پرامپت) حدود 300 کلمهای امکان پذیر است.
میتوان عکس یا تصویر یک شخص و صدایش را به هوش مصنوعی داد هر آنچه میخواهی را ازش درخواست کرد تا برایت بسازد. حتی میتوان از همان هوش مصنوعی خواست تا با تمهیدات مختلف تا جایی که ممکن است آنرا واقعی و باورپذیر کند.
حال پرسش اصلی این است که اگر واقعا یک تصویر این گونه از خودمان یا هر شخص دیگری دیدیم چگونه میتوانیم ثابت کنیم که این ما نیستیم؟
واقعا در این چند مدت اخیر که به این قضیه فکر میکنم در پشت این رنگ و لعاب زیبای تصویر سازیهای هوش مصنوعی و ورای ذوق زدگی و هیجان سرگرمی ساز بودن آن یک اتفاق هولناک را میبینم که شاید هیچ راهی برای مقابله با آن وجود نداشته باشد.
یک وضعیت پیچیده است که میتواند افراد بیگناه را کاملا مقصر کند و یا برعکس خطاکاران با تکیه بر اینکه این ساخته هوش مصنوعی است حداقل در پیشگاه افکار عمومی خود را پاک و منزه جلوه دهند!
بسیاری از کشورها (از جمله اتحادیه اروپا و اخیراً آمریکا) در حال تصویب قوانین علیه دیپفیکهای مضر هستند، که تولید یا انتشار چنین تصاویر بدون رضایت شخص را جرمانگاری میکند. اما واقعا چنین کاری تا چه اندازه چاره ساز است؟
آیا سازندگان هوش مصنوعی برای چنین موقعیتی هیچ راه حلی اندیشیدهاند که ابزاری تا این حد توانا و تاثیرگذار را فقط با چند دلار در دسترس همگان قرار داده و یا میدهند؟
تا به اینجا فقط میتوان گفت تکنولوژی باید مسئولانهتر طراحی شود تا هر تصویر واقعی قابل تأیید و هر تصویر جعلی قابل شناسایی باشد.
در عصر هوش مصنوعی، حقیقت دیگر فقط «آنچه دیده میشود» نیست، بلکه آنچه اثبات و راستیآزمایی میشود است. به قول یک پژوهشگر رسانه: «ما از دنیای Seeing is believing (دیدن، باور کردن است) وارد دنیای Verifying is believing (تأیید کردن، باور کردن است) شدهایم.»
واقعا گیج و منگ و بدون هیچ توانایی در مقابل چنین پدیدهای فقط به افق خیره شدهام شاید راه حلی امیدوار کننده از را برسد. شاید تنها راه این است که هیچ تصویری از تو در اینترنت یا جهان دیجیتال وجود نداشته باشد که این هم قطعا امکان پذیر نیست.
پربیننده ترین پست همین یک ساعت اخیر
منبع خبر "
عصر ایران" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد.
(ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.