هوش مصنوعی در خدمت ارتش اسرائیل

افکار نیوز پنج شنبه 27 شهریور 1404 - 00:03
ارتش اسرائیل با ادعای استفاده «اخلاقی» از هوش مصنوعی، خشونت ساختاری علیه فلسطینیان را دیجیتالی کرده و جنگ را به صنعتی تمام‌عیار تبدیل کرده است.

تحولات پنج سال اخیر ارتش اسرائیل که جرزالم پست آن را «انقلاب دیجیتال در جنگ» توصیف می‌کند، نه صرفاً یک تغییر تکنولوژیک بلکه بخشی از روندی خطرناک است: به‌کارگیری هوش مصنوعی و داده‌های بزرگ برای مشروعیت‌بخشی به خشونت سازمان‌یافته علیه ملت‌های تحت اشغال. روایت رسمی می‌گوید که ارتش اسرائیل اکنون یک «ماشین جنگی شبکه‌محور» است که می‌تواند هم‌زمان در زمین، هوا، دریا و فضای سایبری بجنگد، اهداف را ظرف چند ساعت شناسایی کند و با سرعت بی‌سابقه حمله نماید. اما در لایه‌های عمیق‌تر، مسئله نه نوآوری فناورانه بلکه دیجیتالی شدن آپارتاید و کشتار است.

«انقلاب دیجیتال» یا دیجیتالی‌سازی خشونت؟

جرزالم پست روایت خود را با ستایش از ژنرال بازنشسته آویو کوچاوی آغاز می‌کند که ارتش اسرائیل را از سیستم‌های قدیمی فکس و سرور‌های منسوخ، به سوی میدان جنگ دیجیتال برد. امروز صد‌ها متخصص، مدل‌های هوش مصنوعی را طراحی می‌کنند تا جریان داده‌ها را از پهپادها، شنود‌ها و سامانه‌های نظارتی به فرماندهی‌ها منتقل کنند. بنا بر این گزارش، اگر این تحول صورت نمی‌گرفت، دست‌کم ۵۰۰۰ سرباز اسرائیلی بیشتر کشته می‌شدند و هزاران نیروی مقاومت زنده می‌ماندند.

این زبان به ظاهر تکنیکی در حقیقت بیان دیگری است از منطق برتری‌طلبانه صهیونیسم: ارزش جان سرباز اسرائیلی بی‌نهایت بالاتر از جان فلسطینی است؛ فناوری باید به‌کار گرفته شود تا تلفات اشغالگر به حداقل برسد، ولو آنکه بهایش کشتار وسیع غیرنظامیان در غزه یا لبنان باشد. وقتی می‌گویند «۵۰۰۰ سرباز نجات یافتند»، باید پرسید: چه تعداد کودک، زن و غیرنظامی در نتیجه همین «نجات» کشته شدند؟

سرعت در شناسایی اهداف؛ سرعت در مرگ

در سال ۲۰۰۹، ارتش اسرائیل سالانه حدود ۵۰ تا ۱۰۰ هدف جدید شناسایی می‌کرد. امروز به ادعای جرزالم پست، این عدد به ۴۰۰ هدف در روز رسیده است. این جهش سرسام‌آور محصول ترکیب هوش مصنوعی با کلان‌داده‌هاست: الگوریتم‌ها داده‌های شنود، تصاویر ماهواره‌ای، ویدیو‌های پهپاد و حتی اطلاعات تلفن‌های همراه را تحلیل می‌کنند و به سرعت «اهداف بالقوه» را تحویل می‌دهند.

اما پشت این زبان سرد و فنی، واقعیتی خونین نهفته است: هر «هدف» می‌تواند خانه‌ای مسکونی، مدرسه‌ای در غزه یا کلینیکی در لبنان باشد. وقتی حمله‌های هوش مصنوعی‌محور به ادعای خود اسرائیل ۸۰ درصد حملات اخیر را تشکیل می‌دهند، یعنی هزاران زندگی انسانی قربانی الگوریتم‌هایی شده‌اند که ارزش واقعی زندگی فلسطینی را در محاسبات خود لحاظ نمی‌کنند.

اسرائیل می‌گوید این الگوریتم‌ها «غیرنظامیان را از مبارزان تفکیک می‌کنند»، اما گزارش‌های مستقل بار‌ها نشان داده‌اند که همین سیستم‌ها خطا‌های فاجعه‌باری مرتکب شده‌اند: بمباران بیمارستان‌ها، مدارس و پناهگاه‌ها. این خطا‌ها تصادفی نیستند؛ آنها بخشی از ساختار سیستماتیک یک جنگ نابرابرند که زیر پوشش «هوش مصنوعی اخلاقی» توجیه می‌شوند.

«انسان در حلقه تصمیم‌گیری» یا توهم اخلاقی؟

ارتش اسرائیل ادعا می‌کند که «انسان‌ها همیشه در حلقه تصمیم‌گیری باقی می‌مانند» تا حملات با قوانین بین‌المللی هم‌خوان باشد. اما این توجیه بیشتر به یک ترفند تبلیغاتی شبیه است تا واقعیت عملی. وقتی سیستم‌ها صد‌ها هدف را در روز تولید می‌کنند و فرماندهان زیر فشار سرعت و حجم بالای داده‌ها قرار دارند، امکان بررسی انسانی واقعی کاهش می‌یابد. به بیان دیگر، حضور انسان در حلقه بیشتر نمادین است؛ ماشینی که می‌چرخد، فرمانده‌ای که صرفاً مهر تأیید می‌زند.

از سوی دیگر، قوانین بین‌المللی خود در جهان سیاست دوگانه تفسیر می‌شوند. اسرائیل و حامیان غربی‌اش بار‌ها نشان داده‌اند که تعریف‌شان از «اهداف مشروع» بسیار گسترده است و شامل ایستگاه‌های برق، دفاتر رسانه‌ای، خانه‌های مسکونی و حتی کاروان‌های امدادی می‌شود. در چنین شرایطی، چه تفاوتی دارد که الگوریتم هدف را انتخاب کند یا یک افسر؟ نتیجه یکی است: تخریب زیرساخت‌های حیاتی و قتل غیرنظامیان.

چالش فرهنگی یا طبیعی‌سازی خشونت؟

جرزالم پست از «چالش فرهنگی» در ارتش اسرائیل سخن می‌گوید: افسران ارشد در برابر دیجیتالی شدن مقاومت داشتند، اما نهایتاً با آن کنار آمدند. رسانه اسرائیلی این مقاومت را به عبور از «دریای سرخ» تشبیه می‌کند، گویی یک مانع الهی بر سر راه «پیشرفت» برداشته شده است.

اما واقعیت آن است که این «چالش فرهنگی» چیزی جز تردید اخلاقی اولیه نسبت به سپردن مرگ و زندگی به دست الگوریتم‌ها نبود. با گذر زمان، وقتی کشتار دیجیتالی نهادینه شد و مقاومت درونی افسران شکست، طبیعی‌سازی خشونت الگوریتمیک آغاز شد. از این پس، قتل با هوش مصنوعی نه تنها غیرعادی نیست، بلکه به عنوان «پیشرفت نظامی» جشن گرفته می‌شود.

شکست ۷ اکتبر و محدودیت‌های فناوری

جرزالم پست به نکته‌ای مهم هم اشاره می‌کند: حمله حماس در ۷ اکتبر ۲۰۲۳ نشان داد که اتکای مطلق به فناوری بدون دانش انسانی کافی نیست. اسرائیل، علی‌رغم میلیارد‌ها دلار سرمایه‌گذاری در هوش مصنوعی و داده‌های بزرگ، نتوانست حمله‌ای را که در برابر چشمش آماده می‌شد، پیش‌بینی کند. این شکست بیانگر تناقض بنیادین است: هوش مصنوعی شاید بتواند داده‌ها را پردازش کند، اما قادر به درک زمینه اجتماعی و انسانی مقاومت نیست.

فناوری نمی‌تواند توضیح دهد چرا مردمی که دهه‌ها تحت محاصره و اشغال زندگی کرده‌اند، مقاومت می‌کنند. الگوریتم‌ها شاید تونل‌ها و راکت‌ها را شناسایی کنند، اما روح مبارزه انسانی را نمی‌توانند بسنجند. این همان چیزی است که اسرائیل حتی با پیشرفته‌ترین فناوری‌ها هم قادر به مهار آن نخواهد بود.

میراثی خطرناک برای منطقه و جهان

امروز اسرائیل خود را پیشگام «اولین جنگ هوش مصنوعی» می‌نامد. این روایت اگرچه برای حامیان تل‌آویو نشانه‌ای از برتری فناورانه است، اما برای منطقه و جهان هشداری جدی است. اگر کشتار الگوریتمیک به عنوان «جنگ اخلاقی» معرفی و پذیرفته شود، آنگاه در آینده شاهد موجی از جنگ‌های مشابه خواهیم بود؛ جنگ‌هایی که در آن انسانیت بیش از پیش حذف می‌شود و تصمیم به مرگ و زندگی به دست کُدها و مدل‌های آماری سپرده می‌شود.

از این منظر، میراث ارتش اسرائیل چیزی جز خطر جهانی‌سازی خشونت دیجیتال نیست. همان‌طور که تسلیحات هسته‌ای با بمباران هیروشیما و ناکازاکی مشروعیت یافتند و سپس به مسابقه تسلیحاتی بدل شدند، هوش مصنوعی نظامی اسرائیل نیز می‌تواند الگویی خطرناک برای دیگر کشور‌ها شود. نتیجه چیزی جز مسابقه‌ای تازه برای تولید ماشین‌های کشتار دقیق‌تر و سریع‌تر نخواهد بود.

فانتزی «جنگ اخلاقی» فرو می‌ریزد

ادعای اسرائیل مبنی بر اینکه هوش مصنوعی جنگ را «اخلاقی‌تر» می‌کند، چیزی جز یک فانتزی تبلیغاتی نیست. واقعیت میدانی در غزه، لبنان و دیگر جبهه‌ها چیز دیگری می‌گوید: هزاران غیرنظامی کشته شده‌اند، زیرساخت‌های حیاتی نابود شده و نسل‌های تازه‌ای از آوارگان شکل گرفته‌اند.

دیجیتالی کردن کشتار، خشونت را اخلاقی‌تر نمی‌کند؛ بلکه آن را پنهان‌تر و سردتر می‌سازد. پشت هر «هدف» یک انسان است، یک خانواده، یک زندگی. هوش مصنوعی شاید بتواند داده‌ها را پردازش کند، اما نمی‌تواند ارزش جان انسان‌ها را درک کند.

به همین دلیل، هرچند ارتش اسرائیل می‌کوشد خود را به‌عنوان پیشگام جنگ‌های آینده معرفی کند، اما در حقیقت تنها کاری که انجام داده، تبدیل آپارتاید و اشغالگری به یک پروژه فناورانه پر زرق و برق است. آینده‌ای که آنها وعده می‌دهند نه آینده امنیت و اخلاق، بلکه آینده‌ای است که در آن جنگ به یک صنعت دیجیتال بی‌پایان بدل می‌شود.

 

منبع خبر "افکار نیوز" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.