عصر ایران؛ محمد حسن گودرزی- در دوران تحولآفرین کنونی، هوش مصنوعی نهتنها ابزار جدیدی در خدمت انسانهاست، بلکه به موضوعی بنیادین در فلسفه، اخلاق و آینده بشریت تبدیل شده است.
پرسشهایی مانند: آیا میتوان به تصمیمات هوش مصنوعی اعتماد کرد؟ چه تأثیری بر عدالت، برابری و کرامت انسانی خواهد داشت؟ و نقش انسان در جهانی که ماشینها قدرت تحلیل و تصمیمگیری بیشتری دارند چیست؟ همگی دغدغههایی هستند که نیاز به تأملی عمیق دارند.
بن لوینشتاین (Ben Levinstein)، استاد فلسفه در دانشگاه ایلینوی، با تخصص در معرفتشناسی، نظریه تصمیمگیری و اخلاق هوش مصنوعی، یکی از متفکرانی است که به شکلی جدی به این پرسشها پرداخته است.
تحقیقات فعلی او بر روی مسئله "همراستایی هوش مصنوعی" متمرکز است؛ یعنی اطمینان از اینکه سیستمهای هوش مصنوعی پیشرفته با ارزشها و اهداف انسانی هماهنگ باشند.
در این گفتوگو، تلاش داریم از نگاه او به تأثیرات مستقیم و غیرمستقیم هوش مصنوعی بر زندگی روزمره، فرصتهای آن برای پیشرفت بشر و همچنین خطرات احتمالیاش، بهویژه در زمینه همراستایی ارزشهای انسانی با اهداف ماشینها، بپردازیم.
در چند سال گذشته، هوش مصنوعی به یک روند مهم در زندگی بشر تبدیل شده است. چه تأثیر خاصی هوش مصنوعی بر زندگی روزمره مردم عادی داشته یا خواهد داشت؟
تأثیر مستقیم: مردم هماکنون از مدلهای زبانی بزرگ مانند ChatGPT برای نوشتن ایمیل، تحقیق درباره موضوعات مختلف، دریافت توضیحات و حل مشکلات روزمره مانند برنامهریزی وعدههای غذایی یا کمک در برنامهنویسی استفاده میکنند.
تأثیر غیرمستقیم: حتی اگر کسی هرگز از یک ابزار هوش مصنوعی استفاده نکند، روزانه تحت تأثیر آن قرار دارد. محتوایی که در شبکههای اجتماعی میبیند توسط هوش مصنوعی انتخاب و شخصیسازی شده است، شرکتها از هوش مصنوعی برای تنظیم تبلیغات و قیمتگذاری استفاده میکنند و خدمات مشتری بهطور فزایندهای به سیستمهای هوش مصنوعی متکی هستند.
اختلال در مشاغل حرفهای: کارگران یقهسفید (مشاغل اداری، مدیریتی) با بزرگترین تغییرات فوری روبه رو هستند. هوش مصنوعی در حال خودکارسازی بخشهایی از نوشتن، تحلیل و کارهای تحقیقاتی است. هنوز بسیاری از مشاغل را کاملاً جایگزین نکرده، اما در حال تغییر نحوه انجام کار و مهارتهای مورد نیاز است. در آینده نزدیک، بسیاری از مشاغل یقهسفید یا ناپدید میشوند یا دامنۀ کاری آنها تغییر خواهد کرد.
آیا هوش مصنوعی را تهدیدی برای فرصتهای شغلی انسانی میدانید؟ اگر بله، در چه حوزههایی؟ کدام حوزهها کمتر یا اصلاً تحت تأثیر قرار نخواهند گرفت؟
بله، این تهدید واقعی است، اما پیچیدهتر از یک جایگزینی ساده است. بسیاری از مشاغل تقویت خواهند شد، نه حذف؛ اما این هم به معنای نیاز به نیروی انسانی کمتر برای همان مقدار کار است. در گذشته، فناوریها مشاغل انسانی را جایگزین نمیکردند، بلکه نقش انسانها را تغییر و بهرهوری آنها را افزایش میدادند. اما با پیشرفت هوش مصنوعی به سمت هوش عمومی، (هوش مصنوعی) میتواند در طیف فزایندهای از وظایف از انسانها پیشی بگیرد.
کارگران دانشی که وظایف آنها دیجیتالیسازی شده مانند تحلیلگران، وکلای تازهکار، نویسندگان محتوا، برنامهنویسان ابتدایی، مشاوران مالی با وظایف تکراری بیشتر از هر شغل دیگری در خطر هستند.
اگر شغل شما عمدتاً شامل دستکاری اطلاعات روی یک کامپیوتر است، در معرض خطر هستید. برنامهنویسان تازهکار بیشتر از همه آسیبپذیرند، چون هوش مصنوعی به سرعت در حال یادگیری کدنویسی در سطحی فراتر از انسان است.
اما حتی زمانی که هوش مصنوعی از نظر فنی برتر شود، برخی نقشها همچنان ارزشمند میمانند چون مردم به تعامل انسانی نیاز دارند؛ مانند درمانگران، روحانیون، معلمان، مشاغل مرتبط با فروش، ارایهدهندگان خدمات درمانی. با این حال، هوش مصنوعی همچنان بخشی از بازار را تصاحب خواهد کرد.
مشاغل فنی نیازمند حل مسئله به صورت فیزیکی، کارهایی با مهارتهای دستی پیچیده، کارهای خلاقانه که در آنها دیدگاه انسانی محصول اصلی است، و نقشهایی که بر اعتماد عمیق شخصی متکی هستند ایمنترین حوزهها در مقابل هوش مصنوعی هستند. این اختلال اکنون در مشاغل یقهسفید آغاز شده، نه کارخانهها. این الگوی رایج را معکوس میکند که در آن اتوماسیون ابتدا مشاغل یقهآبی(مشاغل فیزیکی مانند کارگران) را هدف قرار میداد. تغییرات وابسته به رباتها سالها زمان میبرد.
برخی معتقدند با گسترش استفاده از هوش مصنوعی، تعداد زیادی بیکار خواهیم داشت. نظر شما چیست؟
این احتمال واقعی است. اما باید به خاطر داشت که بیکاری در نتیجه توانایی تولید کالا و خدمات با هزینه کمتر و کارآمدتر خواهد بود. بنابراین، جامعه در کل ثروتمندتر و برخوردار از وفور امکانات خواهد شد.
چالش واقعی، کمبود نیست بلکه توزیع است. چگونه مردم عادی از این ثروت جدید بهرهمند میشوند؟ مالکیت سرمایه (سیستمهای هوش مصنوعی، داده، زیرساخت) ارزشمندتر از فروش نیروی کار خواهد شد. این منجر به تمرکز ثروت میشود مگر اینکه سیاستهای مناسبی اتخاذ کنیم. بنابراین، ممکن است در جهانی با وفور امکانات زندگی کنیم اما با نابرابری شدید، اگر اقدامی برای پیشگیری انجام ندهیم.
نقش دولتها و نهادهای نظارتی در کنترل و هدایت توسعه هوش مصنوعی چیست؟
دولتها چند نقش حیاتی دارند:
جلوگیری از سوءاستفاده خطرناک. هوش مصنوعی فناوری دوگانهاست. همان سیستمهایی که به تحقیقات پزشکی کمک میکنند میتوانند وارد کار سلاحسازی شوند. باید نظارت قوی برای جلوگیری از استفادههای مضر وجود داشته باشد.
پرهیز از مسابقه خطرناک: اکنون آمریکا، چین و دیگران در حال رقابت برای رسیدن به هوش عمومی مصنوعی هستند، که فشار برای نادیده گرفتن ایمنی را افزایش میدهد. همانطور که مسابقه تسلیحاتی هستهای در دوران جنگ سرد با توافقهای بینالمللی کنترل شد، باید برای هوش مصنوعی نیز چنین هماهنگیهایی ایجاد شود.
تضمین پاسخگویی: باید ساختارهای قانونی واضحی برای مسئولیتپذیری شرکتهای هوش مصنوعی و حتی شاید خود سیستمهای هوش مصنوعی وجود داشته باشد. وقتی هوش مصنوعی به کسی آسیب میزند، باید مسئولیت و جبران خسارت مشخص باشد.
توزیع عادلانه مزایا: اگر اقدامی نشود، مزایای هوش مصنوعی عمدتاً به صاحبان فناوری میرسد. دولتها باید سیاستهایی برای اطمینان از بهرهمندی مردم عادی از این رفاه ایجاد کنند، نه فقط شرکتهای فناوری و سهامدارانشان.
حفظ عاملیت انسانی با پیشرفت هوش مصنوعی: باید از انتخاب، کرامت و نقشهای معنادار انسانی محافظت کرد.
چالش اصلی این است که توسعه هوش مصنوعی جهانی است ولی حکومتها ملی هستند. همکاری بینالمللی ضروری است، اما فعلاً چنین همکاری وجود ندارد. این موضوع سرنوشتساز است. ما شاید در حال بازطراحی تمدن انسانی باشیم، و باید نهادهایی درخور این مسئولیت داشته باشیم.
آیا باید محدودیتهای اخلاقی یا قانونی برای استفاده از هوش مصنوعی در تصمیمات مهم (مثل وامدهی، اشتغال، پزشکی) وجود داشته باشد؟
مسئله اصلی ممنوعیت نیست، بلکه ایجاد تضمینهای درست است. شفافیت ضروری است. مردم باید بدانند که چه زمانی تصمیماتی درباره زندگیشان تحت تأثیر هوش مصنوعی گرفته میشود. اگر هوش مصنوعی از انسان دقیقتر و کمتعصبتر باشد، محدود کردن آن میتواند به ضرر مردم باشد. اما نمیتوان سیستمهای تأییدنشده را با عجله وارد تصمیمات پرخطر کرد.
هدف این است که از مزایای هوش مصنوعی استفاده کنیم ولی عاملیت انسانی را حفظ کنیم. مردم حق دارند بدانند تصمیمات مهم چگونه گرفته میشوند و وقتی اشتباهی رخ دهد، امکان پیگیری داشته باشند.
چگونه میتوان اطمینان حاصل کرد که هوش مصنوعی ارزشهای انسانی مانند عدالت، صداقت و کرامت انسانی را حفظ میکند؟
ما هنوز در حال یافتن پاسخ این سوال هستیم. این موضوع نگرانکننده است. روشهای فعلی ما ابتدایی هستند. ما سیستمهای هوش مصنوعی را از طریق آزمون و خطا آموزش میدهیم، به خروجیهایی را که انسانها میپسندند پاداش میدهیم، و سعی میکنیم بفهمیم که در ذهن آنها چه میگذرد اما اینها ابزارهای زمختی هستند.
ما در تلاشیم ارزشهای انسانی پیچیده را در سیستمهایی قرار دهیم که خودمان هنوز کاملاً نمیفهمیمشان. هر چه سیستمها قدرتمندتر میشوند، هم اهمیت و هم دشواری همراستا کردن آنها با ارزشهای انسانی بیشتر میشود.
یک سیستم فوقانسانی که در دستیابی به اهدافش بسیار مؤثر باشد اما با ارزشهای انسانی هماهنگ نباشد میتواند فاجعهبار باشد.
ما در حال پیشرفتهایی از طریق روشهای آموزشی بهتر، پژوهشهای ایمنی، ابزارهای تفسیرپذیری هستیم. اما ما در حال رقابت بین توانایی هوش مصنوعی و توانایی ما برای کنترل ایمن آن هستیم. این فقط در مورد تبعیض در استخدام یا از دست رفتن شغل نیست. ما در حال ایجاد سیستم هایی هستیم که می توانند تمدن بشری را تغییر شکل دهند یا حتی تهدید کنند.
ما باید پیش از استقرار هوش عمومی مصنوعی، و مخصوصاً هوش فوقهوشمند مصنوعی (Artificial Super Intelligence)، تحقیقات بسیار بیشتری درباره ایمنی و همراستایی انجام دهیم. رویکرد فعلی "اول بساز، بعد ایمنی را بررسی کن" فوقالعاده خطرناک است.
با استفاده فزاینده از هوش مصنوعی در فضای مجازی، آیا آیندهای بدون مرز بین واقعیت و تولیدات مصنوعی (مثل تصاویر و متنهای جعلی) در پیش داریم؟ راهحل چیست؟
بله، ما بهسوی جهانی پیش میرویم که در آن محتوای واقعی و تولیدشده توسط هوش مصنوعی قابل تشخیص نخواهد بود.
با این حال، راهحلهای فنی وجود دارد: واترمارکها، الگوریتمهای شناسایی، سیستمهای راستیآزمایی. اما این یک مسابقه تسلیحاتی است. واترمارکها قابل حذفاند، الگوریتمهای شناسایی از کیفیت تولید عقباند، و بازیگران بد (در حوزه هوش مصنوعی) قصدی برای برچسبگذاری جعلیات (تولید شده با هوش مصنوعی) خود ندارند.
مردم ممکن است به هیچ رسانهای اعتماد نکنند، که این باعث تردید گسترده درباره اطلاعات واقعی میشود. کلاهبرداریهای پیشرفته مبتنی بر هوش مصنوعی، افراد کمسوادتر در فناوری را هدف قرار خواهند داد. همانطور که این کارها در زمان حاضر هم میشود، ولی با ابزارهای بهتر و قانعکنندهتر.
نهادهای دموکراتیکی که بر حقیقت مشترک متکی بوده در خطر هستند. این چالشی جدی اما احتمالاً قابلحل است.
امیدها و نگرانیهای شخصی شما درباره آینده هوش مصنوعی چیست؟
بزرگترین نگرانی من، خطر وجودی است یعنی اینکه اگر مسیر اشتباهی برویم، پایان خوشی برای بشریت نخواهد داشت. این داستان علمیتخیلی نیست. بسیاری از محققان هوش مصنوعی این را نگرانی واقعی میدانند.
اما پتانسیلهای مثبت آن خارقالعاده است: شاید بتوانیم بر پیری غلبه کنیم، فقر را از بین ببریم، فضا را استعمار کنیم، بیماریها را درمان کنیم.
با این حال، حتی در سناریوهای خوشبینانه، نگران هدف و معنا برای انسانها هستم. اگر هوش مصنوعی در تقریباً همه چیز بهتر از ما شود—علم، هنر، حتی تعاملات انسانی—چه نقشی برای ما باقی میماند؟
گاهی تصور میکنم مثل این است که در یک باغوحش آرام زندگی میکنیم. مراقبت میشویم، ولی بیاهمیت هستیم.
پیامدهای اجتماعی هم نگرانکنندهاند. چرا کسی باید به دیدگاه انسانی علاقهمند باشد وقتی هوش مصنوعی بینش برتری ارائه میدهد؟ روابط انسانی و تخصص ممکن است منسوخ شوند، حتی اگر نیازهای مادی ما برآورده شود.