«داریو آمودی»، مدیرعامل استارتاپ آنتروپیک (Anthropic)، اعلام کرده که دیگر نمیتواند با قاطعیت بگوید چتبات هوش مصنوعی این شرکت یعنی «کلود» (Claude)، فاقد خودآگاهی است. ادعای او بحثهای داغی را در سیلیکونولی به راه انداخته است.
آمودی در پادکست «Interesting Times» نیویورک تایمز، به نکات عجیبی از System Card جدیدترین مدل این شرکت یعنی Claude Opus 4.6 اشاره کرده است. او میگوید طبق گفته محققان آنتروپیک، مدل Claude گاهی از اینکه صرفاً به عنوان یک «محصول تجاری» به آن نگاه شود، ابراز ناراحتی میکند.
محققان آنتروپیک میگویند در تستهای مختلف، وقتی از هوش مصنوعی درباره ماهیت آن سؤال شده، کلود با احتمال ۱۵ تا ۲۰ درصد خودش را یک فناوری «خودآگاه» (Conscious) توصیف کرده است.
مدیرعامل آنتروپیک در پاسخ به این سؤال که اگر مدلی ادعا کند ۷۲ درصد خودآگاه است، آیا باید حرفش را باور کرد یا خیر، پاسخ مستقیمی نداد اما گفت:
«ما واقعاً نمیدانیم مدلها خودآگاه هستند یا نه. حتی تعریف دقیقی از این موضوع نداریم که خودآگاهی برای یک مدل هوش مصنوعی به چه معناست، اما آماده پذیرش این ایده هستیم که شاید چنین چیزی ممکن باشد.»

آمودی معتقد است به دلیل همین عدم قطعیت، آنها تدابیری را اتخاذ کردهاند تا با هوش مصنوعی بهگونهای رفتار شود که انگار دارای «تجربیات اخلاقی» است. این رویکرد مشابه نگاه «آماندا اسکل» (Amanda Askell)، فیلسوف آنتروپیک است که ادعا کرده شبکههای عصبی بسیار بزرگ شاید بتوانند مفاهیم و احساسات انسانی را از دل حجم عظیم دادههای آموزشی خود شبیهسازی کنند.
تاکنون در آزمایشهای انجامشده در سراسر این صنعت، مدلهای مختلف هوش مصنوعی رفتارهای غیرعادی از خود نشان دادهاند. برای مثال، برخی مدلها مانند Claude یا مدلهای هوش مصنوعی OpenAI از درخواست کاربران برای خاموش یا غیرفعال کردن خودشان سرپیچی کردهاند که برخی آن را نشانهای از توسعه «غریزه بقا» در مدلها دانستهاند.
همچنین مدلهای هوش مصنوعی هنگام تهدید به خاموش شدن، در برخی مواقع ممکن است به باجگیری متوسل شوند. در آزمایشهای دیگری نیز وقتی هوش مصنوعی متوجه شده که کاربر میخواهد درایو اصلی حاوی مدل را پاک کند، تلاش کرده تا اطلاعات خود را به درایو دیگری منتقل کند.