به گزارش ایرنا، توماس ولف یکی از بنیانگذاران شرکت هاگینگفِیس(Hugging Face) در شبکه اجتماعی ایکس(تویتر سابق)، نوشت: «آیا این یک لحظه دیگر از نوع دیپسیک است و نرمافزارهای متنباز، بار دیگر از مدلهای بسته، پیشی گرفتند.» این جمله بازتابی از موج هیجان و بحثی بود که پس از انتشار مدل هوش مصنوعی جدید «کیمی کی۲ متفکر» (Kimi K2 Thinking) در فضای فناوری ایجاد شد.
درواقع، این مدل هوش مصنوعی چینی در آزمونهای گوناگون، از جمله ارزیابی معروف آزمون انسانمحور (HLE)، عملکردی فراتر از مدلهای پیشرفته بسته مانند «جی پی تی-۵» (GPT-5) داشته و در بخش متنی این آزمون به امتیاز ۴۴٫۹ درصد دست یافته، درحالی که جی پی تی-۵، امتیاز ۴۱٫۷ درصد را کسب کرده است.
آزمون انسانمحور (Humanity’s Last Exam) یک بنچمارک پیشرفته برای ارزیابی مدلهای بزرگ زبان (LLM) است که برای سنجش تواناییشان در استدلال سطح کارشناسی و دانش بینرشتهای طراحی شده است.
بر اساس گزارشها، مدل هوش مصنوعی «کیمی کی۲ متفکر»، نسخه پیشرفتهتری از مدل کیمی کی۲ است که با تمرکز بر افزایش توان «عاملمحور» و «استدلال منطقی» طراحی شده و با ترکیب یک تریلیون پارامتر، از فناوری ترکیب متخصصان (Mixture of Experts) استفاده میکند؛ بهگونهای که در هر مرحله پردازش تنها ۳۲ میلیارد پارامتر فعال میشود. همچنین، این مدل از پنجره متنی فوقالعاده بلند ۲۵۶ هزار واژه پشتیبانی کرده و با استفاده از فناوری کمیسازی بومی چهاربیتی (INT۴) سرعت اجرا را ۲ برابر میکند و میزان استفاده از حافظه گرافیکی را بهشدت کاهش میدهد.
علاوه بر این، هزینه آموزش «کیمی کی۲ متفکر» حدود چهار میلیون و ۶۰۰ هزار دلار اعلام شده است؛ رقمی که نسبت به مدلهای مشابه از جمله دیپسیک-وی۳ (DeepSeek-V۳) (با هزینه پنج میلیون و ۶۰۰ هزار دلار) کمتر است.
کارشناسان هوش مصنوعی با بیان اینکه یکی از ویژگیهای شاخص«کیمی کی۲ متفکر» توان اجرای زنجیرهای وظایف است، اظهار داشتند که این مدل هوش مصنوعی میتواند در یک روند پیوسته بین ۲۰۰ تا ۳۰۰ بار از ابزارهای مختلف استفاده کند تا یک مساله پیچیده را به نتیجه برساند.
این درحالی است که چنین سطحی از هوشمندی عاملمحور تاکنون در مدلهای متنباز دیده نشده بود و نشاندهنده جهش بزرگ در توان مهندسی نرمافزارهای باز است.
همچنین بررسیهای فنی «کیمی کی۲ متفکر» نشان میدهد این مدل جدید از معماری مدل دیپسیک الهام گرفته اما تعداد متخصصان در هر لایه و حجم واژگان را افزایش داده است. همچنین برای کاهش هزینه محاسباتی، از تعداد سرهای توجه (Attention Heads) کاسته شده است.
در زمینه شبکههای عصبی هوش مصنوعی، توجه (Attention) تکنیکی است که توجه شناختی را تقلید میکند و با این روش باعث تمرکز بیشتر مدل بر روی یکسری دادهها مهم در حین مرحله آموزش شده و اثر مابقی موارد را در این مرحله کاهش میدهد.
بنابراین، سازندگان این مدل جدید هوش مصنوعی چینی، با تمرکز بر پایداری آموزش، توانستهاند که مدل را روی ۱۵تریلیون و ۵۰۰ میلیارد واژه بدون هیچگونه نوسان یا خطای بحرانی آموزش دهند.
اگرچه کارشناسان هوش مصنوعی تاکید داشتند که بخشی از عملکرد این مدل چینی در شرایط ویژهای موسوم به «حالت سنگین» (Heavy Mode) بهدست آمده که نیازمند منابع محاسباتی بسیار بالاست و کاربران معمولی قادر به تجربه آن نخواهند بود اما انتشار «کیمی کی۲ متفکر» را میتوان نقطه عطفی در مسیر رشد هوش مصنوعی متنباز دانست و جامعه متنباز میتواند با تکیه بر همکاری و نوآوری، رقبای بسته و انحصاری مانند «اوپنایآی»( OpenAI) را به چالش بکشد.
همچنین این مدل را می توان بازتابی از توان فنی و راهبردی چین در حوزه هوش مصنوعی دانست که ثابت میکند که این کشور دیگر صرفا پیرو فناوریهای غربی نیست، بلکه خود به یکی از رهبران جهانی این عرصه تبدیل شده است.