بر اساس این پژوهش و به نقل از مجله اپل، چتجیپیتی در آزمونهای معیاری که برای سنجش تواناییهای انسانی در زمینههای مختلف طراحی شده بودند، شرکت کرد. این آزمونها شامل استدلال حقوقی به سبک آزمون وکالت، تحلیل پروندههای پزشکی، پیشبینیهای مالی، چالشهای برنامهنویسی و نگارش فنی بود. نتایج نشان داد که این مدل نه تنها توانایی حفظ اطلاعات را دارد، بلکه قادر است به صورت کاربردی استدلال کند و اطلاعات پیچیده را ترکیب کرده و توضیحاتی ارائه دهد که از نظر حرفهای قابل قبول باشند. البته عملکرد چتجیپیتی در برخی حوزهها دقیقتر و ثابتتر از برخی دیگر بود.
در حوزههای خاص، چتجیپیتی توانسته است وظایفی مانند تدوین قراردادهای حقوقی، تحلیل پروندههای پزشکی با ارائه گزینههای درمانی (هرچند با تاکید بر جایگزین نبودن پزشک)، تحلیل گزارشهای مالی، نوشتن و رفع اشکال کدهای برنامهنویسی و تهیه برنامههای درسی و آموزش در رشتههای مختلف را با کیفیت مناسبی انجام دهد.
ادعای اینکه چتجیپیتی میتواند در بسیاری از حوزهها با متخصصان انسانی رقابت کند؛ احتمالا بحثهای جاری درباره خودکارسازی، جایگزینی شغلها و نقش هوش مصنوعی در تصمیمگیریهای حساس را تشدید کند. طرفداران این فناوری فرصتهایی برای افزایش کارآیی و دموکراتیزه شدن دانش میبینند که به افراد و کسبوکارهای کوچک امکان دسترسی به تخصص را با هزینهای بسیار کمتر میدهد.
منتقدان هشدار میدهند که هوش مصنوعی ممکن است در مواجهه با شرایط خاص، نکات ظریف متنی و قضاوتهای اخلاقی دچار اشتباه شود. مواردی که متخصصان انسانی در آنها مهارت دارند و خطا در برخی حوزهها مثل پزشکی و حقوق میتواند پیامدهای جدی داشته باشد. همچنین، بحثهای مربوط به مسوولیتپذیری و تنظیم مقررات در مورد استفاده از هوش مصنوعی به عنوان منبع تخصصی، اهمیت زیادی پیدا کرده است؛ بهخصوص اینکه در صورت اشتباه هوش مصنوعی، تعیین مسوولیت چه کسی خواهد بود.
اوپنایآی با تاکید بر اینکه هدف از توسعه این مدلها کمک به قضاوت انسانی است نه جایگزینی آن، اعلام کرده که هوش مصنوعی میتواند به عنوان یک ابزار کمکی، کارهای تکراری را انجام داده و تحلیلهای سریع ارائه کند، اما تصمیمگیری نهایی باید همچنان به دست انسانها باشد.
در حالی این دستاوردها اعلام میشود که سایر شرکتهای مطرح در حوزه هوش مصنوعی نیز مانند گوگل با مدل جم نای و آنتروپیک با مدل کلود، موفقیتهای مشابهی کسب کردهاند و شرکت ایکسایآی نیز مدل گروک را بهعنوان نزدیک به هوش مصنوعی عمومی (AGI) معرفی میکند. اگرچه تا رسیدن به هوش مصنوعی عمومی واقعی سالها فاصله دارد، اما این پیشرفتها نشاندهنده حرکت هوش مصنوعی تولیدی به سمت تواناییهای استدلالی گستردهتر است. منتقدان معتقدند که ارزیابی هوش مصنوعی بر اساس سوالات آزمون یا وظایف استاندارد ممکن است واقعیت پیچیده عمل حرفهای را منعکس نکند.
یک وکیل یا پزشک صرفا به سوالات پاسخ نمیدهد، بلکه روابط با مشتری، ملاحظات اخلاقی و متغیرهای غیرقابل پیشبینی دنیای واقعی را نیز در نظر میگیرد. با این حال، این پژوهش به آیندهای اشاره دارد که در آن هوش مصنوعی به ابزاری پیشفرض برای حمایت حرفهای تبدیل میشود و سوالات فوری درباره مجوزها، مسوولیتپذیری و مقررات را مطرح میکند. اگر هوش مصنوعی نظر تخصصی بدهد، وقتی که آن توصیه اشتباه باشد، چه کسی مسوول است؟
در مجموع، به نظر میرسد که مطالعه اوپنایآی شواهد جدیدی به روند رو به رشد توانمندیهای هوش مصنوعی اضافه کرده است. جایی که این سیستمها دیگر صرفا ابزارهایی برای افزایش بهرهوری یا سرگرمی نیستند، بلکه بهطور فزایندهای در قلمروی فکریای وارد میشوند که پیشتر در انحصار متخصصان آموزشدیده بود.