مدل PaLM 2 گوگل نسبت به نسخه قبلی از تقریباً پنج برابر داده‌های متنی بیشتر برای آموزش استفاده می‌کند

دیجیاتو جمعه 29 اردیبهشت 1402 - 08:31
مدل PaLM 2 براساس 3.6 تریلیون توکن آموزش دیده شده و این میزان برای نسخه قبلی 780 میلیارد توکن است. The post مدل PaLM 2 گوگل نسبت به نسخه قبلی از تقریباً پنج برابر داده‌های متنی بیشتر برای آموزش استفاده می‌کند appeared first on دیجیاتو.

مدل جدید زبان بزرگ (LLM) گوگل، یعنی PaLM 2 که هفته گذشته توسط غول فناوری معرفی شد، در مقایسه با نسخه قبلی خود از سال 2022 تقریباً از پنج برابر داده‌های آموزشی بیشتری استفاده می‌کند تا بتواند در انجام وظایفی مانند کدنویسی، ریاضی و نوشتن خلاقانه‌تر عمل کند.

براساس اسناد داخلی که توسط CNBC مشاهده شده، مدل PaLM 2 که در کنفرانس گوگل I/O معرفی شد، براساس 3.6 تریلیون توکن آموزش دیده است. توکن‌ها که عملاً رشته‌ای از کلمات هستند، یک عنصر مهم برای آموزش LLMها محسوب می‌شوند، زیرا مدل‌های هوش مصنوعی از طریق آن‌ها می‌توانند کلمات بعدی را پیش‌بینی کنند.

نسخه قبلی PALM گوگل که مخفف Pathways Language Model است، در سال 2022 منتشر شد و با 780 میلیارد توکن آموزش داده شده بود.

در حالی که گوگل مشتاق است تا قدرت فناوری هوش مصنوعی خود و نحوه تعبیه شدن آن در جستجو، ایمیل‌ها، پردازش کلمه و صفحات گسترده را نشان دهد، اما تمایلی به انتشار وسعت یا سایر جزئیات مربوط به داده‌های آموزشی آن را ندارد. OpenAI، خالق ChatGPT نیز مشخصات آخرین LLM خود با نام GPT-4 را مخفی نگه داشته است.

دلیل اصلی عدم افشای این اطلاعات، ماهیت رقابتی مدل‌های هوش مصنوعی آن‌ها است. گوگل و OpenAI هم‌اکنون در رقابت با یکدیگر هستند تا بتوانند کاربرانی را به مدل‌های زبان بزرگ خود جذب کنند که قصد دارند به جای استفاده از موتورهای جستجو سنتی، از چت‌بات‌های مکالمه محور آن‌ها استفاده کنند.

گوگل در زمان معرفی PaLM 2 ادعا کرد که مدل جدید بسیار کوچک‌تر از قبل است، به این معنی که فناوری غول موتور جستجو در عین انجام وظایف پیچیده‌تر، کارآمدتر شده است. طبق اسناد داخلی، PaLM 2 بر روی 340 میلیارد پارامتر آموزش داده شده که پیچیدگی این مدل را نشان می‌دهد. نسخه اولیه PaLM روی 540 میلیارد پارامتر آموزش داده شده بود.

همچنین گوگل در پست وبلاگ خود در مورد PaLM 2 گفت که این مدل از «تکنیک جدیدی» به‌نام «مقیاس‌سازی بهینه محاسبه» استفاده می‌کند که باعث می‌شود LLM «با عملکرد کلی بهتر، از جمله برداشت سریع‌تر، پارامترهای کمتر برای ارائه و هزینه کمتر برای انجام خدمات، کارآمدتر شود».

منبع خبر "دیجیاتو" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.