مدل هوش مصنوعی گوگل جمینی
مدل هوش مصنوعی گوگل جمینی

معرفی کنترل استدلال هوش مصنوعی در Gemini 2.5 Flash توسط گوگل

نمایشگاه هوش مصنوعی و داده‌های بزرگ
نمایشگاه هوش مصنوعی و داده‌های بزرگ
داشوینجیت کور
داشوینجیت کور

گوگل یک مکانیسم کنترل استدلال هوش مصنوعی برای مدل Gemini 2.5 Flash خود معرفی کرده است که به توسعه‌دهندگان اجازه می‌دهد میزان توان پردازشی که سیستم برای حل مسئله صرف می‌کند را محدود کنند.

این ویژگی "بودجه تفکر" که در 17 آوریل منتشر شد، به یک چالش رو به رشد در صنعت پاسخ می‌دهد: مدل‌های پیشرفته هوش مصنوعی اغلب پرسش‌های ساده را بیش از حد تجزیه و تحلیل می‌کنند و منابع محاسباتی غیرضروری را مصرف می‌کنند و هزینه‌های عملیاتی و زیست‌محیطی را افزایش می‌دهند.

اگرچه انقلابی نیست، اما این توسعه گامی عملی در جهت رفع نگرانی‌های مربوط به کارایی است که با تبدیل شدن قابلیت‌های استدلال به یک استاندارد در نرم‌افزارهای تجاری هوش مصنوعی پدیدار شده‌اند.

این مکانیسم جدید، کالیبراسیون دقیق منابع پردازشی را قبل از تولید پاسخ‌ها امکان‌پذیر می‌کند و به طور بالقوه نحوه مدیریت تأثیرات مالی و زیست‌محیطی استقرار هوش مصنوعی توسط سازمان‌ها را تغییر می‌دهد.

تولسی دوشی، مدیر مدیریت محصول در جمینی، اذعان می‌کند: "این مدل بیش از حد فکر می‌کند." "برای درخواست‌های ساده، مدل بیشتر از آنچه نیاز است فکر می‌کند."

این اعتراف، چالشی را که مدل‌های استدلال پیشرفته با آن روبرو هستند، آشکار می‌کند - معادل استفاده از ماشین‌آلات صنعتی برای شکستن یک گردو.

تغییر به سمت قابلیت‌های استدلال، پیامدهای ناخواسته‌ای ایجاد کرده است. در حالی که مدل‌های زبانی بزرگ سنتی در درجه اول الگوهای موجود در داده‌های آموزشی را مطابقت می‌دهند، تکرارهای جدیدتر تلاش می‌کنند تا مسائل را به طور منطقی، گام به گام حل کنند. در حالی که این رویکرد نتایج بهتری را برای کارهای پیچیده به دست می‌دهد، اما هنگام رسیدگی به پرسش‌های ساده‌تر، ناکارآمدی قابل توجهی را به همراه دارد.

تعادل بین هزینه و عملکرد

پیامدهای مالی استدلال کنترل‌نشده هوش مصنوعی قابل توجه است. بر اساس مستندات فنی گوگل، هنگامی که استدلال کامل فعال می‌شود، تولید خروجی تقریباً شش برابر گران‌تر از پردازش استاندارد می‌شود. این ضریب هزینه، انگیزه قدرتمندی برای کنترل دقیق ایجاد می‌کند.

ناتان حبیب، مهندس Hugging Face که مدل‌های استدلال را مطالعه می‌کند، این مشکل را در سراسر صنعت بومی می‌داند. او به MIT Technology Review توضیح داد: "در عجله برای نشان دادن هوش مصنوعی هوشمندتر، شرکت‌ها به مدل‌های استدلال مانند چکش متوسل می‌شوند، حتی در جایی که هیچ میخی در دید نیست."

این اتلاف صرفاً تئوری نیست. حبیب نشان داد که چگونه یک مدل استدلال پیشرو، هنگام تلاش برای حل یک مسئله شیمی آلی، در یک حلقه بازگشتی گیر افتاد و صدها بار "صبر کن، اما..." را تکرار کرد - اساساً یک خرابی محاسباتی را تجربه کرد و منابع پردازشی را مصرف کرد.

کیت اولشوسکا، که مدل‌های Gemini را در DeepMind ارزیابی می‌کند، تأیید کرد که سیستم‌های گوگل گاهی اوقات مسائل مشابهی را تجربه می‌کنند و در حلقه‌هایی گیر می‌کنند که قدرت محاسباتی را بدون بهبود کیفیت پاسخ تخلیه می‌کنند.

مکانیسم کنترل دانه‌ای

کنترل استدلال هوش مصنوعی گوگل، درجه‌ای از دقت را برای توسعه‌دهندگان فراهم می‌کند. این سیستم طیف انعطاف‌پذیری را از صفر (حداقل استدلال) تا 24576 توکن "بودجه تفکر" ارائه می‌دهد - واحدهای محاسباتی که نشان‌دهنده پردازش داخلی مدل هستند. این رویکرد دانه‌ای امکان استقرار سفارشی‌سازی شده را بر اساس موارد استفاده خاص فراهم می‌کند.

جک ری، دانشمند ارشد تحقیقاتی در DeepMind، می‌گوید که تعریف سطوح استدلال بهینه همچنان چالش‌برانگیز است: "واقعاً سخت است که مرزی را تعیین کنیم که، چه کار کاملی در حال حاضر برای فکر کردن است."

تغییر فلسفه توسعه

معرفی کنترل استدلال هوش مصنوعی به طور بالقوه نشان‌دهنده تغییری در نحوه تکامل هوش مصنوعی است. از سال 2019، شرکت‌ها با ساخت مدل‌های بزرگ‌تر با پارامترها و داده‌های آموزشی بیشتر، به دنبال بهبود بوده‌اند. رویکرد گوگل مسیر جایگزینی را نشان می‌دهد که بر کارایی به جای مقیاس تمرکز دارد.

حبیب می‌گوید: "قوانین مقیاس‌بندی در حال جایگزینی هستند" و نشان می‌دهد که پیشرفت‌های آینده ممکن است از بهینه‌سازی فرآیندهای استدلال به جای گسترش مداوم اندازه مدل ناشی شوند.

پیامدهای زیست‌محیطی نیز به همان اندازه مهم هستند. با تکثیر مدل‌های استدلال، مصرف انرژی آنها به طور متناسب افزایش می‌یابد. تحقیقات نشان می‌دهد که استنتاج - تولید پاسخ‌های هوش مصنوعی - اکنون سهم بیشتری در ردپای کربن این فناوری نسبت به فرآیند آموزش اولیه دارد. مکانیسم کنترل استدلال گوگل یک عامل کاهش بالقوه برای این روند نگران‌کننده ارائه می‌دهد.

پویایی‌های رقابتی

گوگل به تنهایی فعالیت نمی‌کند. مدل "وزن باز" DeepSeek R1، که در اوایل سال جاری ظاهر شد، قابلیت‌های استدلال قدرتمندی را با هزینه‌های بالقوه کمتر نشان داد و باعث نوسانات بازار شد که گزارش شده است باعث نوسان تقریباً یک تریلیون دلاری در بازار سهام شد.

برخلاف رویکرد اختصاصی گوگل، DeepSeek تنظیمات داخلی خود را به طور عمومی در دسترس توسعه‌دهندگان قرار می‌دهد تا به صورت محلی پیاده‌سازی کنند.

علیرغم رقابت، مدیر ارشد فناوری گوگل DeepMind، کورای کاووکچواوغلو، معتقد است که مدل‌های اختصاصی مزایایی را در حوزه‌های تخصصی که نیاز به دقت استثنایی دارند، حفظ خواهند کرد: "کدنویسی، ریاضیات و امور مالی مواردی هستند که انتظار بالایی از مدل برای بسیار دقیق بودن، بسیار دقیق بودن و توانایی درک موقعیت‌های واقعاً پیچیده وجود دارد."

نشانه‌های بلوغ صنعت

توسعه کنترل استدلال هوش مصنوعی منعکس‌کننده صنعتی است که اکنون با محدودیت‌های عملی فراتر از معیارهای فنی روبرو است. در حالی که شرکت‌ها به پیشبرد قابلیت‌های استدلال ادامه می‌دهند، رویکرد گوگل واقعیتی مهم را تصدیق می‌کند: کارایی به اندازه عملکرد خام در برنامه‌های تجاری اهمیت دارد.

این ویژگی همچنین تنش‌ها بین پیشرفت‌های فناوری و نگرانی‌های پایداری را برجسته می‌کند. تابلوهای امتیازات ردیابی عملکرد مدل استدلال نشان می‌دهد که تکمیل یک کار واحد می‌تواند بیش از 200 دلار هزینه داشته باشد - و سوالاتی را در مورد مقیاس‌بندی چنین قابلیت‌هایی در محیط‌های تولیدی ایجاد می‌کند.

گوگل با اجازه دادن به توسعه‌دهندگان برای افزایش یا کاهش استدلال بر اساس نیاز واقعی، به هر دو جنبه مالی و زیست‌محیطی استقرار هوش مصنوعی رسیدگی می‌کند.

کاووکچواوغلو بیان می‌کند: "استدلال، قابلیت کلیدی است که هوش را می‌سازد." "لحظه‌ای که مدل شروع به فکر کردن می‌کند، نمایندگی مدل شروع شده است." این بیانیه هم وعده و هم چالش مدل‌های استدلال را آشکار می‌کند - استقلال آنها هم فرصت‌ها و هم چالش‌های مدیریت منابع را ایجاد می‌کند.

برای سازمان‌هایی که راه‌حل‌های هوش مصنوعی را مستقر می‌کنند، توانایی تنظیم دقیق بودجه‌های استدلال می‌تواند دسترسی به قابلیت‌های پیشرفته را در عین حفظ نظم عملیاتی، دموکراتیک کند.

گوگل ادعا می‌کند که Gemini 2.5 Flash "معیارهای قابل مقایسه‌ای را با سایر مدل‌های پیشرو با کسری از هزینه و اندازه ارائه می‌دهد" - یک پیشنهاد ارزشی که با توانایی بهینه‌سازی منابع استدلال برای برنامه‌های خاص تقویت می‌شود.

پیامدهای عملی

ویژگی کنترل استدلال هوش مصنوعی کاربردهای عملی فوری دارد. توسعه‌دهندگانی که برنامه‌های تجاری می‌سازند اکنون می‌توانند مبادلات آگاهانه‌ای بین عمق پردازش و هزینه‌های عملیاتی انجام دهند.

برای برنامه‌های ساده مانند پرسش‌های اساسی مشتری، تنظیمات حداقل استدلال منابع را حفظ می‌کند در حالی که همچنان از قابلیت‌های مدل استفاده می‌کند. برای تجزیه و تحلیل پیچیده که نیاز به درک عمیق دارد، ظرفیت استدلال کامل همچنان در دسترس است.

"صفحه" استدلال گوگل مکانیزمی برای ایجاد قطعیت هزینه در عین حفظ استانداردهای عملکرد فراهم می‌کند.

همچنین مشاهده کنید: Gemini 2.5: گوگل "هوشمندترین" مدل هوش مصنوعی خود را تا به امروز می‌پزد

می‌خواهید درباره هوش مصنوعی و داده‌های بزرگ از رهبران صنعت بیشتر بدانید؟ نمایشگاه هوش مصنوعی و داده‌های بزرگ را که در آمستردام، کالیفرنیا و لندن برگزار می‌شود، بررسی کنید. این رویداد جامع با سایر رویدادهای پیشرو از جمله کنفرانس اتوماسیون هوشمند، BlockX، هفته تحول دیجیتال و نمایشگاه امنیت سایبری و ابر برگزار می‌شود.

سایر رویدادهای فناوری سازمانی و وبینارهای آینده با پشتیبانی TechForge را اینجا کاوش کنید.

درباره نویسنده

داشوینجیت یک روزنامه‌نگار با تجربه در زمینه فناوری و تجارت است که مصمم به یافتن و تولید داستان برای روزنامه‌های آنلاین و چاپی است. او همچنین یک گزارشگر پارلمان با تجربه است که گاهی اوقات در صنایع سبک زندگی و هنر فعالیت می‌کند.