گوگل یک مکانیسم کنترل استدلال هوش مصنوعی برای مدل Gemini 2.5 Flash خود معرفی کرده است که به توسعهدهندگان اجازه میدهد میزان توان پردازشی که سیستم برای حل مسئله صرف میکند را محدود کنند.
این ویژگی "بودجه تفکر" که در 17 آوریل منتشر شد، به یک چالش رو به رشد در صنعت پاسخ میدهد: مدلهای پیشرفته هوش مصنوعی اغلب پرسشهای ساده را بیش از حد تجزیه و تحلیل میکنند و منابع محاسباتی غیرضروری را مصرف میکنند و هزینههای عملیاتی و زیستمحیطی را افزایش میدهند.
اگرچه انقلابی نیست، اما این توسعه گامی عملی در جهت رفع نگرانیهای مربوط به کارایی است که با تبدیل شدن قابلیتهای استدلال به یک استاندارد در نرمافزارهای تجاری هوش مصنوعی پدیدار شدهاند.
این مکانیسم جدید، کالیبراسیون دقیق منابع پردازشی را قبل از تولید پاسخها امکانپذیر میکند و به طور بالقوه نحوه مدیریت تأثیرات مالی و زیستمحیطی استقرار هوش مصنوعی توسط سازمانها را تغییر میدهد.
تولسی دوشی، مدیر مدیریت محصول در جمینی، اذعان میکند: "این مدل بیش از حد فکر میکند." "برای درخواستهای ساده، مدل بیشتر از آنچه نیاز است فکر میکند."
این اعتراف، چالشی را که مدلهای استدلال پیشرفته با آن روبرو هستند، آشکار میکند - معادل استفاده از ماشینآلات صنعتی برای شکستن یک گردو.
تغییر به سمت قابلیتهای استدلال، پیامدهای ناخواستهای ایجاد کرده است. در حالی که مدلهای زبانی بزرگ سنتی در درجه اول الگوهای موجود در دادههای آموزشی را مطابقت میدهند، تکرارهای جدیدتر تلاش میکنند تا مسائل را به طور منطقی، گام به گام حل کنند. در حالی که این رویکرد نتایج بهتری را برای کارهای پیچیده به دست میدهد، اما هنگام رسیدگی به پرسشهای سادهتر، ناکارآمدی قابل توجهی را به همراه دارد.
تعادل بین هزینه و عملکرد
پیامدهای مالی استدلال کنترلنشده هوش مصنوعی قابل توجه است. بر اساس مستندات فنی گوگل، هنگامی که استدلال کامل فعال میشود، تولید خروجی تقریباً شش برابر گرانتر از پردازش استاندارد میشود. این ضریب هزینه، انگیزه قدرتمندی برای کنترل دقیق ایجاد میکند.
ناتان حبیب، مهندس Hugging Face که مدلهای استدلال را مطالعه میکند، این مشکل را در سراسر صنعت بومی میداند. او به MIT Technology Review توضیح داد: "در عجله برای نشان دادن هوش مصنوعی هوشمندتر، شرکتها به مدلهای استدلال مانند چکش متوسل میشوند، حتی در جایی که هیچ میخی در دید نیست."
این اتلاف صرفاً تئوری نیست. حبیب نشان داد که چگونه یک مدل استدلال پیشرو، هنگام تلاش برای حل یک مسئله شیمی آلی، در یک حلقه بازگشتی گیر افتاد و صدها بار "صبر کن، اما..." را تکرار کرد - اساساً یک خرابی محاسباتی را تجربه کرد و منابع پردازشی را مصرف کرد.
کیت اولشوسکا، که مدلهای Gemini را در DeepMind ارزیابی میکند، تأیید کرد که سیستمهای گوگل گاهی اوقات مسائل مشابهی را تجربه میکنند و در حلقههایی گیر میکنند که قدرت محاسباتی را بدون بهبود کیفیت پاسخ تخلیه میکنند.
مکانیسم کنترل دانهای
کنترل استدلال هوش مصنوعی گوگل، درجهای از دقت را برای توسعهدهندگان فراهم میکند. این سیستم طیف انعطافپذیری را از صفر (حداقل استدلال) تا 24576 توکن "بودجه تفکر" ارائه میدهد - واحدهای محاسباتی که نشاندهنده پردازش داخلی مدل هستند. این رویکرد دانهای امکان استقرار سفارشیسازی شده را بر اساس موارد استفاده خاص فراهم میکند.
جک ری، دانشمند ارشد تحقیقاتی در DeepMind، میگوید که تعریف سطوح استدلال بهینه همچنان چالشبرانگیز است: "واقعاً سخت است که مرزی را تعیین کنیم که، چه کار کاملی در حال حاضر برای فکر کردن است."
تغییر فلسفه توسعه
معرفی کنترل استدلال هوش مصنوعی به طور بالقوه نشاندهنده تغییری در نحوه تکامل هوش مصنوعی است. از سال 2019، شرکتها با ساخت مدلهای بزرگتر با پارامترها و دادههای آموزشی بیشتر، به دنبال بهبود بودهاند. رویکرد گوگل مسیر جایگزینی را نشان میدهد که بر کارایی به جای مقیاس تمرکز دارد.
حبیب میگوید: "قوانین مقیاسبندی در حال جایگزینی هستند" و نشان میدهد که پیشرفتهای آینده ممکن است از بهینهسازی فرآیندهای استدلال به جای گسترش مداوم اندازه مدل ناشی شوند.
پیامدهای زیستمحیطی نیز به همان اندازه مهم هستند. با تکثیر مدلهای استدلال، مصرف انرژی آنها به طور متناسب افزایش مییابد. تحقیقات نشان میدهد که استنتاج - تولید پاسخهای هوش مصنوعی - اکنون سهم بیشتری در ردپای کربن این فناوری نسبت به فرآیند آموزش اولیه دارد. مکانیسم کنترل استدلال گوگل یک عامل کاهش بالقوه برای این روند نگرانکننده ارائه میدهد.
پویاییهای رقابتی
گوگل به تنهایی فعالیت نمیکند. مدل "وزن باز" DeepSeek R1، که در اوایل سال جاری ظاهر شد، قابلیتهای استدلال قدرتمندی را با هزینههای بالقوه کمتر نشان داد و باعث نوسانات بازار شد که گزارش شده است باعث نوسان تقریباً یک تریلیون دلاری در بازار سهام شد.
برخلاف رویکرد اختصاصی گوگل، DeepSeek تنظیمات داخلی خود را به طور عمومی در دسترس توسعهدهندگان قرار میدهد تا به صورت محلی پیادهسازی کنند.
علیرغم رقابت، مدیر ارشد فناوری گوگل DeepMind، کورای کاووکچواوغلو، معتقد است که مدلهای اختصاصی مزایایی را در حوزههای تخصصی که نیاز به دقت استثنایی دارند، حفظ خواهند کرد: "کدنویسی، ریاضیات و امور مالی مواردی هستند که انتظار بالایی از مدل برای بسیار دقیق بودن، بسیار دقیق بودن و توانایی درک موقعیتهای واقعاً پیچیده وجود دارد."
نشانههای بلوغ صنعت
توسعه کنترل استدلال هوش مصنوعی منعکسکننده صنعتی است که اکنون با محدودیتهای عملی فراتر از معیارهای فنی روبرو است. در حالی که شرکتها به پیشبرد قابلیتهای استدلال ادامه میدهند، رویکرد گوگل واقعیتی مهم را تصدیق میکند: کارایی به اندازه عملکرد خام در برنامههای تجاری اهمیت دارد.
این ویژگی همچنین تنشها بین پیشرفتهای فناوری و نگرانیهای پایداری را برجسته میکند. تابلوهای امتیازات ردیابی عملکرد مدل استدلال نشان میدهد که تکمیل یک کار واحد میتواند بیش از 200 دلار هزینه داشته باشد - و سوالاتی را در مورد مقیاسبندی چنین قابلیتهایی در محیطهای تولیدی ایجاد میکند.
گوگل با اجازه دادن به توسعهدهندگان برای افزایش یا کاهش استدلال بر اساس نیاز واقعی، به هر دو جنبه مالی و زیستمحیطی استقرار هوش مصنوعی رسیدگی میکند.
کاووکچواوغلو بیان میکند: "استدلال، قابلیت کلیدی است که هوش را میسازد." "لحظهای که مدل شروع به فکر کردن میکند، نمایندگی مدل شروع شده است." این بیانیه هم وعده و هم چالش مدلهای استدلال را آشکار میکند - استقلال آنها هم فرصتها و هم چالشهای مدیریت منابع را ایجاد میکند.
برای سازمانهایی که راهحلهای هوش مصنوعی را مستقر میکنند، توانایی تنظیم دقیق بودجههای استدلال میتواند دسترسی به قابلیتهای پیشرفته را در عین حفظ نظم عملیاتی، دموکراتیک کند.
گوگل ادعا میکند که Gemini 2.5 Flash "معیارهای قابل مقایسهای را با سایر مدلهای پیشرو با کسری از هزینه و اندازه ارائه میدهد" - یک پیشنهاد ارزشی که با توانایی بهینهسازی منابع استدلال برای برنامههای خاص تقویت میشود.
پیامدهای عملی
ویژگی کنترل استدلال هوش مصنوعی کاربردهای عملی فوری دارد. توسعهدهندگانی که برنامههای تجاری میسازند اکنون میتوانند مبادلات آگاهانهای بین عمق پردازش و هزینههای عملیاتی انجام دهند.
برای برنامههای ساده مانند پرسشهای اساسی مشتری، تنظیمات حداقل استدلال منابع را حفظ میکند در حالی که همچنان از قابلیتهای مدل استفاده میکند. برای تجزیه و تحلیل پیچیده که نیاز به درک عمیق دارد، ظرفیت استدلال کامل همچنان در دسترس است.
"صفحه" استدلال گوگل مکانیزمی برای ایجاد قطعیت هزینه در عین حفظ استانداردهای عملکرد فراهم میکند.
همچنین مشاهده کنید: Gemini 2.5: گوگل "هوشمندترین" مدل هوش مصنوعی خود را تا به امروز میپزد
میخواهید درباره هوش مصنوعی و دادههای بزرگ از رهبران صنعت بیشتر بدانید؟ نمایشگاه هوش مصنوعی و دادههای بزرگ را که در آمستردام، کالیفرنیا و لندن برگزار میشود، بررسی کنید. این رویداد جامع با سایر رویدادهای پیشرو از جمله کنفرانس اتوماسیون هوشمند، BlockX، هفته تحول دیجیتال و نمایشگاه امنیت سایبری و ابر برگزار میشود.
سایر رویدادهای فناوری سازمانی و وبینارهای آینده با پشتیبانی TechForge را اینجا کاوش کنید.
درباره نویسنده
داشوینجیت یک روزنامهنگار با تجربه در زمینه فناوری و تجارت است که مصمم به یافتن و تولید داستان برای روزنامههای آنلاین و چاپی است. او همچنین یک گزارشگر پارلمان با تجربه است که گاهی اوقات در صنایع سبک زندگی و هنر فعالیت میکند.