OpenAI نسخه قدرتمندتری از مدل هوش مصنوعی استدلال o1 خود، با نام o1-pro، را در API توسعهدهندگان خود عرضه کرده است.
به گفته OpenAI، مدل o1-pro از محاسبات بیشتری نسبت به o1 استفاده میکند تا پاسخهای بهتری به طور مداوم ارائه دهد. در حال حاضر، این مدل فقط برای توسعهدهندگان منتخب - کسانی که حداقل ۵ دلار در خدمات API شرکت OpenAI هزینه کردهاند - در دسترس است و بسیار گران است. خیلی گران.
OpenAI برای هر یک میلیون توکن (حدود ۷۵۰,۰۰۰ کلمه) که به مدل وارد میشود، ۱۵۰ دلار و برای هر یک میلیون توکن تولید شده توسط مدل، ۶۰۰ دلار دریافت میکند. این قیمت برای ورودی دو برابر قیمت GPT-4.5 شرکت OpenAI و برای خروجی ۱۰ برابر قیمت o1 معمولی است.
OpenAI شرط میبندد که عملکرد بهبود یافته o1-pro توسعهدهندگان را متقاعد میکند که این مبالغ هنگفت را بپردازند.
یکی از سخنگویان OpenAI به TechCrunch گفت: O1-pro در API نسخهای از o1 است که از محاسبات بیشتری برای فکر کردن عمیقتر و ارائه پاسخهای بهتر به سختترین مشکلات استفاده میکند. پس از دریافت درخواستهای فراوان از جامعه توسعهدهندگان خود، ما خوشحالیم که آن را به API میآوریم تا پاسخهای قابل اعتمادتری ارائه دهیم.
با این حال، برداشتهای اولیه از o1-pro، که از دسامبر در پلتفرم چتبات مبتنی بر هوش مصنوعی OpenAI، یعنی ChatGPT، برای مشترکین ChatGPT Pro در دسترس بوده، چندان مثبت نبود. کاربران دریافتند که این مدل با پازلهای سودوکو مشکل دارد و با جوکهای ساده خطای دید به اشتباه میافتد.
علاوه بر این، برخی از بنچمارکهای داخلی OpenAI از اواخر سال گذشته نشان داد که o1-pro فقط کمی بهتر از o1 استاندارد در مسائل کدنویسی و ریاضی عمل میکند. با این حال، بنچمارکها نشان دادند که این مدل به این مسائل به طور قابل اعتمادتری پاسخ میدهد.