در اواخر ماه مارس، OpenAI اعلام کرد که قصد دارد اولین مدل زبانی "باز" خود را پس از GPT-2 در سال جاری منتشر کند. اکنون جزئیاتی در مورد این مدل از جلسات این شرکت با جامعه توسعهدهندگان هوش مصنوعی در حال انتشار است.
منابع به تککرانچ (TechCrunch) گفتهاند که آیدان کلارک، معاون تحقیقات OpenAI، رهبری توسعه این مدل باز را بر عهده دارد که در مراحل بسیار اولیه است. OpenAI قصد دارد این مدل را در اوایل تابستان منتشر کند و هدف آن این است که این مدل - یک مدل استدلال در راستای مدلهای سری o شرکت OpenAI - در بین سایر مدلهای استدلال باز، دارای بالاترین رتبه باشد.
به گفته منابع تککرانچ، OpenAI در حال بررسی یک مجوز بسیار مجاز برای این مدل با محدودیتهای کم در استفاده یا تجارت است. مدلهای باز مانند Llama و Gemma گوگل به دلیل تحمیل الزامات سنگین مورد انتقاد برخی در جامعه قرار گرفتهاند - انتقاداتی که ظاهراً OpenAI به دنبال اجتناب از آنها است.
OpenAI با فشار فزایندهای از سوی رقبایی مانند آزمایشگاه هوش مصنوعی چینی DeepSeek مواجه است که رویکردی باز را برای عرضه مدلها اتخاذ کردهاند. برخلاف استراتژی OpenAI، این رقبای "باز" مدلهای خود را برای آزمایش و در برخی موارد، تجاریسازی در اختیار جامعه هوش مصنوعی قرار میدهند.
این رویکرد برای برخی از شرکتها بسیار موفقیتآمیز بوده است. متا، که سرمایهگذاری زیادی در خانواده مدلهای هوش مصنوعی باز Llama خود انجام داده است، در اوایل ماه مارس اعلام کرد که Llama بیش از 1 میلیارد بار دانلود شده است. در همین حال، DeepSeek به سرعت پایگاه کاربری بزرگ جهانی را به دست آورده و توجه سرمایهگذاران داخلی را به خود جلب کرده است.
منابع به تککرانچ گفتهاند که OpenAI قصد دارد مدل باز خود، که "متن ورودی، متن خروجی" خواهد بود، روی سختافزار مصرفی رده بالا اجرا شود و احتمالاً به توسعهدهندگان اجازه میدهد "استدلال" آن را روشن و خاموش کنند، شبیه به مدلهای استدلالی که اخیراً توسط Anthropic و دیگران منتشر شدهاند. (استدلال میتواند دقت را بهبود بخشد، اما به قیمت افزایش تأخیر.) اگر این عرضه با استقبال خوبی مواجه شود، OpenAI ممکن است آن را با مدلهای اضافی - احتمالاً شامل مدلهای کوچکتر - دنبال کند.
سام آلتمن، مدیرعامل OpenAI، در اظهارات عمومی قبلی، گفته است که فکر میکند OpenAI در مورد منبع باز کردن فناوریهای خود، در طرف اشتباه تاریخ قرار داشته است.
آلتمن در یک پرسش و پاسخ در Reddit در ژانویه گفت: "[من شخصاً فکر میکنم که ما باید] یک استراتژی منبع باز متفاوت را کشف کنیم." "همه در OpenAI این دیدگاه را ندارند، و همچنین بالاترین اولویت فعلی ما نیست ... ما مدلهای بهتری [در آینده] تولید خواهیم کرد، اما نسبت به سالهای گذشته، رهبری کمتری را حفظ خواهیم کرد."
آلتمن همچنین گفته است که مدل باز آینده OpenAI به طور کامل توسط تیم قرمز آزمایش و از نظر ایمنی ارزیابی خواهد شد. منابع به تککرانچ گفتهاند که این شرکت قصد دارد یک کارت مدل برای این مدل منتشر کند - یک گزارش فنی کامل که نتایج آزمایشهای ایمنی و معیارگیری داخلی و خارجی OpenAI را نشان میدهد.
آلتمن ماه گذشته در پستی در X گفت: "قبل از انتشار، ما این مدل را طبق چارچوب آمادگی خود، مانند هر مدل دیگری، ارزیابی خواهیم کرد. "و ما با توجه به اینکه میدانیم این مدل پس از انتشار تغییر خواهد کرد، کار بیشتری انجام خواهیم داد."
OpenAI به دلیل گزارشها مبنی بر تسریع در آزمایش ایمنی مدلهای اخیر و عدم انتشار کارتهای مدل برای دیگران، خشم برخی از متخصصان اخلاق هوش مصنوعی را برانگیخته است. آلتمن همچنین متهم است به گمراه کردن مدیران OpenAI در مورد بررسیهای ایمنی مدل قبل از برکناری کوتاهش در نوامبر 2023.
ما برای اظهار نظر با OpenAI تماس گرفتهایم و در صورت دریافت پاسخ، این مطلب را بهروزرسانی خواهیم کرد.