اعتبار تصویر: FABRICE COFFRINI/AFP / Getty Images
اعتبار تصویر: FABRICE COFFRINI/AFP / Getty Images

OpenAI در تلاش است تا مدل هوش مصنوعی "باز" آینده خود را به بهترین در نوع خود تبدیل کند

در اواخر ماه مارس، OpenAI اعلام کرد که قصد دارد اولین مدل زبانی "باز" خود را پس از GPT-2 در سال جاری منتشر کند. اکنون جزئیاتی در مورد این مدل از جلسات این شرکت با جامعه توسعه‌دهندگان هوش مصنوعی در حال انتشار است.

منابع به تک‌کرانچ (TechCrunch) گفته‌اند که آیدان کلارک، معاون تحقیقات OpenAI، رهبری توسعه این مدل باز را بر عهده دارد که در مراحل بسیار اولیه است. OpenAI قصد دارد این مدل را در اوایل تابستان منتشر کند و هدف آن این است که این مدل - یک مدل استدلال در راستای مدل‌های سری o شرکت OpenAI - در بین سایر مدل‌های استدلال باز، دارای بالاترین رتبه باشد.

به گفته منابع تک‌کرانچ، OpenAI در حال بررسی یک مجوز بسیار مجاز برای این مدل با محدودیت‌های کم در استفاده یا تجارت است. مدل‌های باز مانند Llama و Gemma گوگل به دلیل تحمیل الزامات سنگین مورد انتقاد برخی در جامعه قرار گرفته‌اند - انتقاداتی که ظاهراً OpenAI به دنبال اجتناب از آنها است.

OpenAI با فشار فزاینده‌ای از سوی رقبایی مانند آزمایشگاه هوش مصنوعی چینی DeepSeek مواجه است که رویکردی باز را برای عرضه مدل‌ها اتخاذ کرده‌اند. برخلاف استراتژی OpenAI، این رقبای "باز" مدل‌های خود را برای آزمایش و در برخی موارد، تجاری‌سازی در اختیار جامعه هوش مصنوعی قرار می‌دهند.

این رویکرد برای برخی از شرکت‌ها بسیار موفقیت‌آمیز بوده است. متا، که سرمایه‌گذاری زیادی در خانواده مدل‌های هوش مصنوعی باز Llama خود انجام داده است، در اوایل ماه مارس اعلام کرد که Llama بیش از 1 میلیارد بار دانلود شده است. در همین حال، DeepSeek به سرعت پایگاه کاربری بزرگ جهانی را به دست آورده و توجه سرمایه‌گذاران داخلی را به خود جلب کرده است.

منابع به تک‌کرانچ گفته‌اند که OpenAI قصد دارد مدل باز خود، که "متن ورودی، متن خروجی" خواهد بود، روی سخت‌افزار مصرفی رده بالا اجرا شود و احتمالاً به توسعه‌دهندگان اجازه می‌دهد "استدلال" آن را روشن و خاموش کنند، شبیه به مدل‌های استدلالی که اخیراً توسط Anthropic و دیگران منتشر شده‌اند. (استدلال می‌تواند دقت را بهبود بخشد، اما به قیمت افزایش تأخیر.) اگر این عرضه با استقبال خوبی مواجه شود، OpenAI ممکن است آن را با مدل‌های اضافی - احتمالاً شامل مدل‌های کوچکتر - دنبال کند.

سام آلتمن، مدیرعامل OpenAI، در اظهارات عمومی قبلی، گفته است که فکر می‌کند OpenAI در مورد منبع باز کردن فناوری‌های خود، در طرف اشتباه تاریخ قرار داشته است.

آلتمن در یک پرسش و پاسخ در Reddit در ژانویه گفت: "[من شخصاً فکر می‌کنم که ما باید] یک استراتژی منبع باز متفاوت را کشف کنیم." "همه در OpenAI این دیدگاه را ندارند، و همچنین بالاترین اولویت فعلی ما نیست ... ما مدل‌های بهتری [در آینده] تولید خواهیم کرد، اما نسبت به سال‌های گذشته، رهبری کمتری را حفظ خواهیم کرد."

آلتمن همچنین گفته است که مدل باز آینده OpenAI به طور کامل توسط تیم قرمز آزمایش و از نظر ایمنی ارزیابی خواهد شد. منابع به تک‌کرانچ گفته‌اند که این شرکت قصد دارد یک کارت مدل برای این مدل منتشر کند - یک گزارش فنی کامل که نتایج آزمایش‌های ایمنی و معیارگیری داخلی و خارجی OpenAI را نشان می‌دهد.

آلتمن ماه گذشته در پستی در X گفت: "قبل از انتشار، ما این مدل را طبق چارچوب آمادگی خود، مانند هر مدل دیگری، ارزیابی خواهیم کرد. "و ما با توجه به اینکه می‌دانیم این مدل پس از انتشار تغییر خواهد کرد، کار بیشتری انجام خواهیم داد."

OpenAI به دلیل گزارش‌ها مبنی بر تسریع در آزمایش ایمنی مدل‌های اخیر و عدم انتشار کارت‌های مدل برای دیگران، خشم برخی از متخصصان اخلاق هوش مصنوعی را برانگیخته است. آلتمن همچنین متهم است به گمراه کردن مدیران OpenAI در مورد بررسی‌های ایمنی مدل قبل از برکناری کوتاهش در نوامبر 2023.

ما برای اظهار نظر با OpenAI تماس گرفته‌ایم و در صورت دریافت پاسخ، این مطلب را به‌روزرسانی خواهیم کرد.