مدل‌های هوش مصنوعی ارزان‌تر دیپ‌سیک باعث ایجاد هیاهویی در جامعه هوش مصنوعی شده است، اما چندین بنیانگذار هوش مصنوعی گفتند که اهمیت هزینه‌های آموزشی آن بیش از حد بزرگنمایی شده است.<br><small>گتی ایمیجز</small>
مدل‌های هوش مصنوعی ارزان‌تر دیپ‌سیک باعث ایجاد هیاهویی در جامعه هوش مصنوعی شده است، اما چندین بنیانگذار هوش مصنوعی گفتند که اهمیت هزینه‌های آموزشی آن بیش از حد بزرگنمایی شده است.<br><small>گتی ایمیجز</small>

نه، دیپ‌سیک یک «لحظه اسپوتنیک» نیست

بسیار خوب، این هم از وحشت دیپ‌سیک. چند روز پس از آنکه این شرکت چینی با یک مدل هوش مصنوعی که با کسری از هزینه‌های توسعه، با مدل‌های شرکت‌های مستقر آمریکایی رقابت می‌کرد، صنعت فناوری را زیر و رو کرد، مشخص می‌شود که وحشتی که بیش از 450 میلیارد دلار از انویدیا را از بین برد و هیاهویی را در سراسر جامعه هوش مصنوعی برانگیخت، بیشتر یک ترس ناگهانی و بی‌اثر بود تا یک تهدید جدی فناوری سرخ.

برای جورج مورگان، مدیر عامل شرکت سیمبولیکا، یک استارت آپ مستقر در سانفرانسیسکو که سخت مشغول طراحی مدل های مشابه با هزینه کارآمد است، این موضوع کمی شرم آور است. مورگان به فوربس گفت: "واکنش بازار به این موضوع کاملاً گمراه کننده و ناشی از اطلاعات غلط است." "صادقانه بگویم، من فکر می کنم که بیشتر یک واکنش سیاسی است. اگر این یک شرکت LLM مستقر در ایالات متحده بود، تصور می کنم که به اندازه دیپ‌سیک توجهی را به خود جلب نمی کرد."

حقیقت ساده این است که طراحی مدل‌های پایه با هزینه کارآمدتر مانند مدل‌های دیپ‌سیک اصلاً چیز جدیدی نیست. مردم سالهاست که روی آنها کار می کنند. اما یک مسئله دیگر نیز وجود دارد: دیپ‌سیک ادعا می کند که یک مدل زبانی بزرگ را با 5.6 میلیون دلار قدرت محاسباتی یا پردازشی ناچیز آموزش داده است. معلوم می شود که این عدد کمی گمراه کننده است.

ریچارد سوچر، مدیرعامل ابزار جستجوی هوش مصنوعی You.com، با بیان اینکه این رقم نشان دهنده هزینه فقط یک دوره آموزشی است (فرآیند آموزش یک مدل با نشان دادن حجم زیادی از داده به آن) گفت: «5.6 میلیون دلار را باید با کمی احتیاط در نظر گرفت». اما یک مدل زبانی بزرگ که از ابتدا ساخته شده باشد، معمولاً به تعداد بیشتری دوره آموزشی نیاز دارد - گاهی اوقات هزاران. دیپ‌سیک با آموزش بر روی مدل‌های زبان بزرگ متن‌باز ساخته شده توسط دیگران، از جمله Llama متا، هزینه‌های خود را کاهش داد. مقاله فنی خود این شرکت توضیح می دهد که رقم 5.6 میلیون دلار شامل هزینه تحقیقات قبلی که بر آن استوار است نمی شود، اعترافی مبنی بر اینکه هزینه های واقعی آموزش آن بسیار بیشتر از آن چیزی است که اعلام می شود.

اوایل این هفته، می حبیب، مدیرعامل شرکت رایتر، به همین دلیل چشمانش را از وحشت دیپ‌سیک چرخاند. او با بیان اینکه استارت آپ هوش مصنوعی سازمانی او از همان ابتدا مدل های ارزان تری را آموزش داده است، گفت: "این برای هر کسی که به آن توجه می کرده است، تعجب آور نیست." ایتامار فریدمن، مدیر عامل ابزار کدنویسی هوش مصنوعی Qodo نیز به همین ترتیب مشکوک بود. او گفت: "شاید آخرین دکمه ای که [دیپ‌سیک] کلیک کرد، به این میزان محاسبات یا این مقدار سخت افزار نیاز داشت." "اما این شامل تمام هزینه هایی که تا آن نقطه صرف شده نمی شود."

این بدان معنا نیست که برخی از هیاهوها پیرامون دیپ‌سیک، که مدل های آن در حال حاضر در چند محصول هوش مصنوعی آمریکایی قرار می گیرند، توجیه پذیر نیست. این شرکت از یک تکنیک شناخته شده به نام یادگیری تقویتی برای دستیابی به نتایج بهتر استفاده کرد و فناوری پیشرفته را برای استفاده و تکثیر همگان رایگان کرد. این یک مسئله مهم است. اما شاید حتی مهمتر از آن اصلا فنی نباشد: دیپ‌سیک یک مکالمه دیرهنگام در مورد انجام کارهای بیشتر با هزینه کمتر را در زمانی که سام آلتمن، بنیانگذار شرکت غول پیکر هوش مصنوعی 157 میلیارد دلاری OpenAI، به دنبال میلیاردها دلار برای ساخت مراکز داده در سراسر کشور برای مدل های هوشمند خود است، اجبار کرد.

تیمنیت گبرو، بنیانگذار موسسه تحقیقات هوش مصنوعی توزیع شده، به فوربس گفت: "من فکر می کنم که آنها حباب 'شما باید تمام منابع جهان و تمام انرژی جهان را برای ساخت این مدل ها داشته باشید' را ترکاندند." "آنها مردم را وادار می کنند در تصمیمات خود تجدید نظر کنند. آنها با گفتن اینکه «اینجا، ما هم می توانیم انجام دهیم»، از هیجان پیرامون سرمایه‌گذاری‌های هوش مصنوعی می‌کاهند."

بنابراین، جای تعجب نیست که جنگ لفظی در کنار نبرد برای کاهش هزینه های آموزش ظاهر شده است. چند روز پس از اینکه مدل دیپ‌سیک سر و صدایی به پا کرد، OpenAI ادعا کرد که این شرکت چینی برای ایجاد سیستم‌های هوش مصنوعی خود، خروجی‌های مدل‌های اختصاصی خود را جمع‌آوری کرده است (فرآیندی که تقطیر نامیده می شود)، و به این ترتیب، شرایط خدمات این شرکت را نقض کرده است، OpenAI به فوربس تایید کرد. هانا وانگ، مدیر ارشد ارتباطات در OpenAI در بیانیه ای ایمیلی به فوربس گفت: "ما می دانیم که گروه‌هایی در جمهوری خلق چین به طور فعال در تلاش هستند تا از روش‌هایی برای تلاش برای تکثیر مدل‌های پیشرفته هوش مصنوعی ایالات متحده استفاده کنند. "ما اقدامات متقابل تهاجمی و پیشگیرانه ای را برای محافظت از فناوری خود انجام می دهیم و به همکاری نزدیک با دولت ایالات متحده برای محافظت از تواناترین مدل هایی که در اینجا ساخته می شوند، ادامه خواهیم داد."

برای OpenAI، که مدل‌های قدرتمند خود را با جمع‌آوری کل اینترنت از جمله داده‌های دارای حق چاپ آموزش داده است و در نتیجه توسط شرکت های خبری و گروهی از نویسندگان تحت پیگرد قانونی قرار گرفته است، این موضع گیری کاملاً قابل توجه است. گبرو گفت: "این خیلی مسخره است." "این خنده دار است." بالاخره، این شرکت به معنای واقعی کلمه استدلال می کند که استفاده از داده های عمومی برای آموزش هوش مصنوعی در پرونده های مذکور منصفانه است.

اما نکته اصلی در اینجا این است که دیپ‌سیک اولین شرکتی نیست که کاری را که انجام داده است، انجام داده است. مایکروسافت خانواده مدل‌های زبانی کوچک خود به نام Phi را با آموزش بر روی خروجی‌های مدل‌های برتر مانند GPT-4 OpenAI ساخته است. همانطور که داو کیلا، مدیرعامل استارتاپ سازمانی Contextual AI به طور خلاصه بیان کرد: "دیپ‌سیک یک \"پیشرفت تحقیقاتی جدید\" نداشته است."

این موضوع کمی هیجان انگیز است که مثل این است که "اوه، این همه چیز را تغییر می دهد. این لحظه اسپوتنیک است،" دانشمند تحقیقاتی سابق متا، با اشاره به اظهار نظر پرکاربرد مارک آندرسن، بنیانگذار A16، گفت: "من فکر می کنم که این از لحظه اسپوتنیک بسیار دور است."