بسیار خوب، این هم از وحشت دیپسیک. چند روز پس از آنکه این شرکت چینی با یک مدل هوش مصنوعی که با کسری از هزینههای توسعه، با مدلهای شرکتهای مستقر آمریکایی رقابت میکرد، صنعت فناوری را زیر و رو کرد، مشخص میشود که وحشتی که بیش از 450 میلیارد دلار از انویدیا را از بین برد و هیاهویی را در سراسر جامعه هوش مصنوعی برانگیخت، بیشتر یک ترس ناگهانی و بیاثر بود تا یک تهدید جدی فناوری سرخ.
برای جورج مورگان، مدیر عامل شرکت سیمبولیکا، یک استارت آپ مستقر در سانفرانسیسکو که سخت مشغول طراحی مدل های مشابه با هزینه کارآمد است، این موضوع کمی شرم آور است. مورگان به فوربس گفت: "واکنش بازار به این موضوع کاملاً گمراه کننده و ناشی از اطلاعات غلط است." "صادقانه بگویم، من فکر می کنم که بیشتر یک واکنش سیاسی است. اگر این یک شرکت LLM مستقر در ایالات متحده بود، تصور می کنم که به اندازه دیپسیک توجهی را به خود جلب نمی کرد."
حقیقت ساده این است که طراحی مدلهای پایه با هزینه کارآمدتر مانند مدلهای دیپسیک اصلاً چیز جدیدی نیست. مردم سالهاست که روی آنها کار می کنند. اما یک مسئله دیگر نیز وجود دارد: دیپسیک ادعا می کند که یک مدل زبانی بزرگ را با 5.6 میلیون دلار قدرت محاسباتی یا پردازشی ناچیز آموزش داده است. معلوم می شود که این عدد کمی گمراه کننده است.
ریچارد سوچر، مدیرعامل ابزار جستجوی هوش مصنوعی You.com، با بیان اینکه این رقم نشان دهنده هزینه فقط یک دوره آموزشی است (فرآیند آموزش یک مدل با نشان دادن حجم زیادی از داده به آن) گفت: «5.6 میلیون دلار را باید با کمی احتیاط در نظر گرفت». اما یک مدل زبانی بزرگ که از ابتدا ساخته شده باشد، معمولاً به تعداد بیشتری دوره آموزشی نیاز دارد - گاهی اوقات هزاران. دیپسیک با آموزش بر روی مدلهای زبان بزرگ متنباز ساخته شده توسط دیگران، از جمله Llama متا، هزینههای خود را کاهش داد. مقاله فنی خود این شرکت توضیح می دهد که رقم 5.6 میلیون دلار شامل هزینه تحقیقات قبلی که بر آن استوار است نمی شود، اعترافی مبنی بر اینکه هزینه های واقعی آموزش آن بسیار بیشتر از آن چیزی است که اعلام می شود.
اوایل این هفته، می حبیب، مدیرعامل شرکت رایتر، به همین دلیل چشمانش را از وحشت دیپسیک چرخاند. او با بیان اینکه استارت آپ هوش مصنوعی سازمانی او از همان ابتدا مدل های ارزان تری را آموزش داده است، گفت: "این برای هر کسی که به آن توجه می کرده است، تعجب آور نیست." ایتامار فریدمن، مدیر عامل ابزار کدنویسی هوش مصنوعی Qodo نیز به همین ترتیب مشکوک بود. او گفت: "شاید آخرین دکمه ای که [دیپسیک] کلیک کرد، به این میزان محاسبات یا این مقدار سخت افزار نیاز داشت." "اما این شامل تمام هزینه هایی که تا آن نقطه صرف شده نمی شود."
این بدان معنا نیست که برخی از هیاهوها پیرامون دیپسیک، که مدل های آن در حال حاضر در چند محصول هوش مصنوعی آمریکایی قرار می گیرند، توجیه پذیر نیست. این شرکت از یک تکنیک شناخته شده به نام یادگیری تقویتی برای دستیابی به نتایج بهتر استفاده کرد و فناوری پیشرفته را برای استفاده و تکثیر همگان رایگان کرد. این یک مسئله مهم است. اما شاید حتی مهمتر از آن اصلا فنی نباشد: دیپسیک یک مکالمه دیرهنگام در مورد انجام کارهای بیشتر با هزینه کمتر را در زمانی که سام آلتمن، بنیانگذار شرکت غول پیکر هوش مصنوعی 157 میلیارد دلاری OpenAI، به دنبال میلیاردها دلار برای ساخت مراکز داده در سراسر کشور برای مدل های هوشمند خود است، اجبار کرد.
تیمنیت گبرو، بنیانگذار موسسه تحقیقات هوش مصنوعی توزیع شده، به فوربس گفت: "من فکر می کنم که آنها حباب 'شما باید تمام منابع جهان و تمام انرژی جهان را برای ساخت این مدل ها داشته باشید' را ترکاندند." "آنها مردم را وادار می کنند در تصمیمات خود تجدید نظر کنند. آنها با گفتن اینکه «اینجا، ما هم می توانیم انجام دهیم»، از هیجان پیرامون سرمایهگذاریهای هوش مصنوعی میکاهند."
بنابراین، جای تعجب نیست که جنگ لفظی در کنار نبرد برای کاهش هزینه های آموزش ظاهر شده است. چند روز پس از اینکه مدل دیپسیک سر و صدایی به پا کرد، OpenAI ادعا کرد که این شرکت چینی برای ایجاد سیستمهای هوش مصنوعی خود، خروجیهای مدلهای اختصاصی خود را جمعآوری کرده است (فرآیندی که تقطیر نامیده می شود)، و به این ترتیب، شرایط خدمات این شرکت را نقض کرده است، OpenAI به فوربس تایید کرد. هانا وانگ، مدیر ارشد ارتباطات در OpenAI در بیانیه ای ایمیلی به فوربس گفت: "ما می دانیم که گروههایی در جمهوری خلق چین به طور فعال در تلاش هستند تا از روشهایی برای تلاش برای تکثیر مدلهای پیشرفته هوش مصنوعی ایالات متحده استفاده کنند. "ما اقدامات متقابل تهاجمی و پیشگیرانه ای را برای محافظت از فناوری خود انجام می دهیم و به همکاری نزدیک با دولت ایالات متحده برای محافظت از تواناترین مدل هایی که در اینجا ساخته می شوند، ادامه خواهیم داد."
برای OpenAI، که مدلهای قدرتمند خود را با جمعآوری کل اینترنت از جمله دادههای دارای حق چاپ آموزش داده است و در نتیجه توسط شرکت های خبری و گروهی از نویسندگان تحت پیگرد قانونی قرار گرفته است، این موضع گیری کاملاً قابل توجه است. گبرو گفت: "این خیلی مسخره است." "این خنده دار است." بالاخره، این شرکت به معنای واقعی کلمه استدلال می کند که استفاده از داده های عمومی برای آموزش هوش مصنوعی در پرونده های مذکور منصفانه است.
اما نکته اصلی در اینجا این است که دیپسیک اولین شرکتی نیست که کاری را که انجام داده است، انجام داده است. مایکروسافت خانواده مدلهای زبانی کوچک خود به نام Phi را با آموزش بر روی خروجیهای مدلهای برتر مانند GPT-4 OpenAI ساخته است. همانطور که داو کیلا، مدیرعامل استارتاپ سازمانی Contextual AI به طور خلاصه بیان کرد: "دیپسیک یک \"پیشرفت تحقیقاتی جدید\" نداشته است."
این موضوع کمی هیجان انگیز است که مثل این است که "اوه، این همه چیز را تغییر می دهد. این لحظه اسپوتنیک است،" دانشمند تحقیقاتی سابق متا، با اشاره به اظهار نظر پرکاربرد مارک آندرسن، بنیانگذار A16، گفت: "من فکر می کنم که این از لحظه اسپوتنیک بسیار دور است."