تامین مالی از Menlo Ventures ماموریت Goodfire را برای رمزگشایی نورون‌های مدل‌های هوش مصنوعی تقویت می‌کند و نحوه درک و طراحی آنها را تغییر می‌دهد.
تامین مالی از Menlo Ventures ماموریت Goodfire را برای رمزگشایی نورون‌های مدل‌های هوش مصنوعی تقویت می‌کند و نحوه درک و طراحی آنها را تغییر می‌دهد.

گودفایر با جذب 50 میلیون دلار بودجه سری A، تحقیقات در زمینه تفسیرپذیری هوش مصنوعی را پیش می‌برد

امروز، گودفایر (Goodfire)، شرکت پیشرو در تحقیقات تفسیرپذیری هوش مصنوعی، از جذب 50 میلیون دلار بودجه سری A به رهبری Menlo Ventures با مشارکت Lightspeed Venture Partners، Anthropic، B Capital، Work-Bench، Wing، South Park Commons و سایر سرمایه گذاران برجسته خبر داد. این بودجه که کمتر از یک سال پس از تاسیس این شرکت به دست آمده است، از گسترش ابتکارات تحقیقاتی گودفایر و توسعه پلتفرم تفسیرپذیری اصلی این شرکت، Ember، با همکاری مشتریان پشتیبانی خواهد کرد.

دیدی داس (Deedy Das)، سرمایه گذار در Menlo Ventures، گفت: "مدل‌های هوش مصنوعی به طور بدنام جعبه‌های سیاه غیرقطعی هستند." "تیم در سطح جهانی گودفایر - که از OpenAI و Google DeepMind جذب شده‌اند - در حال باز کردن آن جعبه هستند تا به شرکت‌ها کمک کنند تا سیستم‌های هوش مصنوعی خود را به درستی درک، هدایت و کنترل کنند."

علی‌رغم پیشرفت‌های چشمگیر در هوش مصنوعی، حتی محققان برجسته نیز ایده کمی در مورد چگونگی عملکرد واقعی شبکه‌های عصبی دارند. این شکاف دانش، مهندسی شبکه‌های عصبی را دشوار، مستعد شکست‌های غیرقابل پیش‌بینی و به طور فزاینده‌ای پرخطر برای استقرار می‌کند، زیرا هدایت و درک این سیستم‌های قدرتمند دشوارتر می‌شود.

اریک هو (Eric Ho)، یکی از بنیانگذاران و مدیرعامل گودفایر، گفت: "هیچ‌کس مکانیسم‌هایی را که مدل‌های هوش مصنوعی از طریق آن‌ها شکست می‌خورند را درک نمی‌کند، بنابراین هیچ‌کس نمی‌داند چگونه آن‌ها را تعمیر کند." "چشم انداز ما این است که ابزارهایی بسازیم تا شبکه‌های عصبی را از درون به بیرون آسان‌تر درک، طراحی و تعمیر کنیم. این فناوری برای ساختن مرز بعدی مدل‌های پایه ایمن و قدرتمند حیاتی است."

برای حل این مشکل حیاتی، گودفایر به طور قابل توجهی در تحقیقات تفسیرپذیری مکانیکی (mechanistic interpretability research) - علم نسبتاً نوپای مهندسی معکوس شبکه‌های عصبی و ترجمه آن بینش‌ها به یک پلتفرم جهانی و مستقل از مدل - سرمایه گذاری می‌کند. پلتفرم گودفایر که با نام Ember شناخته می‌شود، نورون‌های داخل یک مدل هوش مصنوعی را رمزگشایی می‌کند تا دسترسی مستقیم و قابل برنامه ریزی به افکار درونی آن بدهد. Ember با فراتر رفتن از ورودی‌ها و خروجی‌های جعبه سیاه، راه‌های کاملاً جدیدی را برای اعمال، آموزش و همسو کردن مدل‌های هوش مصنوعی باز می‌کند - به کاربران این امکان را می‌دهد تا دانش جدید پنهان در مدل خود را کشف کنند، رفتارهای آن را دقیقاً شکل دهند و عملکرد آن را بهبود بخشند.

داریو آمودی (Dario Amodei)، مدیرعامل و یکی از بنیانگذاران Anthropic، گفت: "همانطور که قابلیت‌های هوش مصنوعی پیشرفت می‌کنند، توانایی ما برای درک این سیستم‌ها باید همگام با آن باشد. سرمایه گذاری ما در گودفایر نشان دهنده این باور ما است که تفسیرپذیری مکانیکی از جمله بهترین شرط‌ها برای کمک به ما در تبدیل شبکه‌های عصبی جعبه سیاه به سیستم‌های قابل درک و هدایت‌پذیر است - یک پایه حیاتی برای توسعه مسئولانه هوش مصنوعی قدرتمند."

گودفایر با نگاهی به آینده، تحقیقات تفسیرپذیری خود را از طریق ابتکارات هدفمند با توسعه دهندگان مدل‌های پیشرو تسریع می‌کند. گودفایر با همکاری نزدیک با نوآوران صنعت، به سرعت کاربرد تحقیقات تفسیرپذیری را بهبود و تثبیت خواهد کرد. پاتریک هسو (Patrick Hsu)، یکی از بنیانگذاران Arc Institute - یکی از اولین همکاران گودفایر - گفت: "همکاری با گودفایر در باز کردن بینش‌های عمیق‌تر از Evo 2، مدل پایه DNA ما، بسیار موثر بوده است." "ابزارهای تفسیرپذیری آن‌ها ما را قادر ساخته است تا مفاهیم بیولوژیکی جدیدی را استخراج کنیم که روند کشف علمی ما را تسریع می‌کنند."

این شرکت همچنین قصد دارد پیش‌نمایش‌های تحقیقاتی بیشتری را منتشر کند که تکنیک‌های تفسیرپذیری پیشرفته را در زمینه‌های مختلف مانند پردازش تصویر، مدل‌های زبان استدلال پیشرفته و مدل‌سازی علمی برجسته می‌کند. این تلاش‌ها نویدبخش آشکار کردن بینش‌های علمی جدید و تغییر اساسی در درک ما از چگونگی تعامل و استفاده از مدل‌های هوش مصنوعی است.

تیم گودفایر محققان برتر تفسیرپذیری هوش مصنوعی و اپراتورهای باتجربه استارتاپ را از سازمان‌هایی مانند OpenAI و Google DeepMind گرد هم آورده است. محققان گودفایر به تأسیس رشته تفسیرپذیری مکانیکی کمک کردند و سه مورد از پر استنادترین مقالات را تالیف کردند و پیشرفت‌هایی مانند Sparse Autoencoders (SAEs) را برای کشف ویژگی‌ها، چارچوب‌های تفسیرپذیری خودکار و آشکار کردن دانش پنهان در مدل‌های هوش مصنوعی پیشگام کردند.