همکاری بین شرکتهای هوش مصنوعی و دولت ایالات متحده در حال گسترش است، حتی با وجود اینکه آینده ایمنی و مقررات هوش مصنوعی هنوز نامشخص است.
روز جمعه، Anthropic، OpenAI و دیگر شرکتهای هوش مصنوعی 1000 دانشمند را گرد هم آوردند تا آخرین مدلهای خود را آزمایش کنند. این رویداد، که توسط OpenAI میزبانی شد و جلسه تخصصی هوش مصنوعی نام داشت، به دانشمندان در سراسر نه آزمایشگاه یک روز فرصت داد تا از چندین مدل استفاده کنند -- از جمله o3-mini OpenAI و Claude 3.7 Sonnet، آخرین نسخه Anthropic -- برای پیشبرد تحقیقات خود.
همچنین: OpenAI بالاخره GPT-4.5 را معرفی کرد. این مدل چه کاری میتواند انجام دهد
در اعلامیه خود، Anthropic گفت که این جلسه "ارزیابی معتبرتری از پتانسیل هوش مصنوعی برای مدیریت پیچیدگیها و ظرافتهای تحقیق علمی ارائه میدهد، و همچنین توانایی هوش مصنوعی در حل چالشهای علمی پیچیده که معمولاً به زمان و منابع قابل توجهی نیاز دارند را ارزیابی میکند."
جلسه تخصصی هوش مصنوعی بخشی از توافقات موجود بین دولت ایالات متحده، Anthropic و OpenAI است. در ماه آوریل، Anthropic با وزارت انرژی (DOE) و سازمان ملی امنیت هستهای (NNSA) همکاری کرد تا Claude 3 Sonnet را مورد ارزیابی قرار دهد و آزمایش کند که آیا اطلاعات هستهای خطرناکی را فاش میکند یا خیر. در 30 ژانویه، OpenAI اعلام کرد که با آزمایشگاههای ملی DOE همکاری میکند تا "تحقیقات علمی خود را با استفاده از آخرین مدلهای استدلال خود تقویت کند."
آزمایشگاههای ملی، شبکهای از 17 سایت تحقیقاتی و آزمایشگاهی علمی که در سراسر کشور پراکنده هستند، موضوعاتی از امنیت هستهای گرفته تا راه حلهای تغییرات آب و هوایی را بررسی میکنند.
از دانشمندان شرکتکننده نیز دعوت شد تا پاسخهای مدلها را ارزیابی کرده و به شرکتها "بازخورد ارائه دهند تا سیستمهای هوش مصنوعی آینده را بهبود بخشند تا با در نظر گرفتن نیازهای دانشمندان ساخته شوند." OpenAI در اعلامیه خود برای این رویداد گفت. این شرکت خاطرنشان کرد که یافتههای این جلسه را در مورد چگونگی استفاده بهتر دانشمندان از مدلهای هوش مصنوعی به اشتراک خواهد گذاشت.
همچنین: هر آنچه باید در مورد Alexa+، دستیار هوش مصنوعی جدید آمازون بدانید
در این اعلامیه، OpenAI بیانیهای از کریس رایت، وزیر انرژی، را درج کرد که توسعه هوش مصنوعی را به پروژه منهتن به عنوان "تلاش میهنی" بعدی کشور در علم و فناوری تشبیه کرد.
همکاری گستردهتر OpenAI با آزمایشگاههای ملی با هدف تسریع و متنوعسازی درمان و پیشگیری از بیماریها، بهبود امنیت سایبری و هستهای، بررسی انرژیهای تجدیدپذیر و پیشبرد تحقیقات فیزیک است. جلسه تخصصی هوش مصنوعی و همکاری با آزمایشگاههای ملی در کنار چندین ابتکار دیگر بین شرکتهای خصوصی هوش مصنوعی و دولت، از جمله ChatGPT Gov، چتبات سفارشی OpenAI برای آژانسهای محلی، ایالتی و فدرال، و پروژه استارگیت، یک طرح سرمایهگذاری 500 میلیارد دلاری در مرکز داده است.
این توافقات سرنخهایی را در مورد چگونگی کاهش اهمیت ایمنی و مقررات در استراتژی هوش مصنوعی ایالات متحده در دوران دولت ترامپ ارائه میدهند. اگرچه هنوز به نتیجه نرسیدهاند، کاهش پرسنل در موسسه ایمنی هوش مصنوعی، بخشی از اخراجهای گستردهتر DOGE، هفتهها است که شایعه شده است، و رئیس موسسه از سمت خود کنارهگیری کرده است. طرح اقدام هوش مصنوعی دولت فعلی هنوز اعلام نشده است و آینده نظارت بر هوش مصنوعی را در ابهام قرار داده است.
همچنین: رئیس ایمنی هوش مصنوعی ایالات متحده از سمت خود کنارهگیری کرد. حالا چه؟
همکاریهایی مانند این، که آخرین تحولات در هوش مصنوعی را مستقیماً در اختیار ابتکارات دولت قرار میدهد، میتواند با همکاری نزدیکتر دولت ترامپ با شرکتهای هوش مصنوعی و کاهش اهمیت مشارکت ناظران شخص ثالث، رایجتر شود. خطر این است که نظارت کمتری بر چگونگی قدرت و ایمنی مدلهای جدید وجود داشته باشد -- مقررات در حال حاضر در ایالات متحده نوپا است -- زیرا استقرار سرعت میگیرد.
استانداردهای ویراستاری