قانون مور در هوش مصنوعی ظهور می‌کند

به‌علاوه: هالیوود علیه پیشنهادات مربوط به حق چاپ هوش مصنوعی متحد می‌شود

صبح بخیر، علاقه‌مندان به هوش مصنوعی. منحنی توانایی هوش مصنوعی لحظه "قانون مور" خود را پیدا کرد - با تحقیقات جدید نشان می‌دهد که توانایی‌های تکمیل وظایف از سال 2019 هر 7 ماه دو برابر می‌شود.

با سیستم‌هایی که امروزه وظایف یک ساعته انسانی را انجام می‌دهند و به‌طور بالقوه پروژه‌های یک ماهه را تا سال 2030 انجام می‌دهند، آیا جهان برای سونامی اتوماسیون که به سرعت نزدیک می‌شود آماده است؟


در خلاصه هوش مصنوعی امروز:

  • قابلیت‌های هوش مصنوعی از "قانون مور" پیروی می‌کنند
  • هالیوود علیه پیشنهادات مربوط به حق چاپ هوش مصنوعی
  • بهبود پاسخ‌های هوش مصنوعی غیر استدلالی
  • مدل‌های استدلالی منبع باز Nvidia
  • 4 ابزار جدید هوش مصنوعی و 4 فرصت شغلی

آخرین تحولات

مطالعه: قابلیت‌های هوش مصنوعی از "قانون مور" پیروی می‌کنند

خلاصه: محققان METR اخیراً داده‌های جدیدی را منتشر کرده‌اند که نشان می‌دهد طول کارهایی که عوامل هوش مصنوعی می‌توانند به‌طور مستقل تکمیل کنند، از سال 2019 تقریباً هر 7 ماه دو برابر شده است و "قانون مور" را برای قابلیت‌های هوش مصنوعی نشان می‌دهد.

جزئیات:

  • این مطالعه عملکرد انسان و هوش مصنوعی را در 170 وظیفه نرم‌افزاری از تصمیمات 2 ثانیه‌ای تا چالش‌های مهندسی 8 ساعته ردیابی کرد.
  • مدل‌های برتر مانند 3.7 Sonnet دارای "افق زمانی" 59 دقیقه هستند - تکمیل کارهایی که برای انسان‌های ماهر این مدت طول می‌کشد با حداقل 50٪ قابلیت اطمینان.
  • مدل‌های قدیمی‌تر مانند GPT-4 می‌توانند کارهایی را انجام دهند که به حدود 8-15 دقیقه زمان انسان نیاز دارند، در حالی که سیستم‌های 2019 با هر چیزی فراتر از چند ثانیه مشکل دارند.
  • اگر روند نمایی ادامه یابد، سیستم‌های هوش مصنوعی تا سال 2030 قادر خواهند بود پروژه‌های معادل انسانی یک ماهه را با قابلیت اطمینان معقول تکمیل کنند.
  • قانون مور پیش‌بینی می‌کند که قدرت محاسباتی تقریباً هر دو سال دو برابر می‌شود - توضیح می‌دهد که چرا دستگاه‌ها با گذشت زمان سریع‌تر و ارزان‌تر می‌شوند.

چرا مهم است: کشف یک الگوی رشد قابل پیش‌بینی در قابلیت‌های هوش مصنوعی یک ابزار پیش‌بینی مهم برای صنعت فراهم می‌کند. سیستم‌هایی که می‌توانند وظایف بسیار طولانی‌تر (وظایف ماه‌ها برای انسان) و پیچیده‌تر را به‌طور مستقل انجام دهند، نحوه برخورد مشاغل در سراسر جهان با هوش مصنوعی و اتوماسیون را به‌طور کامل تغییر خواهند داد.

تصویر افراد مشهور در حال اعتراض به هوش مصنوعی
منبع تصویر: Ideogram / The Rundown

هالیوود علیه پیشنهادات مربوط به حق چاپ هوش مصنوعی

خلاصه: بیش از 400 نفر از افراد خلاق هالیوود نامه‌ای سرگشاده امضا کردند و از دولت ترامپ خواستند تا پیشنهادات OpenAI و Google را برای گسترش آموزش هوش مصنوعی در آثار دارای حق چاپ رد کند و استدلال کردند که این امر به آنها اجازه می‌دهد تا "صنایع خلاق را آزادانه مورد سوء استفاده قرار دهند".

جزئیات:

  • این نامه پاسخی مستقیم به پیشنهادات طرح اقدام هوش مصنوعی OpenAI و Google است که از حمایت‌های گسترده‌تر استفاده منصفانه برای آموزش هوش مصنوعی استدلال می‌کردند.
  • OpenAI معافیت‌های حق چاپ هوش مصنوعی را به عنوان "مسئله امنیت ملی" معرفی کرد، در حالی که گوگل گفت چارچوب استفاده منصفانه فعلی از قبل از نوآوری هوش مصنوعی پشتیبانی می‌کند.
  • بن استیلر، مارک رافالو، کیت بلانشت، پل مک کارتنی، تایکا وایتیتی و آبری پلازا از جمله افراد مشهور برجسته‌ای هستند که این نامه را امضا کرده‌اند.
  • آنها تأکید کرده‌اند که شرکت‌های هوش مصنوعی می‌توانند به سادگی "مجوزهای مناسب را با دارندگان حق چاپ مذاکره کنند - درست مانند هر صنعت دیگری".

چرا مهم است: هالیوود در مقابل هوش مصنوعی نشان دهنده برخورد ارزش‌ها است - ذهنیت "سریع حرکت کنید و تکرار کنید" صنعت فناوری در مقابل چارچوب‌های مالکیت معنوی چند صد ساله هالیوود. اما با وجود غول‌های هوش مصنوعی در سراسر جهان که از قبل داده‌های جهان را حتی بدون حمایت از حق چاپ دریافت می‌کنند، این مبارزه در واقع ممکن است بیشتر نمادین باشد تا عمل‌محور.

تصویر صفحه رابط آموزش هوش مصنوعی

بهبود پاسخ‌های هوش مصنوعی غیر استدلالی

خلاصه: در این آموزش، یاد خواهید گرفت که چگونه با پیاده‌سازی یک رویکرد استدلالی ساختاریافته با تگ‌های XML، هوش مدل‌های هوش مصنوعی غیر استدلالی را به‌طور چشمگیری بهبود بخشید - و مدل را مجبور کنید قبل از پاسخ دادن، گام به گام فکر کند.

گام به گام:

  1. اعلان خود را با تگ‌های XML مانند <thinking> و <answer> ساختار دهید تا فرآیند استدلال را از خروجی نهایی جدا کنید.
  2. زمینه و جزئیات وظیفه خاص، از جمله مثال‌ها را ارائه دهید.
  3. با دستورالعمل صریح به مدل برای "فکر کردن" ابتدا، سپس پاسخ دادن، استدلال گام به گام را اجباری کنید.
  4. نتایج را با و بدون چارچوب استدلال خود مقایسه کنید تا بهبودهای چشمگیر در کیفیت را ببینید.

نکته حرفه‌ای: می‌توانید از این تکنیک به‌ویژه هنگام درخواست از هوش مصنوعی برای مطابقت با سبک‌های نوشتاری یا تجزیه و تحلیل اطلاعات پیچیده قبل از تولید محتوا استفاده کنید.

مدل هوش مصنوعی Nvidia Nemotron
منبع تصویر: Nvidia

مدل‌های استدلالی منبع باز Nvidia

خلاصه: Nvidia خانواده Llama Nemotron از مدل‌های استدلالی منبع باز خود را منتشر کرد که برای تسریع در پذیرش سازمانی هوش مصنوعی مبتنی بر عامل که قادر به حل مسئله و تصمیم‌گیری پیچیده است، طراحی شده‌اند.

جزئیات:

  • خانواده مدل جدید در سه اندازه عرضه می‌شود: Nano (8B)، Super (49B) و Ultra (249B) - که هر کدام برای سناریوهای مختلف استقرار بهینه شده‌اند.
  • معیارهای اولیه عملکرد چشمگیری را نشان می‌دهند، به طوری که نسخه Super از Llama 3.3 و DeepSeek V1 در STEM و آزمایش ابزار بهتر عمل می‌کند.
  • این مدل‌ها دارای یک ضامن هستند که به سیستم‌های هوش مصنوعی اجازه می‌دهد بر اساس وظیفه بین استدلال فشرده و پاسخ‌های مستقیم جابجا شوند.
  • آموزش پس از آموزش منجر به 20٪ دقت بهتر از مدل‌های پایه Llama و 5 برابر سرعت بیشتر از استدلال‌کنندگان منبع باز رقیب شد.
  • Nvidia همچنین یک چارچوب "AI-Q Blueprint" را در ماه آوریل منتشر می‌کند تا به کسب‌وکارها کمک کند تا عوامل هوش مصنوعی را با سیستم‌ها و منابع داده موجود خود متصل کنند.

چرا مهم است: مدل‌های استدلالی Nvidia ممکن است تحت‌الشعاع حجم دیوانه‌وار انتشارات در 48 ساعت گذشته قرار گیرند، اما به نظر می‌رسد غول تراشه‌سازی هر بلوکی را که برای تبدیل شدن به یک نیرو در کل پشته هوش مصنوعی لازم است، ساخته است - از پیشرفته‌ترین سخت‌افزار گرفته تا مدل‌های استدلالی با کیفیت بالا که برای عصر عامل آماده هستند.