صبح بخیر، علاقهمندان به هوش مصنوعی. منحنی توانایی هوش مصنوعی لحظه "قانون مور" خود را پیدا کرد - با تحقیقات جدید نشان میدهد که تواناییهای تکمیل وظایف از سال 2019 هر 7 ماه دو برابر میشود.
با سیستمهایی که امروزه وظایف یک ساعته انسانی را انجام میدهند و بهطور بالقوه پروژههای یک ماهه را تا سال 2030 انجام میدهند، آیا جهان برای سونامی اتوماسیون که به سرعت نزدیک میشود آماده است؟
در خلاصه هوش مصنوعی امروز:
- قابلیتهای هوش مصنوعی از "قانون مور" پیروی میکنند
- هالیوود علیه پیشنهادات مربوط به حق چاپ هوش مصنوعی
- بهبود پاسخهای هوش مصنوعی غیر استدلالی
- مدلهای استدلالی منبع باز Nvidia
- 4 ابزار جدید هوش مصنوعی و 4 فرصت شغلی
آخرین تحولات
مطالعه: قابلیتهای هوش مصنوعی از "قانون مور" پیروی میکنند
خلاصه: محققان METR اخیراً دادههای جدیدی را منتشر کردهاند که نشان میدهد طول کارهایی که عوامل هوش مصنوعی میتوانند بهطور مستقل تکمیل کنند، از سال 2019 تقریباً هر 7 ماه دو برابر شده است و "قانون مور" را برای قابلیتهای هوش مصنوعی نشان میدهد.
جزئیات:
- این مطالعه عملکرد انسان و هوش مصنوعی را در 170 وظیفه نرمافزاری از تصمیمات 2 ثانیهای تا چالشهای مهندسی 8 ساعته ردیابی کرد.
- مدلهای برتر مانند 3.7 Sonnet دارای "افق زمانی" 59 دقیقه هستند - تکمیل کارهایی که برای انسانهای ماهر این مدت طول میکشد با حداقل 50٪ قابلیت اطمینان.
- مدلهای قدیمیتر مانند GPT-4 میتوانند کارهایی را انجام دهند که به حدود 8-15 دقیقه زمان انسان نیاز دارند، در حالی که سیستمهای 2019 با هر چیزی فراتر از چند ثانیه مشکل دارند.
- اگر روند نمایی ادامه یابد، سیستمهای هوش مصنوعی تا سال 2030 قادر خواهند بود پروژههای معادل انسانی یک ماهه را با قابلیت اطمینان معقول تکمیل کنند.
- قانون مور پیشبینی میکند که قدرت محاسباتی تقریباً هر دو سال دو برابر میشود - توضیح میدهد که چرا دستگاهها با گذشت زمان سریعتر و ارزانتر میشوند.
چرا مهم است: کشف یک الگوی رشد قابل پیشبینی در قابلیتهای هوش مصنوعی یک ابزار پیشبینی مهم برای صنعت فراهم میکند. سیستمهایی که میتوانند وظایف بسیار طولانیتر (وظایف ماهها برای انسان) و پیچیدهتر را بهطور مستقل انجام دهند، نحوه برخورد مشاغل در سراسر جهان با هوش مصنوعی و اتوماسیون را بهطور کامل تغییر خواهند داد.
هالیوود علیه پیشنهادات مربوط به حق چاپ هوش مصنوعی
خلاصه: بیش از 400 نفر از افراد خلاق هالیوود نامهای سرگشاده امضا کردند و از دولت ترامپ خواستند تا پیشنهادات OpenAI و Google را برای گسترش آموزش هوش مصنوعی در آثار دارای حق چاپ رد کند و استدلال کردند که این امر به آنها اجازه میدهد تا "صنایع خلاق را آزادانه مورد سوء استفاده قرار دهند".
جزئیات:
- این نامه پاسخی مستقیم به پیشنهادات طرح اقدام هوش مصنوعی OpenAI و Google است که از حمایتهای گستردهتر استفاده منصفانه برای آموزش هوش مصنوعی استدلال میکردند.
- OpenAI معافیتهای حق چاپ هوش مصنوعی را به عنوان "مسئله امنیت ملی" معرفی کرد، در حالی که گوگل گفت چارچوب استفاده منصفانه فعلی از قبل از نوآوری هوش مصنوعی پشتیبانی میکند.
- بن استیلر، مارک رافالو، کیت بلانشت، پل مک کارتنی، تایکا وایتیتی و آبری پلازا از جمله افراد مشهور برجستهای هستند که این نامه را امضا کردهاند.
- آنها تأکید کردهاند که شرکتهای هوش مصنوعی میتوانند به سادگی "مجوزهای مناسب را با دارندگان حق چاپ مذاکره کنند - درست مانند هر صنعت دیگری".
چرا مهم است: هالیوود در مقابل هوش مصنوعی نشان دهنده برخورد ارزشها است - ذهنیت "سریع حرکت کنید و تکرار کنید" صنعت فناوری در مقابل چارچوبهای مالکیت معنوی چند صد ساله هالیوود. اما با وجود غولهای هوش مصنوعی در سراسر جهان که از قبل دادههای جهان را حتی بدون حمایت از حق چاپ دریافت میکنند، این مبارزه در واقع ممکن است بیشتر نمادین باشد تا عملمحور.
بهبود پاسخهای هوش مصنوعی غیر استدلالی
خلاصه: در این آموزش، یاد خواهید گرفت که چگونه با پیادهسازی یک رویکرد استدلالی ساختاریافته با تگهای XML، هوش مدلهای هوش مصنوعی غیر استدلالی را بهطور چشمگیری بهبود بخشید - و مدل را مجبور کنید قبل از پاسخ دادن، گام به گام فکر کند.
گام به گام:
- اعلان خود را با تگهای XML مانند <thinking> و <answer> ساختار دهید تا فرآیند استدلال را از خروجی نهایی جدا کنید.
- زمینه و جزئیات وظیفه خاص، از جمله مثالها را ارائه دهید.
- با دستورالعمل صریح به مدل برای "فکر کردن" ابتدا، سپس پاسخ دادن، استدلال گام به گام را اجباری کنید.
- نتایج را با و بدون چارچوب استدلال خود مقایسه کنید تا بهبودهای چشمگیر در کیفیت را ببینید.
نکته حرفهای: میتوانید از این تکنیک بهویژه هنگام درخواست از هوش مصنوعی برای مطابقت با سبکهای نوشتاری یا تجزیه و تحلیل اطلاعات پیچیده قبل از تولید محتوا استفاده کنید.
مدلهای استدلالی منبع باز Nvidia
خلاصه: Nvidia خانواده Llama Nemotron از مدلهای استدلالی منبع باز خود را منتشر کرد که برای تسریع در پذیرش سازمانی هوش مصنوعی مبتنی بر عامل که قادر به حل مسئله و تصمیمگیری پیچیده است، طراحی شدهاند.
جزئیات:
- خانواده مدل جدید در سه اندازه عرضه میشود: Nano (8B)، Super (49B) و Ultra (249B) - که هر کدام برای سناریوهای مختلف استقرار بهینه شدهاند.
- معیارهای اولیه عملکرد چشمگیری را نشان میدهند، به طوری که نسخه Super از Llama 3.3 و DeepSeek V1 در STEM و آزمایش ابزار بهتر عمل میکند.
- این مدلها دارای یک ضامن هستند که به سیستمهای هوش مصنوعی اجازه میدهد بر اساس وظیفه بین استدلال فشرده و پاسخهای مستقیم جابجا شوند.
- آموزش پس از آموزش منجر به 20٪ دقت بهتر از مدلهای پایه Llama و 5 برابر سرعت بیشتر از استدلالکنندگان منبع باز رقیب شد.
- Nvidia همچنین یک چارچوب "AI-Q Blueprint" را در ماه آوریل منتشر میکند تا به کسبوکارها کمک کند تا عوامل هوش مصنوعی را با سیستمها و منابع داده موجود خود متصل کنند.
چرا مهم است: مدلهای استدلالی Nvidia ممکن است تحتالشعاع حجم دیوانهوار انتشارات در 48 ساعت گذشته قرار گیرند، اما به نظر میرسد غول تراشهسازی هر بلوکی را که برای تبدیل شدن به یک نیرو در کل پشته هوش مصنوعی لازم است، ساخته است - از پیشرفتهترین سختافزار گرفته تا مدلهای استدلالی با کیفیت بالا که برای عصر عامل آماده هستند.