مدتی پیش به نظریهای برخوردم که یکی از دلایلی که متا اصرار دارد از اصطلاح "متنباز" برای مدلهای Llama خود استفاده کند، با وجود اینکه مجوز Llama در واقع مطابق با شرایط تعریف متنباز نیست، این است که قانون هوش مصنوعی اتحادیه اروپا شامل قوانین ویژهای برای مدلهای متنباز است بدون اینکه نیاز به مطابقت با OSI داشته باشد.
از آنجایی که قانون هوش مصنوعی اتحادیه اروپا (۱۲ ژوئیه ۲۰۲۴) به صورت آنلاین در دسترس است، تصمیم گرفتم خودم نگاهی به آن بیندازم.
اینجا یک صفحه HTML غولپیکر حاوی متن کامل قانون به زبان انگلیسی است. من تعداد توکنها را با ttok بررسی کردم (که از توکنساز OpenAI استفاده میکند، اما به اندازه کافی نزدیک است تا به عنوان یک تخمین خوب برای سایر مدلها کار کند):
curl 'https://eur-lex.europa.eu/legal-content/EN/TXT/HTML/?uri=OJ:L_202401689' | ttok
۲۴۱,۷۲۲ توکن. این باید به خوبی در Gemini 2.5 Flash (یا GPT-4.1 یا Gemini 2.5 Pro) جای بگیرد.
کلید API جیمینی من مشکل داشت، بنابراین من آن را از طریق OpenRouter (و llm-openrouter) اجرا کردم:
llm -f 'https://eur-lex.europa.eu/legal-content/EN/TXT/HTML/?uri=OJ:L_202401689' \
-m openrouter/google/gemini-2.5-flash-preview:thinking \
-s 'Summary of mentions of open source here, including what the document defines open source to mean'
اینجا پاسخ کامل است. گزیده مرتبط:
- Recital (89) بیان میکند که اشخاص ثالثی که "ابزارها، خدمات، فرآیندها یا اجزای هوش مصنوعی غیر از مدلهای هوش مصنوعی با کاربرد عمومی" را تحت مجوز رایگان و متنباز در دسترس قرار میدهند، نباید موظف به رعایت مسئولیتهای ارائهدهنده بالادستی در قبال کسانی باشند که آنها را یکپارچه میکنند. همچنین توسعهدهندگان این منابع را تشویق میکند تا شیوههای مستندسازی مانند کارتهای مدل و برگههای داده را برای ترویج هوش مصنوعی قابل اعتماد پیادهسازی کنند.
- Recital (102) اذعان میکند که نرمافزار و دادهها، از جمله مدلها، منتشر شده تحت مجوز رایگان و متنباز میتوانند به تحقیق و نوآوری کمک کرده و فرصتهای رشد را فراهم کنند.
من Recital 89 و Recital 102 را ردیابی کردم تا بررسی کنم. در کمال تعجب، ۸۹ میگوید:
اشخاص ثالثی که ابزارها، خدمات، فرآیندها یا اجزای هوش مصنوعی غیر از مدلهای هوش مصنوعی با کاربرد عمومی را در دسترس عموم قرار میدهند، نباید موظف به رعایت الزاماتی باشند که مسئولیتها را در امتداد زنجیره ارزش هوش مصنوعی هدف قرار میدهند.
و در ۱۰۲:
مدلهای هوش مصنوعی با کاربرد عمومی که تحت مجوزهای رایگان و متنباز منتشر میشوند، باید در نظر گرفته شوند تا سطوح بالایی از شفافیت و باز بودن را تضمین کنند، اگر پارامترهای آنها، از جمله وزنها، اطلاعات مربوط به معماری مدل و اطلاعات مربوط به استفاده از مدل به صورت عمومی در دسترس قرار گیرند. مجوز همچنین زمانی باید رایگان و متنباز در نظر گرفته شود که به کاربران اجازه دهد نرمافزار و دادهها، از جمله مدلها را اجرا، کپی، توزیع، مطالعه، تغییر و بهبود دهند، به شرطی که به ارائهدهنده اصلی مدل اعتبار داده شود، شرایط توزیع یکسان یا قابل مقایسه رعایت شود.
Gemini 2.5 Flash همچنین من را به ماده 2(12) راهنمایی کرد، که میخواند:
من یک سوال پیگیری پرسیدم:
llm -c 'so it says specific licenses but does it clarify which specific licenses count?'
و این پاسخ را دریافت کردم:
نه، این سند اسامی خاص مجوزهایی را که به عنوان "رایگان و متنباز" واجد شرایط هستند، فهرست نمیکند.
به جای فهرست کردن اسامی (مانند GPL، MIT، Apache و غیره)، مقررات مشخص میکند که یک مجوز برای اینکه به عنوان "رایگان و متنباز" برای اهداف مقررات در نظر گرفته شود، چه نوع شرایطی را باید اعطا کند.
بر اساس Recital (102)، چنین مجوزی اساساً باید به نرمافزار و دادهها، از جمله مدلها، اجازه دهد که:
- به طور آشکار به اشتراک گذاشته شوند.
- جایی که کاربران میتوانند به طور آزادانه به آنها دسترسی داشته باشند، از آنها استفاده کنند، آنها را تغییر دهند و دوباره توزیع کنند یا نسخههای اصلاحشده آنها را.
Recital بیشتر توضیح میدهد که یک مجوز همچنان میتواند رایگان و متنباز در نظر گرفته شود، حتی اگر شامل شرایط استانداردی مانند الزام به ارجاع (اعتبار دادن به ارائهدهنده اصلی) یا احترام به شرایط توزیع یکسان یا قابل مقایسه باشد.
من به وضوح وکیل نیستم، اما بر اساس موارد فوق، این نظریه را معتبر میدانم که متا از "متنباز" در بازاریابی خود در مورد Llama استفاده میکند، تا حدی به این دلیل که قانون هوش مصنوعی اتحادیه اروپا معافیتهای ویژهای برای مدلهای "متنباز" دارد که هیچ ارتباطی با تعریف OSI از این اصطلاح ندارند.
هزینه کل استفاده از Gemini 2.5 Flash برای این کار؟ ۵.۱ سنت برای سوال اول من و ۴.۳ سنت برای سوال پیگیری. سوال دوم ارزانتر بود، حتی اگر بر اساس سوال اول ساخته شده بود، زیرا توکنهای خروجی گرانتر از توکنهای ورودی هستند و پاسخ دوم کوتاهتر از اولی بود - استفاده از مدل "thinking" با قیمت ۳.۵۰ دلار در هر میلیون توکن محاسبه میشود، در حالی که ورودی فقط ۰.۱۵ دلار در هر میلیون است.
استفاده از یک مدل زبانی بزرگ (LLM) به عنوان وکیل بدیهی است که ایده وحشتناکی است، اما استفاده از آن برای بررسی یک سند قانونی غولپیکر و ایجاد یک درک بسیار تقریبی و غیرحرفهای از آنچه میگوید، به نظر من کاملاً قابل قبول است.