تصویر از طریق Unsplash.
تصویر از طریق Unsplash.

یک توسعه‌دهنده بومی هوش مصنوعی کیست؟

ما توضیح می‌دهیم که یک توسعه‌دهنده بومی هوش مصنوعی چیست، چگونه این نقش تکامل خواهد یافت و چرا توسعه هوش مصنوعی مبتنی بر مشخصات این روند را هدایت می‌کند.

به نظر می‌رسد که هر مهندس نرم‌افزار به زودی مجبور خواهد بود که یک توسعه‌دهنده بومی هوش مصنوعی شود. نه، این به این معنا نیست که هوش مصنوعی در مغز شما جاسازی خواهد شد. همچنین به این معنا نیست که شما مجبور خواهید بود در طول دوران حرفه ای خود در زمینه فناوری با هوش مصنوعی کار کرده باشید.

«توسعه‌دهنده بومی هوش مصنوعی» حتی یک اصطلاح نادرست تر است زیرا به فرد بستگی ندارد و لزوماً در مورد ساخت برنامه‌ها، مفاهیم، الگوریتم‌ها یا مدل‌های هوش مصنوعی نیز نیست.

در این مورد، هوش مصنوعی به جای آن در سراسر چرخه عمر توسعه نرم‌افزار (SLDC) جاسازی شده است، از طریق اضافات هوش مصنوعی که بر روی اهداف خاصی کار می‌کنند تا توسعه‌دهندگان بتوانند بر ارائه ارزش متفاوت تمرکز کنند. احتمالاً اصطلاح «هوش مصنوعی بومی ابری» اصطلاح بهتری است. در هر صورت، هوش مصنوعی مولد مبتنی بر زبان طبیعی به عنوان یک برنامه نویس جفت فعال به کار خود ادامه خواهد داد.

اما چگونه می‌توانید از تیم‌های توسعه نرم‌افزار بومی هوش مصنوعی فعلی یا آینده خود بیشترین بهره را ببرید؟ چگونه هوش مصنوعی را به طور استراتژیک در SLDC ادغام می‌کنید؟ چگونه همه این کارها را به طور ایمن انجام می‌دهید؟

ظهور توسعه هوش مصنوعی مبتنی بر مشخصات

در حال حاضر، تمرکز توسعه نرم‌افزار بر جایگذاری هوش مصنوعی در بخش‌هایی از گردش کار توسعه‌دهنده موجود و جستجوی فرصت‌هایی برای خودکارسازی است. اما همه فکر نمی‌کنند این راه منطقی برای پیشرفت باشد.

گای پودجورنی، بنیانگذار Snyk و اکنون Tessl، در سخنرانی خود در State of Open Con، لندن گفت: «پتانسیل واقعی این است که شما واقعاً در گردش کار تجدید نظر کنید. در ظهور این فناوری قدرتمند، چگونه می‌توانم در مورد اینکه توسعه نرم‌افزار چیست تجدید نظر کنم؟ دیدگاه ما این است که توسعه نرم‌افزار از کد محور به مشخصات محور تغییر خواهد کرد.»

«دیدگاه ما این است که توسعه نرم‌افزار از کد محور به مشخصات محور تغییر خواهد کرد.» – گای پودجورنی، بنیانگذار Tessl

این رویکرد جدید به دنبال ایجاد نرده محافظ در مشخصات یا مشخصات شما است که به طور پیش فرض پتانسیل کد تولید شده توسط هوش مصنوعی ایمن تر و با کیفیت بالاتر را دارد. توسعه مبتنی بر مشخصات، با نام مستعار توسعه مبتنی بر رفتار 2.0، از سه مرحله پیروی می‌کند:

  1. از زبان ساده برای توصیف عملکردهای جدید استفاده کنید.
  2. کد را بر اساس این مشخصات جدید توسعه دهید.
  3. کد را آزمایش کنید تا مطمئن شوید که با مشخصات مطابقت دارد.

به طور گسترده، توسعه هوش مصنوعی مبتنی بر مشخصات، نرده محافظ طراحی را در اطراف آنچه یک برنامه هوش مصنوعی انجام می‌دهد، قرار می‌دهد.

مانند تمام توسعه‌های مبتنی بر مشخصات، این امکان را فراهم می‌کند:

  • بهبود ثبات و حاکمیت.
  • اعتبارسنجی زودهنگام اینکه آنچه ساخته می‌شود همان چیزی است که باید ساخته شود.
  • همکاری و ارتباط بین ذینفعان فنی و تجاری به زبان طبیعی.

این مزیت آخر به ویژه مهم است زیرا کد تولید شده توسط هوش مصنوعی اغلب با توضیح اینکه مدل زبانی بزرگ (LLM) چه تصمیماتی گرفته و چرا، همراه نیست.

آنچه به هوش مصنوعی بومی معنا می‌دهد، این است که هوش مصنوعی را وادار کنید تا آنچه را که واقعاً می‌خواهید ایجاد کند، که می‌تواند در این منبع واحد حقیقت جدید - مشخصات شما - روشن شود. برخلاف وضعیت موجود، زمانی که منبع واحد حقیقت شما کد شما است.

پودجورنی گفت: «توسعه نرم‌افزار امروزی بسیار کد محور است. شما چند نیاز دریافت می‌کنید، مقداری کد می‌نویسید، 100 تصمیم می‌گیرید که هرگز به عقب برنمی‌گردند، هرگز به سیستم راه پیدا نمی‌کنند.» گاهی اوقات آزمایش‌ها و اسناد ایجاد می‌شوند، اما به ندرت کامل هستند - و نه به روز می‌مانند.

او ادامه داد، تنها دارایی که واقعاً در آزمون زمان مقاومت می‌کند، کد است.

«یک سال بعد، موفق باشید که سعی کنید ردیابی الزامات و رفع اشکالات و تعریف پیشرفت را پیدا کنید که می‌گوید: درخواست چه بود؟ برنامه باید چه کار کند؟»

اما حتی اگر مستقیماً کد خود را تغییر ندهید، تغییر می‌کند زیرا وابستگی‌ها، پیاده‌سازی‌ها، محیط‌ها و/یا یکپارچه‌سازی‌ها تغییر می‌کنند. این به این دلیل است که، همانطور که پودجورنی بیان کرد، "کد شما در یک محیط پویا زندگی می‌کند" که "حتی اگر برنامه را درگیر نکنید، خطر شکستن آن را به همراه دارید" - که، دوباره، در هیچ کجا ثبت نمی‌شود.

او افزود: «و بنابراین برنامه شکننده می‌شود.»

مشخصات شامل تعریف این است که برنامه شما قرار است چه کاری انجام دهد، با آزمایش‌هایی که تأیید می‌کنند که کد تولید شده توسط هوش مصنوعی صحیح است و با مشخصات مطابقت دارد.

وقتی هوش مصنوعی درگیر است، تیم‌های توسعه نرم‌افزار از چرایی، چگونگی و چیستی کد دورتر هستند. مثل همیشه، ترس از لمس کد با افزایش سن آن افزایش می‌یابد.

پودجورنی استدلال می‌کند، با توسعه هوش مصنوعی مبتنی بر مشخصات، شما "این الزامات را می‌گیرید و آنها را از چیزی که دور ریختنی است - که در ابتدا آمده و ناپدید شده است - به چیزی که در مرکز قرار دارد و عمر طولانی دارد، تبدیل می‌کنید."

مشخصات شامل تعریف این است که برنامه شما قرار است چه کاری انجام دهد، با آزمایش‌هایی که تأیید می‌کنند که کد تولید شده توسط هوش مصنوعی صحیح است و با مشخصات مطابقت دارد. این کد به طور فزاینده‌ای تغییرناپذیر و دور ریختنی می‌شود.

اما این تنها یک گام در راه تبدیل شدن به یک تیم توسعه بومی هوش مصنوعی است.

استدلالی برای اجرای LLM های منبع باز خود

از هوش مصنوعی سایه گرفته تا کمتر از نیمی از شرکت‌هایی که حتی سیاست حاکمیت هوش مصنوعی دارند، بیشتر کدهای تولید شده توسط هوش مصنوعی بدون هیچ مرز و یا دستورالعملی ایجاد و منتشر می‌شوند. اغلب حتی بدون آزمایش یا انسان در حلقه.

حتی بدون اینکه همه اینها قفل شده باشند، 42 درصد از سازمان‌ها در نظر دارند مدل‌های زبانی بزرگ اختصاصی خود را توسعه دهند. ما می‌توانیم فرض کنیم که تعداد بسیار کمی از این شرکت‌ها در واقع شرکت‌های هوش مصنوعی هستند، بنابراین این می‌تواند باعث شود که آنها بر روی کارهای غیر متمایز و در عین حال پرهزینه تمرکز کنند.

لوک مارسدن، مدیرعامل HelixML، به The New Stack گفت که بسیاری از شرکت‌ها در نظر دارند: «چگونه ChatGPT داخلی خود را راه اندازی کنیم که بدانیم می‌توانیم به آن اعتماد کنیم؟ برای جلوگیری از انجام هوش مصنوعی سایه توسط افراد، زیرا در این صورت، به جای دزدکی ChatGPT در تلفن خود، می‌توانند از نسخه داخلی استفاده کنند.»

با این حال، او استدلال می‌کند، راه حل در پیشنهادات اختصاصی مانند ChatGPT یا Gemini نیست، زمانی که LLM های منبع باز مانند DeepSeek از نظر سرعت و کیفیت به چالش کشیده می‌شوند.

«اگر به لینوکس در مقابل ویندوز فکر کنید، منبع باز در سرور برنده شد. چرا این اتفاق دوباره برای این موج جدید هوش مصنوعی رخ ندهد؟» – لوک مارسدن، مدیرعامل HelixML

مارسدن گفت: «اگر به لینوکس در مقابل ویندوز فکر کنید، منبع باز در سرور برنده شد. چرا این اتفاق دوباره برای این موج جدید هوش مصنوعی رخ ندهد؟»

به غیر از این واقعیت که شما نیازی به آموزش مدل‌های زبانی بزرگ خصوصی ثروتمندترین شرکت‌های جهان ندارید، دلایل قانع‌کننده دیگری برای میزبانی نسخه‌های خود از LLM های منبع باز وجود دارد. این شامل این خطر است که شما می‌توانید کد اختصاصی شخص دیگری را در محصول خود قرار دهید یا حق چاپ خود را به خطر بیندازید زیرا یک LLM عمومی را با اسرار شرکت خود آموزش داده‌اید.

با این حال، در ذهن اکثر رهبری فنی، خطرات امنیتی LLM وجود دارد. به طور کلی، تا کنون، کد تولید شده توسط هوش مصنوعی باگ‌تر از کدی است که صرفاً توسط توسعه‌دهندگان نوشته شده است، و تزریق سریع یکی دیگر از خطرات امنیتی هوش مصنوعی بسیار حاضر است.

مارسدن گفت: «هر شرکت یا سازمانی که اسرار مهم یا ارزشمندی دارد، می‌خواهد مطمئن شود که استفاده خود از این فناوری را قفل کرده است.» اما، "در عین حال، آنها تحت فشار برای نوآوری هستند."

اغلب یک بی‌اعتمادی بی‌اساس وجود دارد که نرم‌افزار و مدل‌های هوش مصنوعی منبع باز ذاتاً از همتایان اختصاصی خود کم خطرتر هستند. چه سازمان شما در این ترس سهیم باشد و چه صرفاً می‌خواهید از قفل شدن فروشنده و هزینه اجتناب کنید، مارسدن از استفاده از یک LLM منبع باز به صورت محلی در فایروال خود دفاع می‌کند.

او گفت: «سازمان‌های زیادی وجود دارند که فقط به دلایل نظارتی نمی‌توانند داده‌های خود را به یک ارائه‌دهنده ابری بزرگ ارسال کنند و زیرساخت خود را اجرا می‌کنند. یک روند بازگشت به اجرای در ابرهای خصوصی، بازگرداندن داده‌های خود وجود دارد.»

«این واقعیت که همه چیز محلی است، ذاتاً ایمن‌تر است زیرا شما داده‌ها را به شخص ثالث غیرقابل اعتماد نمی‌فرستید.»

این گزینه‌ای بود که سال گذشته در طول بحران کمبود GPU به راحتی در دسترس نبود. اما اکنون، مارسدن گفت، قیمت GPUها بسیار کاهش یافته است و دوباره به طور گسترده در دسترس قرار گرفته‌اند.

یکی دیگر از بردهای بزرگ با یک برنامه بومی هوش مصنوعی منبع باز این است که به شما امکان می‌دهد آن را در گردش کارهای DevOps و نرم‌افزار خود ادغام کنید.

یکی دیگر از مزایای اجرای LLM خود، این است که هرچه این مدل‌های استدلال منبع باز - مانند DeepSeek - بیشتر اجرا شوند، پاسخ‌ها بهتر می‌شوند. این امر به روند بازگشت سازمان‌ها به اجرای روی سخت‌افزار خود بازخورد می‌دهد، زیرا هرچه مدت بیشتری یک مدل را در ابر اجرا کنید، هزینه‌های ابری بیشتر می‌شود.

یکی دیگر از بردهای بزرگ در ساخت یک برنامه بومی هوش مصنوعی با منبع باز این است که به شما امکان می‌دهد آن را در گردش کارهای DevOps و نرم‌افزار خود ادغام کنید. مارسدن گفت: این به تیم‌ها امکان می‌دهد سؤالات بسیار خاصی را از سازمان‌های خود بپرسند. او چند نمونه ارائه داد:

  • در اسپرینت فعلی چه چیزی وجود دارد؟
  • آیا می‌توانید به من در نوشتن کدی برای مسئله‌ای که به من اختصاص داده شده است کمک کنید؟

او گفت: «شما ممکن است 10 مورد مختلف داشته باشید که می‌خواهید این دستیار Jira در آنها کار خوبی انجام دهد. کاری که می‌توانید انجام دهید این است که آن موارد را به عنوان آزمایش بنویسید.» مشابه نحوه نوشتن آزمایش‌ها برای نرم‌افزاری که ساخته‌اید اما برای برنامه‌های GenAI، و سپس "این آزمایش‌ها از یک مشخصات زبان طبیعی برای اینکه پاسخ‌های درست چیست استفاده می‌کنند."

سپس، مارسدن ادامه داد، می‌توانید الگوی LLM-as-a-Judge را به عنوان یک روش ارزیابی برای ارزیابی کیفیت آن پاسخ‌ها - نه تنها با استانداردهای عمومی، بلکه در چارچوب یک سازمان و حاکمیت آن - اعمال کنید. و شما همچنان این گزینه را دارید که یک انسان در حلقه بررسی کند که آیا آزمایش خوب است یا خیر، قبل از اینکه آن قابلیت آزمایش را در گردش کار CI/CD موجود خود ادغام کنید تا آزمایش هر بار اجرا شود.

کاهش مهندسی سریع

دو سال گذشته شاهد تقاضای زیادی برای نقش انسان در حلقه مهندس سریع بوده است که مثال‌ها و دستورالعمل‌های خاص و مبتنی بر متن را می‌نویسد تا به هدایت مدل‌های هوش مصنوعی برای تولید پاسخ‌های بهتر و خاص‌تر کمک کند. این روند ممکن است پس از سال 2025 ادامه نیابد.

مهندسی سریع، همراه با بازخورد کارشناسان موضوع و مشتریان، احتمالاً برای یک یا دو سال آینده همچنان یک چیز خواهد بود - به نظر می‌رسد ربات‌های گفتگوی خدمات مشتری هنوز راه زیادی در پیش دارند.

با این حال، در یک نگاه دزدکی برای رادار فناوری بعدی Thoughtworks، روند شگفت‌انگیز کاهش مهندسی سریع وجود دارد - شاید به این دلیل که ما در حال حاضر بیش از حد با ربات‌ها صحبت می‌کنیم؟

مایک میسون، مدیر ارشد هوش مصنوعی در Thoughtworks، گفت: «این در واقع به دلیل ظهور مدل‌های استدلال مانند DeepSeek-R1 و برخی از موارد OpenAI به وجود آمده است، جایی که، اگر واقعاً بیش از حد در سریع قرار دهید، ممکن است واقعاً از سودمندی پاسخ کاسته شود.»

«این ممکن است روش انجام مهندسی سریع را تغییر دهد.» – مایک میسون، مدیر ارشد هوش مصنوعی در Thoughtworks

میسون گفت که سام آلتمن، مدیرعامل OpenAI، "دست انداخته" که ChatGPT-5 ادغامی از سبک‌های مدل خواهد بود که می‌تواند مقدار مناسبی از استدلال را انجام دهد.

میسون گفت: «این ممکن است روش انجام مهندسی سریع را تغییر دهد»، یا به زودی حتی تمام تقاضا برای این نقش را از بین ببرد.

آنچه همچنین می‌تواند بر این تغییر تأثیر بگذارد، ظهور توسعه نرم‌افزار بومی هوش مصنوعی است. در حالی که احتمالاً هنوز مکالمات زبان طبیعی با اسناد و پایگاه‌های کد وجود خواهد داشت، بیشتر درخواست‌ها به طور خودکار در پس‌زمینه انجام می‌شوند و یک آهنگ از اقداماتی را آغاز می‌کنند که توسط صنعت و سازمان تجویز می‌شوند.

همانطور که این نقش‌های فنی در توسعه نرم‌افزار بومی هوش مصنوعی تغییر می‌کنند، یک چیز قطعی است: ما به این زودی‌ها از شر توسعه‌دهنده انسانی خلاص نمی‌شویم.