ما توضیح میدهیم که یک توسعهدهنده بومی هوش مصنوعی چیست، چگونه این نقش تکامل خواهد یافت و چرا توسعه هوش مصنوعی مبتنی بر مشخصات این روند را هدایت میکند.
به نظر میرسد که هر مهندس نرمافزار به زودی مجبور خواهد بود که یک توسعهدهنده بومی هوش مصنوعی شود. نه، این به این معنا نیست که هوش مصنوعی در مغز شما جاسازی خواهد شد. همچنین به این معنا نیست که شما مجبور خواهید بود در طول دوران حرفه ای خود در زمینه فناوری با هوش مصنوعی کار کرده باشید.
«توسعهدهنده بومی هوش مصنوعی» حتی یک اصطلاح نادرست تر است زیرا به فرد بستگی ندارد و لزوماً در مورد ساخت برنامهها، مفاهیم، الگوریتمها یا مدلهای هوش مصنوعی نیز نیست.
در این مورد، هوش مصنوعی به جای آن در سراسر چرخه عمر توسعه نرمافزار (SLDC) جاسازی شده است، از طریق اضافات هوش مصنوعی که بر روی اهداف خاصی کار میکنند تا توسعهدهندگان بتوانند بر ارائه ارزش متفاوت تمرکز کنند. احتمالاً اصطلاح «هوش مصنوعی بومی ابری» اصطلاح بهتری است. در هر صورت، هوش مصنوعی مولد مبتنی بر زبان طبیعی به عنوان یک برنامه نویس جفت فعال به کار خود ادامه خواهد داد.
اما چگونه میتوانید از تیمهای توسعه نرمافزار بومی هوش مصنوعی فعلی یا آینده خود بیشترین بهره را ببرید؟ چگونه هوش مصنوعی را به طور استراتژیک در SLDC ادغام میکنید؟ چگونه همه این کارها را به طور ایمن انجام میدهید؟
ظهور توسعه هوش مصنوعی مبتنی بر مشخصات
در حال حاضر، تمرکز توسعه نرمافزار بر جایگذاری هوش مصنوعی در بخشهایی از گردش کار توسعهدهنده موجود و جستجوی فرصتهایی برای خودکارسازی است. اما همه فکر نمیکنند این راه منطقی برای پیشرفت باشد.
گای پودجورنی، بنیانگذار Snyk و اکنون Tessl، در سخنرانی خود در State of Open Con، لندن گفت: «پتانسیل واقعی این است که شما واقعاً در گردش کار تجدید نظر کنید. در ظهور این فناوری قدرتمند، چگونه میتوانم در مورد اینکه توسعه نرمافزار چیست تجدید نظر کنم؟ دیدگاه ما این است که توسعه نرمافزار از کد محور به مشخصات محور تغییر خواهد کرد.»
«دیدگاه ما این است که توسعه نرمافزار از کد محور به مشخصات محور تغییر خواهد کرد.» – گای پودجورنی، بنیانگذار Tessl
این رویکرد جدید به دنبال ایجاد نرده محافظ در مشخصات یا مشخصات شما است که به طور پیش فرض پتانسیل کد تولید شده توسط هوش مصنوعی ایمن تر و با کیفیت بالاتر را دارد. توسعه مبتنی بر مشخصات، با نام مستعار توسعه مبتنی بر رفتار 2.0، از سه مرحله پیروی میکند:
- از زبان ساده برای توصیف عملکردهای جدید استفاده کنید.
- کد را بر اساس این مشخصات جدید توسعه دهید.
- کد را آزمایش کنید تا مطمئن شوید که با مشخصات مطابقت دارد.
به طور گسترده، توسعه هوش مصنوعی مبتنی بر مشخصات، نرده محافظ طراحی را در اطراف آنچه یک برنامه هوش مصنوعی انجام میدهد، قرار میدهد.
مانند تمام توسعههای مبتنی بر مشخصات، این امکان را فراهم میکند:
- بهبود ثبات و حاکمیت.
- اعتبارسنجی زودهنگام اینکه آنچه ساخته میشود همان چیزی است که باید ساخته شود.
- همکاری و ارتباط بین ذینفعان فنی و تجاری به زبان طبیعی.
این مزیت آخر به ویژه مهم است زیرا کد تولید شده توسط هوش مصنوعی اغلب با توضیح اینکه مدل زبانی بزرگ (LLM) چه تصمیماتی گرفته و چرا، همراه نیست.
آنچه به هوش مصنوعی بومی معنا میدهد، این است که هوش مصنوعی را وادار کنید تا آنچه را که واقعاً میخواهید ایجاد کند، که میتواند در این منبع واحد حقیقت جدید - مشخصات شما - روشن شود. برخلاف وضعیت موجود، زمانی که منبع واحد حقیقت شما کد شما است.
پودجورنی گفت: «توسعه نرمافزار امروزی بسیار کد محور است. شما چند نیاز دریافت میکنید، مقداری کد مینویسید، 100 تصمیم میگیرید که هرگز به عقب برنمیگردند، هرگز به سیستم راه پیدا نمیکنند.» گاهی اوقات آزمایشها و اسناد ایجاد میشوند، اما به ندرت کامل هستند - و نه به روز میمانند.
او ادامه داد، تنها دارایی که واقعاً در آزمون زمان مقاومت میکند، کد است.
«یک سال بعد، موفق باشید که سعی کنید ردیابی الزامات و رفع اشکالات و تعریف پیشرفت را پیدا کنید که میگوید: درخواست چه بود؟ برنامه باید چه کار کند؟»
اما حتی اگر مستقیماً کد خود را تغییر ندهید، تغییر میکند زیرا وابستگیها، پیادهسازیها، محیطها و/یا یکپارچهسازیها تغییر میکنند. این به این دلیل است که، همانطور که پودجورنی بیان کرد، "کد شما در یک محیط پویا زندگی میکند" که "حتی اگر برنامه را درگیر نکنید، خطر شکستن آن را به همراه دارید" - که، دوباره، در هیچ کجا ثبت نمیشود.
او افزود: «و بنابراین برنامه شکننده میشود.»
مشخصات شامل تعریف این است که برنامه شما قرار است چه کاری انجام دهد، با آزمایشهایی که تأیید میکنند که کد تولید شده توسط هوش مصنوعی صحیح است و با مشخصات مطابقت دارد.
وقتی هوش مصنوعی درگیر است، تیمهای توسعه نرمافزار از چرایی، چگونگی و چیستی کد دورتر هستند. مثل همیشه، ترس از لمس کد با افزایش سن آن افزایش مییابد.
پودجورنی استدلال میکند، با توسعه هوش مصنوعی مبتنی بر مشخصات، شما "این الزامات را میگیرید و آنها را از چیزی که دور ریختنی است - که در ابتدا آمده و ناپدید شده است - به چیزی که در مرکز قرار دارد و عمر طولانی دارد، تبدیل میکنید."
مشخصات شامل تعریف این است که برنامه شما قرار است چه کاری انجام دهد، با آزمایشهایی که تأیید میکنند که کد تولید شده توسط هوش مصنوعی صحیح است و با مشخصات مطابقت دارد. این کد به طور فزایندهای تغییرناپذیر و دور ریختنی میشود.
اما این تنها یک گام در راه تبدیل شدن به یک تیم توسعه بومی هوش مصنوعی است.
استدلالی برای اجرای LLM های منبع باز خود
از هوش مصنوعی سایه گرفته تا کمتر از نیمی از شرکتهایی که حتی سیاست حاکمیت هوش مصنوعی دارند، بیشتر کدهای تولید شده توسط هوش مصنوعی بدون هیچ مرز و یا دستورالعملی ایجاد و منتشر میشوند. اغلب حتی بدون آزمایش یا انسان در حلقه.
حتی بدون اینکه همه اینها قفل شده باشند، 42 درصد از سازمانها در نظر دارند مدلهای زبانی بزرگ اختصاصی خود را توسعه دهند. ما میتوانیم فرض کنیم که تعداد بسیار کمی از این شرکتها در واقع شرکتهای هوش مصنوعی هستند، بنابراین این میتواند باعث شود که آنها بر روی کارهای غیر متمایز و در عین حال پرهزینه تمرکز کنند.
لوک مارسدن، مدیرعامل HelixML، به The New Stack گفت که بسیاری از شرکتها در نظر دارند: «چگونه ChatGPT داخلی خود را راه اندازی کنیم که بدانیم میتوانیم به آن اعتماد کنیم؟ برای جلوگیری از انجام هوش مصنوعی سایه توسط افراد، زیرا در این صورت، به جای دزدکی ChatGPT در تلفن خود، میتوانند از نسخه داخلی استفاده کنند.»
با این حال، او استدلال میکند، راه حل در پیشنهادات اختصاصی مانند ChatGPT یا Gemini نیست، زمانی که LLM های منبع باز مانند DeepSeek از نظر سرعت و کیفیت به چالش کشیده میشوند.
«اگر به لینوکس در مقابل ویندوز فکر کنید، منبع باز در سرور برنده شد. چرا این اتفاق دوباره برای این موج جدید هوش مصنوعی رخ ندهد؟» – لوک مارسدن، مدیرعامل HelixML
مارسدن گفت: «اگر به لینوکس در مقابل ویندوز فکر کنید، منبع باز در سرور برنده شد. چرا این اتفاق دوباره برای این موج جدید هوش مصنوعی رخ ندهد؟»
به غیر از این واقعیت که شما نیازی به آموزش مدلهای زبانی بزرگ خصوصی ثروتمندترین شرکتهای جهان ندارید، دلایل قانعکننده دیگری برای میزبانی نسخههای خود از LLM های منبع باز وجود دارد. این شامل این خطر است که شما میتوانید کد اختصاصی شخص دیگری را در محصول خود قرار دهید یا حق چاپ خود را به خطر بیندازید زیرا یک LLM عمومی را با اسرار شرکت خود آموزش دادهاید.
با این حال، در ذهن اکثر رهبری فنی، خطرات امنیتی LLM وجود دارد. به طور کلی، تا کنون، کد تولید شده توسط هوش مصنوعی باگتر از کدی است که صرفاً توسط توسعهدهندگان نوشته شده است، و تزریق سریع یکی دیگر از خطرات امنیتی هوش مصنوعی بسیار حاضر است.
مارسدن گفت: «هر شرکت یا سازمانی که اسرار مهم یا ارزشمندی دارد، میخواهد مطمئن شود که استفاده خود از این فناوری را قفل کرده است.» اما، "در عین حال، آنها تحت فشار برای نوآوری هستند."
اغلب یک بیاعتمادی بیاساس وجود دارد که نرمافزار و مدلهای هوش مصنوعی منبع باز ذاتاً از همتایان اختصاصی خود کم خطرتر هستند. چه سازمان شما در این ترس سهیم باشد و چه صرفاً میخواهید از قفل شدن فروشنده و هزینه اجتناب کنید، مارسدن از استفاده از یک LLM منبع باز به صورت محلی در فایروال خود دفاع میکند.
او گفت: «سازمانهای زیادی وجود دارند که فقط به دلایل نظارتی نمیتوانند دادههای خود را به یک ارائهدهنده ابری بزرگ ارسال کنند و زیرساخت خود را اجرا میکنند. یک روند بازگشت به اجرای در ابرهای خصوصی، بازگرداندن دادههای خود وجود دارد.»
«این واقعیت که همه چیز محلی است، ذاتاً ایمنتر است زیرا شما دادهها را به شخص ثالث غیرقابل اعتماد نمیفرستید.»
این گزینهای بود که سال گذشته در طول بحران کمبود GPU به راحتی در دسترس نبود. اما اکنون، مارسدن گفت، قیمت GPUها بسیار کاهش یافته است و دوباره به طور گسترده در دسترس قرار گرفتهاند.
یکی دیگر از بردهای بزرگ با یک برنامه بومی هوش مصنوعی منبع باز این است که به شما امکان میدهد آن را در گردش کارهای DevOps و نرمافزار خود ادغام کنید.
یکی دیگر از مزایای اجرای LLM خود، این است که هرچه این مدلهای استدلال منبع باز - مانند DeepSeek - بیشتر اجرا شوند، پاسخها بهتر میشوند. این امر به روند بازگشت سازمانها به اجرای روی سختافزار خود بازخورد میدهد، زیرا هرچه مدت بیشتری یک مدل را در ابر اجرا کنید، هزینههای ابری بیشتر میشود.
یکی دیگر از بردهای بزرگ در ساخت یک برنامه بومی هوش مصنوعی با منبع باز این است که به شما امکان میدهد آن را در گردش کارهای DevOps و نرمافزار خود ادغام کنید. مارسدن گفت: این به تیمها امکان میدهد سؤالات بسیار خاصی را از سازمانهای خود بپرسند. او چند نمونه ارائه داد:
- در اسپرینت فعلی چه چیزی وجود دارد؟
- آیا میتوانید به من در نوشتن کدی برای مسئلهای که به من اختصاص داده شده است کمک کنید؟
او گفت: «شما ممکن است 10 مورد مختلف داشته باشید که میخواهید این دستیار Jira در آنها کار خوبی انجام دهد. کاری که میتوانید انجام دهید این است که آن موارد را به عنوان آزمایش بنویسید.» مشابه نحوه نوشتن آزمایشها برای نرمافزاری که ساختهاید اما برای برنامههای GenAI، و سپس "این آزمایشها از یک مشخصات زبان طبیعی برای اینکه پاسخهای درست چیست استفاده میکنند."
سپس، مارسدن ادامه داد، میتوانید الگوی LLM-as-a-Judge را به عنوان یک روش ارزیابی برای ارزیابی کیفیت آن پاسخها - نه تنها با استانداردهای عمومی، بلکه در چارچوب یک سازمان و حاکمیت آن - اعمال کنید. و شما همچنان این گزینه را دارید که یک انسان در حلقه بررسی کند که آیا آزمایش خوب است یا خیر، قبل از اینکه آن قابلیت آزمایش را در گردش کار CI/CD موجود خود ادغام کنید تا آزمایش هر بار اجرا شود.
کاهش مهندسی سریع
دو سال گذشته شاهد تقاضای زیادی برای نقش انسان در حلقه مهندس سریع بوده است که مثالها و دستورالعملهای خاص و مبتنی بر متن را مینویسد تا به هدایت مدلهای هوش مصنوعی برای تولید پاسخهای بهتر و خاصتر کمک کند. این روند ممکن است پس از سال 2025 ادامه نیابد.
مهندسی سریع، همراه با بازخورد کارشناسان موضوع و مشتریان، احتمالاً برای یک یا دو سال آینده همچنان یک چیز خواهد بود - به نظر میرسد رباتهای گفتگوی خدمات مشتری هنوز راه زیادی در پیش دارند.
با این حال، در یک نگاه دزدکی برای رادار فناوری بعدی Thoughtworks، روند شگفتانگیز کاهش مهندسی سریع وجود دارد - شاید به این دلیل که ما در حال حاضر بیش از حد با رباتها صحبت میکنیم؟
مایک میسون، مدیر ارشد هوش مصنوعی در Thoughtworks، گفت: «این در واقع به دلیل ظهور مدلهای استدلال مانند DeepSeek-R1 و برخی از موارد OpenAI به وجود آمده است، جایی که، اگر واقعاً بیش از حد در سریع قرار دهید، ممکن است واقعاً از سودمندی پاسخ کاسته شود.»
«این ممکن است روش انجام مهندسی سریع را تغییر دهد.» – مایک میسون، مدیر ارشد هوش مصنوعی در Thoughtworks
میسون گفت که سام آلتمن، مدیرعامل OpenAI، "دست انداخته" که ChatGPT-5 ادغامی از سبکهای مدل خواهد بود که میتواند مقدار مناسبی از استدلال را انجام دهد.
میسون گفت: «این ممکن است روش انجام مهندسی سریع را تغییر دهد»، یا به زودی حتی تمام تقاضا برای این نقش را از بین ببرد.
آنچه همچنین میتواند بر این تغییر تأثیر بگذارد، ظهور توسعه نرمافزار بومی هوش مصنوعی است. در حالی که احتمالاً هنوز مکالمات زبان طبیعی با اسناد و پایگاههای کد وجود خواهد داشت، بیشتر درخواستها به طور خودکار در پسزمینه انجام میشوند و یک آهنگ از اقداماتی را آغاز میکنند که توسط صنعت و سازمان تجویز میشوند.
همانطور که این نقشهای فنی در توسعه نرمافزار بومی هوش مصنوعی تغییر میکنند، یک چیز قطعی است: ما به این زودیها از شر توسعهدهنده انسانی خلاص نمیشویم.