هشدار: بدهی فنی هوش مصنوعی به دلیل کد ناامن یا نادرست
هشدار: بدهی فنی هوش مصنوعی به دلیل کد ناامن یا نادرست

آیا توسعه‌دهندگان می‌توانند «کدنویسی حسی» را بپذیرند بدون اینکه شرکت‌ها بدهی فنی هوش مصنوعی را بپذیرند؟

زمانی که آندری کارپاتی، یکی از بنیانگذاران OpenAI، اصطلاح "کدنویسی حسی" را ابداع کرد، یک نقطه عطف را به تصویر کشید: توسعه دهندگان به طور فزاینده ای به هوش مصنوعی مولد برای نوشتن پیش نویس کد اعتماد می کنند، در حالی که آنها بر هدایت سطح بالا تمرکز می کنند و "به سختی صفحه کلید را لمس می کنند."

پلتفرم های LLM پایه - GitHub Copilot، DeepSeek، OpenAI - در حال تغییر شکل توسعه نرم افزار هستند، به طوری که Cursor اخیراً به سریع ترین شرکتی تبدیل شده است که تا کنون از 1 میلیون دلار درآمد سالانه مکرر به 100 میلیون دلار رسیده است (در کمتر از یک سال). اما این سرعت هزینه دارد.

بدهی فنی، که در حال حاضر تخمین زده می شود سالانه بیش از 1.5 تریلیون دلار در ناکارآمدی های عملیاتی و امنیتی به مشاغل خسارت وارد کند، چیز جدیدی نیست. اما اکنون شرکت ها با یک چالش نوظهور و به نظر من حتی بزرگتر روبرو هستند: بدهی فنی هوش مصنوعی - یک بحران خاموش که ناشی از کدهای تولید شده توسط هوش مصنوعی ناکارآمد، نادرست و بالقوه ناامن است.

گردنه انسانی از کدنویسی به بررسی پایگاه کد تغییر کرده است

یک نظرسنجی GitHub در سال ۲۰۲۴ نشان داد که تقریباً همه توسعه دهندگان سازمانی (۹۷٪) از ابزارهای کدنویسی هوش مصنوعی مولد استفاده می کنند، اما تنها ۳۸٪ از توسعه دهندگان ایالات متحده گفتند که سازمان آنها فعالانه استفاده از هوش مصنوعی مولد را تشویق می کند.

توسعه دهندگان عاشق استفاده از مدل های LLM برای تولید کد برای ارسال بیشتر و سریعتر هستند و شرکت ها برای تسریع نوآوری مجهز شده اند. با این حال - بررسی های دستی و ابزارهای قدیمی نمی توانند با بهینه سازی و اعتبارسنجی میلیون ها خط کد تولید شده توسط هوش مصنوعی به صورت روزانه سازگار شوند یا مقیاس بندی شوند.

با اعمال این نیروهای بازار، حاکمیت و نظارت سنتی می تواند از بین برود و هنگامی که از بین می رود، کدهای کم اعتبار به پشته سازمانی نفوذ می کنند.

ظهور توسعه دهندگان "کدنویسی حسی" خطر افزایش حجم و هزینه بدهی فنی را به همراه دارد، مگر اینکه سازمان ها محافظ هایی را پیاده سازی کنند که سرعت نوآوری را با اعتبارسنجی فنی متعادل کند.

توهم سرعت: وقتی هوش مصنوعی از حکمرانی پیشی می گیرد

کد تولید شده توسط هوش مصنوعی ذاتاً ناقص نیست - فقط با سرعت و مقیاس کافی اعتبارسنجی نشده است.

داده ها را در نظر بگیرید: همه LLM ها از دست دادن مدل (توهم) را نشان می دهند. یک مقاله تحقیقاتی اخیر    که کیفیت تولید کد GitHub Copilot را ارزیابی می کند نرخ خطای 20٪ را نشان داد. مشکل را حجم زیاد خروجی هوش مصنوعی تشدید می کند. یک توسعه دهنده واحد می تواند از یک LLM برای تولید 10000 خط کد در عرض چند دقیقه استفاده کند و از توانایی توسعه دهندگان انسانی برای بهینه سازی و اعتبارسنجی آن پیشی بگیرد. تجزیه و تحلیلگرهای ایستا قدیمی، که برای منطق نوشته شده توسط انسان طراحی شده اند، با الگوهای احتمالی خروجی های هوش مصنوعی دست و پنجه نرم می کنند. نتیجه؟ صورتحساب های ابری متورم ناشی از الگوریتم های ناکارآمد، خطرات انطباق ناشی از وابستگی های تایید نشده و خرابی های حیاتی که در محیط های تولید پنهان شده اند.

جوامع، شرکت ها و زیرساخت های حیاتی ما همه به نرم افزارهای مقیاس پذیر، پایدار و ایمن وابسته هستند. بدهی فنی ناشی از هوش مصنوعی که به شرکت ها نفوذ می کند می تواند به معنای خطر حیاتی برای تجارت باشد... یا بدتر.

بازپس گیری کنترل بدون از بین بردن حس

راه حل این نیست که هوش مصنوعی مولد را برای کدنویسی رها کنیم - بلکه این است که توسعه دهندگان نیز سیستم های هوش مصنوعی عامل را به عنوان بهینه سازها و اعتبارسنجی های کد با مقیاس انبوه مستقر کنند. یک مدل عامل می تواند از تکنیک هایی مانند الگوریتم های تکاملی برای اصلاح تکراری کد در چندین LLM برای بهینه سازی آن برای معیارهای کلیدی عملکرد - مانند کارایی، سرعت زمان اجرا، استفاده از حافظه -   و اعتبارسنجی عملکرد و قابلیت اطمینان آن در شرایط مختلف استفاده کند.

سه اصل شرکت هایی را که با هوش مصنوعی رشد می کنند از کسانی که در بدهی فنی ناشی از هوش مصنوعی غرق می شوند، جدا می کند:

  1. اعتبارسنجی مقیاس پذیر غیرقابل مذاکره است: شرکت ها باید سیستم های هوش مصنوعی عامل را بپذیرند که قادر به اعتبارسنجی و بهینه سازی کد تولید شده توسط هوش مصنوعی در مقیاس هستند. بررسی های دستی سنتی و ابزارهای قدیمی برای مدیریت حجم و پیچیدگی کد تولید شده توسط LLM ها کافی نیستند. بدون اعتبارسنجی مقیاس پذیر، ناکارآمدی ها، آسیب پذیری های امنیتی و خطرات انطباق گسترش می یابند و ارزش تجاری را از بین می برند.
  1. سرعت را با حکمرانی متعادل کنید: در حالی که هوش مصنوعی تولید کد را تسریع می کند، چارچوب های حکمرانی باید تکامل یابند تا همگام شوند. سازمان ها باید محافظ هایی را پیاده سازی کنند که اطمینان حاصل کنند کد تولید شده توسط هوش مصنوعی با استانداردهای کیفیت، امنیت و عملکرد مطابقت دارد بدون اینکه نوآوری را خفه کند. این تعادل برای جلوگیری از تبدیل شدن توهم سرعت به یک واقعیت پرهزینه بدهی فنی بسیار مهم است.
  1. فقط هوش مصنوعی می تواند با هوش مصنوعی همگام شود: حجم و پیچیدگی زیاد کد تولید شده توسط هوش مصنوعی نیازمند راه حل های به همان اندازه پیشرفته است. شرکت ها باید سیستم های مبتنی بر هوش مصنوعی را بپذیرند که می توانند به طور مداوم کد را در مقیاس تجزیه و تحلیل، بهینه سازی و اعتبارسنجی کنند. این سیستم ها اطمینان حاصل می کنند که سرعت توسعه مبتنی بر هوش مصنوعی کیفیت، امنیت یا عملکرد را به خطر نمی اندازد و نوآوری پایدار را بدون تحمیل بدهی فنی فلج کننده امکان پذیر می کند.

کدنویسی حسی: بیایید زیاده روی نکنیم

شرکت هایی که اقدام در مورد "کدنویسی حسی" را به تعویق می اندازند، در مقطعی باید با این موضوع روبرو شوند: کاهش حاشیه سود ناشی از هزینه های ابری بی رویه، فلج نوآوری در حالی که تیم ها برای اشکال زدایی کدهای شکننده تلاش می کنند، افزایش بدهی فنی و خطرات پنهان ناشی از نقص های امنیتی معرفی شده توسط هوش مصنوعی.

مسیر پیش رو برای توسعه دهندگان و شرکت ها به طور یکسان مستلزم اذعان به این است که فقط هوش مصنوعی می تواند هوش مصنوعی را در مقیاس بهینه سازی و اعتبارسنجی کند. با دادن دسترسی به ابزارهای اعتبارسنجی عامل به توسعه دهندگان، آنها آزادند که "کدنویسی حسی" را بپذیرند بدون اینکه شرکت را تسلیم بدهی فنی فزاینده تولید شده توسط هوش مصنوعی کنند. همانطور که کارپاتی اشاره می کند، پتانسیل کد تولید شده توسط هوش مصنوعی هیجان انگیز - حتی نشئه آور - است. اما در توسعه سازمانی، ابتدا باید یک بررسی حسی توسط یک نژاد تکاملی جدید از هوش مصنوعی عامل انجام شود.