عکس از گیان شاهانه / Unsplash
عکس از گیان شاهانه / Unsplash

مدیر ارشد فناوری اطلاعات گلدمن ساکس: چالش بعدی برای عامل‌های هوش مصنوعی؟ تطبیق با فرهنگ ما

و انسان‌ها باید کنترل را در دست داشته باشند

مدیر ارشد فناوری اطلاعات گلدمن ساکس گفته است که آموزش عامل‌های هوش مصنوعی (AI agents) برای هماهنگی با فرهنگ‌های شرکتی یکی از چالش‌های بزرگ پیش روی سازمان‌هاست.

مارکو آرژنتی این اظهارات را این هفته در پادکست گلدمن ساکس بیان کرد. او همچنین گفت که انسان‌ها باید در چرخه تصمیم‌گیری باقی بمانند – زیرا مدیریت آنها بر عامل‌های هوش مصنوعی پتانسیل تقویت گسترده تأثیر آنها را، چه خوب و چه بد، دارد.

آرژنتی گفت که دنیای هوش مصنوعی حتی در طول سال گذشته یا بیشتر، سه یا چهار بار تغییر کرده است و ظهور مدل‌های استدلالی رویداد کلیدی چند ماه اخیر بوده است.

او گفت این‌ها تغییرات تدریجی نبودند. «اکنون مدل‌هایی دارید که، برای مثال، می‌توانند تحقیقات واقعی را با عمقی بی‌سابقه برای شما انجام دهند. من شخصاً آن را امتحان کرده‌ام.»

اما او گفت: «فکر می‌کنم در حال حاضر بزرگترین نقطه اصطکاک برای پذیرش هوش مصنوعی در سازمان‌ها، افراد، رفتارها و این واقعیت است که شما گروه‌های عضلانی (عادت‌های کاری) دارید که نیاز به بازآموزی دارند.»

او گفت، جامعه توسعه‌دهندگان ممکن است پذیرش فناوری جدید را آسان‌تر بدانند، زیرا می‌توانند آنچه را که نیاز دارند بردارند و نگران آنچه هنوز کاملاً کار نمی‌کند نباشند. به طور کلی‌تر، او گفت: «شما باید افرادی را پیدا کنید که قبلاً از پل پذیرش این موضوع که یک تحول (disruption) در حال وقوع است عبور کرده‌اند و نسبت به آن بسیار باز باشند.» گلدمن به عنوان بخشی از راه‌اندازی هوش مصنوعی خود، فعالانه به دنبال «تحول‌آفرینان» بود.

او گفت، استفاده از عامل‌ها می‌تواند بسیار سیال باشد. ماهیت فناوری پیش از این نیز کار را برای یک مدیر ارشد فناوری اطلاعات دشوار می‌کرد که دقیقاً بگوید از دقیقه‌ای به دقیقه دیگر چند سرور دارد. «اگر ۱۰ سال دیگر از من بپرسید، زیرا می‌توانید عامل‌ها را برای بستن حساب‌های یک فصل یا برای فصل گزارش درآمد یا برای زمان‌های خاصی در بازار افزایش دهید.» در همین حال، «جنبه انسانی» پایدار باقی خواهد ماند.

اما او گفت، استفاده از عامل‌ها چالش‌های مدیریتی دیگری را نیز ایجاد می‌کند. «یکی از چالش‌ها این است که به نوعی ویژگی‌های فرهنگی، اصول رهبری، و باورهای سازمان را به عامل‌های هوش مصنوعی تزریق کنیم، همانطور که با انسان‌ها انجام می‌دهید.»

او گفت، گلدمن فرهنگ خاصی داشت، همانطور که کارفرمای قبلی او، آمازون، داشت. و اصول این فرهنگ‌ها همیشه مستند نیست. «عامل‌هایی که از بیرون پیاده‌سازی می‌کنید، مانند کارمندانی خواهند بود که روز اول استخدام می‌کنیم. و بنابراین چالش این است که عامل‌ها هوشمندتر و هوشمندتر خواهند شد، اما اگر کاری در آن زمینه انجام ندهید، از نظر فرهنگی هوشمندتر نخواهند شد.»

او گفت، در این مورد زیاد صحبت نمی‌شود، اما عامل‌ها در حال حاضر در کارهایی مانند تهیه پیش‌نویس تحقیقات یا تحلیل پورتفولیو دخیل هستند، بنابراین مهم است که یک دیدگاه گلدمن ساکسی بر آن اعمال شود.

او سه قانون رباتیک آیزاک آسیموف را به عنوان بخشی از این فرآیند ذکر کرد. «می‌دانید، اصول رهبری یا باورهای واقعی که یک عامل مؤثر شرکتی باید به آن پایبند باشد تا در فرهنگ یک سازمان جای بگیرد چیست؟»

و در حالی که امکان خرید «توسعه‌دهندگان مجازی» با ۲۰ یا ۳۰ دلار در ماه وجود دارد، «شما همیشه به یک توسعه‌دهنده نیاز خواهید داشت.» او گفت، آینده‌ای که در آن انسان‌ها حاشیه‌ای باشند، حتی در چشم‌انداز نیست. دست‌کم به این دلیل که کسی باید مسئولیت این واقعیت را بپذیرد که عامل‌ها به معنای «تقویت باورنکردنی خوبی و بدی شما» هستند.