انیمیشن: کریستا جارولد
انیمیشن: کریستا جارولد

من متقاعد نشده‌ام که هوش مصنوعی مولد اخلاقی در حال حاضر وجود دارد

آیا ابزارهای هوش مصنوعی مولدی وجود دارند که بتوانم از آنها استفاده کنم که شاید کمی اخلاقی‌تر از بقیه باشند؟
—انتخاب‌های بهتر

نه، فکر نمی‌کنم هیچ ابزار هوش مصنوعی مولد از بازیگران اصلی اخلاقی‌تر از بقیه باشد. دلیلش این است.

به نظر من، اخلاق استفاده از هوش مصنوعی مولد را می‌توان به مسائل مربوط به نحوه توسعه مدل‌ها تقسیم کرد—به طور خاص، نحوه دسترسی به داده‌های مورد استفاده برای آموزش آنها—و همچنین نگرانی‌های مداوم در مورد تأثیرات زیست‌محیطی آنها. برای راه‌اندازی یک چت‌بات یا تولیدکننده تصویر، مقدار زیادی داده مورد نیاز است، و تصمیماتی که توسعه‌دهندگان در گذشته برای به دست آوردن این مخزن داده گرفته‌اند—و همچنان می‌گیرند—مشکوک و پنهان در ابهام است. حتی چیزی که مردم در سیلیکون ولی مدل‌های «متن‌باز» می‌نامند، مجموعه‌داده‌های آموزشی را در داخل پنهان می‌کنند.

علیرغم شکایات نویسندگان، هنرمندان، فیلمسازان، سازندگان یوتیوب، و حتی فقط کاربران رسانه‌های اجتماعی که نمی‌خواهند پست‌هایشان خراشیده و به لجن چت‌بات تبدیل شود، شرکت‌های هوش مصنوعی معمولاً طوری رفتار کرده‌اند که گویی رضایت از آن سازندگان برای استفاده از خروجی آنها به عنوان داده آموزشی ضروری نیست. یک ادعای آشنا از طرفداران هوش مصنوعی این است که به دست آوردن این حجم عظیم داده با رضایت انسان‌هایی که آن را ساخته‌اند، بسیار دست و پا گیر خواهد بود و مانع نوآوری می‌شود. حتی برای شرکت‌هایی که قراردادهای صدور مجوز با ناشران بزرگ منعقد کرده‌اند، آن داده‌های «تمیز» بخش کوچکی از ماشین عظیم هستند.

اگرچه برخی از توسعه‌دهندگان در حال کار بر روی رویکردهایی برای جبران منصفانه به افرادی هستند که کارشان برای آموزش مدل‌های هوش مصنوعی استفاده می‌شود، اما این پروژه‌ها همچنان جایگزین‌های نسبتاً تخصصی برای غول‌های اصلی هستند.

و سپس عواقب زیست‌محیطی وجود دارد. تأثیر زیست‌محیطی فعلی استفاده از هوش مصنوعی مولد نیز در بین گزینه‌های اصلی بسیار زیاد است. در حالی که هوش مصنوعی مولد هنوز بخش کوچکی از استرس کل بشریت بر محیط زیست را نشان می‌دهد، ابزارهای نرم‌افزاری gen-AI برای ایجاد و اجرا نسبت به همتایان غیرمولد خود به انرژی بسیار بیشتری نیاز دارند. استفاده از یک چت‌بات برای کمک به تحقیق، بسیار بیشتر از جستجو در وب در گوگل به بحران آب و هوا کمک می‌کند.

این امکان وجود دارد که میزان انرژی مورد نیاز برای اجرای ابزارها کاهش یابد—رویکردهای جدیدی مانند آخرین مدل DeepSeek به جای مصرف زیاد، منابع انرژی گرانبها را می‌نوشند—اما به نظر می‌رسد شرکت‌های بزرگ هوش مصنوعی بیشتر به تسریع توسعه علاقه‌مند هستند تا توقف برای در نظر گرفتن رویکردهایی که آسیب کمتری به کره زمین وارد می‌کنند.

چگونه هوش مصنوعی را به جای اینکه باهوش‌تر و قدرتمندتر کنیم، خردمندتر و اخلاقی‌تر کنیم؟
—مغز کهکشانی

از سؤال عاقلانه شما متشکرم، ای انسان. این مخمصه ممکن است موضوع بحث رایج‌تری در میان کسانی باشد که ابزارهای هوش مصنوعی مولد را می‌سازند، از آنچه شما انتظار دارید. به عنوان مثال، رویکرد «قانون اساسی» Anthropic به چت‌بات Claude خود تلاش می‌کند تا حس ارزش‌های اصلی را در دستگاه القا کند.

سردرگمی در قلب سؤال شما به نحوه صحبت ما در مورد نرم‌افزار برمی‌گردد. اخیراً، چندین شرکت مدل‌هایی را منتشر کرده‌اند که بر روی رویکردهای «استدلال» و «زنجیره تفکر» برای انجام تحقیق متمرکز شده‌اند. توصیف کارهایی که ابزارهای هوش مصنوعی با اصطلاحات و عبارات شبیه انسان انجام می‌دهند، خط بین انسان و ماشین را بی‌جهت مبهم می‌کند. منظورم این است که اگر مدل واقعاً می‌تواند استدلال کند و زنجیره‌های فکری داشته باشد، چرا نباید بتوانیم نرم‌افزار را در مسیر روشنگری خود بفرستیم؟

زیرا فکر نمی‌کند. کلماتی مانند استدلال، تفکر عمیق، درک—همه اینها فقط راه‌هایی برای توصیف نحوه پردازش اطلاعات توسط الگوریتم هستند. وقتی در مورد اخلاق نحوه آموزش این مدل‌ها و تأثیرات زیست‌محیطی مکث می‌کنم، موضع من بر اساس ترکیبی از الگوهای پیش‌بینی‌کننده یا متن نیست، بلکه مجموع تجربیات فردی و اعتقادات راسخ من است.

جنبه‌های اخلاقی خروجی‌های هوش مصنوعی همیشه به ورودی‌های انسانی ما بازمی‌گردد. مقاصد اعلان‌های کاربر هنگام تعامل با یک چت‌بات چیست؟ چه تعصب‌هایی در داده‌های آموزشی وجود داشت؟ توسعه‌دهندگان چگونه به ربات یاد دادند که به سؤالات بحث‌برانگیز پاسخ دهد؟ به جای تمرکز بر باهوش‌تر کردن خود هوش مصنوعی، وظیفه واقعی پیش رو، پرورش شیوه‌های توسعه اخلاقی‌تر و تعاملات کاربر است.