آیا ابزارهای هوش مصنوعی مولدی وجود دارند که بتوانم از آنها استفاده کنم که شاید کمی اخلاقیتر از بقیه باشند؟
—انتخابهای بهتر
نه، فکر نمیکنم هیچ ابزار هوش مصنوعی مولد از بازیگران اصلی اخلاقیتر از بقیه باشد. دلیلش این است.
به نظر من، اخلاق استفاده از هوش مصنوعی مولد را میتوان به مسائل مربوط به نحوه توسعه مدلها تقسیم کرد—به طور خاص، نحوه دسترسی به دادههای مورد استفاده برای آموزش آنها—و همچنین نگرانیهای مداوم در مورد تأثیرات زیستمحیطی آنها. برای راهاندازی یک چتبات یا تولیدکننده تصویر، مقدار زیادی داده مورد نیاز است، و تصمیماتی که توسعهدهندگان در گذشته برای به دست آوردن این مخزن داده گرفتهاند—و همچنان میگیرند—مشکوک و پنهان در ابهام است. حتی چیزی که مردم در سیلیکون ولی مدلهای «متنباز» مینامند، مجموعهدادههای آموزشی را در داخل پنهان میکنند.
علیرغم شکایات نویسندگان، هنرمندان، فیلمسازان، سازندگان یوتیوب، و حتی فقط کاربران رسانههای اجتماعی که نمیخواهند پستهایشان خراشیده و به لجن چتبات تبدیل شود، شرکتهای هوش مصنوعی معمولاً طوری رفتار کردهاند که گویی رضایت از آن سازندگان برای استفاده از خروجی آنها به عنوان داده آموزشی ضروری نیست. یک ادعای آشنا از طرفداران هوش مصنوعی این است که به دست آوردن این حجم عظیم داده با رضایت انسانهایی که آن را ساختهاند، بسیار دست و پا گیر خواهد بود و مانع نوآوری میشود. حتی برای شرکتهایی که قراردادهای صدور مجوز با ناشران بزرگ منعقد کردهاند، آن دادههای «تمیز» بخش کوچکی از ماشین عظیم هستند.
اگرچه برخی از توسعهدهندگان در حال کار بر روی رویکردهایی برای جبران منصفانه به افرادی هستند که کارشان برای آموزش مدلهای هوش مصنوعی استفاده میشود، اما این پروژهها همچنان جایگزینهای نسبتاً تخصصی برای غولهای اصلی هستند.
و سپس عواقب زیستمحیطی وجود دارد. تأثیر زیستمحیطی فعلی استفاده از هوش مصنوعی مولد نیز در بین گزینههای اصلی بسیار زیاد است. در حالی که هوش مصنوعی مولد هنوز بخش کوچکی از استرس کل بشریت بر محیط زیست را نشان میدهد، ابزارهای نرمافزاری gen-AI برای ایجاد و اجرا نسبت به همتایان غیرمولد خود به انرژی بسیار بیشتری نیاز دارند. استفاده از یک چتبات برای کمک به تحقیق، بسیار بیشتر از جستجو در وب در گوگل به بحران آب و هوا کمک میکند.
این امکان وجود دارد که میزان انرژی مورد نیاز برای اجرای ابزارها کاهش یابد—رویکردهای جدیدی مانند آخرین مدل DeepSeek به جای مصرف زیاد، منابع انرژی گرانبها را مینوشند—اما به نظر میرسد شرکتهای بزرگ هوش مصنوعی بیشتر به تسریع توسعه علاقهمند هستند تا توقف برای در نظر گرفتن رویکردهایی که آسیب کمتری به کره زمین وارد میکنند.
چگونه هوش مصنوعی را به جای اینکه باهوشتر و قدرتمندتر کنیم، خردمندتر و اخلاقیتر کنیم؟
—مغز کهکشانی
از سؤال عاقلانه شما متشکرم، ای انسان. این مخمصه ممکن است موضوع بحث رایجتری در میان کسانی باشد که ابزارهای هوش مصنوعی مولد را میسازند، از آنچه شما انتظار دارید. به عنوان مثال، رویکرد «قانون اساسی» Anthropic به چتبات Claude خود تلاش میکند تا حس ارزشهای اصلی را در دستگاه القا کند.
سردرگمی در قلب سؤال شما به نحوه صحبت ما در مورد نرمافزار برمیگردد. اخیراً، چندین شرکت مدلهایی را منتشر کردهاند که بر روی رویکردهای «استدلال» و «زنجیره تفکر» برای انجام تحقیق متمرکز شدهاند. توصیف کارهایی که ابزارهای هوش مصنوعی با اصطلاحات و عبارات شبیه انسان انجام میدهند، خط بین انسان و ماشین را بیجهت مبهم میکند. منظورم این است که اگر مدل واقعاً میتواند استدلال کند و زنجیرههای فکری داشته باشد، چرا نباید بتوانیم نرمافزار را در مسیر روشنگری خود بفرستیم؟
زیرا فکر نمیکند. کلماتی مانند استدلال، تفکر عمیق، درک—همه اینها فقط راههایی برای توصیف نحوه پردازش اطلاعات توسط الگوریتم هستند. وقتی در مورد اخلاق نحوه آموزش این مدلها و تأثیرات زیستمحیطی مکث میکنم، موضع من بر اساس ترکیبی از الگوهای پیشبینیکننده یا متن نیست، بلکه مجموع تجربیات فردی و اعتقادات راسخ من است.
جنبههای اخلاقی خروجیهای هوش مصنوعی همیشه به ورودیهای انسانی ما بازمیگردد. مقاصد اعلانهای کاربر هنگام تعامل با یک چتبات چیست؟ چه تعصبهایی در دادههای آموزشی وجود داشت؟ توسعهدهندگان چگونه به ربات یاد دادند که به سؤالات بحثبرانگیز پاسخ دهد؟ به جای تمرکز بر باهوشتر کردن خود هوش مصنوعی، وظیفه واقعی پیش رو، پرورش شیوههای توسعه اخلاقیتر و تعاملات کاربر است.