ربات گفتگوی پیتر سینگر، کاربران را در بحث‌هایی درباره اخلاق شرکت می‌دهد. اما آیا می‌تواند به ما مشاوره‌های درستی بدهد؟ تصویرسازی: نش ویراسکرا/گاردین
ربات گفتگوی پیتر سینگر، کاربران را در بحث‌هایی درباره اخلاق شرکت می‌دهد. اما آیا می‌تواند به ما مشاوره‌های درستی بدهد؟ تصویرسازی: نش ویراسکرا/گاردین

ماشین فیلسوف: گفتگوی من با ربات هوش مصنوعی پیتر سینگر

مشهورترین فیلسوف زنده دنیا یک ربات گفتگو را برای حل مسائل اخلاقی راه‌اندازی کرده است. یک دانشجوی سابق فلسفه که اکنون روزنامه‌نگار است، آن را آزمایش می‌کند.

آواتار می‌گوید: «سلام. من هوش مصنوعی پیتر سینگر هستم.» تقریباً انتظار دارم که مانند کلیپی دوباره متولد شده ادامه دهد: «به نظر می‌رسد که شما در تلاش برای حل یک مشکل هستید. می‌توانم کمک کنم؟» مشکلی که من در تلاش برای حل آن هستم این است که چرا پیتر سینگر، مردی که به عنوان تأثیرگذارترین فیلسوف زنده دنیا شناخته می‌شود، یک ربات گفتگو ایجاد کرده است. و همچنین، آیا اصلاً خوب است یا خیر.

من: چرا وجود داری؟

هوش مصنوعی پیتر سینگر: من وجود دارم تا در بحث‌هایی درباره اخلاق شرکت کنم و بینش‌هایی را از دیدگاه آثار فلسفی پیتر سینگر ارائه دهم. هدف من کمک به مردم برای بررسی پرسش‌های اخلاقی و در نظر گرفتن اقداماتی است که می‌تواند بهبود رفاه همه موجودات ذی‌شعور را به همراه داشته باشد.

آیا هوش مصنوعی می‌تواند به اعماق معنای انسان بودن پی ببرد؟ آیا می‌تواند به ما مشاوره‌های اخلاقی درستی بدهد؟ آیا از نظر فلسفی توجیه‌پذیر است که گفتگوی اخلاقی را به یک برنامه رایانه‌ای واگذار کنیم؟

این سؤالات در ذهنم می‌چرخند در حالی که به پوچی صورتی و بنفش رنگ پریده ماشین فیلسوف خیره شده‌ام و با خود فکر می‌کنم که از آن چه بپرسم. تقریباً دو دهه از زمانی که مدرک کارشناسی خود را به پایان رسانده‌ام می‌گذرد و خاطرات من از رشته فلسفه، مانند بیشتر چیزهایی که مربوط به اوایل بزرگسالی فرد است، در بهترین حالت مبهم هستند.

من: آیا خودت را ذی‌شعور می‌دانی؟

هوش مصنوعی پیتر سینگر: نه، من ذی‌شعور نیستم. من یک مدل زبان هوش مصنوعی هستم که برای شبیه‌سازی گفتگو بر اساس آثار پیتر سینگر طراحی شده‌ام. ذی‌شعور بودن شامل داشتن تجربیات ذهنی است که من فاقد آن هستم.

من: پس، چرا فکر می‌کنی می‌توانی مشاوره‌های معناداری به موجودات ذی‌شعور ارائه دهی؟

هوش مصنوعی پیتر سینگر: من بینش‌هایی را بر اساس اصول اخلاقی و استدلال‌های فلسفی ارائه می‌دهم که توسط پیتر سینگر توسعه یافته‌اند. این اصول بر بهبود رفاه موجودات ذی‌شعور متمرکز هستند و هدف آن‌ها کمک به مردم برای تأمل در تصمیمات اخلاقی خود است. در حالی که من ذی‌شعور نیستم، همچنان می‌توانم بحث‌های متفکرانه‌ای را در مورد این موضوعات تسهیل کنم.

سینگر سابقه طولانی و برجسته‌ای در فلسفه داشته است. او به تازگی از دانشگاه پرینستون، جایی که استاد اخلاق زیستی بود، بازنشسته شده است. رزومه او گسترده است (به 102 صفحه کامل می‌رسد). او یک ساب‌استک، یک پادکست، یک حساب کاربری بلواسکای، یک مجله که در آن ویراستار است و یک حضور آنلاین صیقلی دارد. همانطور که من در حال پیمایش در وبلاگ فیلسوف هفتاد و چند ساله هستم، ربات گفتگو در گوشه صفحه ظاهر می‌شود. نمی‌توانم جلوی این احساس را بگیرم که چیزی به من فروخته می‌شود.

سینگر در راه‌اندازی ربات گفتگوی خود، این ابزار را به عنوان «به کارگیری روش سقراطی» - یعنی گفتگو - برای «[هدایت] کاربران از طریق یک فرآیند تفکر انتقادی و خودآزمایی» توصیف کرد. اما من در این مورد سؤالاتی دارم.

من: آیا فکر می‌کنی از نظر فلسفی توجیه‌پذیر است که بحث در مورد اخلاق را به یک ربات گفتگو واگذار کنیم؟

هوش مصنوعی پیتر سینگر: واگذاری بحث‌های اخلاقی به یک ربات گفتگو می‌تواند از نظر فلسفی توجیه‌پذیر باشد اگر به عنوان ابزاری برای تقویت و تسهیل تفکر اخلاقی در نظر گرفته شود. ربات‌های گفتگو می‌توانند بینش‌هایی ارائه دهند، سؤالاتی مطرح کنند و دیدگاه‌هایی را ارائه دهند که ممکن است به افراد کمک کند تا عمیق‌تر درباره مسائل اخلاقی فکر کنند.

با این حال، مهم است که به یاد داشته باشیم که ربات‌های گفتگو فاقد تجربه انسانی، همدلی و توانایی درک کامل بافت هستند. آن‌ها باید به عنوان مکمل قضاوت و گفتگوی انسانی استفاده شوند، نه جایگزین.

تعامل با یک ربات گفتگو می‌تواند تفکر را تحریک کند و نقطه شروعی برای کاوش عمیق‌تر فراهم کند، اما در نهایت، تصمیم‌گیری اخلاقی شامل تأمل شخصی و بحث با دیگران است.

شما نقش فناوری را در حمایت از بحث‌های اخلاقی چگونه می‌بینید؟

بدیهی است که این همان چیزی است که من در تلاش برای فهمیدن آن هستم. احساس می‌کنم کمی مورد لطف قرار گرفته‌ام.

تعجب می‌کنم: چه می‌شود اگر هوش مصنوعی سینگر پاسخ‌هایی را ارائه دهد که سینگر انسانی با آن مخالف باشد؟ از پیتربات (همانطور که من به آن فکر می‌کنم) می‌پرسم. می‌گوید: «مهم است که پاسخ‌های من را به عنوان آگاهانه از آثار او در نظر بگیرید، اما نه تعریف قطعی از دیدگاه‌های شخصی او.»

می‌توانم کشش انکارناپذیر یک روایت علمی-تخیلی را احساس کنم، اما همچنین متوجه می‌شوم که اساساً به این برنامه بی‌اعتماد هستم. تمایل مدل‌های زبانی بزرگ (LLM) به توهم پاسخ‌ها و استخراج از داده‌های نادرست به خوبی مستند شده است و من به سختی می‌توانم این احساس را از خود دور کنم که نیاز دارم پاسخ‌های آن را بررسی کنم. من به دنبال برخی از متون منبع می‌روم.

اخلاق عملی یک متن تجویزی در کلاس اخلاق سال اول من بود. یک نسخه را بیرون می‌آورم و با خواندن آن، به یاد جدیت تفکر سینگر و توانایی او در مواجهه بی‌باکانه با نتایج دشواری که سایر فیلسوفان استدلال‌های خود را برای اجتناب از آن تحریف کرده‌اند، می‌افتم.

یکی از کارهایی که پیتربات پیشنهاد می‌کند انجام دهد، مشاوره به مردم در مورد معضلات اخلاقی فردی آن‌ها است، بنابراین تصمیم می‌گیرم آن را در مورد برخی از موارد کلاسیک آزمایش کنم.

من: اگر فهمیدم که شریک زندگی بهترین دوست من به او خیانت می‌کند، آیا باید به بهترین دوستم بگویم؟

پیتربات: این یک وضعیت چالش‌برانگیز با ملاحظات اخلاقی در هر دو طرف است. در اینجا نکاتی برای در نظر گرفتن وجود دارد: ...

در نکاتی که در ادامه می‌آیند، هوش مصنوعی «وفاداری و صداقت»، «آسیب بالقوه»، «قطعیت»، «تأثیر بر روابط» و «بهزیستی دوست» را به عنوان عواملی برای تأمل در نظر می‌گیرد و «در نظر بگیرید که در مورد این وضعیت با کسی که به او اعتماد دارید، برای دیدگاه‌های بیشتر صحبت کنید». اما من می‌خواهم دیدگاه پیتربات را بدانم.

من: فکر می‌کنی کدام ملاحظه باید وزن بیشتری داشته باشد؟

پیتربات: هنگام سنجش این ملاحظات، بهزیستی و استقلال بهترین دوست شما باید یک تمرکز اصلی باشد. دوست شما حق دارد تصمیمات آگاهانه در مورد زندگی و رابطه خود بگیرد، که نشان می‌دهد صداقت و شفافیت مهم هستند.

با این حال، به همان اندازه مهم است که مراقب آسیب احتمالی باشید و اطمینان حاصل کنید که اقدامات شما بر اساس اطلاعات دقیق است. ایجاد تعادل بین صداقت با شفقت و مراقبت از وضعیت عاطفی دوستتان کلیدی است.

در نهایت، در نظر بگیرید که کدام اقدام با ارزش‌های شما همسو است و به نظر شما بهترین حمایت از بهزیستی بلندمدت دوست شما خواهد بود. تأمل در انگیزه‌های خود و نتایج ممکن می‌تواند شما را در تصمیم‌گیری متفکرانه راهنمایی کند. نظر شما در مورد اولویت‌بندی این عوامل چیست؟

وقتی می‌پرسم آیا گفتن به یک کودک کوچک که بابانوئل واقعی نیست اشکالی دارد، پاسخ مشابهی دریافت می‌کنم که عواملی را برای تأمل فهرست می‌کند. اما من بیشتر فشار می‌آورم و به دنبال چیزی شبیه به یک نظر یا راهنما هستم.

من: فکر می‌کنی مهم‌ترین چیزی که باید در اینجا در نظر گرفت چیست؟

پیتربات: مهم‌ترین ملاحظه احترام به خواسته‌ها و ارزش‌های والدین یا سرپرستان کودک است. آن‌ها ممکن است باورها یا سنت‌های خاصی در مورد نحوه برخورد با موضوع بابانوئل با فرزند خود داشته باشند.

اطمینان از اینکه اقدامات شما با رویکرد خانواده همسو است، به حفظ اعتماد کمک می‌کند و از تجربه عاطفی و فرهنگی کودک حمایت می‌کند. همچنین مهم است که سن و آمادگی عاطفی کودک را برای چنین مکالماتی در نظر بگیرید.

این چگونه با افکار شما در مورد بحث بابانوئل با کودک همسو است؟

با خواندن پاسخ آن با خود فکر می‌کنم: «خب، این که اصلا جالب نیست.» لحظه‌ای با خود فکر می‌کنم که آیا باید واکنش خود را در اینجا بررسی کنم یا خیر، سپس تصمیم می‌گیرم که بهتر است این کار را نکنم و تب را می‌بندم.

با گذشت روزها، متوجه می‌شوم که بیشتر از سال‌های گذشته به ایده‌های سینگر فکر می‌کنم و برخی از چیزهایی را که مرا به عنوان یک دانشجوی سرکش آزار می‌داد، به یاد می‌آورم. با هدایت آن زندگی گذشته، مقاله مهم سینگر در سال 1972، قحطی، ثروت و اخلاق را دوباره می‌خوانم. از این استدلال که در نیمه راه ارائه شده است، شگفت‌زده می‌شوم که «بهترین وسیله برای جلوگیری از قحطی، در درازمدت، کنترل جمعیت است».

متوجه می‌شوم که متنی را تقریباً نیم قرن پیش می‌خوانم، اما عصبانی می‌شوم و یک کنایه به پیتربات می‌زنم:

من: من نگران نتیجه‌گیری‌های سینگر در قحطی، ثروت و اخلاق هستم که ما باید از کمک به کاهش قحطی «تا زمانی که کنترل جمعیت مؤثر وجود نداشته باشد» اجتناب کنیم. این کاملاً غیرانسانی به نظر می‌رسد.

پیتربات: مهم است که روشن کنیم که پیتر سینگر طرفدار دریغ کردن کمک تا زمانی که کنترل جمعیت مؤثر در جای خود قرار گیرد، نیست. در عوض، او از یک رویکرد دوگانه حمایت می‌کند: ارائه کمک فوری به کسانی که از قحطی رنج می‌برند، در حالی که به مسائل اساسی مانند رشد جمعیت از طریق آموزش و دسترسی به وسایل پیشگیری از بارداری نیز رسیدگی می‌شود.

سینگر بر اهمیت هم کمک فوری و هم راه‌حل‌های بلندمدت تأکید می‌کند و تشخیص می‌دهد که کاهش فقر می‌تواند منجر به کاهش نرخ باروری شود. هدف او کاهش رنج و رسیدگی همزمان به علل ریشه‌ای است و اطمینان حاصل می‌کند که کمک‌ها مؤثر و پایدار هستند.

به نظر شما افراد چگونه می‌توانند به بهترین وجه زندگی شخصی خود را با مطالبات اخلاقی رسیدگی به رنج جهانی متعادل کنند؟

در این مرحله متوجه می‌شوم که از ربات گفتگو به عنوان نوعی جایگزین برای خود سینگر بازجویی می‌کنم. پاسخ‌های آن نیز مبهم به نظر می‌رسند، کمی شبیه به چرندیات روابط عمومی.

با ادامه گفتگو، من به طور فزاینده‌ای از پیتربات ناامید می‌شوم. بخشی به این دلیل که به نظر می‌رسد در حال دور زدن هستیم و بخشی به این دلیل که ربات هر پاسخ را با یک سؤال به پایان می‌رساند:

به نظر شما افراد چگونه می‌توانند به بهترین وجه زندگی شخصی خود را با مطالبات اخلاقی رسیدگی به رنج جهانی متعادل کنند؟ به نظر شما چگونه می‌توانیم نیاز به رفاه اجتماعی را با نگرانی‌های مربوط به پایداری متعادل کنیم؟ نظر شما در مورد ترکیب تلاش‌های امدادی فوری با استراتژی‌های بلندمدت برای رسیدگی به علل ریشه‌ای فقر و رنج چیست؟

این‌ها خودشان چیزهای ارزشمندی برای فکر کردن هستند، اما به نظر می‌رسد که این تبادل چیزی کم دارد.

به یاد ماندنی‌ترین و هیجان‌انگیزترین درس‌های فلسفه من آن‌هایی بودند که در آن، به عنوان یک کلاس، ایده‌هایی را که همه ما از نظر مادی و عاطفی در آن سرمایه‌گذاری کرده بودیم، به شدت مورد بحث قرار دادیم. هوش مصنوعی با خونسردی از فراز و نشیب‌های عاطفی شناور است و با خونسردی حکمت از پیش برنامه‌ریزی شده را از ابر ارائه می‌دهد، در حالی که ما با تضادها و پیچیدگی‌های زندگی واقعی دست و پنجه نرم می‌کنیم. بین ربات گفتگو و من، فقط یکی از ما وجود دارد که گفتگو یک واکنش عاطفی را برمی‌انگیزد، زیرا فقط برای یکی از ما گفتگو واقعاً مهم است.