راز اینکه چرا ChatGPT نمیتوانست نام «دیوید مایر» را بگوید
کریس استوکل-واکردیوید مایر تا هفته گذشته نامی چندان شناختهشده نبود، تا اینکه بهطور ناگهانی در کانون توجه اینترنت قرار گرفت. دلیل این امر نه چیزی بود که فردی به نام دیوید مایر گفته یا انجام داده باشد، بلکه نحوه برخورد چتبات ChatGPT با هر اشاره به این نام بود.
کاربرانی که از ChatGPT پرسیدند «دیوید مایر کیست؟» با تعجب دیدند که چتبات در میانه پاسخدهی، پاسخ خود را متوقف کرده و پیامی خطا نمایش میدهد: «قادر به تولید پاسخ نیستم.»
با گسترش خبر این معما و کشف اینکه چند نام دیگر نیز واکنش مشابهی را برمیانگیزند، کاربران اینترنت به تحقیق پرداختند. شرکت OpenAI، سازنده ChatGPT، ابتدا بیانیهای منتشر کرد و گفت: «ممکن است در برخی موارد ChatGPT اطلاعات خاصی درباره افراد ارائه ندهد تا از حریم خصوصی آنها محافظت کند.» بعداً افزود: «یکی از ابزارهای ما به اشتباه این نام را علامتگذاری کرده و از نمایش آن در پاسخها جلوگیری کرده است، که نباید اینطور میشد.» سخنگوی OpenAI تأیید کرد که این اشکال برطرف شده است.
اما این اقدام نتوانست جلوی گمانهزنیهای گسترده آنلاین را بگیرد که OpenAI سعی دارد از ارائه پاسخهایی که ممکن است شرکت را در مشکلات قانونی قرار دهد، جلوگیری کند. در سالهای اخیر، چندین نفر بهطور عمومی OpenAI را به دلیل افترا از طریق ChatGPT متهم کرده یا از آن شکایت کردهاند. از جمله این افراد میتوان به جاناتان تورلی، استاد حقوق دانشگاه جورج واشنگتن اشاره کرد که ChatGPT او را به آزار جنسی متهم کرد؛ برایان هود، شهردار استرالیا که ChatGPT او را به رشوهخواری متهم کرد؛ و مارک والترز، مجری رادیویی جورجیا که ChatGPT ادعا کرد او پول اختلاس کرده است. هیچ مدرکی برای حمایت از این اتهامات AI وجود ندارد.
آیا ممنوعیت نام دیوید مایر برای جلوگیری از اختراع چیزهایی درباره یک فرد واقعی با این نام بود؟ کارشناسان حفاظت از دادهها که به دقت این موضوع را بررسی کردند، معتقد بودند که این ممکن است دلیل باشد، زیرا کشف کردند که نامهای دیگر نیز میتوانند همین اشکال را ایجاد کنند. یکی از این نامها گویدو اسکورزا، وکیل ایتالیایی است که بهطور منظم قوانین حفاظت از دادهها را با استفاده از خود بهعنوان مثال آزمایش میکند. نام ممنوعه دیگر جاناتان تورلی، استاد حقوق آمریکایی است. ممکن است OpenAI تصمیم گرفته باشد تا از بروز مجدد این مشکل جلوگیری کند و ممنوعیتی برای ذکر نام او در چتبات اعمال کند.
با این حال، در مورد نام دیوید مایر، هیچ کاندیدای واقعی مشخصی وجود نداشت. بسیاری از مفسران آنلاین دیوید مایر دو روچیلد، تهیهکننده فیلم بریتانیایی و عضو خانواده معروف بانکداری را پیشنهاد کردند. اما به نظر نمیرسید که ممنوعیت نام به او مربوط باشد، زیرا ChatGPT بهراحتی به سؤالات درباره «دیوید دو روچیلد» پاسخ میداد. دیگران پیشنهاد کردند که دیوید مایر مورد نظر ممکن است یک تاریخدان باشد که در سال ۲۰۲۳ درگذشت و در سال ۲۰۱۸ زمانی که آژانسهای رسمی او را با یک تروریست چچنی که از همان نام بهعنوان نام مستعار استفاده میکرد، اشتباه گرفتند، خبرساز شد.
هر دو مایر میتوانستند بهطور نظری از «حق فراموش شدن» تحت قانون اتحادیه اروپا استفاده کرده و درخواست حذف نام خود از ابزارهای اینترنتی مانند موتورهای جستجو و چتباتها را ارائه دهند. اما روچیلد به گاردین گفت که او درخواست حذف نام خود از ChatGPT را نکرده و گفت که این گمانهزنیها «توسط نظریههای توطئه هدایت میشود.»
«با وجود نظریهها، من فکر نمیکنم که اینجا هیچ عمدی وجود داشته باشد،» گفت سلیا لم، استاد مطالعات رسانه و فرهنگی و کارشناس در زمینه شهرت، در دانشگاه ناتینگهام نینگبو چین. بر اساس سیاست OpenAI، هر کسی میتواند از شرکت بخواهد تا دادههای مربوط به او را حذف یا دسترسی به آن را محدود کند. اما «حریم خصوصی به سادگی حذف نام شما از اینترنت یا مسدود کردن دسترسی نیست،» گفت لم. «دادههای مربوط به افراد که از طریق تعاملات و تراکنشهای آنلاین آنها پراکنده شدهاند، میتوانند از طریق ابزارهای پیشرفته هوش مصنوعی بازسازی شوند.»
حتی اگر ممنوعیت نام دیوید مایر نتیجه یک اشکال ساده بود، این مورد چالش اساسی حفاظت از دادهها در عصر هوش مصنوعی را برجسته میکند، توضیح میدهد روبن بینز، استاد محاسبات انسانی و هوش مصنوعی در دانشگاه آکسفورد: «ما باید راههایی پیدا کنیم تا نامهایی که با افراد متعدد مشترک هستند را منحصر به فرد کنیم، زیرا به وضوح، تعداد زیادی دیوید مایر وجود دارد.»
بینز میداند که از چه سخن میگوید. او زمانی در یک مقاله آنلاین نقل قول شده بود که درباره امکان جایگزینی بازیگر رابی کولترن با یک آواتار هوش مصنوعی در فیلمهایی که پس از مرگ او ساخته شدهاند، اظهار نظر کرده بود. اما او این حرف را نگفته بود و وبسایتی که مقاله در آن منتشر شده بود پر از محتوای تولید شده توسط هوش مصنوعی بود.
فناوری پایهای برای ChatGPT و دیگر چتباتها که بر اساس مدلهای زبانی بزرگ ساخته شدهاند، شبکه عصبی است که قرار است فرآیندهای مغز انسان را در سیلیکون تکرار کند. اما به دلیل اینکه شرکتهای پشت این مدلهای هوش مصنوعی بهطور کامل نمیدانند که چگونه در زیر پوسته کار میکنند، مجبور به استفاده از یک روش قدیمیتر برای معرفی کنترلها و تعادلها هستند: یک سیستم مبتنی بر قوانین.
آیا تا به حال با یک اشکال عجیب هوش مصنوعی مواجه شدهاید؟ به گفتوگو بپیوندید.
رفتار ChatGPT زمانی که از نمایش نام دیوید مایر خودداری میکند، نشان میدهد که به آن یک قانون ساده داده شده است که بیشتر به یک دوره گذشته محاسباتی شباهت دارد: اگر «دیوید مایر» ذکر شد، بلافاصله آنچه نوشتهاید را حذف کنید و بنویسید «قادر به تولید پاسخ نیستم.»
ChatGPT در دو سال گذشته با ریختن جملات خود مانند یک انسان، تخیل جهان را به خود جلب کرده است. اما در این موارد، به گاردریلهای سختکد شده خود برخورد میکند و به یک رویکرد بسیار ابتداییتر برمیگردد: کامپیوتر میگوید نه. این تجربهای گیجکننده و ناهماهنگ است.
با وجود ارزشگذاریهای چشمگیر شرکتهای هوش مصنوعی و تیترهای الهامبخش درباره هوش ماشینی، داستان دیوید مایر نشان میدهد که کل این تلاش بر یک ساختار ضعیف کنترل شده استوار است. همانطور که بیشتر ما از راههایی که میتوانیم بهطور ناخواسته در پاسخ یک چتبات قرار بگیریم آگاه میشویم، ممکن است با مسائل مشابه دیوید مایر در آینده مواجه شویم. بنابراین به اشکالات عادت کنید.
کریس استوکل-واکر یک روزنامهنگار و نویسنده مستقر در بریتانیا است. آخرین کتاب او «چگونه هوش مصنوعی جهان را خورد» است.