```html راز اینکه چرا ChatGPT نمی‌توانست نام «دیوید مایر» را بگوید

راز اینکه چرا ChatGPT نمی‌توانست نام «دیوید مایر» را بگوید

کریس استوکل-واکر
تصویر مرتبط با مقاله

دیوید مایر تا هفته گذشته نامی چندان شناخته‌شده نبود، تا اینکه به‌طور ناگهانی در کانون توجه اینترنت قرار گرفت. دلیل این امر نه چیزی بود که فردی به نام دیوید مایر گفته یا انجام داده باشد، بلکه نحوه برخورد چت‌بات ChatGPT با هر اشاره به این نام بود.

کاربرانی که از ChatGPT پرسیدند «دیوید مایر کیست؟» با تعجب دیدند که چت‌بات در میانه پاسخ‌دهی، پاسخ خود را متوقف کرده و پیامی خطا نمایش می‌دهد: «قادر به تولید پاسخ نیستم.»

با گسترش خبر این معما و کشف اینکه چند نام دیگر نیز واکنش مشابهی را برمی‌انگیزند، کاربران اینترنت به تحقیق پرداختند. شرکت OpenAI، سازنده ChatGPT، ابتدا بیانیه‌ای منتشر کرد و گفت: «ممکن است در برخی موارد ChatGPT اطلاعات خاصی درباره افراد ارائه ندهد تا از حریم خصوصی آن‌ها محافظت کند.» بعداً افزود: «یکی از ابزارهای ما به اشتباه این نام را علامت‌گذاری کرده و از نمایش آن در پاسخ‌ها جلوگیری کرده است، که نباید این‌طور می‌شد.» سخنگوی OpenAI تأیید کرد که این اشکال برطرف شده است.

اما این اقدام نتوانست جلوی گمانه‌زنی‌های گسترده آنلاین را بگیرد که OpenAI سعی دارد از ارائه پاسخ‌هایی که ممکن است شرکت را در مشکلات قانونی قرار دهد، جلوگیری کند. در سال‌های اخیر، چندین نفر به‌طور عمومی OpenAI را به دلیل افترا از طریق ChatGPT متهم کرده یا از آن شکایت کرده‌اند. از جمله این افراد می‌توان به جاناتان تورلی، استاد حقوق دانشگاه جورج واشنگتن اشاره کرد که ChatGPT او را به آزار جنسی متهم کرد؛ برایان هود، شهردار استرالیا که ChatGPT او را به رشوه‌خواری متهم کرد؛ و مارک والترز، مجری رادیویی جورجیا که ChatGPT ادعا کرد او پول اختلاس کرده است. هیچ مدرکی برای حمایت از این اتهامات AI وجود ندارد.

آیا ممنوعیت نام دیوید مایر برای جلوگیری از اختراع چیزهایی درباره یک فرد واقعی با این نام بود؟ کارشناسان حفاظت از داده‌ها که به دقت این موضوع را بررسی کردند، معتقد بودند که این ممکن است دلیل باشد، زیرا کشف کردند که نام‌های دیگر نیز می‌توانند همین اشکال را ایجاد کنند. یکی از این نام‌ها گویدو اسکورزا، وکیل ایتالیایی است که به‌طور منظم قوانین حفاظت از داده‌ها را با استفاده از خود به‌عنوان مثال آزمایش می‌کند. نام ممنوعه دیگر جاناتان تورلی، استاد حقوق آمریکایی است. ممکن است OpenAI تصمیم گرفته باشد تا از بروز مجدد این مشکل جلوگیری کند و ممنوعیتی برای ذکر نام او در چت‌بات اعمال کند.

تصویر مرتبط با مقاله

با این حال، در مورد نام دیوید مایر، هیچ کاندیدای واقعی مشخصی وجود نداشت. بسیاری از مفسران آنلاین دیوید مایر دو روچیلد، تهیه‌کننده فیلم بریتانیایی و عضو خانواده معروف بانکداری را پیشنهاد کردند. اما به نظر نمی‌رسید که ممنوعیت نام به او مربوط باشد، زیرا ChatGPT به‌راحتی به سؤالات درباره «دیوید دو روچیلد» پاسخ می‌داد. دیگران پیشنهاد کردند که دیوید مایر مورد نظر ممکن است یک تاریخ‌دان باشد که در سال ۲۰۲۳ درگذشت و در سال ۲۰۱۸ زمانی که آژانس‌های رسمی او را با یک تروریست چچنی که از همان نام به‌عنوان نام مستعار استفاده می‌کرد، اشتباه گرفتند، خبرساز شد.

هر دو مایر می‌توانستند به‌طور نظری از «حق فراموش شدن» تحت قانون اتحادیه اروپا استفاده کرده و درخواست حذف نام خود از ابزارهای اینترنتی مانند موتورهای جستجو و چت‌بات‌ها را ارائه دهند. اما روچیلد به گاردین گفت که او درخواست حذف نام خود از ChatGPT را نکرده و گفت که این گمانه‌زنی‌ها «توسط نظریه‌های توطئه هدایت می‌شود.»

«با وجود نظریه‌ها، من فکر نمی‌کنم که اینجا هیچ عمدی وجود داشته باشد،» گفت سلیا لم، استاد مطالعات رسانه و فرهنگی و کارشناس در زمینه شهرت، در دانشگاه ناتینگهام نینگبو چین. بر اساس سیاست OpenAI، هر کسی می‌تواند از شرکت بخواهد تا داده‌های مربوط به او را حذف یا دسترسی به آن را محدود کند. اما «حریم خصوصی به سادگی حذف نام شما از اینترنت یا مسدود کردن دسترسی نیست،» گفت لم. «داده‌های مربوط به افراد که از طریق تعاملات و تراکنش‌های آنلاین آن‌ها پراکنده شده‌اند، می‌توانند از طریق ابزارهای پیشرفته هوش مصنوعی بازسازی شوند.»

حتی اگر ممنوعیت نام دیوید مایر نتیجه یک اشکال ساده بود، این مورد چالش اساسی حفاظت از داده‌ها در عصر هوش مصنوعی را برجسته می‌کند، توضیح می‌دهد روبن بینز، استاد محاسبات انسانی و هوش مصنوعی در دانشگاه آکسفورد: «ما باید راه‌هایی پیدا کنیم تا نام‌هایی که با افراد متعدد مشترک هستند را منحصر به فرد کنیم، زیرا به وضوح، تعداد زیادی دیوید مایر وجود دارد.»

بینز می‌داند که از چه سخن می‌گوید. او زمانی در یک مقاله آنلاین نقل قول شده بود که درباره امکان جایگزینی بازیگر رابی کولترن با یک آواتار هوش مصنوعی در فیلم‌هایی که پس از مرگ او ساخته شده‌اند، اظهار نظر کرده بود. اما او این حرف را نگفته بود و وب‌سایتی که مقاله در آن منتشر شده بود پر از محتوای تولید شده توسط هوش مصنوعی بود.

فناوری پایه‌ای برای ChatGPT و دیگر چت‌بات‌ها که بر اساس مدل‌های زبانی بزرگ ساخته شده‌اند، شبکه عصبی است که قرار است فرآیندهای مغز انسان را در سیلیکون تکرار کند. اما به دلیل اینکه شرکت‌های پشت این مدل‌های هوش مصنوعی به‌طور کامل نمی‌دانند که چگونه در زیر پوسته کار می‌کنند، مجبور به استفاده از یک روش قدیمی‌تر برای معرفی کنترل‌ها و تعادل‌ها هستند: یک سیستم مبتنی بر قوانین.

آیا تا به حال با یک اشکال عجیب هوش مصنوعی مواجه شده‌اید؟ به گفت‌وگو بپیوندید.

رفتار ChatGPT زمانی که از نمایش نام دیوید مایر خودداری می‌کند، نشان می‌دهد که به آن یک قانون ساده داده شده است که بیشتر به یک دوره گذشته محاسباتی شباهت دارد: اگر «دیوید مایر» ذکر شد، بلافاصله آنچه نوشته‌اید را حذف کنید و بنویسید «قادر به تولید پاسخ نیستم.»

ChatGPT در دو سال گذشته با ریختن جملات خود مانند یک انسان، تخیل جهان را به خود جلب کرده است. اما در این موارد، به گاردریل‌های سخت‌کد شده خود برخورد می‌کند و به یک رویکرد بسیار ابتدایی‌تر برمی‌گردد: کامپیوتر می‌گوید نه. این تجربه‌ای گیج‌کننده و ناهماهنگ است.

با وجود ارزش‌گذاری‌های چشم‌گیر شرکت‌های هوش مصنوعی و تیترهای الهام‌بخش درباره هوش ماشینی، داستان دیوید مایر نشان می‌دهد که کل این تلاش بر یک ساختار ضعیف کنترل شده استوار است. همان‌طور که بیشتر ما از راه‌هایی که می‌توانیم به‌طور ناخواسته در پاسخ یک چت‌بات قرار بگیریم آگاه می‌شویم، ممکن است با مسائل مشابه دیوید مایر در آینده مواجه شویم. بنابراین به اشکالات عادت کنید.

کریس استوکل-واکر یک روزنامه‌نگار و نویسنده مستقر در بریتانیا است. آخرین کتاب او «چگونه هوش مصنوعی جهان را خورد» است.

```