پیتر کایل، وزیر امور خارجه بریتانیا در امور علوم، نوآوری و فناوری، گفته است که از ChatGPT برای درک مفاهیم دشوار استفاده می‌کند. Ju Jae-young/Wiktor Szymanowicz/Shutterstock
پیتر کایل، وزیر امور خارجه بریتانیا در امور علوم، نوآوری و فناوری، گفته است که از ChatGPT برای درک مفاهیم دشوار استفاده می‌کند. Ju Jae-young/Wiktor Szymanowicz/Shutterstock

افشا شد: چگونه وزیر فناوری بریتانیا از ChatGPT برای مشاوره سیاستی استفاده می‌کند

<em>نیو ساینتیست</em> با استفاده از قوانین آزادی اطلاعات، سوابق ChatGPT پیتر کایل، وزیر فناوری بریتانیا را به دست آورده است، که گمان می‌رود اولین مورد استفاده از این قانون در جهان باشد.

پیتر کایل، وزیر فناوری بریتانیا، از ChatGPT در مورد این که چرا پذیرش هوش مصنوعی در جامعه تجاری بریتانیا بسیار کند است و در چه پادکست‌هایی باید حضور پیدا کند، مشاوره خواسته است.

این هفته، نخست وزیر کیر استارمر گفت که دولت بریتانیا باید تلاش بیشتری برای استفاده از هوش مصنوعی در جهت افزایش بهره‌وری انجام دهد. وی گفت: «هیچ‌کس نباید وقت خود را صرف کاری کند که دیجیتال یا هوش مصنوعی بتواند آن را بهتر، سریع‌تر و با همان کیفیت و استاندارد بالا انجام دهد.»

اکنون، نیو ساینتیست سوابق استفاده کایل از ChatGPT را تحت قانون آزادی اطلاعات (FOI) به دست آورده است، که گمان می‌رود اولین آزمایش در جهان باشد که آیا تعاملات چت‌بات مشمول چنین قوانینی هستند یا خیر.

این سوابق نشان می‌دهد که کایل از ChatGPT خواسته است توضیح دهد که چرا جامعه مشاغل کوچک و متوسط (SMB) بریتانیا در پذیرش هوش مصنوعی بسیار کند بوده است. ChatGPT فهرستی 10 نکته‌ای از مشکلاتی که مانع پذیرش می‌شوند، ارائه کرد، از جمله بخش‌هایی در مورد «آگاهی و درک محدود»، «نگرانی‌های نظارتی و اخلاقی» و «فقدان حمایت دولتی یا سازمانی».

این چت‌بات به کایل توصیه کرد: «در حالی که دولت بریتانیا اقداماتی را برای تشویق به پذیرش هوش مصنوعی آغاز کرده است، بسیاری از SMBها از این برنامه‌ها آگاه نیستند یا پیمایش در آن‌ها را دشوار می‌دانند. دسترسی محدود به بودجه یا مشوق‌هایی برای کاهش ریسک سرمایه‌گذاری در هوش مصنوعی نیز می‌تواند مانع از پذیرش شود.» همچنین در مورد نگرانی‌های نظارتی و اخلاقی گفت: «رعایت قوانین حفاظت از داده‌ها، مانند GDPR [قانون حفظ حریم خصوصی داده‌ها]، می‌تواند مانع قابل توجهی باشد. SMBها ممکن است نگران مسائل حقوقی و اخلاقی مرتبط با استفاده از هوش مصنوعی باشند.»

سخنگوی وزارت علوم، نوآوری و فناوری (DSIT)، که کایل رهبری آن را بر عهده دارد، می‌گوید: «وزیر کابینه مسئول هوش مصنوعی، از این فناوری استفاده می‌کند. این جایگزین توصیه‌های جامعی که او به طور معمول از مقامات دریافت می‌کند، نمی‌شود.» «دولت از هوش مصنوعی به عنوان ابزاری برای صرفه‌جویی در نیروی کار استفاده می‌کند - که با راهنمایی‌های واضح در مورد چگونگی استفاده سریع و ایمن از این فناوری پشتیبانی می‌شود.»

کایل همچنین از چت‌بات برای جمع‌آوری ایده‌هایی برای حضور در رسانه‌ها استفاده کرد و پرسید: «من وزیر امور خارجه در امور علوم، نوآوری و فناوری در بریتانیا هستم. بهترین پادکست‌ها برای حضور من برای دستیابی به مخاطبان گسترده‌ای که برای مسئولیت‌های وزارتی من مناسب است، کدامند؟» ChatGPT بر اساس تعداد شنوندگان، قفس میمون بی‌نهایت و دانشمندان برهنه را پیشنهاد کرد.

کایل علاوه بر جستجوی این توصیه‌ها، از ChatGPT خواست تا اصطلاحات مختلف مرتبط با وزارتخانه خود را تعریف کند: پاد ماده، کوانتوم و شمول دیجیتال. دو کارشناسی که نیو ساینتیست با آن‌ها صحبت کرد، از کیفیت پاسخ‌ها در مورد تعاریف کوانتوم ChatGPT شگفت‌زده شدند. پیتر نایت از امپریال کالج لندن می‌گوید: «به نظر من این به طرز شگفت‌آوری خوب است.» کریستین بوناتو از دانشگاه هریوت-وات در ادینبورگ، بریتانیا، می‌گوید: «به نظر من اصلاً بد نیست.»

نیو ساینتیست درخواست داده‌های کایل را پس از مصاحبه اخیر او با PoliticsHome مطرح کرد، که در آن این سیاستمدار به عنوان کسی توصیف شد که «اغلب» از ChatGPT استفاده می‌کند. او گفت که از آن «برای تلاش برای درک زمینه وسیع‌تری که یک نوآوری از آن آمده است، افرادی که آن را توسعه داده‌اند، سازمان‌های پشت آن‌ها» استفاده می‌کند و «ChatGPT فوق‌العاده خوب است، و در مواردی که واقعاً برای درک عمیق چیزها مشکل دارید، ChatGPT می‌تواند معلم بسیار خوبی برای آن باشد».

DSIT در ابتدا درخواست FOI نیو ساینتیست را رد کرد و اظهار داشت: «تاریخچه ChatGPT پیتر کایل شامل درخواست‌ها و پاسخ‌هایی است که هم در یک ظرفیت شخصی و هم در یک ظرفیت رسمی ارائه شده است.» یک درخواست اصلاح‌شده، فقط برای درخواست‌ها و پاسخ‌هایی که در یک ظرفیت رسمی ارائه شده‌اند، پذیرفته شد.

تیم ترنر، کارشناس حفاظت از داده‌ها مستقر در منچستر، بریتانیا، که فکر می‌کند این ممکن است اولین مورد انتشار تعاملات چت‌بات تحت FOI باشد، می‌گوید این واقعیت که داده‌ها اصلاً ارائه شده‌اند، تکان‌دهنده است. او می‌گوید: «من تعجب می‌کنم که آن‌ها را به دست آوردید.» «من فکر می‌کردم که آن‌ها مشتاق جلوگیری از ایجاد یک رویه هستند.»

این به نوبه خود، سؤالاتی را برای دولت‌هایی با قوانین FOI مشابه، مانند ایالات متحده، مطرح می‌کند. به عنوان مثال، آیا ChatGPT بیشتر شبیه یک ایمیل یا مکالمه واتس‌اپ است - که هر دو بر اساس رویه‌های گذشته به طور تاریخی تحت پوشش FOI قرار گرفته‌اند - یا نتایج یک پرسش موتور جستجو، که به طور سنتی برای سازمان‌ها رد کردن آن‌ها آسان‌تر بوده است؟ کارشناسان در مورد این پاسخ اختلاف نظر دارند.

جان باینز از شرکت حقوقی Mishcon de Reya در بریتانیا می‌گوید: «در اصل، به شرطی که بتوان آن‌ها را از سیستم‌های وزارتخانه استخراج کرد، تاریخچه جستجوی گوگل یک وزیر نیز تحت پوشش قرار می‌گیرد.»

جان اسلیتر، کارشناس FOI می‌گوید: «شخصاً، من ChatGPT را مشابه جستجوی گوگل نمی‌بینم.» او می‌گوید دلیلش این است که جستجوهای گوگل اطلاعات جدیدی ایجاد نمی‌کنند. «از طرف دیگر، ChatGPT بر اساس ورودی کاربر چیزی را "ایجاد" می‌کند.»

ترنر می‌گوید با این عدم اطمینان، سیاستمداران ممکن است بخواهند از استفاده از ابزارهای هوش مصنوعی تجاری توسعه‌یافته توسط بخش خصوصی مانند ChatGPT خودداری کنند. او می‌گوید: «این یک جعبه پاندورا واقعی است.» «برای پوشش دادن به اشتباهات خود، سیاستمداران باید قطعاً از ابزارهای عمومی ارائه شده توسط وزارتخانه‌های خود استفاده کنند، انگار که ممکن است عموم مردم در نهایت مخاطب باشند.»