پیتر کایل، وزیر فناوری بریتانیا، از ChatGPT در مورد این که چرا پذیرش هوش مصنوعی در جامعه تجاری بریتانیا بسیار کند است و در چه پادکستهایی باید حضور پیدا کند، مشاوره خواسته است.
این هفته، نخست وزیر کیر استارمر گفت که دولت بریتانیا باید تلاش بیشتری برای استفاده از هوش مصنوعی در جهت افزایش بهرهوری انجام دهد. وی گفت: «هیچکس نباید وقت خود را صرف کاری کند که دیجیتال یا هوش مصنوعی بتواند آن را بهتر، سریعتر و با همان کیفیت و استاندارد بالا انجام دهد.»
اکنون، نیو ساینتیست سوابق استفاده کایل از ChatGPT را تحت قانون آزادی اطلاعات (FOI) به دست آورده است، که گمان میرود اولین آزمایش در جهان باشد که آیا تعاملات چتبات مشمول چنین قوانینی هستند یا خیر.
این سوابق نشان میدهد که کایل از ChatGPT خواسته است توضیح دهد که چرا جامعه مشاغل کوچک و متوسط (SMB) بریتانیا در پذیرش هوش مصنوعی بسیار کند بوده است. ChatGPT فهرستی 10 نکتهای از مشکلاتی که مانع پذیرش میشوند، ارائه کرد، از جمله بخشهایی در مورد «آگاهی و درک محدود»، «نگرانیهای نظارتی و اخلاقی» و «فقدان حمایت دولتی یا سازمانی».
این چتبات به کایل توصیه کرد: «در حالی که دولت بریتانیا اقداماتی را برای تشویق به پذیرش هوش مصنوعی آغاز کرده است، بسیاری از SMBها از این برنامهها آگاه نیستند یا پیمایش در آنها را دشوار میدانند. دسترسی محدود به بودجه یا مشوقهایی برای کاهش ریسک سرمایهگذاری در هوش مصنوعی نیز میتواند مانع از پذیرش شود.» همچنین در مورد نگرانیهای نظارتی و اخلاقی گفت: «رعایت قوانین حفاظت از دادهها، مانند GDPR [قانون حفظ حریم خصوصی دادهها]، میتواند مانع قابل توجهی باشد. SMBها ممکن است نگران مسائل حقوقی و اخلاقی مرتبط با استفاده از هوش مصنوعی باشند.»
سخنگوی وزارت علوم، نوآوری و فناوری (DSIT)، که کایل رهبری آن را بر عهده دارد، میگوید: «وزیر کابینه مسئول هوش مصنوعی، از این فناوری استفاده میکند. این جایگزین توصیههای جامعی که او به طور معمول از مقامات دریافت میکند، نمیشود.» «دولت از هوش مصنوعی به عنوان ابزاری برای صرفهجویی در نیروی کار استفاده میکند - که با راهنماییهای واضح در مورد چگونگی استفاده سریع و ایمن از این فناوری پشتیبانی میشود.»
کایل همچنین از چتبات برای جمعآوری ایدههایی برای حضور در رسانهها استفاده کرد و پرسید: «من وزیر امور خارجه در امور علوم، نوآوری و فناوری در بریتانیا هستم. بهترین پادکستها برای حضور من برای دستیابی به مخاطبان گستردهای که برای مسئولیتهای وزارتی من مناسب است، کدامند؟» ChatGPT بر اساس تعداد شنوندگان، قفس میمون بینهایت و دانشمندان برهنه را پیشنهاد کرد.
کایل علاوه بر جستجوی این توصیهها، از ChatGPT خواست تا اصطلاحات مختلف مرتبط با وزارتخانه خود را تعریف کند: پاد ماده، کوانتوم و شمول دیجیتال. دو کارشناسی که نیو ساینتیست با آنها صحبت کرد، از کیفیت پاسخها در مورد تعاریف کوانتوم ChatGPT شگفتزده شدند. پیتر نایت از امپریال کالج لندن میگوید: «به نظر من این به طرز شگفتآوری خوب است.» کریستین بوناتو از دانشگاه هریوت-وات در ادینبورگ، بریتانیا، میگوید: «به نظر من اصلاً بد نیست.»
نیو ساینتیست درخواست دادههای کایل را پس از مصاحبه اخیر او با PoliticsHome مطرح کرد، که در آن این سیاستمدار به عنوان کسی توصیف شد که «اغلب» از ChatGPT استفاده میکند. او گفت که از آن «برای تلاش برای درک زمینه وسیعتری که یک نوآوری از آن آمده است، افرادی که آن را توسعه دادهاند، سازمانهای پشت آنها» استفاده میکند و «ChatGPT فوقالعاده خوب است، و در مواردی که واقعاً برای درک عمیق چیزها مشکل دارید، ChatGPT میتواند معلم بسیار خوبی برای آن باشد».
DSIT در ابتدا درخواست FOI نیو ساینتیست را رد کرد و اظهار داشت: «تاریخچه ChatGPT پیتر کایل شامل درخواستها و پاسخهایی است که هم در یک ظرفیت شخصی و هم در یک ظرفیت رسمی ارائه شده است.» یک درخواست اصلاحشده، فقط برای درخواستها و پاسخهایی که در یک ظرفیت رسمی ارائه شدهاند، پذیرفته شد.
تیم ترنر، کارشناس حفاظت از دادهها مستقر در منچستر، بریتانیا، که فکر میکند این ممکن است اولین مورد انتشار تعاملات چتبات تحت FOI باشد، میگوید این واقعیت که دادهها اصلاً ارائه شدهاند، تکاندهنده است. او میگوید: «من تعجب میکنم که آنها را به دست آوردید.» «من فکر میکردم که آنها مشتاق جلوگیری از ایجاد یک رویه هستند.»
این به نوبه خود، سؤالاتی را برای دولتهایی با قوانین FOI مشابه، مانند ایالات متحده، مطرح میکند. به عنوان مثال، آیا ChatGPT بیشتر شبیه یک ایمیل یا مکالمه واتساپ است - که هر دو بر اساس رویههای گذشته به طور تاریخی تحت پوشش FOI قرار گرفتهاند - یا نتایج یک پرسش موتور جستجو، که به طور سنتی برای سازمانها رد کردن آنها آسانتر بوده است؟ کارشناسان در مورد این پاسخ اختلاف نظر دارند.
جان باینز از شرکت حقوقی Mishcon de Reya در بریتانیا میگوید: «در اصل، به شرطی که بتوان آنها را از سیستمهای وزارتخانه استخراج کرد، تاریخچه جستجوی گوگل یک وزیر نیز تحت پوشش قرار میگیرد.»
جان اسلیتر، کارشناس FOI میگوید: «شخصاً، من ChatGPT را مشابه جستجوی گوگل نمیبینم.» او میگوید دلیلش این است که جستجوهای گوگل اطلاعات جدیدی ایجاد نمیکنند. «از طرف دیگر، ChatGPT بر اساس ورودی کاربر چیزی را "ایجاد" میکند.»
ترنر میگوید با این عدم اطمینان، سیاستمداران ممکن است بخواهند از استفاده از ابزارهای هوش مصنوعی تجاری توسعهیافته توسط بخش خصوصی مانند ChatGPT خودداری کنند. او میگوید: «این یک جعبه پاندورا واقعی است.» «برای پوشش دادن به اشتباهات خود، سیاستمداران باید قطعاً از ابزارهای عمومی ارائه شده توسط وزارتخانههای خود استفاده کنند، انگار که ممکن است عموم مردم در نهایت مخاطب باشند.»