عکس از Frans van Heerden از طریق Pexels.
عکس از Frans van Heerden از طریق Pexels.

مسموم کردن چاه و دیگر خطرات هوش مصنوعی مولد

پلتفرم‌های نرم‌افزاری باید کنترل دقیقی بر منابع داده‌های عمومی خود داشته باشند، زیرا نمی‌توان مطمئن بود که هوش مصنوعی با آن چه خواهد کرد.

یکی از گروه‌هایی که اخیراً از تولید غیرقانونی هوش مصنوعی آسیب دیده‌اند، یوتیوبرها (YouTubers)، سازندگان ویدیو هستند که برنامه‌های خود را در یوتیوب میزبانی می‌کنند. موارد متعددی از سرقت ویدیوهای یوتیوب — به‌ویژه ویدیوهای اطلاعاتی یا خبری — توسط سایر طرف‌ها وجود دارد. یکی از راه‌های انجام این کار، کپی کردن زیرنویس‌های ویدیوی مورد نظر است. به این ترتیب، نسخه‌های تولید شده توسط هوش مصنوعی ممکن است متفاوت به نظر برسند اما می‌توانند بر اساس همان محتوا باشند. نسخه‌ها در اسرع وقت و به صورت خودکار ساخته می‌شوند و سپس بدون ذکر نام نویسندگان واقعی منتشر می‌شوند. گاهی اوقات ویدیوها به عنوان "خلاصه" از نسخه اصلی طبقه‌بندی می‌شوند که یک منطقه خاکستری باقی می‌ماند. این اکوسیستم کلیک‌ها را کاهش می‌دهد و همچنین الگوریتم‌های کشف را برای سازندگان واقعی خراب می‌کند و در نتیجه آنها را فقیرتر می‌کند.

یک مخالفت جالب با این موضوع، "مسموم کردن" آن زیرنویس‌ها با افزودن متن بی‌معنی به زیرنویس‌ها است. معلوم شده است که برخی از قالب‌های زیرنویس به ویرایشگر اجازه می‌دهند زیرنویس‌ها را خارج از ناحیه صفحه قرار دهد. از این رو هیچ بیننده‌ای این متن را نخواهد دید، اما کپی‌کنندگان زیرنویس آن را می‌بلعند. بنابراین، با استفاده از چند تبدیل فرمت زیرنویس بسته (closed caption) مختلف، یک یوتیوبر می‌تواند زیرنویس‌های خود را ویرایش کند تا این زیرنویس‌های مسموم را اضافه کند. بنابراین می‌توان نسخه‌ها را وادار کرد که چیزهای مسخره‌ای بگویند — معمولاً در وسط ویدیو تا از شناسایی فوری فرار کنند.

یوتیوبری که ویدیوهای مسموم تولید می‌کند، احتمال کمتری دارد که مورد سرقت قرار گیرد، زیرا کار اضافی مورد نیاز توسط کپی‌کنندگان برای پاکسازی آنها، کل گردش کار آنها را ناکارآمد می‌کند. این تفاوت چندانی با قفل کردن دوچرخه خود در کنار یک دوچرخه گران‌تر یا یک دوچرخه با قفل ضعیف‌تر ندارد — این بهره‌برداری از تنبلی عمومی مهاجمان است. به همین دلیل، مفهوم مسموم کردن چاه در سراسر بخش خلاقیت، برای هر کسی که سعی در دفاع از خود در برابر غارتگری هوش مصنوعی دارد، رواج پیدا کرده است.

سوء استفاده از داده‌های عمومی و در نتیجه هویت عمومی می‌تواند به سرعت قابلیت اطمینان و عملکرد یک پلتفرم و همچنین صاحبان آنها را به خطر بیندازد.

اما این مالک چاه است که مورد توجه این پست است. چاه را به عنوان تمام داده‌های عمومی پلتفرم خود در نظر بگیرید. یعنی هر چیزی که شما یا سازمانتان با عموم به اشتراک می‌گذارید. کلمات، اسناد، مکالمات، API، تصاویر، همه چیز. تا حد امکان شفاف نگه داشتن آب، نشان دهنده اعتماد عمومی به سازمان شما است. در دراز مدت، امیدوار بودن به اینکه دوچرخه شما برای همسایگان شما جذابیت کمتری داشته باشد، یک راه حل دفاعی طولانی مدت نیست، اما مسمومیت در حال حاضر یک مشکل جدی برای همه پلتفرم‌های عمومی است — و یک درس بزرگ در اینجا وجود دارد.

سوء استفاده از داده‌های عمومی و در نتیجه هویت عمومی می‌تواند به سرعت قابلیت اطمینان و عملکرد یک پلتفرم و همچنین صاحبان آنها را به خطر بیندازد. در حالی که کپی کردن و خلاصه کردن چیز جدیدی نیست — من می‌توانم به کپی‌ها یا خلاصه‌هایی از پست‌های خودم از این نشریه اشاره کنم که احتمالاً بدون اجازه در سایر نشریات یا پلتفرم‌های آنلاین مبهم استفاده شده‌اند. آنچه جدید است، خطوط لوله اکوسیستم مبتنی بر هوش مصنوعی است که بیش از فقط یک قطعه خروجی خلاقانه از یک سازنده را در یک زمان تهدید می‌کند. این می‌تواند به سرعت هم محتوا و هم هویت را در بر گیرد.

<a href="https://hoaxes.org/af_database/permalink/genuine_bmw" class="ext-link" rel="external " onclick="this.target='_blank';">آیا شما یک BMW واقعی می‌رانید؟ (روز دروغ آوریل - ۱۹۸۷)</a>

هیچ چیز واقعی برای بازگشت به آن وجود ندارد

دلیل اینکه چرا هویت دیجیتالی می‌تواند بسیار شکننده باشد این است که هیچ چیز فیزیکی برای بازگشت به آن وجود ندارد. شرکت‌هایی که اشیاء واقعی می‌سازند، حداقل می‌توانند به محصولات خود اجازه دهند تا بار زیادی از هویت خود را حمل کنند.

در اول آوریل ۱۹۸۷، شرکت خودروسازی BMW هویت خود را تثبیت کرد در حالی که این واقعیت را مسخره می‌کرد که مردم واقعاً به جزئیات توجه نمی‌کنند. از آنجا که محصول آنها به معنای واقعی کلمه در جاده مقابل مردم بود، سردرگمی ظاهری هویتی ناشی از شوخی آنها خطرناک نبود:

بسیاری از مردم فریب این را خوردند و با BMW تماس گرفتند تا گزارش دهند که ماشین‌های واقعی آنها تقلبی هستند.

امروزه، کپی‌های لوگوهای شرکت‌ها اغلب در حملات فیشینگ (phishing) دخیل هستند. بسیاری از استارت‌آپ‌ها هیچ برند بصری قوی ندارند، که جعل هویت را آسان‌تر می‌کند. یا نام دامنه به یاد ماندنی ندارند، که تشخیص جرم را برای کاربران سخت‌تر می‌کند. هویت‌های متمایز همیشه ایمن‌تر هستند.

اگر هیچ حضور فیزیکی در جهان ندارید، آخرین کاری که می‌خواهید انجام دهید این است که حضور انسانی خود را رقیق کنید. انسان‌ها ممکن است تنها چیز غیردیجیتالی باشند که پلتفرم شما دارد. و با این حال، برخی از شرکت‌های کوچک از چت‌بات‌ها (chatbots) استفاده می‌کنند. این احمقانه است، زیرا به این معنی است که درصد زیادی از تعاملات عمومی آنها (و بله، این داده‌های عمومی است) حتی توسط آنها تولید نمی‌شود.

همه چیز از اعتماد ساخته شده است

بخشی از راه حل این است که درک کنید که چگونه داده‌های عمومی و هویت پلتفرم شما در هم تنیده‌اند. کم و بیش هر چیزی که یک پلتفرم در معرض دید قرار می‌دهد، بخشی از یک زنجیره اعتماد است. هر بار که چیزی را برون سپاری می‌کنید — به ویژه به سیستم‌های هوش مصنوعی که توسط دیگران آموزش داده شده‌اند — می‌توانید این پیوندها را تضعیف کنید. به همین دلیل است که استارت‌آپ‌ها باید کنترل دقیقی بر تمام داده‌های خود داشته باشند. به عنوان یک پلتفرم، اگر چند صد از ۱۵ میلیارد ویدیوی یوتیوب بی‌معنی باشد، برای یوتیوب چندان مهم نیست، اما یک پلتفرم کوچک نمی‌تواند از عهده این توهین به اعتماد برآید.

ممکن است به بیانیه‌های ماموریت شرکت بخندیم، اما بیانیه‌های کاملاً ملایمی که همه ما می‌دانیم توسط هوش مصنوعی تولید شده‌اند (یا شاید نتیجه یک جلسه کوتاه بعد از ظهر جمعه هستند) فقط احساس یک پایه محکم را کاهش می‌دهند. هویت — حتی بیانیه‌های ماموریت — ریشه اعتماد برای هر پلتفرمی است. هنگام تولید اسناد، از انتشار بیانیه‌های متورم که به نظر می‌رسد از هیچ جا نیامده‌اند، خودداری کنید. کنترل اسناد کوچک مرتبط به هم آسان‌تر است و تعیین منشاء را آسان‌تر می‌کند. تمام ارتباطات خود را مانند برگ‌ها و شاخه‌های یک درخت در نظر بگیرید؛ بخشی از چیزی اساسی‌تر.

ما به رفتار نامنظم برخی از مدیران عامل مشهور عادت کرده‌ایم، اما آنها چاه‌های بسیار بزرگ‌تری برای جذب آلودگی خود دارند.

ناقلان بیماری

سایت‌های بزرگ رسانه‌های اجتماعی به طور فزاینده‌ای نگرانی‌های ایمنی آنلاین را به خود جلب می‌کنند. سایت‌هایی مانند TikTok اخیراً با خودکشی نوجوانان مرتبط شده‌اند. این پلتفرم‌ها داده‌های تولید شده عمومی را حمل می‌کنند که خود پلتفرم سعی می‌کند هیچ مسئولیتی در قبال آن نپذیرد. در بررسی، ممکن است سیستمی داخلی در داخل پلتفرم ریشه دوانده باشد که آنها واقعاً نمی‌توانند آن را کنترل کنند. با این حال، در مقیاسی کمتر چشمگیر، این شکل از انتقال بیماری نیز برای پلتفرم‌های کوچکی که انجمن‌ها را اجرا می‌کنند خطرناک است.

بسیاری از شرکت‌ها مجبور شده‌اند انجمن‌ها را حذف یا تعلیق کنند، زیرا کاربران خشمگین (سازمان‌یافته یا نه) می‌توانند از نظر اعتباری مخرب باشند. مدیریت نادرست انجمن‌ها می‌تواند از طریق بی‌توجهی، مسائل نسبتاً بی‌ضرر را بدتر نشان دهد. انجمن‌های موفق (معمولاً در Slack یا Discord) توسط تقریباً تمام توسعه‌دهندگانی که تا جایی که منطقاً می‌توانند به سرعت پاسخ می‌دهند، اداره می‌شوند.

مثال اولیه ما از زیرنویس‌های مسموم یوتیوب را می‌توان به عنوان نوعی انتقال بیماری در نظر گرفت.

می‌توانید ببینید که مثال اولیه ما از زیرنویس‌های مسموم یوتیوب را می‌توان به عنوان نوعی انتقال بیماری در نظر گرفت، زیرا یکی از فرمت‌های زیرنویس اجازه می‌دهد چیزی که در واقع متن پنهان است، وجود داشته باشد. این ممکن است انعطاف‌پذیری به نظر برسد، اما مثال نشان می‌دهد که چرا این امر به طور بالقوه برای پلتفرم خطرناک است. من مورد مشابهی را دیدم که برنامه‌ای که به فروشگاه‌ها کمک می‌کند تا مواد غذایی مازاد را تخفیف دهند، کسب‌وکاری را فهرست کرد که فروشگاه نبود. این خانه حومه شهر در یک خیابان آرام، به دور از جاده اصلی، زمان تحویل اواخر شب را پیشنهاد می‌کرد — که به وضوح خطرناک بود. هنگامی که با برنامه تماس گرفته شد، آنها هیچ فرآیندی برای رسیدگی به این وضعیت نداشتند. هر چقدر هم که یک پلتفرم خوب طراحی شده باشد، ظاهراً بخش‌های سالم می‌توانند آلوده شوند.

کاهش آزادی بیان می‌تواند داده‌های تولید شده پرخطر را کاهش دهد. اکثر سایت‌های بازی زنده با کانال‌های چت به دقت کلمات رکیک را حذف می‌کنند، اما برخی از آنها از هیچ ارتباط کلامی بین کاربران پشتیبانی نمی‌کنند — یا به شدت ناشناس می‌کنند. اعمال یک لایه ویرایشی قبل از انتشار در انجمن‌ها یکی از راه‌های به دست آوردن مجدد کنترل است.

یک مدیر چاه مراقب باشید

طرف‌های شرور که به معنای واقعی کلمه سم را در محصولات غذایی فروشگاهی یا سایر اشکال تقلب می‌ریزند، تاریخچه خود را دارند. تولیدکنندگان مواد غذایی با سیستم‌های ایمنی مختلف بر روی ظروف با این حملات مقابله کرده‌اند تا به تشخیص اینکه آیا قبلاً باز شده‌اند کمک کنند. اما بهترین دفاع این است که به وضوح مشخص شود که فقط از مجموعه کوچکی از مواد اولیه با دقت تهیه شده در محصولات استفاده می‌شود و اینکه هر گونه کارخانه بسته‌بندی مستقیماً توسط شرکت کنترل می‌شود. به طور مشابه، پلتفرم‌های نرم‌افزاری باید کنترل دقیقی بر داده‌های عمومی خود داشته باشند و از اشخاص ثالث یا تولید هوش مصنوعی اجتناب کنند تا زمانی که بیشتر تثبیت شوند.

یکی از مشکلات تولید هوش مصنوعی این است که این زمینه در حال رشد است و هیچ کس نمی‌تواند پیش‌بینی کند که چه توانایی‌های نگران‌کننده‌ای در آینده در دسترس خواهد بود. به جای منتظر ماندن برای وقوع مشکلات، فقط کنترل دقیقی بر تمام داده‌ها و فرآیندهای عمومی خود داشته باشید. آن را تا حد امکان اصیل نگه دارید. مراقب باشید که به کجا می‌رود و چگونه می‌تواند به طور بالقوه تغییر کند.