تصویر-طرح: کارکنان وایرد/گتی ایمیجز
تصویر-طرح: کارکنان وایرد/گتی ایمیجز

هوش مصنوعی از لایک‌های شما برای نفوذ به ذهن شما استفاده می‌کند

قابلیت‌های لایک در شبکه‌های اجتماعی می‌تواند مقادیر زیادی داده در مورد رفتار انسان برای مدل‌های هوش مصنوعی فراهم کند. اما با هوشمندتر شدن هوش مصنوعی، آیا قادر خواهد بود ترجیحات کاربران را قبل از خودشان بداند؟

آینده دکمه لایک در عصر هوش مصنوعی چیست؟ مکس لوچین – یکی از بنیان‌گذاران پی‌پل و مدیرعامل Affirm – نقش جدید و بسیار ارزشمندی را برای داده‌های لایک در آموزش هوش مصنوعی برای رسیدن به نتایجی که بیشتر با نتایج تصمیم‌گیرندگان انسانی همسو باشد، می‌بیند.

این یک معمای شناخته‌شده در یادگیری ماشین است که یک کامپیوتر که با یک تابع پاداش مشخص مواجه می‌شود، در یادگیری تقویتی بی‌وقفه برای بهبود عملکرد خود و حداکثر کردن آن پاداش مشارکت خواهد کرد – اما این مسیر بهینه‌سازی اغلب سیستم‌های هوش مصنوعی را به نتایجی بسیار متفاوت از آنچه که از اعمال قضاوت انسانی توسط انسان‌ها حاصل می‌شود، می‌رساند.

برای معرفی یک نیروی اصلاحی، توسعه‌دهندگان هوش مصنوعی اغلب از آنچه یادگیری تقویتی از بازخورد انسانی (RLHF) نامیده می‌شود استفاده می‌کنند. اساساً آن‌ها با آموزش مدل بر روی داده‌هایی که ترجیحات واقعی افراد را منعکس می‌کند، انگشت انسانی را در مقیاس قرار می‌دهند. اما داده‌های ترجیحات انسانی از کجا می‌آیند و چه مقدار از آن برای معتبر بودن ورودی مورد نیاز است؟ تاکنون، مشکل RLHF همین بوده است: اگر نیاز به استخدام ناظران و حاشیه‌نویسان انسانی برای وارد کردن بازخورد داشته باشد، روشی پرهزینه است.

و این مشکلی است که لوچین فکر می‌کند می‌توان آن را با دکمه لایک حل کرد. او منبع انباشته‌ای را که امروز در اختیار فیس‌بوک قرار دارد، موهبتی برای هر توسعه‌دهنده‌ای می‌داند که می‌خواهد یک عامل هوشمند را بر روی داده‌های ترجیحات انسانی آموزش دهد. و این چقدر مهم است؟ لوچین به ما گفت: "من معتقدم که یکی از با ارزش‌ترین چیزهایی که فیس‌بوک مالک آن است، کوه داده‌های لایک است." در واقع، در این نقطه عطف در توسعه هوش مصنوعی، دسترسی به "چه محتوایی توسط انسان‌ها لایک می‌شود، برای استفاده در آموزش مدل‌های هوش مصنوعی، احتمالاً یکی از با ارزش‌ترین چیزها در اینترنت است."

در حالی که لوچین هوش مصنوعی را در حال یادگیری از ترجیحات انسانی از طریق دکمه لایک تصور می‌کند، هوش مصنوعی در حال حاضر در حال تغییر روش شکل‌گیری این ترجیحات در وهله اول است. در واقع، پلتفرم‌های شبکه‌های اجتماعی به طور فعال از هوش مصنوعی نه تنها برای تجزیه و تحلیل لایک‌ها، بلکه برای پیش‌بینی آن‌ها استفاده می‌کنند – که به طور بالقوه خود دکمه را منسوخ می‌کند.

این مشاهده‌ای برای ما بسیار چشمگیر بود زیرا، همانطور که با اکثر مردم صحبت کردیم، پیش‌بینی‌ها عمدتاً از زاویه‌ای دیگر می‌آمدند، نه اینکه چگونه دکمه لایک بر عملکرد هوش مصنوعی تأثیر می‌گذارد، بلکه چگونه هوش مصنوعی دنیای دکمه لایک را تغییر خواهد داد. قبلاً شنیده‌ایم که هوش مصنوعی برای بهبود الگوریتم‌های شبکه‌های اجتماعی به کار گرفته می‌شود. به عنوان مثال، اوایل سال ۲۰۲۴، فیس‌بوک با استفاده از هوش مصنوعی برای طراحی مجدد الگوریتمی که ویدئوهای Reels را به کاربران توصیه می‌کند، آزمایش کرد. آیا می‌توانست با وزن‌دهی بهتری از متغیرها پیش‌بینی کند که یک کاربر بیشتر دوست دارد ویدئوی بعدی را تماشا کند؟ نتیجه این آزمایش اولیه نشان داد که می‌تواند: استفاده از هوش مصنوعی برای این کار منجر به افزایش زمان تماشا شد – معیاری که فیس‌بوک امیدوار بود آن را افزایش دهد.

هنگامی که از استیو چن، یکی از بنیان‌گذاران یوتیوب، پرسیدیم که آینده دکمه لایک چیست، او گفت: "گاهی اوقات از خودم می‌پرسم که آیا دکمه لایک در زمانی که هوش مصنوعی به اندازه کافی پیشرفته باشد تا با دقت ۱۰۰ درصد به الگوریتم بگوید که بر اساس الگوهای تماشا و اشتراک‌گذاری، چه چیزی را می‌خواهید بعدی تماشا کنید، لازم خواهد بود یا خیر. تا به حال، دکمه لایک ساده‌ترین راه برای پلتفرم‌های محتوا برای انجام این کار بوده است، اما هدف نهایی این است که با هر داده‌ای که در دسترس است، این کار را تا حد امکان آسان و دقیق انجام دهد."

با این حال، او در ادامه اشاره کرد که یکی از دلایلی که ممکن است همیشه به دکمه لایک نیاز باشد، رسیدگی به تغییرات ناگهانی یا موقت در نیازهای تماشا به دلیل اتفاقات یا موقعیت‌های زندگی است. او گفت: "روزهایی هست که می‌خواهم محتوایی را تماشا کنم که کمی بیشتر با فرزندانم مرتبط است." چن همچنین توضیح داد که دکمه لایک ممکن است به دلیل نقشش در جذب تبلیغ‌کنندگان – گروه کلیدی دیگر در کنار بینندگان و سازندگان – ماندگاری داشته باشد، زیرا لایک به عنوان ساده‌ترین لولای ممکن برای اتصال این سه گروه عمل می‌کند. با یک ضربه، یک بیننده به طور همزمان قدردانی و بازخورد را مستقیماً به ارائه‌دهنده محتوا و شواهدی از تعامل و ترجیح را به تبلیغ‌کننده منتقل می‌کند.

یکی دیگر از تأثیرات عمده هوش مصنوعی، افزایش استفاده از آن برای تولید خود محتوایی است که موضوع واکنش‌های احساسی افراد قرار می‌گیرد. در حال حاضر، مقادیر رو به افزایشی از محتوا – هم متن و هم تصاویر – که توسط کاربران شبکه‌های اجتماعی لایک می‌شوند، توسط هوش مصنوعی تولید می‌شوند. این سوال پیش می‌آید که آیا هدف اصلی دکمه لایک – یعنی تشویق کاربران بیشتر به تولید محتوا – حتی مرتبط باقی خواهد ماند یا خیر. آیا اگر کاربران انسانی آن‌ها کلاً از ارسال پست‌ها دست بردارند، پلتفرم‌ها با معیارهای خودشان به همان اندازه موفق خواهند بود؟

این سوال، البته، مشکل اصالت را مطرح می‌کند. در طول نمایش نیمه‌وقت سوپربول سال ۲۰۲۴، خواننده آلیشیا کیز نت اشتباهی زد که توسط هر شنونده‌ای که به رویداد زنده گوش می‌داد، متوجه شد. با این حال، هنگامی که ضبط اجرای او بلافاصله پس از آن در یوتیوب بارگذاری شد، آن اشتباه بدون هیچ اطلاعی مبنی بر تغییر ویدئو، به طور بی‌نقصی اصلاح شده بود. این یک چیز جزئی است (و خوب است که کیز اصلاً اجرای زنده را انجام داد)، اما اصلاح پنهانی باعث شگفتی شد. طعنه آمیز است که او در حال خواندن "اگر تو را نداشته باشم" بود – و طرفدارانش چیزی کمی متفاوت از او دریافت کردند.

اگر هوش مصنوعی بتواند محتوای سرگرمی را به طور ظریف اصلاح کند، می‌تواند برای مقاصد فریبنده‌تری نیز به کار گرفته شود. همان فناوری که می‌تواند یک نت موسیقی را تصحیح کند، به همان راحتی می‌تواند یک صدا را کلون کند و منجر به عواقب بسیار جدی‌تری شود.

ترسناک‌تر از آن، روندی است که کمیسیون ارتباطات فدرال ایالات متحده (FCC) و معادل‌های آن در جاهای دیگر اخیراً با آن برخورد کرده‌اند: استفاده از هوش مصنوعی برای "کلون کردن" صدای یک فرد و در واقع گذاشتن کلماتی در دهان او. به نظر می‌رسد که آن‌ها صحبت می‌کنند، اما ممکن است آن‌ها نباشند – می‌تواند یک فرد شیاد باشد که سعی دارد پدربزرگ آن شخص را فریب دهد تا مبلغی را به عنوان باج بپردازد یا سعی دارد یک معامله مالی را به نام او انجام دهد. در ژانویه ۲۰۲۴، پس از حادثه تماس‌های خودکار که صدای رئیس جمهور جو بایدن را جعل می‌کردند، FCC رهنمودهای روشنی را صادر کرد مبنی بر اینکه چنین جعل هویتی تحت مفاد قانون حمایت از مصرف‌کننده تلفنی غیرقانونی است و به مصرف‌کنندگان هشدار داد که مراقب باشند.

جسیکا روزنوورسل، رئیس FCC گفت: "کلون‌سازی صدای تولید شده توسط هوش مصنوعی و تصاویر در حال حاضر با فریب دادن مصرف‌کنندگان به این فکر که کلاهبرداری‌ها و تقلب‌ها مشروع هستند، سردرگمی ایجاد کرده‌اند." "مهم نیست که کدام سلبریتی یا سیاستمدار را ترجیح می‌دهید، یا چه رابطه‌ای با خویشاوند خود دارید هنگامی که برای کمک تماس می‌گیرند، ممکن است همه ما هدف این تماس‌های جعلی قرار گیریم."

کوتاه از ادعاهای جعلی مانند این، آینده‌ای پر از هوش مصنوعی در شبکه‌های اجتماعی ممکن است پر از افراد به ظاهر واقعی باشد که صرفاً توسط کامپیوتر تولید شده‌اند. چنین ترکیبات مجازی در حال نفوذ به جامعه اینفلوئنسرهای آنلاین و کسب انبوهی از طرفداران در پلتفرم‌های شبکه‌های اجتماعی هستند. به عنوان مثال، "آیتانا لوپز" به طور منظم نگاهی به زندگی حسادت‌انگیز خود به عنوان یک موسیقیدان و طراح مد اسپانیایی زیبا منتشر می‌کند. هنگامی که آخرین بار بررسی کردیم، حساب اینستاگرام او ۳۱۰,۰۰۰ فالوور داشت و او برای برندهای مراقبت از مو و لباس، از جمله ویکتوریا سکرت، به قیمت حدود ۱,۰۰۰ دلار برای هر پست تبلیغ می‌کرد. اما شخص دیگری باید پول به سختی به دست آمده او را خرج کند، زیرا آیتانا واقعاً به لباس، غذا یا مکانی برای زندگی نیاز ندارد. او مخلوق برنامه‌ریزی شده یک آژانس تبلیغاتی است – آژانسی که با اتصال برندها به اینفلوئنسرهای انسانی واقعی شروع به کار کرد اما متوجه شد که انسان‌ها همیشه مدیریتشان آسان نیست.

با اینفلوئنسرهای و بات‌های مبتنی بر هوش مصنوعی که با سرعت بی‌سابقه‌ای با یکدیگر تعامل دارند، بافت اصلی تعامل آنلاین ممکن است در حال تغییر باشد. اگر لایک‌ها دیگر از افراد واقعی نباشند و محتوا دیگر توسط آن‌ها ایجاد نشود، این به چه معنا برای آینده اقتصاد لایک است؟

در سناریویی که نه تنها تکرار بلکه فراتر از فرض فیلم او (۲۰۱۳) می‌رود، اکنون می‌توانید اشتراکی بخرید که شما را قادر می‌سازد تا با "دوست دختر" روی صفحه نمایش تا دلتان می‌خواهد چت کنید. CarynAI یک کلون هوش مصنوعی از یک اینفلوئنسر آنلاین واقعی، کارین مارجوری، است که قبلاً بیش از یک میلیون فالوور در اسنپ چت به دست آورده بود که تصمیم گرفت با یک شرکت هوش مصنوعی همکاری کند و یک چت‌بات توسعه دهد. کسانی که می‌خواهند در مکالمه یک به یک با کارین مجازی شرکت کنند، یک دلار در دقیقه پرداخت می‌کنند و مکالمه چت‌بات توسط نرم‌افزار GPT-4 اوپن‌ای‌آی تولید می‌شود، که بر روی آرشیو محتوایی آموزش داده شده است که مارجوری قبلاً در یوتیوب منتشر کرده بود.

می‌توانیم سناریویی را تصور کنیم که در آن بخش بزرگی از لایک‌ها نه به محتوای تولید شده توسط انسان‌ها – و نه توسط افراد واقعی – اختصاص داده می‌شوند. می‌توانیم دنیای دیجیتالی داشته باشیم که توسط خالقان و مصرف‌کنندگان سنتز شده با سرعت نور با یکدیگر تعامل دارند. مطمئناً اگر این اتفاق رخ دهد، حتی به صورت جزئی، مشکلات جدیدی برای حل وجود خواهد داشت، مربوط به نیاز ما به دانستن اینکه واقعاً چه کسی چیست، و چه زمانی یک پست به ظاهر محبوب واقعاً ارزش بررسی دارد.

آیا آینده‌ای می‌خواهیم که در آن لایک‌های واقعی ما (و همه دیگران) شفاف‌تر و غیرقابل پنهان‌کاری باشند؟ یا می‌خواهیم (برای خودمان و همچنین برای دیگران) توانایی فریب‌کاری را حفظ کنیم؟ به نظر منطقی می‌رسد که ابزارهای جدیدی برای ارائه شفافیت و اطمینان بیشتر در مورد اینکه آیا یک لایک به یک فرد واقعی متصل است یا فقط یک بات واقع‌گرا، توسعه خواهند یافت. پلتفرم‌های مختلف ممکن است چنین ابزارهایی را در درجات مختلف به کار گیرند.


بخشی اقتباس شده از کتاب لایک: دکمه‌ای که دنیا را تغییر داد اثر مارتین ریوز و باب گودسون. منتشر شده با هماهنگی انتشارات HBR Press. حق چاپ © ۲۰۲۵ توسط مارتین ریوز و باب گودسون.