نحوه استفاده مسئولانه پروپابلیکا از هوش مصنوعی در تحقیقات خود - وبلاگ سایمون ویلیسون

نحوه استفاده مسئولانه پروپابلیکا از هوش مصنوعی در تحقیقات خود. چارلز اورنستین توضیح می‌دهد که چگونه پروپابلیکا از یک مدل زبانی بزرگ (LLM) برای کمک به تجزیه و تحلیل داده‌ها برای داستان اخیر خود با عنوان مطالعه گیاهان نعناع. دستگاهی برای جلوگیری از خونریزی. این تحقیق علمی است که تد کروز آن را "بیدار" می‌نامد نوشته آگنل فیلیپ و لیزا سانگ، استفاده کرده است.

آنها حدود ۳۴۰۰ شرح کمک هزینه را از طریق یک پرامپت (prompt) اجرا کردند که شامل موارد زیر بود:

من به عنوان یک روزنامه‌نگار تحقیقی، به دنبال اطلاعات زیر هستم:

--

woke_description: شرح مختصری (حداکثر یک پاراگراف) درباره اینکه چرا این کمک هزینه برای ترویج ایدئولوژی "بیداری"، تنوع، برابری و شمول (DEI) یا تبلیغات پیشرفته جنگ طبقاتی نئومارکسیستی انتخاب شده است. اگر نامشخص است، آن را خالی بگذارید.

why_flagged: به فیلدهای "STATUS"، "SOCIAL JUSTICE CATEGORY"، "RACE CATEGORY"، "GENDER CATEGORY" و "ENVIRONMENTAL JUSTICE CATEGORY" نگاه کنید. اگر پر شده باشد، به این معنی است که نویسنده این سند معتقد است که این کمک هزینه، ایدئولوژی DEI را به این طریق ترویج می‌کند. فیلد "AWARD DESCRIPTIONS" را تجزیه و تحلیل کنید و ببینید آیا می‌توانید بفهمید که چرا نویسنده ممکن است آن را به این روش علامت‌گذاری کرده باشد. آن را به گونه‌ای بنویسید که کامل و آسان برای درک باشد و فقط یک شرح برای هر نوع و جایزه داشته باشد.

citation_for_flag: یک متن بسیار مختصر را استخراج کنید که قسمت‌هایی از "AWARDS DESCRIPTIONS" را نقل قول می‌کند که از داده‌های "why_flagged" پشتیبانی می‌کند.

این تنها اولین گام در تجزیه و تحلیل داده‌ها بود:

البته، اعضای کارکنان ما قبل از انتشار داستان خود، هر جزئیاتی را بررسی و تأیید کردند و ما با تمام افراد و آژانس‌های نامبرده تماس گرفتیم تا نظر آنها را جویا شویم، که حتی در دنیای هوش مصنوعی نیز باید انجام شود.

من فکر می‌کنم روزنامه‌نگاران به ویژه در موقعیت خوبی برای استفاده از مدل‌های زبانی بزرگ (LLM) به این روش قرار دارند، زیرا بخش بزرگی از روزنامه‌نگاری مربوط به استخراج حقیقت از منابع اطلاعاتی متعدد و غیرقابل اعتماد است. روزنامه‌نگاران عمیقاً با بررسی صحت اطلاعات آشنا هستند، که یک مهارت حیاتی است اگر قصد دارید با کمک این مدل‌های قدرتمند اما غیرقابل اعتماد گزارش دهید.

آگنل فیلیپ:

این فناوری نوید زیادی در تولید سرنخ و هدایت ما در مسیر درست دارد. اما بر اساس تجربه من، هنوز به نظارت و بررسی انسانی زیادی نیاز دارد. اگر به درستی استفاده شود، می‌تواند هم روند درک مجموعه‌های بزرگ اطلاعات را سرعت بخشد و هم اگر با پرامپت‌های خود خلاق باشید و خروجی را به طور انتقادی بخوانید، می‌تواند به کشف چیزهایی که ممکن است به آنها فکر نکرده باشید کمک کند.