تصویر صفحه از پادکست اخلاق ماشین
تصویر صفحه از پادکست اخلاق ماشین

پادکست اخلاق ماشین: طراحی مشارکتی با پینار گوونچ

بن بایفورد میزبان پادکست اخلاق ماشین است که مصاحبه‌هایی را با اساتید دانشگاه، نویسندگان، رهبران کسب‌وکار، طراحان و مهندسان در مورد الگوریتم‌های خودگردان، هوش مصنوعی، یادگیری ماشین و تأثیر فناوری بر جامعه گرد هم می‌آورد.

طراحی مشارکتی با پینار گوونچ

در این قسمت، ما با پینار گوونچ درباره پادکست "مشکل چیه؟" او، طراحی مشارکتی، اینکه آیا هوش مصنوعی برای جامعه آماده است و آیا جامعه برای هوش مصنوعی آماده است، طراحی چیست، همکاری با هوش مصنوعی به عنوان یک ذینفع، سوگیری در طراحی، مدل‌های زبانی کوچک، اینکه آیا هوش مصنوعی ما را تنبل می‌کند، تجربه انسانی، زندگی دیجیتال و توجه ما و صحبت با افراد مختلف گفتگو می‌کنیم...

به این قسمت در اینجا گوش دهید:


پینار گوونچ شریک SOUR است - یک استودیوی طراحی جهانی برنده جایزه با ماموریت رسیدگی به مشکلات اجتماعی و شهری - جایی که او استراتژی کسب و کار و طراحی را رهبری می‌کند. او یک مربی است که رهبری اخلاقی و طراحی مشارکتی را در دانشکده طراحی پارسونز، مدیریت و طراحی استراتژیک MS و دانشکده هنرهای تجسمی MFA Interaction Design تدریس می‌کند. پینار در هیئت مدیره Open Style Lab خدمت می‌کند و به کسب و کارهای محلی در NYC از طریق مرکز توسعه اجتماعی Pratt مشاوره می‌دهد. او یک سخنران و مدرس عمومی مکرر است و میزبان "مشکل چیه: پادکست" SOUR است، یک سری بحث با پیشروان در زمینه‌های مختلف در سراسر جهان.

درباره پادکست اخلاق ماشین

این پادکست توسط بن بایفورد و همکارانش ایجاد و اداره می‌شود. این پادکست و سایر محتواها ابتدا برای گسترش علاقه روزافزون بن به حوزه هوش مصنوعی و اخلاق مرتبط با آن ایجاد شد. در چند سال گذشته، این پادکست به مکانی برای بحث و انتشار ایده‌های مهم، نه تنها در هوش مصنوعی، بلکه به طور کلی در اخلاق فناوری تبدیل شده است. همانطور که مصاحبه‌ها آشکار می‌شوند، اغلب به امور جاری، آینده کار، مسائل زیست محیطی و موارد دیگر منحرف می‌شوند. اگرچه هسته اصلی هنوز هوش مصنوعی و اخلاق هوش مصنوعی است، اما ما محتوایی را منتشر می‌کنیم که گسترده‌تر است و بنابراین امیدواریم برای عموم مردم و متخصصان مفیدتر باشد.

امید برای این پادکست این است که بحث در مورد فناوری و جامعه را ترویج کند و تولید فناوری (و به ویژه، الگوریتم‌های تصمیم‌گیری) را که ایده‌آل‌های انسانی را ترویج می‌کنند، تقویت کند.

با تماس از طریق ایمیل اینجا یا دنبال کردن ما در توییتر و اینستاگرام در این گفتگو شرکت کنید.