پلتفرم هوش مصنوعی انویدیا به هوش مصنوعی کمک می‌کند زبان اشاره آمریکایی را تشخیص دهد.
پلتفرم هوش مصنوعی انویدیا به هوش مصنوعی کمک می‌کند زبان اشاره آمریکایی را تشخیص دهد.

انویدیا به راه‌اندازی پلتفرم هوش مصنوعی برای آموزش زبان اشاره آمریکایی کمک می‌کند

زبان اشاره آمریکایی سومین زبان محبوب در ایالات متحده است.
زبان اشاره آمریکایی سومین زبان محبوب در ایالات متحده است.
انویدیا با متخصصان زبان اشاره در پلتفرم مبتنی بر هوش مصنوعی خود کار می‌کند.
انویدیا با متخصصان زبان اشاره در پلتفرم مبتنی بر هوش مصنوعی خود کار می‌کند.

انویدیا به راه‌اندازی پلتفرم هوش مصنوعی برای آموزش زبان اشاره آمریکایی کمک می‌کند

انویدیا از یک پلتفرم هوش مصنوعی جدید برای آموزش نحوه استفاده از زبان اشاره آمریکایی به منظور کمک به رفع شکاف‌های ارتباطی رونمایی کرده است.

پلتفرم Signs در حال ایجاد یک مجموعه داده معتبر برای زبان‌آموزان زبان اشاره و توسعه‌دهندگان برنامه‌های هوش مصنوعی مبتنی بر ASL است.

اتفاقاً زبان اشاره آمریکایی سومین زبان رایج در ایالات متحده است، اما ابزارهای هوش مصنوعی توسعه‌یافته با داده‌های ASL بسیار کمتر از داده‌هایی هستند که رایج‌ترین زبان‌های این کشور، انگلیسی و اسپانیایی را نشان می‌دهند.

انویدیا، انجمن آمریکایی کودکان ناشنوا و آژانس خلاق Hello Monday با Signs، یک پلتفرم تعاملی وب که برای پشتیبانی از یادگیری ASL و توسعه برنامه‌های هوش مصنوعی در دسترس ساخته شده است، به رفع این شکاف کمک می‌کنند.

زبان‌آموزان زبان اشاره می‌توانند به کتابخانه معتبر پلتفرم از علائم ASL دسترسی داشته باشند تا دایره لغات خود را با کمک یک آواتار سه‌بعدی که علائم را نشان می‌دهد، گسترش دهند و از یک ابزار هوش مصنوعی استفاده کنند که فیلم‌های وب‌کم را تجزیه و تحلیل می‌کند تا بازخورد بی‌درنگ در مورد امضای خود دریافت کنند. امضاکنندگان در هر سطح مهارتی می‌توانند با امضای کلمات خاص به ساخت یک مجموعه داده ویدیویی منبع باز برای ASL کمک کنند. 

این مجموعه داده - که انویدیا قصد دارد آن را به 400000 کلیپ ویدیویی نشان دهنده 1000 کلمه امضا شده افزایش دهد - توسط کاربران و مترجمان مسلط ASL برای اطمینان از صحت هر علامت تأیید می‌شود، که منجر به یک فرهنگ لغت تصویری با کیفیت بالا و ابزار آموزشی می‌شود. 

Cheri Dowling، مدیر اجرایی انجمن آمریکایی کودکان ناشنوا، در بیانیه‌ای گفت: «اکثر کودکان ناشنوا از والدین شنوا متولد می‌شوند. در اختیار قرار دادن ابزارهای در دسترس مانند Signs به اعضای خانواده برای شروع یادگیری ASL در اوایل، آنها را قادر می‌سازد تا یک کانال ارتباطی مؤثر با کودکان از سن شش تا هشت ماهگی باز کنند. و با دانستن اینکه معلمان حرفه‌ای ASL تمام واژگان موجود در پلتفرم را تأیید کرده‌اند، کاربران می‌توانند به آنچه یاد می‌گیرند اطمینان داشته باشند.» 

تیم‌های انویدیا قصد دارند از این مجموعه داده برای توسعه بیشتر برنامه‌های هوش مصنوعی استفاده کنند که موانع ارتباطی بین جوامع ناشنوا و شنوا را از بین می‌برند. قرار است این داده‌ها به عنوان منبعی برای ساخت فناوری‌های در دسترس از جمله عوامل هوش مصنوعی، برنامه‌های دیجیتال انسانی و ابزارهای کنفرانس ویدیویی در اختیار عموم قرار گیرد. همچنین می‌توان از آن برای بهبود Signs و فعال کردن پلتفرم‌های ASL در سراسر اکوسیستم با پشتیبانی و بازخورد بی‌درنگ و مجهز به هوش مصنوعی استفاده کرد. 

داوطلبان، چه مبتدی و چه متخصص، می‌توانند از خود در حال امضا کردن فیلم بگیرند تا در مجموعه داده ASL مشارکت کنند.

پشتیبانی از آموزش ASL و بررسی تفاوت‌های ظریف زبانی

در طول فاز جمع‌آوری داده‌ها، Signs در حال حاضر یک پلتفرم قدرتمند برای کسب زبان ASL ارائه می‌دهد و فرصت‌هایی را برای افراد فراهم می‌کند تا مجموعه اولیه 100 علامت را یاد بگیرند و تمرین کنند تا بتوانند به طور مؤثرتری با دوستان یا اعضای خانواده‌ای که از ASL استفاده می‌کنند ارتباط برقرار کنند. 

«پلتفرم یادگیری Signs می‌تواند به خانواده‌هایی که فرزندان ناشنوا دارند کمک کند تا به سرعت یک کلمه خاص را جستجو کنند و ببینند چگونه علامت مربوطه را بسازند. Dowling گفت: این ابزاری است که می‌تواند به پشتیبانی از استفاده روزمره آنها از ASL در خارج از یک کلاس رسمی‌تر کمک کند. من می‌بینم که هم بچه‌ها و هم والدین آن را بررسی می‌کنند و فکر می‌کنم می‌توانند با هم با آن بازی کنند.»

در حالی که Signs در حال حاضر بر حرکات دست و موقعیت انگشتان برای هر علامت تمرکز دارد، ASL همچنین از حالات چهره و حرکات سر برای انتقال معنا استفاده می‌کند. تیمی که در پس Signs قرار دارد در حال بررسی این است که چگونه این سیگنال‌های غیر دستی می‌توانند ردیابی و در نسخه‌های آینده پلتفرم ادغام شوند. 

آنها همچنین در حال بررسی این هستند که چگونه سایر تفاوت‌های ظریف، مانند تغییرات منطقه‌ای و اصطلاحات عامیانه، می‌توانند در Signs برای غنی‌سازی پایگاه داده ASL آن نشان داده شوند - و با محققان مرکز تحقیقات دسترسی و شمول موسسه فناوری روچستر برای ارزیابی و بهبود بیشتر تجربه کاربری پلتفرم Signs برای کاربران ناشنوا و کم‌شنوا کار می‌کنند. 

Anders Jessen، شریک مؤسس Hello Monday/DEPT، که پلتفرم وب Signs را ساخته و قبلاً با انجمن آمریکایی کودکان ناشنوا در Fingerspelling.xyz، برنامه‌ای که الفبای ASL را به کاربران آموزش می‌داد، همکاری کرده بود، گفت: «بهبود دسترسی ASL یک تلاش مداوم است. Signs می‌تواند نیاز به ابزارهای پیشرفته هوش مصنوعی را برآورده کند که به عبور از موانع ارتباطی بین جوامع ناشنوا و شنوا کمک می‌کند.»

مجموعه داده پشت Signs قرار است اواخر امسال منتشر شود. 

یادگیری یا مشارکت در Signs را در signs-ai.com شروع کنید و درباره ابتکارات هوش مصنوعی قابل اعتماد Nvidia بیشتر بدانید. شرکت کنندگان در Nvidia GTC، یک کنفرانس جهانی هوش مصنوعی که در 17 تا 21 مارس در سن خوزه برگزار می‌شود، می‌توانند به صورت زنده در این رویداد در Signs شرکت کنند.