رفتار انسانی و ML همکار هم می شوند

رفتار انسان و ML چگونه می توانند با هم در برنامه های هوش مصنوعی کار کنند؟

رفتار انسانی و ML دارای شکافی هستند که محققان آن را پر خواهند کرد. یادگیری ماشینی (ML) شاخه‌ای از هوش مصنوعی (AI) است که رایانه‌ها را قادر می‌سازد تا از داده‌ها یاد بگیرند. و بدون برنامه‌ریزی صریح، پیش‌بینی و یا تصمیم بگیرند. ML کاربردهای زیادی در حوزه های مختلف دارد. مانند بینایی کامپیوتر، پردازش زبان طبیعی، سیستم های توصیه گر و خودروهای اتوماتیک. ML با محدودیت ها و چالش هایی از جمله: کیفیت داده ها، استحکام مدل، قابلیت تفسیر، مسائل اخلاقی و خطاهای انسانی مواجه است.

یکی از چالش‌هایی که محققان ML تلاش می‌کنند به آن بپردازند. محاسبه عدم قطعیت و خطای انسانی در برنامه‌های هوش مصنوعی است. که در آن انسان‌ها و ماشین‌ها با یکدیگر همکاری می‌کنند. عدم قطعیت برای استدلال و تصمیم‌گیری انسان اساسی است. اما بسیاری از مدل‌های ML باید آن را به‌درستی درک کرده یا به درستی مدیریت کنند. به عنوان مثال، زمانی که یک انسان بازخورد یا برچسب‌هایی برای مدل های ML ارائه می‌کند. مدل، اغلب فرض می‌کند که کار انسان همیشه مطمئن و درست است، که البته فرضیه ای غیرواقعی است. چون انسان ها می توانند اشتباه کنند، شک داشته باشند یا نظر خود را تغییر دهند.

برای پر کردن شکاف بین رفتار انسان و ML

محققان دانشگاه کمبریج، موسسه آلن تورینگ، دانشگاه پرینستون و Google DeepMind در حال توسعه روشی برای گنجاندن خطای انسانی و عدم قطعیت در سیستم‌های ML هستند. محققان مجموعه ای را به نام CIFAR-10 جمع آوری کردند. که شامل 60000 تصویر از 10 کلاس مختلف از اشیا بود. مانند هواپیما، گربه، سگ و کامیون. آنها از حاشیه نویسان خواستند تا برخی از تصاویر را برچسب گذاری کنند. و سطح عدم قطعیت خود را با استفاده از مقیاسی از 1 (بسیار نامشخص) تا 5 (بسیار مطمئن) نشان دهند.

محققان عملکرد آن‌ها را در مجموعه‌ای از تصاویر آزمایشی ارزیابی کردند. آنها مدل هایی را که از برچسب های نامشخص استفاده می کردند با مدل هایی که فقط از برچسب های خاصی استفاده می کردند یا اطلاعات عدم قطعیت را نادیده می گرفتند، مقایسه کردند. آنها دریافتند که آموزش با برچسب های نامشخص، می تواند عملکرد مدل ها را در مدیریت بازخوردِ نامطمئن بهبود ببخشد (اگرچه انسان ها  باعث کاهش عملکرد کلی این سیستم های ترکیبی می شوند). محققان همچنین چگونگی تأثیر انواع مختلف عدم قطعیت بر فرآیند یادگیری و نتایج مدل‌ها را تجزیه و تحلیل کردند.

محققان امیدوارند که کارشان بتواند به بهبود اعتماد و قابلیت اطمینان برنامه‌های هوش مصنوعی که در آن انسان‌ها و ماشین‌ها با هم کار می‌کنند، کمک کند. به‌ویژه در تنظیمات حیاتی ایمنی، مانند تشخیص پزشکی. آنها استدلال می کنند که محاسبه خطای انسانی و عدم قطعیت برای طراحی سیستم های ML قوی تر و اخلاقی تر که با ارزش ها و ترجیحات انسانی هماهنگ تر باشد، ضروری است.

 

[sc_fs_faq html=”true” headline=”h2″ img=”” question=”حاشیه نویسی داده چیست؟” img_alt=”” css_class=””] حاشیه نویسی: فرآیند برچسب گذاری داده ها با برچسب های مرتبط است. تا درک و تفسیر برای رایانه ها آسان تر شود. و این داده ها می توانند به شکل تصویر، متن، صوت یا ویدیو باشند. حاشیه نویسان باید تا حد امکان برچسب گذاری ها را دقیق انجام دهند. [/sc_fs_faq]

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *