رفتار انسان و ML چگونه می توانند با هم در برنامه های هوش مصنوعی کار کنند؟
رفتار انسانی و ML دارای شکافی هستند که محققان آن را پر خواهند کرد. یادگیری ماشینی (ML) شاخهای از هوش مصنوعی (AI) است که رایانهها را قادر میسازد تا از دادهها یاد بگیرند. و بدون برنامهریزی صریح، پیشبینی و یا تصمیم بگیرند. ML کاربردهای زیادی در حوزه های مختلف دارد. مانند بینایی کامپیوتر، پردازش زبان طبیعی، سیستم های توصیه گر و خودروهای اتوماتیک. ML با محدودیت ها و چالش هایی از جمله: کیفیت داده ها، استحکام مدل، قابلیت تفسیر، مسائل اخلاقی و خطاهای انسانی مواجه است.
یکی از چالشهایی که محققان ML تلاش میکنند به آن بپردازند. محاسبه عدم قطعیت و خطای انسانی در برنامههای هوش مصنوعی است. که در آن انسانها و ماشینها با یکدیگر همکاری میکنند. عدم قطعیت برای استدلال و تصمیمگیری انسان اساسی است. اما بسیاری از مدلهای ML باید آن را بهدرستی درک کرده یا به درستی مدیریت کنند. به عنوان مثال، زمانی که یک انسان بازخورد یا برچسبهایی برای مدل های ML ارائه میکند. مدل، اغلب فرض میکند که کار انسان همیشه مطمئن و درست است، که البته فرضیه ای غیرواقعی است. چون انسان ها می توانند اشتباه کنند، شک داشته باشند یا نظر خود را تغییر دهند.
برای پر کردن شکاف بین رفتار انسان و ML
محققان دانشگاه کمبریج، موسسه آلن تورینگ، دانشگاه پرینستون و Google DeepMind در حال توسعه روشی برای گنجاندن خطای انسانی و عدم قطعیت در سیستمهای ML هستند. محققان مجموعه ای را به نام CIFAR-10 جمع آوری کردند. که شامل 60000 تصویر از 10 کلاس مختلف از اشیا بود. مانند هواپیما، گربه، سگ و کامیون. آنها از حاشیه نویسان خواستند تا برخی از تصاویر را برچسب گذاری کنند. و سطح عدم قطعیت خود را با استفاده از مقیاسی از 1 (بسیار نامشخص) تا 5 (بسیار مطمئن) نشان دهند.
محققان عملکرد آنها را در مجموعهای از تصاویر آزمایشی ارزیابی کردند. آنها مدل هایی را که از برچسب های نامشخص استفاده می کردند با مدل هایی که فقط از برچسب های خاصی استفاده می کردند یا اطلاعات عدم قطعیت را نادیده می گرفتند، مقایسه کردند. آنها دریافتند که آموزش با برچسب های نامشخص، می تواند عملکرد مدل ها را در مدیریت بازخوردِ نامطمئن بهبود ببخشد (اگرچه انسان ها باعث کاهش عملکرد کلی این سیستم های ترکیبی می شوند). محققان همچنین چگونگی تأثیر انواع مختلف عدم قطعیت بر فرآیند یادگیری و نتایج مدلها را تجزیه و تحلیل کردند.
محققان امیدوارند که کارشان بتواند به بهبود اعتماد و قابلیت اطمینان برنامههای هوش مصنوعی که در آن انسانها و ماشینها با هم کار میکنند، کمک کند. بهویژه در تنظیمات حیاتی ایمنی، مانند تشخیص پزشکی. آنها استدلال می کنند که محاسبه خطای انسانی و عدم قطعیت برای طراحی سیستم های ML قوی تر و اخلاقی تر که با ارزش ها و ترجیحات انسانی هماهنگ تر باشد، ضروری است.
[sc_fs_faq html=”true” headline=”h2″ img=”” question=”حاشیه نویسی داده چیست؟” img_alt=”” css_class=””] حاشیه نویسی: فرآیند برچسب گذاری داده ها با برچسب های مرتبط است. تا درک و تفسیر برای رایانه ها آسان تر شود. و این داده ها می توانند به شکل تصویر، متن، صوت یا ویدیو باشند. حاشیه نویسان باید تا حد امکان برچسب گذاری ها را دقیق انجام دهند. [/sc_fs_faq]