وقتی هوش مصنوعی قاضی بازی می‌کند: شدت ناخواسته مدل‌های یادگیری ماشین

وقتی هوش مصنوعی قاضی بازی می‌کند

وقتی هوش مصنوعی قاضی بازی می‌کند: شدت ناخواسته مدل‌های یادگیری ماشین

به گفته محققان MIT و سایر موسسات، مدل‌های یادگیری ماشینی که برای تقلید از تصمیم‌گیری انسانی طراحی شده‌اند، اغلب قضاوت‌های متفاوت و گاهی سخت‌تر از انسان‌ها دارند، زیرا بر اساس نوع اشتباه داده‌ها آموزش دیده‌اند. داده‌های «درست» برای آموزش این مدل‌ها، داده‌های هنجاری هستند که توسط انسان‌هایی که به صراحت از آنها پرسیده شده است که آیا اقلام از یک قانون خاص سرپیچی می‌کنند برچسب‌گذاری می‌شوند. با این حال، بیشتر مدل‌ها بر روی داده‌های توصیفی آموزش داده می‌شوند، جایی که انسان‌ها به جای آن ویژگی‌های واقعی را شناسایی می‌کنند. هنگامی که مدل‌ها بر روی داده‌های توصیفی برای قضاوت در مورد نقض قوانین آموزش می‌بینند، تمایل دارند این تخلفات را بیش از حد پیش‌بینی کنند که به طور بالقوه منجر به پیامدهای جدی در دنیای واقعی می‌شود.

محققان دریافته‌اند که مدل‌هایی که با استفاده از تکنیک‌های رایج جمع‌آوری داده‌ها آموزش دیده‌اند، نقض قوانین را سخت‌تر از انسان‌ها قضاوت می‌کنند.

به گفته محققان MIT و سایر موسسات، مدل‌های یادگیری ماشینی اغلب قضاوت‌های سخت‌تری نسبت به انسان‌ها انجام می‌دهند، زیرا بر روی نوع اشتباه داده‌ها آموزش دیده‌اند، که می‌تواند پیامدهای جدی در دنیای واقعی داشته باشد.

در تلاشی برای بهبود انصاف یا کاهش عقب ماندگی‌ها، مدل‌های یادگیری ماشینی گاهی برای تقلید از تصمیم‌گیری انسانی طراحی می‌شوند، مانند تصمیم‌گیری در مورد اینکه آیا پست‌های رسانه‌های اجتماعی خط‌مشی‌های محتوای سمی را نقض می‌کنند یا خیر.

اما محققان MIT و جاهای دیگر دریافته‌اند که این مدل‌ها اغلب تصمیمات انسانی در مورد نقض قوانین را تکرار نمی‌کنند. اگر مدل‌ها با داده‌های مناسب آموزش نبینند، احتمالاً قضاوت‌های متفاوت و اغلب سخت‌تر از انسان‌ها خواهند داشت.

در این مورد، داده‌های «درست» آن‌هایی هستند که توسط انسان‌هایی که به صراحت از آنها پرسیده شده است که آیا اقلام از یک قاعده خاص سرپیچی می‌کنند برچسب‌گذاری شده‌اند. آموزش شامل نشان دادن میلیون‌ها نمونه از این «داده‌های هنجاری» به یک مدل یادگیری ماشینی است تا بتواند یک کار را یاد بگیرد.

اما داده‌هایی که برای آموزش مدل‌های یادگیری ماشینی استفاده می‌شوند معمولاً به صورت توصیفی برچسب‌گذاری می‌شوند – به این معنی که از انسان‌ها خواسته می‌شود ویژگی‌های واقعی را شناسایی کنند، مثلاً، وجود غذای سرخ‌شده در عکس. اگر از «داده‌های توصیفی» برای آموزش مدل‌هایی استفاده شود که نقض قوانین را قضاوت می‌کنند، مانند اینکه آیا یک وعده غذایی خط‌مشی مدرسه را که غذای سرخ‌شده را ممنوع می‌کند، نقض می‌کند، مدل‌ها تمایل دارند بیش از حد نقض قوانین را پیش‌بینی کنند.

 

منبع :

https://scitechdaily.com/

اشتراک گذاری پست

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *


BAGHI/09120201982
تماس بگیرید

سلام , وقت بخیر

کارشناسان سئو دل بعد از بررسی در خواست شما در اسرع وقت با شما تماس میگیرند