دانشمندان نوری به “جعبه سیاه” هوش مصنوعی می تابانند
تیمی متشکل از محققان دانشگاه ژنو (UNIGE)، بیمارستانهای دانشگاه ژنو (HUG) و دانشگاه ملی سنگاپور (NUS) رویکردی پیشگامانه برای ارزیابی تکنیکهای تفسیرپذیری هوش مصنوعی ایجاد کردهاند. هدف این است که پایه های تصمیم گیری هوش مصنوعی را کشف کرده و سوگیری های احتمالی را شناسایی کنیم.
تیمی از محققان دانشگاه ژنو (UNIGE) ، بیمارستانهای دانشگاه ژنو (HUG) و دانشگاه ملی سنگاپور (NUS) رویکرد جدیدی را برای ارزیابی قابلیت تفسیر فناوریهای هوش مصنوعی (AI) توسعه دادهاند. این پیشرفت راه را برای افزایش شفافیت و اعتبار در ابزارهای تشخیصی و پیشبینی مبتنی بر هوش مصنوعی هموار میکند.
روش جدید عملکرد اسرارآمیز الگوریتمهای هوش مصنوعی به اصطلاح «جعبه سیاه» را روشن میکند و به کاربران کمک میکند تا بفهمند چه چیزی بر نتایج تولید شده توسط هوش مصنوعی تأثیر میگذارد و آیا میتوان به نتایج اعتماد کرد. این امر به ویژه در سناریوهایی که تأثیر قابل توجهی بر سلامت و رفاه انسان دارند، مانند استفاده از هوش مصنوعی در کاربردهای پزشکی بسیار مهم است.
این تحقیق در زمینه قانون آتی هوش مصنوعی اتحادیه اروپا که هدف آن تنظیم توسعه و استفاده از هوش مصنوعی در اتحادیه اروپا است، اهمیت خاصی دارد. این یافته ها اخیراً در مجله Nature Machine Intelligence منتشر شده است .
داده های سری زمانی – که نشان دهنده تکامل اطلاعات در طول زمان است – در همه جا وجود دارد: به عنوان مثال در پزشکی، هنگام ثبت فعالیت قلب با الکتروکاردیوگرام (ECG). در مطالعه زلزله؛ ردیابی الگوهای آب و هوا؛ یا در اقتصاد برای نظارت بر بازارهای مالی. این داده ها را می توان با فناوری های هوش مصنوعی برای ساخت ابزارهای تشخیصی یا پیش بینی مدل سازی کرد.
پیشرفت هوش مصنوعی و به ویژه یادگیری عمیق – که شامل آموزش ماشینی با استفاده از این مقادیر بسیار زیاد داده با هدف تفسیر آن و یادگیری الگوهای مفید است – راه را برای ابزارهای دقیق برای تشخیص و پیشبینی باز میکند. با این حال، بدون بینش در مورد نحوه عملکرد الگوریتمهای Al یا اینکه چه چیزی بر نتایج آنها تأثیر میگذارد، ماهیت «جعبه سیاه» فناوری هوش مصنوعی سؤالات مهمی را در مورد قابلیت اعتماد ایجاد میکند.
پروفسور کریستین لوویس، مدیر دپارتمان رادیولوژی و انفورماتیک پزشکی در دانشکده پزشکی UNIGE و رئیس بخش علوم اطلاعات پزشکی در HUG میگوید: «روش کار این الگوریتمها حداقل غیرشفاف است». که این اثر را کارگردانی کرده است.
“البته، مخاطرات، به ویژه مالی، بسیار زیاد است. اما چگونه می توانیم به یک ماشین اعتماد کنیم بدون اینکه اساس استدلال آن را درک کنیم؟ این سوالات ضروری است، به ویژه در بخش هایی مانند پزشکی، جایی که تصمیمات مبتنی بر هوش مصنوعی می تواند بر سلامت و حتی زندگی افراد تأثیر بگذارد. و امور مالی، جایی که می توانند منجر به از دست دادن سرمایه عظیم شوند.»
هدف روش های تفسیرپذیری پاسخگویی به این سؤالات از طریق رمزگشایی چرایی و چگونگی رسیدن یک هوش مصنوعی به یک تصمیم معین و دلایل پشت آن است. دستیار پروفسور جیانمارکو منگالدو، مدیر MathEXLab در National میگوید: «دانستن اینکه چه عناصری ترازو را به نفع یا علیه یک راهحل در یک موقعیت خاص منحرف میکنند، بنابراین اجازه میدهد تا مقداری شفافیت وجود داشته باشد. کالج طراحی و مهندسی دانشگاه سنگاپور که این کار را کارگردانی کرده است.
با این حال، روشهای تفسیرپذیر فعلی که به طور گسترده در کاربردهای عملی و جریانهای کاری صنعتی استفاده میشوند، نتایج کاملاً متفاوتی را هنگام اعمال برای یک کار ارائه میدهند. این سؤال مهم را مطرح می کند: با توجه به اینکه باید یک پاسخ منحصر به فرد و صحیح وجود داشته باشد، چه روش تفسیرپذیری صحیح است؟ از این رو، ارزیابی روشهای تفسیرپذیری به اندازه تفسیرپذیری فی نفسه مهم میشود.»
تشخیص مهم از غیر مهم
داده های متمایز در توسعه فناوری های هوش مصنوعی قابل تفسیر بسیار مهم است. به عنوان مثال، هنگامی که یک هوش مصنوعی تصاویر را تجزیه و تحلیل می کند، روی چند ویژگی مشخصه تمرکز می کند.
دانشجوی دکترا در آزمایشگاه پروفسور لوویس و اولین نویسنده مطالعه Hugues Turbé توضیح می دهد: «به عنوان مثال، هوش مصنوعی می تواند بین تصویر یک سگ و تصویر یک گربه تفاوت قائل شود. همین اصل برای تجزیه و تحلیل توالیهای زمانی نیز صدق میکند: ماشین باید بتواند عناصری را انتخاب کند – مثلاً قلههایی که از سایرین برجستهتر هستند – تا استدلال خود را بر اساس آن استناد کند. با سیگنالهای ECG، به معنای تطبیق سیگنالهای الکترودهای مختلف برای ارزیابی ناهماهنگیهای احتمالی است که نشانهای از یک بیماری قلبی خاص است.
انتخاب یک روش تفسیرپذیر از بین همه موجود برای یک هدف خاص آسان نیست. روشهای مختلف تفسیرپذیری هوش مصنوعی اغلب نتایج بسیار متفاوتی را تولید میکنند، حتی زمانی که روی مجموعه دادهها و وظیفهای مشابه اعمال شوند.
برای مقابله با این چالش، محققان دو روش ارزیابی جدید را برای کمک به درک چگونگی تصمیم گیری هوش مصنوعی توسعه دادند: یکی برای شناسایی مرتبط ترین بخش های سیگنال و دیگری برای ارزیابی اهمیت نسبی آن ها با توجه به پیش بینی نهایی. برای ارزیابی تفسیرپذیری، آنها بخشی از داده ها را پنهان کردند تا بررسی کنند که آیا برای تصمیم گیری هوش مصنوعی مرتبط است یا خیر.
با این حال، این رویکرد گاهی اوقات باعث ایجاد خطا در نتایج می شد. برای تصحیح این موضوع، آنها هوش مصنوعی را بر روی یک مجموعه داده افزوده آموزش دادند که شامل دادههای پنهان است که به حفظ تعادل و دقت دادهها کمک میکند. سپس تیم دو روش برای اندازهگیری نحوه عملکرد روشهای تفسیرپذیر ایجاد کرد، که نشان میدهد آیا هوش مصنوعی از دادههای درست برای تصمیمگیری استفاده میکند و آیا همه دادهها به طور منصفانه در نظر گرفته میشوند. Hugues Turbé توضیح میدهد: «به طور کلی هدف روش ما ارزیابی مدلی است که واقعاً در حوزه عملیاتی آن استفاده میشود، بنابراین از قابلیت اطمینان آن اطمینان حاصل میکند.
این تیم برای ادامه تحقیقات خود یک مجموعه داده مصنوعی ایجاد کرده است که آن را در دسترس جامعه علمی قرار داده است تا به راحتی هر هوش مصنوعی جدیدی را که هدف آن تفسیر توالی های زمانی است ارزیابی کند.
آینده کاربردهای پزشکی
در ادامه، تیم اکنون قصد دارد روش خود را در یک محیط بالینی آزمایش کند، جایی که نگرانی در مورد هوش مصنوعی همچنان گسترده است. دکتر مینا بجلوگرلیک، که سرپرست تیم یادگیری ماشین در بخش پروفسور لوویس است و دومین نویسنده این مطالعه است، توضیح میدهد: «ایجاد اعتماد در ارزیابی هوش مصنوعی گامی کلیدی در جهت پذیرش آنها در محیطهای بالینی است. “مطالعه ما بر ارزیابی هوش مصنوعی بر اساس سری های زمانی متمرکز است، اما همین روش را می توان بر اساس روش های دیگر مورد استفاده در پزشکی، مانند تصاویر یا متن، برای هوش مصنوعی ها نیز اعمال کرد.”
https://seodel.com/category/news/
دیدگاهتان را بنویسید