دانشمندان نوری به “جعبه سیاه” هوش مصنوعی می تابانند

دانشمندان نوری به "جعبه سیاه" هوش مصنوعی می تابانند

دانشمندان نوری به “جعبه سیاه” هوش مصنوعی می تابانند

محققان روشی نوآورانه برای ارزیابی تفسیرپذیری فناوری‌های هوش مصنوعی، بهبود شفافیت و اعتماد به ابزارهای تشخیصی و پیش‌بینی مبتنی بر هوش مصنوعی ایجاد کرده‌اند. این رویکرد به کاربران کمک می‌کند تا عملکرد درونی الگوریتم‌های هوش مصنوعی «جعبه سیاه» را، به‌ویژه در برنامه‌های پزشکی پرمخاطره و در چارچوب قانون آتی هوش مصنوعی اتحادیه اروپا، درک کنند.

تیمی متشکل از محققان دانشگاه ژنو (UNIGE)، بیمارستان‌های دانشگاه ژنو (HUG) و دانشگاه ملی سنگاپور (NUS) رویکردی پیشگامانه برای ارزیابی تکنیک‌های تفسیرپذیری هوش مصنوعی ایجاد کرده‌اند. هدف این است که پایه های تصمیم گیری هوش مصنوعی را کشف کرده و سوگیری های احتمالی را شناسایی کنیم.

تیمی از محققان دانشگاه ژنو (UNIGE) ، بیمارستان‌های دانشگاه ژنو (HUG) و دانشگاه ملی سنگاپور (NUS) رویکرد جدیدی را برای ارزیابی قابلیت تفسیر فناوری‌های هوش مصنوعی (AI) توسعه داده‌اند. این پیشرفت راه را برای افزایش شفافیت و اعتبار در ابزارهای تشخیصی و پیش‌بینی مبتنی بر هوش مصنوعی هموار می‌کند.

روش جدید عملکرد اسرارآمیز الگوریتم‌های هوش مصنوعی به اصطلاح «جعبه سیاه» را روشن می‌کند و به کاربران کمک می‌کند تا بفهمند چه چیزی بر نتایج تولید شده توسط هوش مصنوعی تأثیر می‌گذارد و آیا می‌توان به نتایج اعتماد کرد. این امر به ویژه در سناریوهایی که تأثیر قابل توجهی بر سلامت و رفاه انسان دارند، مانند استفاده از هوش مصنوعی در کاربردهای پزشکی بسیار مهم است.

این تحقیق در زمینه قانون آتی هوش مصنوعی اتحادیه اروپا که هدف آن تنظیم توسعه و استفاده از هوش مصنوعی در اتحادیه اروپا است، اهمیت خاصی دارد. این یافته ها اخیراً در مجله Nature Machine Intelligence منتشر شده است .

داده های سری زمانی – که نشان دهنده تکامل اطلاعات در طول زمان است – در همه جا وجود دارد: به عنوان مثال در پزشکی، هنگام ثبت فعالیت قلب با الکتروکاردیوگرام (ECG). در مطالعه زلزله؛ ردیابی الگوهای آب و هوا؛ یا در اقتصاد برای نظارت بر بازارهای مالی. این داده ها را می توان با فناوری های هوش مصنوعی برای ساخت ابزارهای تشخیصی یا پیش بینی مدل سازی کرد.

پیشرفت هوش مصنوعی و به ویژه یادگیری عمیق – که شامل آموزش ماشینی با استفاده از این مقادیر بسیار زیاد داده با هدف تفسیر آن و یادگیری الگوهای مفید است – راه را برای ابزارهای دقیق برای تشخیص و پیش‌بینی باز می‌کند. با این حال، بدون بینش در مورد نحوه عملکرد الگوریتم‌های Al یا اینکه چه چیزی بر نتایج آنها تأثیر می‌گذارد، ماهیت «جعبه سیاه» فناوری هوش مصنوعی سؤالات مهمی را در مورد قابلیت اعتماد ایجاد می‌کند.

پروفسور کریستین لوویس، مدیر دپارتمان رادیولوژی و انفورماتیک پزشکی در دانشکده پزشکی UNIGE و رئیس بخش علوم اطلاعات پزشکی در HUG می‌گوید: «روش کار این الگوریتم‌ها حداقل غیرشفاف است». که این اثر را کارگردانی کرده است.

“البته، مخاطرات، به ویژه مالی، بسیار زیاد است. اما چگونه می توانیم به یک ماشین اعتماد کنیم بدون اینکه اساس استدلال آن را درک کنیم؟ این سوالات ضروری است، به ویژه در بخش هایی مانند پزشکی، جایی که تصمیمات مبتنی بر هوش مصنوعی می تواند بر سلامت و حتی زندگی افراد تأثیر بگذارد. و امور مالی، جایی که می توانند منجر به از دست دادن سرمایه عظیم شوند.»

هدف روش های تفسیرپذیری پاسخگویی به این سؤالات از طریق رمزگشایی چرایی و چگونگی رسیدن یک هوش مصنوعی به یک تصمیم معین و دلایل پشت آن است. دستیار پروفسور جیانمارکو منگالدو، مدیر MathEXLab در National می‌گوید: «دانستن اینکه چه عناصری ترازو را به نفع یا علیه یک راه‌حل در یک موقعیت خاص منحرف می‌کنند، بنابراین اجازه می‌دهد تا مقداری شفافیت وجود داشته باشد. کالج طراحی و مهندسی دانشگاه سنگاپور که این کار را کارگردانی کرده است.

با این حال، روش‌های تفسیرپذیر فعلی که به طور گسترده در کاربردهای عملی و جریان‌های کاری صنعتی استفاده می‌شوند، نتایج کاملاً متفاوتی را هنگام اعمال برای یک کار ارائه می‌دهند. این سؤال مهم را مطرح می کند: با توجه به اینکه باید یک پاسخ منحصر به فرد و صحیح وجود داشته باشد، چه روش تفسیرپذیری صحیح است؟ از این رو، ارزیابی روش‌های تفسیرپذیری به اندازه تفسیرپذیری فی نفسه مهم می‌شود.»

تشخیص مهم از غیر مهم

داده های متمایز در توسعه فناوری های هوش مصنوعی قابل تفسیر بسیار مهم است. به عنوان مثال، هنگامی که یک هوش مصنوعی تصاویر را تجزیه و تحلیل می کند، روی چند ویژگی مشخصه تمرکز می کند.

دانشجوی دکترا در آزمایشگاه پروفسور لوویس و اولین نویسنده مطالعه Hugues Turbé توضیح می دهد: «به عنوان مثال، هوش مصنوعی می تواند بین تصویر یک سگ و تصویر یک گربه تفاوت قائل شود. همین اصل برای تجزیه و تحلیل توالی‌های زمانی نیز صدق می‌کند: ماشین باید بتواند عناصری را انتخاب کند – مثلاً قله‌هایی که از سایرین برجسته‌تر هستند – تا استدلال خود را بر اساس آن استناد کند. با سیگنال‌های ECG، به معنای تطبیق سیگنال‌های الکترودهای مختلف برای ارزیابی ناهماهنگی‌های احتمالی است که نشانه‌ای از یک بیماری قلبی خاص است.

انتخاب یک روش تفسیرپذیر از بین همه موجود برای یک هدف خاص آسان نیست. روش‌های مختلف تفسیرپذیری هوش مصنوعی اغلب نتایج بسیار متفاوتی را تولید می‌کنند، حتی زمانی که روی مجموعه داده‌ها و وظیفه‌ای مشابه اعمال شوند.

برای مقابله با این چالش، محققان دو روش ارزیابی جدید را برای کمک به درک چگونگی تصمیم گیری هوش مصنوعی توسعه دادند: یکی برای شناسایی مرتبط ترین بخش های سیگنال و دیگری برای ارزیابی اهمیت نسبی آن ها با توجه به پیش بینی نهایی. برای ارزیابی تفسیرپذیری، آنها بخشی از داده ها را پنهان کردند تا بررسی کنند که آیا برای تصمیم گیری هوش مصنوعی مرتبط است یا خیر.

با این حال، این رویکرد گاهی اوقات باعث ایجاد خطا در نتایج می شد. برای تصحیح این موضوع، آن‌ها هوش مصنوعی را بر روی یک مجموعه داده افزوده آموزش دادند که شامل داده‌های پنهان است که به حفظ تعادل و دقت داده‌ها کمک می‌کند. سپس تیم دو روش برای اندازه‌گیری نحوه عملکرد روش‌های تفسیرپذیر ایجاد کرد، که نشان می‌دهد آیا هوش مصنوعی از داده‌های درست برای تصمیم‌گیری استفاده می‌کند و آیا همه داده‌ها به طور منصفانه در نظر گرفته می‌شوند. Hugues Turbé توضیح می‌دهد: «به طور کلی هدف روش ما ارزیابی مدلی است که واقعاً در حوزه عملیاتی آن استفاده می‌شود، بنابراین از قابلیت اطمینان آن اطمینان حاصل می‌کند.

این تیم برای ادامه تحقیقات خود یک مجموعه داده مصنوعی ایجاد کرده است که آن را در دسترس جامعه علمی قرار داده است تا به راحتی هر هوش مصنوعی جدیدی را که هدف آن تفسیر توالی های زمانی است ارزیابی کند.

آینده کاربردهای پزشکی

در ادامه، تیم اکنون قصد دارد روش خود را در یک محیط بالینی آزمایش کند، جایی که نگرانی در مورد هوش مصنوعی همچنان گسترده است. دکتر مینا بجلوگرلیک، که سرپرست تیم یادگیری ماشین در بخش پروفسور لوویس است و دومین نویسنده این مطالعه است، توضیح می‌دهد: «ایجاد اعتماد در ارزیابی هوش مصنوعی گامی کلیدی در جهت پذیرش آن‌ها در محیط‌های بالینی است. “مطالعه ما بر ارزیابی هوش مصنوعی بر اساس سری های زمانی متمرکز است، اما همین روش را می توان بر اساس روش های دیگر مورد استفاده در پزشکی، مانند تصاویر یا متن، برای هوش مصنوعی ها نیز اعمال کرد.”

https://seodel.com/category/news/

سئودل | مرجع سئو | seodel

اشتراک گذاری پست

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *