چه زمانی به یک مدل هوش مصنوعی می توانیم اعتماد کنیم

نویسنده: Adam Zewe

چه زمانی به یک مدل
هوش مصنوعی می توانیم اعتماد کنیم

برآوردهای دقیق تر از عدم قطعیت می تواند به تصمیم گیری کاربران در مورد چگونگی و زمان استفاده از مدل های یادگیری ماشین در دنیای واقعی کمک کند.

آدرس مقاله: https://www.sciencedaily.com/releases/2024/07/240712222151.htm

مقدمه

از آنجایی که مدل‌های یادگیری ماشینی می‌توانند پیش‌بینی‌های نادرستی ارائه دهند، محققان اغلب آن‌ها را به این توانایی مجهز می‌کنند که به کاربر بگویند چقدر در مورد یک تصمیم خاص مطمئن هستند. این امر به ویژه در مباحث پرمخاطب بسیار مهم و حیاتی است، مانند زمانی که از مدل ها برای کمک به شناسایی بیماری در تصاویر پزشکی یا فیلتر برنامه های شغلی استفاده می شود.

اما کمیت‌های عدم قطعیت یک مدل تنها زمانی مفید هستند که دقیق باشند. اگر مدلی بگوید 49 درصد مطمئن است که یک تصویر پزشکی پلورال افیوژن (آب آوردن ریه) را نشان می‌دهد، در 49 درصد مواقع، مدل باید درست باشد.

محققان MIT رویکرد جدیدی را معرفی کرده‌اند که می‌تواند تخمین‌های عدم قطعیت را در مدل‌های یادگیری ماشینی بهبود بخشد. روش آنها نه تنها تخمین های عدم قطعیت دقیق تری را نسبت به سایر تکنیک ها ایجاد می کند، بلکه این کار را با کارایی بیشتری انجام می دهد.

علاوه بر این، از آنجایی که این تکنیک مقیاس پذیر است، می توان آن را برای مدل های یادگیری عمیق عظیمی که به طور فزاینده ای در مراقبت های بهداشتی و سایر موقعیت های حیاتی ایمنی به کار گرفته می شوند، اعمال کرد.

این تکنیک  به کاربران نهایی، که بسیاری از آنها فاقد تخصص یادگیری ماشینی هستند، اطلاعات بیشتری می دهد تا بتوانند تشخیص دهند که آیا به پیش‌بینی‌های یک مدل  می توان اعتماد کرد یا اینکه مدل باید برای یک کار خاص به کار گرفته شود.

نویسنده اصلی،Nathan Ng، دانشجوی فارغ التحصیل در دانشگاه تورنتو که دانشجوی مهمان در MIT است، می گوید: “به راحتی می توان دید که این مدل ها در سناریوهایی که بسیار خوب هستند عملکرد بسیار خوبی دارند و سپس فرض کنیم که در سناریوهای دیگر به همان اندازه خوب خواهند بود. این امر به ویژه انجام این نوع کار را که به دنبال کالیبراسیون بهتر عدم قطعیت این مدل‌ها است برای اطمینان از همسویی با مفاهیم انسانی عدم قطعیت، مهم می‌کند.”

Ng مقاله خود  را با Roger Grosse، استادیار علوم کامپیوتر در دانشگاه تورنتو و نویسنده ارشد مرضیه قاسمی، دانشیار گروه مهندسی برق و علوم کامپیوتر و عضو پژوهشگاه علوم مهندسی پزشکی و آزمایشگاه سیستم‌های اطلاعات و تصمیم‌گیری نوشته است . این تحقیق در کنفرانس بین المللی یادگیری ماشین ارائه خواهد شد.

کمی سازی عدم قطعیت

روش‌های کمی‌سازی عدم قطعیت اغلب به محاسبات آماری پیچیده نیاز دارند که به خوبی به مدل‌های یادگیری ماشینی با میلیون‌ها پارامتر مقیاس نمی‌شوند. این روش‌ها همچنین از کاربران می‌خواهند که در مورد مدل و داده‌های مورد استفاده برای آموزش آن مفروضاتی داشته باشند.

محققان MIT رویکرد متفاوتی در پیش گرفتند. آنها از چیزی که به عنوان اصل حداقل طول توصیف (MDL) شناخته می شود، استفاده می کنند، که نیازی به فرضیاتی ندارد که می تواند دقت روش های دیگر را مختل کند. MDL برای تعیین کمیت و کالیبراسیون بهتر عدم قطعیت برای نقاط آزمایشی که از مدل خواسته شده  استفاده می شود.

تکنیکی که محققان توسعه داده اند، معروف به IF-COMP،روش MDL را به اندازه کافی سریع می کند تا با انواع مدل های بزرگ یادگیری عمیق که در بسیاری از تنظیمات دنیای واقعی مستقر شده اند، استفاده شود.

MDL  شامل در نظر گرفتن همه برچسب‌های ممکن است که یک مدل می‌تواند به یک نقطه در آزمایش بدهد. اگر برچسب‌های جایگزین زیادی برای این نقطه وجود داشته باشد که به خوبی مطابقت داشته باشد، اعتماد آن به برچسبی که انتخاب کرده است باید به همین ترتیب کاهش یابد.

Ng می‌گوید: «یکی از راه‌های درک اینکه یک مدل چقدر مطمئن است، گفتن برخی اطلاعات خلاف واقع به آن و دیدن اینکه چقدر احتمال دارد شما را باور کند، خواهد بود.»

به عنوان مثال، مدلی را در نظر بگیرید که می گوید این تصویر پزشکی یک Pleural effusion (آب آوردن ریه) را نشان می دهد. اگر محققین به مدل بگویند که این تصویر Edema (تجمع غیرطبیعی آب موجود در پلاسما در فضای میان بافتی، زیر پوست و حفره‌های بدن و به علت انتقال آن‌ها از درون رگها به آنجاهاست) را نشان می دهد، او مایل است باور خود را به روز کند، مدل باید کمتر به تصمیم اولیه خود اطمینان داشته باشد.

در MDL، اگر مدلی هنگام برچسب گذاری یک نقطه داده مطمئن باشد، باید از یک کد بسیار کوتاه برای توصیف آن نقطه استفاده کند. اگر در مورد تصمیم خود نامطمئن باشد زیرا نقطه می تواند برچسب های زیادی داشته باشد، از کد طولانی تری برای گرفتن این احتمالات استفاده می کند.
مقدار کد مورد استفاده برای برچسب گذاری یک نقطه داده به عنوان پیچیدگی داده های تصادفی شناخته می شود. اگر محققان از مدل بپرسند که چقدر مایل است باور خود را در مورد یک نقطه داده با شواهد مخالف به روز کند، اگر مدل مطمئن باشد، پیچیدگی داده های تصادفی باید کاهش یابد. اما آزمایش هر نقطه داده با استفاده از MDL به مقدار زیادی محاسبات نیاز دارد.
 
تسریع در روند
با IF-COMP، محققان یک تکنیک تقریبی را توسعه دادند که می‌تواند پیچیدگی داده‌های تصادفی را با استفاده از یک تابع خاص، که به عنوان تابع تأثیر شناخته می‌شود، به دقت تخمین بزند. آنها همچنین از یک تکنیک آماری به نام درجه حرارت مقیاس ( temperature-scaling)  استفاده کرده اند که کالیبراسیون خروجی های مدل را بهبود می بخشد. این ترکیب ارائه شده از توابع تأثیر و مقیاس بندی دما، تقریب با کیفیت بالا از پیچیدگی داده های تصادفی را امکان پذیر می کند.

در پایان، IF-COMP می‌تواند به‌طور کارآمد کمی‌سازی‌های عدم قطعیت به خوبی کالیبره‌شده  ای را تولید کند که نشان‌دهنده اطمینان واقعی یک مدل است. این تکنیک همچنین می‌تواند تعیین کند که آیا مدل نقاط داده مشخصی را اشتباه برچسب‌گذاری کرده است یا اینکه مشخص کند کدام نقاط داده پرت هستند.

محققان سیستم خود را روی سه پروژه آزمایش کردند و دریافتند که سریعتر و دقیق تر از روش های دیگر است.

واقعاً مهم است که اطمینان داشته باشیم که یک مدل به خوبی کالیبره شده است، و نیاز روزافزونی برای تشخیص اینکه چه زمانی یک پیش‌بینی خاص کاملاً درست به نظر نمی‌رسد وجود دارد.

قاسمی می‌گوید: «ابزارهای حسابرسی در مشکلات یادگیری ماشینی ضروری‌تر می‌شوند، زیرا ما از مقادیر زیادی داده‌های بررسی نشده برای ساخت مدل‌هایی استفاده می‌کنیم که برای مشکلات مواجهه با انسان به کار می‌روند.»

IF-COMP مدل-آگنوستیک است، بنابراین می تواند کمیت های عدم قطعیت دقیق را برای بسیاری از انواع مدل های یادگیری ماشین ارائه دهد. این می تواند آن را قادر سازد تا در طیف وسیع تری از تنظیمات دنیای واقعی مستقر شود و در نهایت به پزشکان بیشتری کمک کند تا تصمیمات بهتری بگیرند.

Ng می گوید«مردم باید بدانند که این سیستم‌ها بسیار خطاپذیر هستند و می‌توانند هرچه پیش می‌روند، همه چیز را درست کنند. یک مدل ممکن است به نظر بسیار مطمئن به نظر برسد، اما چیزهای مختلفی وجود دارد که مایل به باور با شواهدی بر خلاف آن است.»

در آینده، محققان علاقه مند به اعمال رویکرد خود برای مدل های زبان بزرگ و مطالعه سایر موارد استفاده بالقوه برای اصل حداقل طول توضیحات هستند.

 

 

دانلود مقاله    https://arxiv.org/abs/2406.02745

منبع: 

Nathan Ng, Roger Grosse, Marzyeh Ghassemi. Measuring Stochastic Data Complexity with Boltzmann Influence Functions. Submitted to arXiv, 2024 DOI: 10.48550/arXiv.2406.02745

Materials provided by Massachusetts Institute of Technology. Original written by Adam Zewe. Note: Content may be edited for style and length.

 

سبد خرید