چه زمانی به یک مدل
هوش مصنوعی می توانیم اعتماد کنیم
برآوردهای دقیق تر از عدم قطعیت می تواند به تصمیم گیری کاربران در مورد چگونگی و زمان استفاده از مدل های یادگیری ماشین در دنیای واقعی کمک کند.
از آنجایی که مدلهای یادگیری ماشینی میتوانند پیشبینیهای نادرستی ارائه دهند، محققان اغلب آنها را به این توانایی مجهز میکنند که به کاربر بگویند چقدر در مورد یک تصمیم خاص مطمئن هستند. این امر به ویژه در مباحث پرمخاطب بسیار مهم و حیاتی است، مانند زمانی که از مدل ها برای کمک به شناسایی بیماری در تصاویر پزشکی یا فیلتر برنامه های شغلی استفاده می شود.
اما کمیتهای عدم قطعیت یک مدل تنها زمانی مفید هستند که دقیق باشند. اگر مدلی بگوید 49 درصد مطمئن است که یک تصویر پزشکی پلورال افیوژن (آب آوردن ریه) را نشان میدهد، در 49 درصد مواقع، مدل باید درست باشد.
محققان MIT رویکرد جدیدی را معرفی کردهاند که میتواند تخمینهای عدم قطعیت را در مدلهای یادگیری ماشینی بهبود بخشد. روش آنها نه تنها تخمین های عدم قطعیت دقیق تری را نسبت به سایر تکنیک ها ایجاد می کند، بلکه این کار را با کارایی بیشتری انجام می دهد.
علاوه بر این، از آنجایی که این تکنیک مقیاس پذیر است، می توان آن را برای مدل های یادگیری عمیق عظیمی که به طور فزاینده ای در مراقبت های بهداشتی و سایر موقعیت های حیاتی ایمنی به کار گرفته می شوند، اعمال کرد.
این تکنیک به کاربران نهایی، که بسیاری از آنها فاقد تخصص یادگیری ماشینی هستند، اطلاعات بیشتری می دهد تا بتوانند تشخیص دهند که آیا به پیشبینیهای یک مدل می توان اعتماد کرد یا اینکه مدل باید برای یک کار خاص به کار گرفته شود.
نویسنده اصلی،Nathan Ng، دانشجوی فارغ التحصیل در دانشگاه تورنتو که دانشجوی مهمان در MIT است، می گوید: “به راحتی می توان دید که این مدل ها در سناریوهایی که بسیار خوب هستند عملکرد بسیار خوبی دارند و سپس فرض کنیم که در سناریوهای دیگر به همان اندازه خوب خواهند بود. این امر به ویژه انجام این نوع کار را که به دنبال کالیبراسیون بهتر عدم قطعیت این مدلها است برای اطمینان از همسویی با مفاهیم انسانی عدم قطعیت، مهم میکند.”
Ng مقاله خود را با Roger Grosse، استادیار علوم کامپیوتر در دانشگاه تورنتو و نویسنده ارشد مرضیه قاسمی، دانشیار گروه مهندسی برق و علوم کامپیوتر و عضو پژوهشگاه علوم مهندسی پزشکی و آزمایشگاه سیستمهای اطلاعات و تصمیمگیری نوشته است . این تحقیق در کنفرانس بین المللی یادگیری ماشین ارائه خواهد شد.
کمی سازی عدم قطعیت
روشهای کمیسازی عدم قطعیت اغلب به محاسبات آماری پیچیده نیاز دارند که به خوبی به مدلهای یادگیری ماشینی با میلیونها پارامتر مقیاس نمیشوند. این روشها همچنین از کاربران میخواهند که در مورد مدل و دادههای مورد استفاده برای آموزش آن مفروضاتی داشته باشند.
محققان MIT رویکرد متفاوتی در پیش گرفتند. آنها از چیزی که به عنوان اصل حداقل طول توصیف (MDL) شناخته می شود، استفاده می کنند، که نیازی به فرضیاتی ندارد که می تواند دقت روش های دیگر را مختل کند. MDL برای تعیین کمیت و کالیبراسیون بهتر عدم قطعیت برای نقاط آزمایشی که از مدل خواسته شده استفاده می شود.
تکنیکی که محققان توسعه داده اند، معروف به IF-COMP،روش MDL را به اندازه کافی سریع می کند تا با انواع مدل های بزرگ یادگیری عمیق که در بسیاری از تنظیمات دنیای واقعی مستقر شده اند، استفاده شود.
MDL شامل در نظر گرفتن همه برچسبهای ممکن است که یک مدل میتواند به یک نقطه در آزمایش بدهد. اگر برچسبهای جایگزین زیادی برای این نقطه وجود داشته باشد که به خوبی مطابقت داشته باشد، اعتماد آن به برچسبی که انتخاب کرده است باید به همین ترتیب کاهش یابد.
Ng میگوید: «یکی از راههای درک اینکه یک مدل چقدر مطمئن است، گفتن برخی اطلاعات خلاف واقع به آن و دیدن اینکه چقدر احتمال دارد شما را باور کند، خواهد بود.»
به عنوان مثال، مدلی را در نظر بگیرید که می گوید این تصویر پزشکی یک Pleural effusion (آب آوردن ریه) را نشان می دهد. اگر محققین به مدل بگویند که این تصویر Edema (تجمع غیرطبیعی آب موجود در پلاسما در فضای میان بافتی، زیر پوست و حفرههای بدن و به علت انتقال آنها از درون رگها به آنجاهاست) را نشان می دهد، او مایل است باور خود را به روز کند، مدل باید کمتر به تصمیم اولیه خود اطمینان داشته باشد.
در پایان، IF-COMP میتواند بهطور کارآمد کمیسازیهای عدم قطعیت به خوبی کالیبرهشده ای را تولید کند که نشاندهنده اطمینان واقعی یک مدل است. این تکنیک همچنین میتواند تعیین کند که آیا مدل نقاط داده مشخصی را اشتباه برچسبگذاری کرده است یا اینکه مشخص کند کدام نقاط داده پرت هستند.
محققان سیستم خود را روی سه پروژه آزمایش کردند و دریافتند که سریعتر و دقیق تر از روش های دیگر است.
واقعاً مهم است که اطمینان داشته باشیم که یک مدل به خوبی کالیبره شده است، و نیاز روزافزونی برای تشخیص اینکه چه زمانی یک پیشبینی خاص کاملاً درست به نظر نمیرسد وجود دارد.
قاسمی میگوید: «ابزارهای حسابرسی در مشکلات یادگیری ماشینی ضروریتر میشوند، زیرا ما از مقادیر زیادی دادههای بررسی نشده برای ساخت مدلهایی استفاده میکنیم که برای مشکلات مواجهه با انسان به کار میروند.»
IF-COMP مدل-آگنوستیک است، بنابراین می تواند کمیت های عدم قطعیت دقیق را برای بسیاری از انواع مدل های یادگیری ماشین ارائه دهد. این می تواند آن را قادر سازد تا در طیف وسیع تری از تنظیمات دنیای واقعی مستقر شود و در نهایت به پزشکان بیشتری کمک کند تا تصمیمات بهتری بگیرند.
Ng می گوید«مردم باید بدانند که این سیستمها بسیار خطاپذیر هستند و میتوانند هرچه پیش میروند، همه چیز را درست کنند. یک مدل ممکن است به نظر بسیار مطمئن به نظر برسد، اما چیزهای مختلفی وجود دارد که مایل به باور با شواهدی بر خلاف آن است.»
در آینده، محققان علاقه مند به اعمال رویکرد خود برای مدل های زبان بزرگ و مطالعه سایر موارد استفاده بالقوه برای اصل حداقل طول توضیحات هستند.
دانلود مقاله https://arxiv.org/abs/2406.02745
منبع:
Nathan Ng, Roger Grosse, Marzyeh Ghassemi. Measuring Stochastic Data Complexity with Boltzmann Influence Functions. Submitted to arXiv, 2024 DOI: 10.48550/arXiv.2406.02745
Materials provided by Massachusetts Institute of Technology. Original written by Adam Zewe. Note: Content may be edited for style and length.