مدل‌های فونداسیون تحت نظارت خود، سوگیری را در هوش مصنوعی هیستوپاتولوژی کاهش می‌دهند


نوشته شانیا کندی

– یک تیم تحقیقاتی از Mass General Brigham دریافتند که مدل‌های آسیب‌شناسی محاسباتی استاندارد در بین گروه‌های جمعیتی متفاوت عمل می‌کنند، اما نشان دادند که مدل‌های پایه می‌توانند تا حدی این نابرابری‌ها را کاهش دهند. طب طبیعت مطالعه.

محققان نشان دادند که در حالی که ابزارهای هوش مصنوعی (AI) پتانسیل قابل توجهی را برای پیشبرد آسیب شناسی نشان داده اند، استفاده موثر از چنین فناوری هایی به دلیل حضور کم جمعیت بیماران در اقلیت و نگرانی های ناشی از عدالت سلامت مرتبط با مجموعه داده های آموزشی هوش مصنوعی محدود است.

برای پرداختن به این موضوع، تیم تحقیقاتی تلاش کرد تا تفاوت‌های عملکردی این مدل‌ها را در بین گروه‌ها از طریق تکنیک‌های کاهش سوگیری کمی‌سازی و کاهش دهد.

محققان با استفاده از داده‌های اطلس ژنوم سرطان و اطلس تومور مغزی EBRAINS – که هر دو شامل اطلاعاتی از بیماران عمدتاً سفیدپوست هستند – سیستم‌های آسیب‌شناسی محاسباتی را برای زیرگروه‌بندی سرطان سینه، زیرگروه‌بندی سرطان ریه و پیش‌بینی جهش گلیوم IDH1 ساختند.

سپس مدل ها با استفاده از اسلایدهای بافت شناسی از گروهی متشکل از 4300 بیمار سرطانی از Mass General Brigham و Cancer Genome Atlas مورد آزمایش قرار گرفتند. نتایج بر اساس نژاد طبقه بندی شدند تا سوگیری ها و نابرابری های بالقوه را کشف کنند.

تجزیه و تحلیل نشان داد که به طور کلی، مدل‌ها در بیماران سفیدپوست دقیق‌تر از همتایان سیاه‌پوست خود عمل می‌کنند، با شکاف عملکرد سه درصد برای زیرگروه‌بندی سرطان سینه، 10.9 درصد برای زیرگروه سرطان ریه و 16 درصد برای پیش‌بینی جهش IDH1.

در تلاش برای کاهش این تفاوت‌ها، تیم تحقیقاتی از رویکردهای کاهش تعصب مبتنی بر یادگیری ماشین، مانند تأکید بر نمونه‌هایی از جمعیت‌های کمتر به‌عنوان بخشی از آموزش مدل، استفاده کرد. با این حال، این روش تنها به طور جزئی سوگیری های مشاهده شده را کاهش داد.

از آنجا، محققان بررسی کردند که آیا مدل‌های پایه بینایی با نظارت خود – ابزارهای هوش مصنوعی که بر روی مجموعه داده‌های مقیاس بزرگ برای استفاده در انواع وظایف بالینی آموزش دیده‌اند – می‌توانند شکاف‌های عملکردی را بیشتر کاهش دهند. این مدل‌ها به تیم تحقیقاتی این امکان را می‌دهد که در تلاش برای کاهش احتمال سوگیری، بازنمایی ویژگی‌های غنی‌تری را از تصاویر بافت‌شناسی به دست آورند.

رویکرد مدل پایه منجر به بهبود قابل توجهی در عملکرد شد.

نویسنده مسئول فیصل محمود، دکترای بخش آسیب شناسی محاسباتی در بخش آسیب شناسی در ماس جنرال بریگهام، گفت: «تجزیه و تحلیل جامعی از عملکرد الگوریتم های هوش مصنوعی در آسیب شناسی طبقه بندی شده در میان دموگرافیک های مختلف بیماران بر روی داده های آزمایش مستقل وجود ندارد. ، در یک بیانیه مطبوعاتی این مطالعه، بر اساس هر دو مجموعه داده در دسترس عموم که به طور گسترده برای تحقیقات هوش مصنوعی در آسیب شناسی و گروه های داخلی Mass General Brigham استفاده می شود، تفاوت های عملکردی مشخصی را برای بیماران از نژادها، انواع بیمه و گروه های سنی مختلف نشان می دهد. ما نشان دادیم که مدل‌های یادگیری عمیق پیشرفته که به شیوه‌ای تحت نظارت خود به نام «مدل‌های پایه» آموزش داده شده‌اند، می‌توانند این تفاوت‌ها را در عملکرد کاهش داده و دقت را افزایش دهند.»

با این حال، علی‌رغم این پیشرفت‌ها، هنوز شکاف‌های عملکردی قابل‌توجهی در بین گروه‌های جمعیتی وجود دارد که نیاز به اصلاح بیشتر مدل را برجسته می‌کند. تیم تحقیقاتی همچنین نشان داد که این مطالعه به دلیل محدود بودن تعداد بیماران و گروه‌های دموگرافیک در داده‌های مورد استفاده، محدود بود.

در حرکت رو به جلو، محققان بررسی خواهند کرد که چگونه مدل‌های پایه چندوجهی مبتنی بر اشکال مختلف داده، مانند ژنومیک یا پرونده الکترونیک سلامت (EHRs)، می‌توانند به غلبه بر این موانع کمک کنند.

محمود خاطرنشان کرد: «به طور کلی، یافته‌های این مطالعه نشان‌دهنده فراخوانی برای اقدام برای توسعه مدل‌های هوش مصنوعی عادلانه‌تر در پزشکی است. این فراخوانی برای اقدام برای دانشمندان است تا از مجموعه داده‌های متنوع‌تری در تحقیقات استفاده کنند، اما همچنین درخواستی است برای آژانس‌های نظارتی و سیاست‌گذاری که ارزیابی‌های طبقه‌بندی جمعیتی این مدل‌ها را قبل از تأیید و استقرار در دستورالعمل‌های ارزیابی خود لحاظ کنند تا اطمینان حاصل شود که سیستم‌های هوش مصنوعی به نفع همه گروه‌های بیمار منصفانه است.»

این تلاش‌ها جدیدترین تلاش‌ها برای بررسی این موضوع است که چگونه هوش مصنوعی می‌تواند عدالت سلامت را ارتقا دهد.

در اوایل این ماه، به محققان دانشکده پزشکی و علوم بهداشتی دانشگاه جورج واشنگتن (GW) و دانشگاه مریلند شرقی (UMES) کمک هزینه دو ساله 839000 دلاری از مؤسسه ملی بهداشت برای حمایت از توسعه اعطا شد. مدل‌های قابل توضیح و پیش‌بینی ریسک منصفانه

این پروژه که به عنوان «هوش مصنوعی قابل اعتماد برای رسیدگی به نابرابری‌های بهداشتی در جوامع کم منابع» (AI-FOR-U) شناخته می‌شود، بر روی یک رویکرد توسعه هوش مصنوعی مبتنی بر نظریه و مشارکتی متمرکز است که برای کمک به کارکنان خط مقدم مراقبت‌های بهداشتی برای مقابله با نابرابری‌ها در جوامعی که به آنها خدمت می‌کنند، تمرکز دارد. .

تیم‌های درگیر در این پروژه، عادلانه بودن و توضیح‌پذیری مدل‌های پیش‌بینی خطر مبتنی بر هوش مصنوعی را در زمینه سلامت رفتاری، بیماری‌های متابولیک قلبی و انکولوژی توسعه، مستقر و ارزیابی خواهند کرد.