هوش مصنوعی و سرطان از امید به تشخیص دقیق تا خطر تبعیض نظام مند مینی کامپیوتر: به گزارش مینی کامپیوتر، پیشرفت های سریع در کاربردهای پزشکی هوش مصنوعی، این امید را تقویت کرده است که فرآیند تشخیص سرطان دقیق تر، سریع تر و همگن تر شود. همین توانایی، می تواند به یک مسیر انحرافی تبدیل گردد. به گزارش مینی کامپیوتر به نقل از مهر؛ پیشرفت های سریع در کاربردهای پزشکی هوش مصنوعی، این امید را تقویت کرده است که فرآیند تشخیص سرطان دقیق تر، سریع تر و همگن تر شود. ایده اصلی این است که مدلهای یادگیری عمیق با مشاهده الگوهای میکروسکوپی در تصاویر پاتولوژی، بتوانند طبقه بندی های پیچیده را انجام دهند و در کنار متخصصان، خطای انسانی را کاهش دهند. با این وجود، پژوهش های علمی نشان می دهند که همین توانایی فوق العاده در استخراج سیگنال های پنهان، می تواند به یک مسیر انحرافی تبدیل گردد. مسیری که در آن مدل، داده های جمعیت شناختی مانند سن، جنسیت و نژاد را از خود تصویر استخراج می کند و سپس همان متغیرها را بصورت ناخواسته به ستون فقرات تحلیل بافت مبدل می کند. نتیجه، شکاف در عملکرد و بازتولید تبعیض در یکی از حساس ترین نقاط زنجیره درمان است. یافته اصلی مطالعات و چرایی غیرمنتظره بودن آن ها مطالعه جدیدی که در نشریه «Cell Reports Medicine» انتشار یافته، چهار سامانه پیشرو تشخیص مبتنی بر هوش مصنوعی در تشخیص پزشکی را از نظر تفاوت عملکرد در گروههای جمعیتی بررسی می کند. محققان دانشگاه هاروارد نزدیک به ۲۹ هزار تصویر پزشکی در ارتباط با سرطان از حدود ۱۴ هزار و ۴۰۰ بیمار را تحلیل کرده اند و گزارش می دهند که مدلهای یادگیری عمیق در ۲۹.۳ درصد از وظایف تشخیصی خود، سوگیری معنادار نشان داده اند. این رقم از نظر سیاستگذاری سلامت دیجیتال، صرفا یک خطای آماری نیست و به این معنا است که در تقریبا یک سوم موقعیت های ارزیابی، احتمال دارد عملکرد مدل به شکلی با خصوصیت های جمعیتی گره بخورد که برای قسمتی از بیماران، کیفیت تشخیص یا طبقه بندی سلولی کاهش پیدا کند. وجه شوک آور یافته ها در این است که مدلها ظاهراً توانسته اند نشانه های در رابطه با نژاد را از تصاویر در ارتباط با بافت شناسی استخراج کنند. در روایت پژوهش، خواندن متغیرهای جمعیت شناختی از روی تصاویر پزشکی، برای پاتولوژیست انسانی در حد یک ماموریت ناممکن تلقی می شود؛ اما مدلهای یادگیری عمیق، به علت توانایی در تشخیص سیگنال های زیستی بسیار ریز و غیرشهودی، از مسیری به این اطلاعات می رسند. همین قابلیت که در نگاه نخست مزیت فنی به نظر می آید، در عمل می تواند به یک صدمه راهبردی در عدالت تشخیصی تبدیل گردد. مکانیسم سوگیری چطور شکل می گیرد محققان توضیح می دهند که خطاهای ناشی از سوگیری زمانی پدید می آید که مدل، به جای تمرکز صرف بر خصوصیت های بافتی در رابطه با نوع سرطان، به الگوهایی متکی شود که با گروههای جمعیتی همبستگی دارند. به زبان دقیق تر، مدل ابتدا بصورت ضمنی یا صریح، سن یا جنسیت یا نژاد را حدس می زند و سپس آن متغیر را به یک میانبر برای تصمیم گیری مبدل می کند. این میانبر می تواند از جنس تفاوت در توزیع سلولی، نسبت عناصر حمایتی یا الگوهای غیرمستقیم دیگری باشد که در داده های آموزشی وجود داشته است. برای مثال، گزارش اشاره می کند که مدلها توانسته اند نمونه های متعلق به بیماران سیاه پوست را تشخیص دهند، چونکه در این تصاویر شمار بیشتری از سلول های غیرطبیعی و نئوپلاستیک و شمار کمتری از عناصر حمایتی نسبت به تصاویر بیماران سفیدپوست مشاهده شده است. در چنین شرایطی، مساله اصلی این نیست که تفاوت زیستی میان دو گروه وجود دارد یا ندارد. مساله اصلی این است که مدل، از تفاوت هایی که امکان دارد محصول عوامل گوناگونی مانند تفاوت دسترسی به مراقبت، زمان مراجعه، کیفیت نمونه برداری یا حتی الگوهای جمعیتی در مراکز درمانی باشد، یک شاخص هویتی می سازد و سپس آن شاخص هویتی را وارد تصمیم تشخیصی می کند. چرا شکاف داده به تبعیض عملکردی تبدیل می شود؟ در ادامه، گزارش علمی مذکور یک چرخه کلاسیک را ترسیم می کند. بر همین اساس، اگر داده های آموزشی به طور عمده از گروه غالب، مثلا بیماران سفیدپوست، تأمین شده باشد، مدل برای گروههای دارای نمایندگی کمتر، حتی در صورت وجود داده کلی از سرطان، با مشکل مواجه می شود. مثال مشخص اینکه مدلها در تمایز زیررده های سرطان ریه در بیماران سیاه پوست گرفتار افت عملکرد بوده اند. همینطور نکته مهم دیگر این است که این افت لزوماً به دلیل کمبود داده در رابطه با سرطان ریه نیست، بلکه از کمبود داده سرطان ریه از همان گروه جمعیتی مربوط می شود. بنابراین، مدل در لحظه تصمیم، به جای اتکا به شواهد کافی از وضعیت بیمار، به الگوهای غالب در داده های غالب پناه می برد و این امر، همان بازتولید ساختاری تبعیض است. از نظر حکمرانی داده، این وضعیت یک اخطار روشن برای سیاست گذاران دارد. کیفیت و عدالت در عملکرد یک سامانه پزشکی مبتنی بر هوش مصنوعی، صرفا با افزایش حجم داده تضمین نمی گردد. نمایندگی داده و توزیع متوازن آن در زیرگروه های جمعیتی و بالینی، یک شرط ضروری است. اگر این شرط رعایت نشود، مدل حتی با دقت کلی بالا، در سطح زیرگروه ها خطاهای نظام مند تولید می کند و این خطاها می توانند به نتایج درمانی متفاوت برای گروههای مختلف منجر شوند. توهم عینیت در تصویربرداری پزشکی و چالش واقعی یکی از گزاره های کلیدی متخصصان و محققان این است که انتظار می رود ارزیابی صدمه شناسی عینی باشد و برای تشخیص از روی تصویر، دانستن متغیرهای جمعیت شناختی لزوم ندارد؛ اما یافته های مطالعه نشان میدهد که عینیت در سطح انسان، تضمین عینیت در سطح مدل نیست. مدل به دنبال بیشینه سازی عملکرد در چهارچوب داده آموزشی است و اگر در داده آموزشی، میانبرهای جمعیتی وجود داشته باشد، مدل آنها را کشف می کند و به کار می گیرد. بنابراین، حتی اگر پزشک انسانی بصورت هنجاری تلاش کند متغیرهای هویتی را کنار بگذارد، مدل می تواند همان متغیرها را از درون تصویر پزشکی استخراج کند و بصورت پنهان وارد فرآیند تصمیم گیری نماید. این وضعیت، یک تغییر پارادایمی در تصور ما از ریسک های هوش مصنوعی پزشکی به وجود می آورد. مساله تنها سوگیری ناشی از ورودی صریح اطلاعات جمعیت شناختی نیست. بلکه تصویر بالینی امکان دارد حامل شاخصهای غیرمستقیم باشد و مدل می تواند آنها را به متغیرهای حساس تبدیل کند. راه حل پیشنهادی و معنای آن برای سیاست گذاران محققان در کنار نقد، یک مسیر اصلاحی برای پدیده سوگیری نژادی هوش مصنوعی معرفی کرده اند. آنها یک چارچوب آموزشی جدید با نام «FAIR Path» توسعه داده اند و ادعا می کنند که با اعمال این چارچوب قبل از تحلیل، ۸۸.۵ درصد از نابرابری های عملکردی مهار شده است. با این وجود، باقی ماندن ۱۱.۵ درصد از شکاف عملکردی، نشان میدهد که مساله به صورت کامل حل نشده و همچنان ظرفیت خطای نامتوازن دراین خصوص وجود دارد. در سطح سیاست گذاری، اهمیت اصلی این بخش آن است که کنترل سوگیری صرفا یک سفارش اخلاقی نیست و باید به یک اجبار فنی و مقرراتی تبدیل گردد. اگر چارچوب هایی مانند «FAIR Path» اختیاری و داوطلبانه باقی بمانند، بازار و فشار زمان ارائه محصول می تواند سبب شود برخی سامانه ها بدون ارزیابی کافی عدالت و ایمنی توزیعی وارد گردش کار بالینی شوند. در چنین وضعیتی، نقش تنظیم گر حوزه پزشکی، نهادهای ارزیاب فناوری سلامت و کمیته های اخلاق پژوهش، از حالت سفارش ای خارج می شود و به یک مسئولیت حکمرانی بدل می گردد. جمع بندی بالاخره، می توان نتیجه گرفت که هرچه مدلهای پزشکی قدرتمندتر می شوند، توانایی آنها برای استخراج سیگنال های پنهان هم افزایش خواهد یافت و همین توانایی می تواند ابعاد جدیدی از سوگیری را برجسته سازد؛ بنابراین، تمرکز صرف بر دقت کلی مدل، معیار کافی برای پذیرش نیست. ارزیابی باید بصورت نظام مند در سطح زیرگروه های جمعیتی صورت گیرد و سازوکارهای کاهش سوگیری باید قسمتی از استاندارد توسعه و استقرار باشند. اگر هوش مصنوعی مقرر است بعنوان زیرساخت تشخیص و درمان آینده پذیرفته شود، باید هم زمان سه لایه کیفیت داده و نمایندگی عادلانه، سازوکارهای فنی کنترل سوگیری در مرحله آموزش و اعتبارسنجی و الزامات نظارتی و پاسخ گویی مانع ورود محصولات پرریسک به چرخه استفاده، بصورت همگن تقویت شود. کارشناسان باور دارند در غیر این صورت، ابزارهایی که با وعده افزایش عدالت و دقت وارد پزشکی شده اند، می توانند بشکل نامحسوس، نابرابری های موجود را تثبیت و حتی تشدید کنند.بطور خلاصه، به گزارش مینی کامپیوتر به نقل از مهر؛ پیشرفت های سریع در کاربردهای پزشکی هوش مصنوعی، این امید را تقویت کرده است که پروسه تشخیص سرطان دقیق تر، سریع تر و همگن تر شود. مساله اصلی این است که مدل، از تفاوت هایی که امکان دارد محصول عوامل گوناگونی مانند تفاوت دسترسی به مراقبت، زمان مراجعه، کیفیت نمونه برداری یا حتی الگوهای جمعیتی در مراکز درمانی باشد، یک شاخص هویتی می سازد و سپس آن شاخص هویتی را وارد تصمیم تشخیصی می کند. همین طور نکته مهم دیگر این است که این افت لزوماً به سبب کمبود داده در ارتباط با سرطان ریه نیست، بلکه از کمبود داده سرطان ریه از همان گروه جمعیتی مربوط می شود. منبع: minicomp.ir 1404/10/12 03:46:34 5.0 / 5 6 تگهای خبر: استاندارد , تولید , دانشگاه , دیجیتال این مطلب را می پسندید؟ (1) (0) X تازه ترین مطالب مرتبط بیمه رانندگان هیچ ربطی به وزارت ارتباطات ندارد ولوو XC70 در راه ایران امضای تفاهمنامه همکاری همراه اول و بهزیستی درحمایت از اقشار صدمه پذیر گلکسی S۲۶ با این قطعه به فضا متصل می شود نظرات بینندگان مینی کامپیوتر در مورد این مطلب لطفا شما هم در مورد این مطلب نظر دهید = ۲ بعلاوه ۳ درج دیدگاه