15.04.2019

iSmentors: Zastosowanie AI w medycynie i współczesne wyzwania

Sztuczna inteligencja i machine learning znajdują dziś częste zastosowanie w medycynie, ale wciąż nie możemy mówić o powszechności. Dlaczego? Jakie wyzwania stoją jeszcze przed developerami i lekarzami w tym obszarze? O tym w autorskim wpisie Magdalena Wójcik, Data Scientist w Logic.AI.

15.04.2019, added by Magdalena Wójcik, Data Scientist, Logic.AI

Medycyna jest w tym momencie jedną z najczęstszych dziedzin zastosowania AI i Machine Learningu[1], a mimo to nie możemy powiedzieć, że to zastosowanie jest powszechne. Jako developerzy, najczęściej myślimy o tym, że problemy z adaptacją technologii wynikają z jej braków - kiepskiej skuteczności, czy dokładności. W tym przypadku przyczyny są jednak zupełnie inne. Obecnie dostępne modele ML rozwiązują problemy klasyfikacji wyników różnorodnych technik diagnostyki obrazowej (np. rezonans magnetyczny, tomografia, rentgen, slajdy z analizy histopatologicznej)[2], wyników badań związanych z przetwarzaniem sygnałów elektrycznych (EKG, EMG, EEG), lub dokonują predykcji na podstawie informacji o historii i wynikach badań biochemicznych pacjenta. Dzięki niedawnej rewolucji Deep Learningowej osiągają skuteczność nierzadko znacząco lepszą, niż lekarze interpretujący na co dzień tego typu materiały. Przykładowo, w przypadku szacowania czasu przeżycia pacjenta opieki paliatywnej, lekarze mieli tendencję do zbyt optymistycznych oszacowań (tylko 20% oszacowań było bliskich faktycznym wynikom). Co ważne, zaobserwowano też, że dłuższa historia kontaktu między pacjentem a lekarzem, powodowała większe błędy w oszacowaniach[3]. Model Deep Learningowy wyszkolony do rozwiązywania tego samego problemu i bezstronny w stosunku do pacjentów, osiągnął wysoki wynik AUC=0.93[4]. Inne zastosowanie AI z bardzo dobrymi wynikami to predykcja potrzeby włączenia działań prewencyjnych w kierunku chorób kardiologicznych u pacjentów bez objawów. Podczas badania model rozpoznał 7.6% więcej przypadków, niż lekarze kardiolodzy[5]. W przypadku analizy histopatologicznej AI miało znacznie lepszą skuteczność, niż lekarze będący pod presją czasu[6]. Zatem jakość modeli nie jest największą przeszkodą we wprowadzeniu powszechnej diagnostyki z użyciem AI. Co natomiast nią jest? 

Dużym problemem jest opór kadry medycznej: w ankiecie przeprowadzonej w 2018 roku w Stanach Zjednoczonych przez Intela, 30% lekarzy deklarowało brak zaufania dla jakości rozwiązań wykorzystujących sztuczną inteligencję. Szczególnie obawiano się, że AI popełni błąd, który zakończy się śmiercią pacjenta[7]. Powiązana jest z tym nie wyspecyfikowana prawnie kwestia odpowiedzialności za błędy modeli ML. W efekcie sprawy są rozpatrywane jakby nie zastosowano żadnego algorytmu, a za wszelkie błędy medyczne i ich konsekwencje dla pacjentów, odpowiedzialni są wyłącznie lekarze. Powoduje to duży sprzeciw przed używaniem takich metod, w szczególności kiedy bazują one na algorytmach typu black box, gdzie dostępna jest informacja tylko o danych wejściowych i wynikach. Często uniemożliwia to ręczną interpretację i ocenę wiarygodności diagnozy postawionej przez AI[8]. Dobrze też zwrócić uwagę na to, że komputery nie są tak oczywistym i wygodnym narzędziem dla lekarzy, jak dla nas - developerów. Skutkuje potrzebą dodatkowej nauki i szkolenia przed rozpoczęciem korzystania z takich metod, na którą nie zawsze jest czas. Podobnie jak w przypadku lekarzy, pacjenci również nie ufają AI[7] i nie oddaliby się w ręce maszyn chociażby w procesie diagnostyki. Ma to swoje duże minusy, bo szerokie zastosowanie AI pozwoliłoby na częściową eliminację czynnika ludzkiego i problemów komunikacyjnych wśród personelu medycznego, które stanowią najczęstszą przyczynę błędów medycznych[9].

Osobiście uważam, że Machine Learning powinien wspomagać lekarzy w ich pracy, oszczędzając ich czas, a co za tym idzie pozwalając na większy kontakt z pacjentem. Jako, że metody Deep Learningowe często są skuteczniejsze w określaniu diagnozy, powinny być wsparciem dla diagnostów - szczególnie w sytuacji, kiedy bardzo istotny jest czas i szybkość oceny. Korzystanie z automatycznych analiz pozwoliłoby na odciążenie personelu medycznego, jednocześnie eliminując możliwe pogorszenie wyników w sytuacji zmęczenia, problemów komunikacyjnych, czy więzi emocjonalnej z pacjentem. Trzeba pamiętać, że w tej konkretnej dziedzinie celem nie jest zaoszczędzenie pieniędzy, czy podniesienie wyników modelu o setne AUC, tylko poprawienie jakości życia i zdrowia pacjenta, a nawet uniknięcie tragicznych incydentów. Pisząc to mam nadzieję, że adopcja metod AI w diagnostyce nastąpi jak najszybciej, ale też przekonanie, że nie stanie się to w ciągu najbliższych 5 lat. Istotnymi przeszkodami są kwestie zaufania oraz odpowiedzialności prawnej. Niezbędne będą do tego działania legislacyjne, ale też praca ze strony świata Data Science polegająca na stałym podnoszeniu skuteczności algorytmów, zwiększeniu możliwości interpretacji modeli i ustandaryzowaniu systemów bezpieczeństwa, które poinformują lekarza i pacjenta o możliwym błędzie w wyniku. Mam nadzieję, że te problemy uda się rozwiązać w nieco dalszej przyszłości 6-15 lat, w czym zgadzam się z 29% ankietowanych osób. Koszty błędów medycznych są bardzo wysokie, dlatego zawsze będzie potrzeba potwierdzenia wyniku przez personel medyczny, który tym samym będzie dalej nosił ciężar takiej odpowiedzialności.

Powyższa opinia jest uzupełnieniem komentarza udzielonego w raporcie dotyczącym sytuacji AI w Polsce wg polskich developerów. Możesz go pobrać tutaj

 

Bibliografia

1. Safavi Kaveh, Kalis Brian, Murphy Robert (2019, April 19). Healthcare: Walking the AI talk.
Retrieved from: https://www.accenture.com/us-en/insights/health/healthcare-walking-ai-talk
2. Bakator, Mihalj & Radosav, Dragica. (2018). Deep Learning and Medical Diagnosis: A Review of Literature. Multimodal Technologies and Interaction. 2. 47. 10.3390/mti2030047.
3. A Christakis, Nicholas & Lamont, Elizabeth. (2000). Extent and determinants of error in doctors' prognoses in terminally ill patients: Prospective cohort study. BMJ (Clinical research ed.). 320. 469-72.
4. Avati, Anand & Jung, Kenneth & Harman, Stephanie & Downing, N & Ng, Andrew & Shah, Nigam. (2018). Improving palliative care with deep learning. BMC Medical Informatics and Decision Making. 18. 10.1186/s12911-018-0677-8.
5. Weng, Stephen & Reps, Jenna & Kai, Joe & Garibaldi, Jonathan & Qureshi, Nadeem. (2017). Can Machine-learning improve cardiovascular risk prediction using routine clinical data?. PLoS ONE. 12. 10.1371/journal.pone.0174944.
6. Ehteshami Bejnordi, Babak & Veta, Mitko & Diest P, Johannes & Beca, Francisco & Albarqouni, Shadi & Cetin-Atalay, Rengul & Qaiser, Talha & Serrano Gracia, Ismael & Shaban, Muhammad & Kalinovsky, Alexander. (2017). Diagnostic Assessment of Deep Learning Algorithms for Detection of Lymph Node Metastases in Women With Breast Cancer. JAMA. 318. 2199-2210. 10.1001/jama.2017.14585.
7. Intel Corporation, Convergys Analytics. (2018, July 2). Overcoming Barriers in AI Adoption in Healthcare. https://newsroom.intel.com/news-releases/u-s-healthcare-leaders-expect-widespread-adoption-artificial-intelligence-2023/
8. Hart, Robert David. (2018, September 10). Who’s to blame when a machine botches your surgery?. Retrieved from: https://qz.com/1367206/whos-to-blame-when-a-machine-botches-your-surgery/
9. The Joint Commission. (2015, April). Sentinel Event Data Root Causes by Event Type 2004 – 2014. Retrieved from: http://www.tsigconsulting.com/tolcam/wp-content/uploads/2015/04/TJC-Sentinel-Event-Root_Causes_by_Event_Type_2004-2014.pdf

Tags:


See also:

LATEST NEWS

TAGS

HAVE ANY IDEA FOR CONTENT?

Contact the editorial team at:

news@infoshare.pl