- 1 Zamkną przedszkole przez koncert Sheerana (206 opinii)
- 2 Wyburzenia w UCK. Będą utrudnienia (157 opinii)
- 3 Szpitale odsyłają na badania do POZ? (101 opinii)
- 4 "Niepełnosprawność nie wyklucza" (2 opinie)
- 5 Potrzebna krew. Dlaczego warto ją oddać? (90 opinii)
- 6 Kiedy dziecko powinno zacząć mówić? (16 opinii)
Czy sztuczna inteligencja stanie się samodzielnym narzędziem medycznym?
Nowe technologie zrewolucjonizowały ochronę zdrowia, co widać szczególnie dobrze na przykładzie diagnostyki obrazowej. Niestety, choć dysponujemy coraz większą liczbą znakomitego sprzętu, kolejki na badania jak były, tak są. I to czasem jeszcze dłuższe niż wcześniej, bo więcej materiału do badań to więcej pracy dla radiologów. Naukowcy Gdańskiego Uniwersytetu Medycznego nie zamierzają siedzieć z założonymi rękami i postanowili poszukać obszarów, w których mogłaby ich wesprzeć, a tym samym odciążyć sztuczna inteligencja.
- Rewolucja, która doprowadziła do klęski urodzaju
- "Które badania można sobie odpuścić"?
- Radiolog i sztuczna inteligencja - praca w parach
- Sztuczna inteligencja pomoże wykryć anomalię, ale trzeba ją tego nauczyć
- Czy sztuczna inteligencja w medycynie kłamie?
- Kto ma rację, kiedy człowiek i sztuczna inteligencja mają inne zdanie na temat interpretacji wyników?
- Kto poniesie odpowiedzialność za błędy sztucznej inteligencji?
Jak podaje Naczelna Izba Kontroli, obecnie nawet 80 proc. rozpoznań jest stawianych lub potwierdzanych na podstawie badań obrazowych. W przypadku badań rentgenowskich w medycynie urazowej lub neurochirurgii odsetek ten wynosi już nawet 100 proc.
Rewolucja, która doprowadziła do klęski urodzaju
Ta rewolucja niestety nie wpłynęła na usprawnienie leczenia, a doprowadziła wręcz do jego paraliżu, bo lekarze, chcąc - słusznie - jak najlepiej przebadać pacjenta, zlecają jak najwięcej badań.
- Owszem, badań obrazowych z roku z rok wykonuje się więcej, są one coraz bardziej precyzyjne i dodatkowo celowanymi badaniami TK czy MRI obejmuje się struktury i obszary anatomiczne, dotychczas niedostępne takiej ocenie - mówi prof. Edyta Szurowska, kierownik II Zakładu Radiologii GUMed, prorektor ds. klinicznych Gdańskiego Uniwersytetu Medycznego. W związku z tym radiolodzy są coraz bardziej obciążeni pracą, a liczba badań rośnie znacznie szybciej niż liczba radiologów, którzy je analizują. Ale też proszę zwrócić uwagę, że ludzie dłużej żyją, że nasze społeczeństwo się starzeje, a w starszym wieku częściej chorujemy i wymagamy monitorowania stanu zdrowia po zastosowanym leczeniu, tj. obserwacji. To prawda, że lekarze różnych specjalności zlecają coraz więcej badań obrazowych, ale przecież chcą jak najlepiej zdiagnozować pacjenta i mają do dyspozycji tak wiele narzędzi, jak np. rezonans magnetyczny, tomografię komputerową czy USG. Pacjentów badamy pod kątem choroby podstawowej i często ewentualnych chorób towarzyszących - mówi prof. Edyta Szurowska. - W efekcie, choć wzrasta liczba lekarzy radiologów oraz pracowni radiologicznych, to i tak wciąż mamy ich za mało.
Im więcej badań, tym dłuższe kolejki, a zasoby kadrowe już teraz są niewystarczające.
- W Stanach Zjednoczonych w radiologii rozpoczął się ruch mający na celu lepsze udokumentowanie konieczności wykonania badania - dodaje prof. Szurowska. - Chodzi o to, aby ustalić, które badania są niezbędne do podjęcia decyzji terapeutycznej i które powinny być zrobione jako pierwsze oraz które mogą jeszcze poczekać albo jaki powinien być odstęp czasu pomiędzy kolejnymi badaniami kontrolnymi.
"Które badania można sobie odpuścić"?
Czy sztuczna inteligencja pomogłaby wskazać, które badania są niezbędne, a których na danym etapie diagnostycznym nie trzeba wykonywać? Ustalenie tego to jedno z wyzwań, jakie postawili sobie naukowcy.
Jedną z głównych zalet wykorzystania AI w radiologii jest zdolność do przetwarzania i analizowania ogromnych ilości danych znacznie szybciej niż człowiek.
- To narzędzie jest tak dobre, jak dane, których użyliśmy do treningu algorytmów AI - tłumaczy dr Maciej Bobowicz, adiunkt II Zakładu Radiologii GUMed. - Istotna jest też ich ilość - jeśli program będzie szkolony na małym zbiorze danych, to mała będzie jego dokładność. Te dane są obecnie zbierane przez jednostki badawcze na całym świecie. Jest zatem bardzo prawdopodobne, że sztuczna inteligencja, analizując tysiące podobnych przypadków, będzie w stanie wskazać nam, które badania w przypadku konkretnego schorzenia należy wykonać, a których nie trzeba.
Radiolog i sztuczna inteligencja - praca w parach
Kolejnym obszarem, w którym sztuczna inteligencja mogłaby usprawnić proces diagnostyczny, są np. badania przesiewowe raka piersi.
- Obecnie obowiązuje system, w którym oceny badań przesiewowych w mammografii dokonuje dwóch lekarzy - tłumaczy prof. Edyta Szurowska. - Gdyby jednego z nich zastąpić poprawnie działającym systemem opartym na sztucznej inteligencji, znacznie usprawniłoby to pracę. Lekarz i sztuczna inteligencja dokonywaliby niezależnej oceny, a następnie wyniki zostałyby porównane. Wiarygodność takiej oceny byłaby wyższa (jak pokazały badania), niż gdyby program (AI) wykonał ją samodzielnie, a dodatkowo uwolnilibyśmy czas pracy jednego z dwóch lekarzy radiologów do innych zadań. Przy braku zgodności wówczas konieczna byłaby opinia pomiędzy pierwszym radiologiem i sztuczną inteligencją. Jestem zwolennikiem przeprowadzenia takich badań pilotażowych w polskiej populacji. Na początku AI powinno zostać dołączone jako ocena uzupełniająca do dwóch radiologów. Niedawno w Polsce rozszerzono zakres wieku kobiet, które podlegają badaniom przesiewowym na 45-74 lata, co zwiększy liczbę badań mammograficznych.
Algorytmy uczenia maszynowego mogą być szkolone na setkach tysięcy przypadków, pozwalając na identyfikację wzorców i anomalii, które mogą umknąć nawet najbardziej doświadczonym specjalistom.
- Problem z takimi narzędziami jest taki, że często, aby uzyskać certyfikację, wystarczy ocena techniczna. Algorytmy bardzo rzadko są testowane klinicznie i do tej pory praktycznie nikt nie sprawdzał, jakie korzyści AI może faktycznie przynieść pacjentowi i lekarzowi - opowiada dr Maciej Bobowicz. - Inaczej do sprawy podeszli Szwedzi, przeprowadzając badanie na przeszło 50 tys. pacjentek. Porównano wyniki analizy przesiewowych badań mammograficznych w trzech konfiguracjach - lekarz ze sztuczną inteligencją, dwóch lekarzy i sama sztuczna inteligencja. Najwyższą czułością i skutecznością wykazał się duet człowieka ze sztuczną inteligencją.
Sztuczna inteligencja pomoże wykryć anomalię, ale trzeba ją tego nauczyć
Implementacja AI może znacząco odciążyć radiologów, automatyzując rutynowe zadania i selekcjonując przypadki wymagające szczegółowej analizy przez specjalistę. Dzięki temu radiolodzy mogą skoncentrować się na bardziej złożonych zadaniach i zapewnić spersonalizowaną opiekę. Zanim to jednak nastąpi, trzeba AI nauczyć, jak wygląda niepokojąca zmiana.
- By wyszkolić sztuczną inteligencję do rozpoznawania zmian patologicznych, zwłaszcza gdy dysponujemy mniejszymi zbiorami danych, musimy wskazać, gdzie taka anomalia się znajduje. W związku z tym programy AI też powstają z wykorzystaniem wiedzy człowieka, który wybiera odpowiednie dane i je taguje. Dodatkowo stosuje się algorytmy samokorygujące i samouczące się, aby system na podstawie własnego "doświadczenia" poprawiał swoje błędy - tłumaczy prof. Edyta Szurowska. - Chociaż w przypadku dużych zbiorów można zastosować uczenie głębokie, gdzie nie definiujemy cech, na podstawie których system ma podejmować decyzję i sam uczy się wykrywać anomalie.
Grant na program mający nauczyć wychwytywania odbiegających od normy zmian na obrazach radiologicznych doktorowi Bobowiczowi udało się już zdobyć. Przed jego zespołem teraz ciężka i żmudna praca nad materiałem szkoleniowym dla sztucznej inteligencji.
- Zwykle robi się to w ten sposób, że na obrazy radiologiczne nanosi się obrysy zmian patologicznych - dodaje dr Bobowicz. - Jak można sobie wyobrazić, jest to wyjątkowo czasochłonne, pracochłonne i nużące, więc mało kto ma ochotę na to, aby usiąść i skrupulatnie obrysować 2 tys. badań. Z drugiej strony, jeśli nie zrobi tego sumiennie dobry specjalista, dostarczymy programowi dane nierzetelne, na podstawie których nauczy się nieprawidłowych wzorców i potem zlecone badania będzie błędnie interpretował. Tak więc przed nami mnóstwo godzin żmudnej pracy, ale liczymy na to, że efekty nam to wynagrodzą.
Czy sztuczna inteligencja w medycynie kłamie?
Ci, którym zdarzyło się "bawić" sztuczną inteligencją, z pewnością zauważyli, że jeśli program czegoś nie wie, to zmyśla. Bywa przy tym tak kreatywny, że na te wygenerowane kłamstwa bardzo łatwo się nabrać. Jak jest z wiarygodnością w przypadku programów dedykowanych medycynie, na których pracują naukowcy Gdańskiego Uniwersytetu Medycznego we współpracy z Politechniką Gdańską i Śląską?
- Wiele osób myśli, że sztuczna inteligencja to głównie czat GPT, ale programy medyczne to narzędzia bardzo zaawansowane i zdecydowanie bardziej poważne - tłumaczy dr Maciej Bobowicz. - Mając świadomość zawodności tego rodzaju programów, skorzystaliśmy nie z jednego, ale stworzyliśmy zbiór algorytmów, które same siebie korygowały i dzięki temu potrafiły znaleźć na badaniach obrazowych te miejsca, które znaleźć powinny. Oczywiście wyniki wyrywkowo były sprawdzane przez lekarzy, aby mieć kontrolę nad poprawnością całego procesu.
Zdarzały się jednak sytuacje, że - w myśl maksymy "pracuj mądrze, a nie dużo" - algorytmy wydeptywały sobie drogę na skróty.
- Jeszcze przed uzyskaniem finalnych wyników doszliśmy do takiej sytuacji, kiedy system szkolił nam się podejrzanie łatwo - opowiada dr Maciej Bobowicz.- Gdybyśmy pracowali na Krakenie, czyli superkomputerze TASK-u, byłoby to prawdopodobne, ale nie na naszym zwykłym komputerze z jedną, choć dobrą kartą graficzną. W naszym przypadku nauka jednego zadania trwa 2-3 tygodnie. Tymczasem wszystkie obliczenia zajęły 2 godziny. Wydawało mi się to niemożliwe, więc pojechałem do prof. Michała Grochowskiego, żeby to sprawdzić. Dzięki zastosowaniu mechanizmów pozwalających na wyjaśnianie procesu decyzyjnego algorytmów dowiedzieliśmy się, że system szybko nauczył się rozpoznawać, z którego mammografu pochodziły które badania. Na jednym aparacie wykonywaliśmy dużo badań przesiewowych, wśród których dominują badania bez zmian lub ze zmianami łagodnymi. Na drugim wykonywaliśmy głównie badania pacjentek z objawami choroby nowotworowej w Centrum Medycyny Inwazyjnej, blisko klinik zabiegowych chirurgicznych. System poszedł więc na łatwiznę i wszystkie badania wykonane na tym mammografie automatycznie uznawał za raka.
Kto ma rację, kiedy człowiek i sztuczna inteligencja mają inne zdanie na temat interpretacji wyników?
Kiedy sztuczna inteligencja stanie się pełnoprawnym narzędziem i będzie mogła odciążyć radiologów? Choć wyniki badań są obiecujące, w najbliższym czasie raczej to nie nastąpi.
- Legislacja nie nadąża za rozwojem technologii - ani w Polsce, ani w Europie nie ma obecnie przepisów, które pozwoliłyby nam używać programu sztucznej inteligencji jako jedynego narzędzia do interpretacji badań radiologicznych z pominięciem udziału lekarza - mówi dr Maciej Bobowicz.
Rozważając zastosowanie sztucznej inteligencji do samodzielnego analizowania badań obrazowych, należy też pamiętać o aspekcie szeroko rozumianej etyki. Bo komu będzie należało przyznać rację, jeśli lekarze i sztuczna inteligencja wydadzą rozbieżne opinie?
- Mieliśmy na ten temat rozmowę z panią prof. Aleną Buyx, prezes Niemieckiej Rady Etyki - relacjonuje dr Bobowicz. - Po dwudniowych warsztatach zadałem, bardzo proste pytanie: co w sytuacji, jeśli na rynku pojawi się narzędzie, które będzie w stanie podać, że moja pacjentka odpowie na konkretne leczenie, a druga nie? Jak mam się zachować, jeśli moim zdaniem one obie spełniają kryteria podania danej formy leczenia, a system komputerowy mi mówi, żeby takiego leczenia nie stosować u jednej z nich, bo na nie nie zareaguje, nie będzie żadnych korzyści bądź pojawią się powikłania? Jako lekarz nie mam najmniejszych wątpliwości, jakbym się zachował - leczyłbym obie pacjentki zgodnie z obecną wiedzą medyczną, bo według mnie obie powinny wyjść na tym korzystnie. Zadziałałbym więc wbrew temu, co podpowiedział system. Na to pani etyk powiedziała coś, co mnie, jako lekarza, zupełnie zaskoczyło:
"Skoro narzędzie zostało wytrenowane na danych kilku lub kilkunastu tysięcy pacjentów, zostało przetestowane, uzyskało certyfikację i dostępna jest informacja o jego skuteczności, to na jakiej podstawie chce pan to odrzucić?".
![Jakie nowe kierunki ruszają na trójmiejskich uczelniach?](https://s-trojmiasto.pl/zdj/c/n/2/3695/150x100/3695469__kr.webp)
Kto poniesie odpowiedzialność za błędy sztucznej inteligencji?
Nie tylko zawiłości legislacyjne i dylematy etyczne stoją na drodze ku temu, aby sztuczna inteligencja zyskała w medycynie samodzielność i choć częściowo odciążyła radiologów. Równie istotny jest aspekt odpowiedzialności prawnej. W sytuacji gdyby sztuczna inteligencja popełniła błąd, a jego konsekwencje odbiłyby się znacznie na kondycji zdrowotnej pacjenta, to ten mógłby domagać się odszkodowania. Tylko od kogo?
- I tu dochodzimy do sedna - kto powinien być adresatem skargi pacjenta? Producent oprogramowania, a może szpital? Obawiam się, że na te pytania jeszcze długo nie uzyskamy odpowiedzi - puentuje dr Maciej Bobowicz.
Celem jest stworzenie centralnego biobanku oraz sieci mniejszych lokalnych repozytoriów, a więc ogromnej bazy wszystkich badań radiologicznych z największych europejskich projektów badawczych dotyczących zastosowania sztucznej inteligencji w ocenie radiologicznej chorób nowotworowych wraz z systemami komputerowymi zarządzającymi tym zbiorem. Cała infrastruktura doprowadzi do usprawnienia systemu wymiany archiwizacji danych oraz ich wtórnego wykorzystania do rozwoju wiedzy o diagnostyce i leczeniu pacjentów, a tym samym dla dobra pacjentów.
Miejsca
Opinie wybrane
-
2024-05-15 08:53
Doszliśmy do etapu jako cywilizacja (2)
gdzie człowiek nie jest w stanie wszystkiego wiedzieć, za krótko żyjemy, za małe mamy mózgi. Koniec nie ma tu dyskusji. Dlatego AI może być zbawieniem, on może nauczyć się wszystkich przypadków raka z całego świata i na podstawie tej wiedzy podejmować decyzje. Oczywiście przez dłuższy czas będzie siedział lekarz i on przekazywał tę informację, bo ludzie by nie brali jej na serio.
- 4 9
-
2024-05-15 14:18
Super. Teraz mi napisz skąd się bierze rak ?
- 0 0
-
2024-05-15 11:58
Dokładnie to co opisałeś już od kilka lat działa w ten sposób w bardziej zaawansowanych technologicznie placówkach medycznych.
I oby ich liczna szybko rosła.- 2 0
-
2024-05-15 13:02
Rzeczywiście, coś w tym jest...
Socjologowie już zauważyli, że będą leczyć nas "lekarze", którzy w życiu żadnej całej książki nie przeczytali.
Moje dzieci także boją się o przyszłość mówiąc: co to będzie jak bumerzy odejdą...- 6 0
-
2024-05-15 14:00
ja to sobie tak to wyobrażam
przychodzę rano pracy, parzę kawusię- podwójna ekspresso macchciato. Przychodzi do mnie robot z AI w robotowej głowie. Mówię mu- idź i rozgoń to towarzystwo czekające w poczekalni, bo aż czarno tam jest od pacjentów i brak powietrza do oddychania. Robot bierze swój robotyczny zadek za pas, wychodzi na korytarz, pyta się każdego, co mu dolega, dane
przychodzę rano pracy, parzę kawusię- podwójna ekspresso macchciato. Przychodzi do mnie robot z AI w robotowej głowie. Mówię mu- idź i rozgoń to towarzystwo czekające w poczekalni, bo aż czarno tam jest od pacjentów i brak powietrza do oddychania. Robot bierze swój robotyczny zadek za pas, wychodzi na korytarz, pyta się każdego, co mu dolega, dane z wywiadu mieli AI w tej robotycznej głowie, po czym wypluwa receptę na leki, diagnozę i odpowiednie skierowania. Robot nie odpowiada na żadne dodatkowe pytania, nie uspakaja hipochondryków, a tych krewkich w gębie zbywa z uśmiechem na twarzy mówiąc- do widzenia, dziękujemy za przybycie, polecamy się na przyszłości. Po wszystkim robot wraca do mojego pokoju- podłącza się niczym robocop do mojego komputera, zczytuje dane do kompa, ja to jeszcze weryfikuję i zatwierdzam. I mamy konfigurację win, win.
- 7 0
Portal trojmiasto.pl nie ponosi odpowiedzialności za treść opinii.