Znaczenie i skala zjawiska Ai
Sztuczna inteligencja (AI) zmienia sposób, w jaki jednostki poszukują opieki zdrowotnej, a także sposób, w jaki lekarze diagnozują, leczą i monitorują pacjentów. Skala, tempo i zakres tej transformacji są bezprecedensowe. AI przynosi obietnicę rozwiązania wielu długo utrzymujących się problemów systemu ochrony zdrowia – poprawy dostępu do świadczeń, jakości opieki oraz redukcji kosztów. Jednocześnie jednak pojawiają się istotne ryzyka związane z bezpieczeństwem, skutecznością i etyką zastosowań sztucznej inteligencji w medycynie.
W przeciwieństwie do tradycyjnych leków czy wyrobów medycznych, w przypadku AI brak jest jednolitego i ustrukturyzowanego podejścia zapewniającego jej rzetelną ocenę, przejrzystą regulację, bezpieczne wdrożenie i skuteczny nadzór. Wiele narzędzi działa poza zakresem nadzoru organów takich jak FDA, a ich wpływ na zdrowie pacjentów często pozostaje niezmierzony.
W odpowiedzi na te wyzwania JAMA Summit on Artificial Intelligence zgromadził przedstawicieli nauki, praktyki klinicznej, regulatorów, twórców technologii i pacjentów, aby przedyskutować, w jaki sposób rozwijać, oceniać, regulować i monitorować rozwiązania AI w ochronie zdrowia. Celem spotkania było zdefiniowanie zasad umożliwiających odpowiedzialne, skuteczne i bezpieczne wdrażanie sztucznej inteligencji w systemach opieki zdrowotnej, tak by jej rozwój rzeczywiście prowadził do poprawy wyników zdrowotnych i jakości opieki.
Obszary zastosowania AI w ochronie zdrowia
Sztuczna inteligencja jest dziś obecna w niemal każdym segmencie ochrony zdrowia — od diagnostyki i leczenia, przez profilaktykę i monitorowanie stanu zdrowia, po zarządzanie organizacjami medycznymi. Raport JAMA wyróżnia cztery główne kategorie zastosowań: narzędzia kliniczne, narzędzia dla konsumentów, narzędzia operacyjne oraz rozwiązania hybrydowe, które łączą elementy wszystkich poprzednich grup.
Narzędzia kliniczne (Clinical Tools)
Najbardziej intensywny rozwój i największa liczba badań naukowych koncentrują się na narzędziach klinicznych, czyli systemach sztucznej inteligencji bezpośrednio wspierających personel medyczny w procesach diagnostycznych i terapeutycznych. Rozwiązania te są wykorzystywane między innymi do automatycznego rozpoznawania retinopatii cukrzycowej na zdjęciach dna oka, analizy zapisów EKG czy echokardiografii, a także do generowania w czasie rzeczywistym alertów o sepsie oraz rekomendacji terapeutycznych na podstawie danych pochodzących z elektronicznej dokumentacji medycznej (EHR).
Według danych przytoczonych w raporcie JAMA, amerykańska Agencja ds. Żywności i Leków (FDA) zatwierdziła już ponad 1200 narzędzi opartych na sztucznej inteligencji, z czego zdecydowana większość dotyczy obrazowania medycznego. Technologia ta w istotny sposób przeobraziła praktykę radiologiczną i patologiczną – obecnie około 90% amerykańskich podmiotów ochrony zdrowia wykorzystuje przynajmniej jedno rozwiązanie AI w diagnostyce obrazowej.
Pomimo dynamicznego rozwoju technologicznego, wdrażanie narzędzi klinicznych w codziennej praktyce napotyka na liczne bariery. Lekarze i administratorzy placówek wykazują ostrożność, wskazując na niepewność co do dokładności działania algorytmów oraz ograniczony zwrot z inwestycji – koszty zakupu, implementacji i utrzymania systemów są wysokie, a brak mechanizmów refundacyjnych zniechęca do ich stosowania. Dodatkowe trudności wynikają z niedostatecznego przygotowania użytkowników do pracy z tego typu oprogramowaniem, jak również z ryzyka błędów systemowych oraz zjawiska uprzedzeń algorytmicznych (bias), które mogą prowadzić do błędnych decyzji klinicznych.
Nie bez znaczenia pozostaje również czynnik zaufania. Zarówno lekarze, jak i pacjenci, często odnoszą się z rezerwą do decyzji generowanych przez systemy AI, szczególnie gdy brak jest przejrzystych mechanizmów wyjaśniania podstawy tych rekomendacji. W konsekwencji, mimo szerokiej dostępności technologii, tempo adopcji rozwiązań klinicznych poza obszarem diagnostyki obrazowej pozostaje ograniczone. Wiele szpitali uznaje je za ekonomicznie nieopłacalne lub niewystarczająco potwierdzone w praktyce klinicznej, co wskazuje na potrzebę dalszej walidacji, transparentności i opracowania jasnych zasad ich stosowania w procesie decyzyjnym.
Narzędzia dla konsumentów (Direct-to-Consumer, DTC Tools)
Segment narzędzi skierowanych bezpośrednio do konsumentów stanowi obecnie najdynamiczniej rozwijający się, a zarazem najmniej uregulowany obszar zastosowań sztucznej inteligencji w ochronie zdrowia. Obejmuje on szeroką gamę rozwiązań technologicznych, z których mogą korzystać użytkownicy indywidualni – zarówno pacjenci z chorobami przewlekłymi, jak i osoby dbające o profilaktykę i kondycję fizyczną. Istotną cechą tej kategorii jest to, że kontakt z profesjonalnym personelem medycznym często w ogóle nie jest wymagany, co radykalnie zmienia dotychczasowy model relacji między pacjentem a systemem ochrony zdrowia.
Do najczęściej spotykanych rozwiązań należą aplikacje mobilne umożliwiające analizę zdjęć skóry w celu wykrywania zmian dermatologicznych, chatboty terapeutyczne prowadzące konwersacje o charakterze psychologicznym lub wspierającym oraz algorytmy wbudowane w urządzenia ubieralne – takie jak smartwatche – monitorujące parametry życiowe, w tym tętno, rytm serca, poziom aktywności czy nawet wykrywające upadki i zaburzenia rytmu serca.
Według danych przytoczonych w raporcie, na globalnym rynku funkcjonuje obecnie ponad 350 000 aplikacji zdrowotnych (mHealth apps), z których znaczna część wykorzystuje mechanizmy uczenia maszynowego i analizy predykcyjnej. Szacuje się, że co trzeci dorosły użytkownik smartfona na świecie skorzystał przynajmniej raz z aplikacji tego typu, a wartość całego sektora przekracza 70 miliardów dolarów rocznie.
Pomimo ogromnej popularności i dostępności, tylko niewielka część produktów DTC przeszła rzetelną ocenę kliniczną potwierdzającą ich skuteczność lub bezpieczeństwo. Niektóre z nich, takie jak aplikacje do wykrywania arytmii czy monitorowania aktywności serca, podlegają nadzorowi FDA jako urządzenia medyczne, jednak zdecydowana większość producentów klasyfikuje swoje produkty jako rozwiązania o charakterze „wellness” – a więc nieobjęte rygorami regulacyjnymi właściwymi dla sektora medycznego.
Raport wskazuje szereg istotnych problemów towarzyszących tej kategorii rozwiązań. Najpoważniejszym z nich jest brak wiarygodnych dowodów naukowych potwierdzających skuteczność działania większości aplikacji. W praktyce oznacza to, że użytkownicy często kierują się zaufaniem do marki lub popularnością produktu, a nie jego rzeczywistą wartością terapeutyczną. Dodatkowym zagrożeniem jest ryzyko błędnych lub potencjalnie szkodliwych rekomendacji, w tym udzielanie porad sprzecznych z obowiązującymi wytycznymi klinicznymi.
Zastrzeżenia budzi również brak mechanizmów reagowania w sytuacjach kryzysowych – przykładowo, aplikacje o charakterze psychoterapeutycznym mogą nie posiadać procedur interwencyjnych w przypadku ujawnienia przez użytkownika myśli samobójczych. Kolejnym obszarem ryzyka są problemy z ochroną prywatności i bezpieczeństwem danych, zwłaszcza w kontekście komercyjnego wykorzystywania informacji zdrowotnych przez podmioty prywatne, które nie podlegają reżimowi prawnemu analogicznemu do HIPAA czy RODO.
Nie bez znaczenia pozostaje również fakt, że narzędzia DTC funkcjonują poza zintegrowanym systemem ochrony zdrowia, co uniemożliwia lekarzom dostęp do danych generowanych przez pacjentów. W efekcie, choć użytkownicy dysponują coraz większą ilością informacji o swoim stanie zdrowia, dane te rzadko przekładają się na lepszą koordynację opieki czy poprawę wyników klinicznych.
Pomimo wymienionych ograniczeń, autorzy raportu podkreślają, że segment DTC ma potencjał prawdziwie przełomowy (ang. disruptive innovation). Dzięki powszechnej dostępności i niskim kosztom wejścia może on znacząco zwiększyć samodzielność pacjentów oraz umożliwić wczesne wykrywanie nieprawidłowości zdrowotnych w populacji. Warunkiem wykorzystania tego potencjału jest jednak wprowadzenie mechanizmów certyfikacji jakości, transparentności działania algorytmów i minimalnych standardów bezpieczeństwa, które pozwolą na realne zintegrowanie tego typu rozwiązań z systemem opieki zdrowotnej.
Narzędzia operacyjne (Business Operations Tools)
Trzecia kategoria obejmuje systemy sztucznej inteligencji wykorzystywane nie do leczenia pacjentów, lecz do zarządzania organizacjami medycznymi. Ich podstawowym celem jest poprawa efektywności funkcjonowania placówek, obniżenie kosztów oraz optymalizacja procesów administracyjnych i logistycznych.
Rozwiązania tego typu znajdują zastosowanie w wielu obszarach działalności podmiotów leczniczych. Obejmują między innymi oprogramowanie do planowania łóżek i przepływu pacjentów, systemy automatyzujące proces rozliczeń i kodowania świadczeń, a także narzędzia zarządzania łańcuchem dostaw i zapasami. Coraz powszechniejsze stają się również algorytmy wspierające proces autoryzacji świadczeń – zarówno po stronie świadczeniodawców, jak i ubezpieczycieli.
Jak wskazuje raport, AI w obszarze operacyjnym jest już szeroko wdrożona w wielu szpitalach oraz firmach ubezpieczeniowych, które wykorzystują ją do automatyzacji decyzji administracyjnych. Przykładowo, niektóre towarzystwa ubezpieczeniowe stosują algorytmy do automatycznego rozpatrywania wniosków o refundację lub przyspieszania decyzji o przyjęciu pacjenta do leczenia. W praktyce prowadzi to do znacznego skrócenia czasu reakcji systemu, ale również rodzi istotne kontrowersje.
Środowisko lekarskie zwraca uwagę na negatywne skutki takich praktyk, w tym na zwiększoną liczbę odmów finansowania świadczeń, wydłużenie procesów odwoławczych oraz pogorszenie dostępu pacjentów do leczenia, zwłaszcza w przypadkach wymagających indywidualnej oceny medycznej. Automatyzacja decyzji, choć efektywna ekonomicznie, może w konsekwencji ograniczać elastyczność i humanistyczny wymiar opieki zdrowotnej.
Raport JAMA podkreśla, że wpływ narzędzi operacyjnych na zdrowie pacjentów jest wciąż bardzo słabo zbadany. Choć systemy te nie ingerują bezpośrednio w proces terapeutyczny, ich decyzje organizacyjne i finansowe mogą mieć realne skutki kliniczne – np. poprzez wydłużenie czasu oczekiwania na zabieg, ograniczenie dostępnych zasobów lub zmianę priorytetów przyjęć. Z tego względu autorzy raportu zwracają uwagę, iż narzędzia tego typu powinny być objęte nie tylko oceną efektywności ekonomicznej, lecz także analizą wpływu na bezpieczeństwo i jakość opieki zdrowotnej.
Narzędzia hybrydowe (Hybrid Tools)
Narzędzia hybrydowe stanowią kategorię łączącą funkcje kliniczne i administracyjne, a więc obejmują rozwiązania, które jednocześnie wspierają lekarzy w pracy z pacjentem oraz zwiększają efektywność organizacyjną placówki medycznej. W praktyce są one pomostem pomiędzy systemami stricte klinicznymi a narzędziami operacyjnymi, integrując w jednym środowisku funkcje diagnostyczne, dokumentacyjne i komunikacyjne.
Najbardziej znanym przykładem są tzw. AI scribes – systemy automatycznie rejestrujące i transkrybujące rozmowy między lekarzem a pacjentem. Tego rodzaju rozwiązania potrafią tworzyć pełną dokumentację medyczną wizyty, generować faktury, uzupełniać dane w elektronicznym systemie EHR, a w niektórych przypadkach nawet sugerować możliwe rozpoznania i zalecenia terapeutyczne. Dzięki temu znacząco ograniczają czas, jaki personel medyczny poświęca na wypełnianie dokumentacji, co przekłada się na poprawę jakości kontaktu z pacjentem.
Do tej grupy należą także asystenci pacjenta online, umożliwiający samodzielne umawianie wizyt, dobór specjalistów czy uzyskanie informacji o stanie leczenia, a także duże modele językowe (LLM), które automatycznie odpowiadają na wiadomości pacjentów przesyłane przez systemy e-zdrowia lub czaty szpitalne. W niektórych przypadkach rozwiązania te wykorzystują również analizę emocji, tonacji głosu i kontekstu rozmowy, by zwiększyć jakość interakcji oraz komfort pacjenta.
Według ustaleń raportu tempo adopcji narzędzi hybrydowych jest bardzo wysokie – wiele systemów opieki zdrowotnej wdraża je na masową skalę, a eksperci przewidują, że w perspektywie kilku lat niemal każda rozmowa lekarza z pacjentem w USA będzie wspierana przez aktywnego agenta AI.
Choć początkowo pojawiały się liczne wątpliwości co do dokładności i bezpieczeństwa tego typu rozwiązań, opinie zarówno lekarzy, jak i pacjentów stają się coraz bardziej pozytywne. Główne zalety to redukcja obciążenia biurokratycznego, większa płynność kontaktu z pacjentem i możliwość pełniejszego skupienia się na aspektach klinicznych. Jednocześnie autorzy raportu ostrzegają, że nadużywanie lub niewłaściwe wdrożenie tych narzędzi może prowadzić do zacierania granicy między decyzją ludzką a automatyczną, co rodzi ryzyko błędów w interpretacji danych, zaniżenia jakości dokumentacji lub osłabienia zaufania w relacji lekarz–pacjent.
Podsumowując, cztery opisane kategorie narzędzi — kliniczne, konsumenckie, operacyjne i hybrydowe — pokazują, że sztuczna inteligencja w ochronie zdrowia nie jest zjawiskiem jednolitym, lecz złożonym ekosystemem technologii o różnym przeznaczeniu, potencjale i poziomie ryzyka. Każdy z tych segmentów wymaga odrębnego podejścia do oceny skuteczności, bezpieczeństwa, przejrzystości działania oraz zgodności z normami etycznymi i prawnymi, co stanowi fundament dalszego rozwoju odpowiedzialnej i bezpiecznej AI w medycynie.
Wyzwania w ocenie skuteczności narzędzi AI
Ocena skuteczności narzędzi sztucznej inteligencji w ochronie zdrowia stanowi jedno z kluczowych, a zarazem najbardziej problematycznych zagadnień poruszonych w raporcie JAMA. W przeciwieństwie do leków czy tradycyjnych wyrobów medycznych, większość systemów AI nie przechodzi formalnych badań klinicznych ani systematycznej walidacji przed wprowadzeniem na rynek. Jednocześnie nawet dobrze zaprojektowane algorytmy mogą działać odmiennie w różnych środowiskach klinicznych, ponieważ ich skuteczność zależy od jakości danych wejściowych, sposobu integracji z systemem EHR i kompetencji użytkowników.
Autorzy raportu wskazują, że aby móc rzetelnie oceniać wpływ AI na zdrowie pacjentów, konieczne jest odejście od tradycyjnych modeli oceny medycznych technologii i opracowanie nowych, elastycznych metod dopasowanych do dynamicznego charakteru uczenia maszynowego.
Które narzędzia wymagają oceny
W praktyce jedynie niewielka część systemów AI podlega jakiejkolwiek ocenie klinicznej. Dotyczy to głównie rozwiązań klasyfikowanych przez FDA jako Software as a Medical Device (SaMD), czyli narzędzi mających bezpośredni wpływ na proces diagnostyczny lub terapeutyczny. Nawet w tej grupie ocena skuteczności często ogranicza się do walidacji technicznej (czy algorytm poprawnie rozpoznaje wzorce w danych), a nie do analizy rzeczywistych efektów zdrowotnych.
Zdecydowana większość dostępnych narzędzi — szczególnie te z kategorii Direct-to-Consumer (DTC) i Business Operations Tools — nie jest w ogóle oceniana pod kątem wyników klinicznych, mimo że mogą one pośrednio wpływać na zdrowie pacjentów, np. poprzez sposób klasyfikowania priorytetów przyjęć czy rekomendowanie konsultacji.
W raporcie zwrócono uwagę, że obecne ramy oceny nie obejmują tysięcy aplikacji zdrowotnych, chatbotów terapeutycznych ani narzędzi operacyjnych wdrażanych w szpitalach, które w praktyce oddziałują na proces diagnostyczny, choć formalnie nie są „narzędziami medycznymi”. Brak ich oceny klinicznej oznacza, że system ochrony zdrowia działa często w warunkach niepewności co do rzeczywistych korzyści i ryzyk tych technologii.
Jak prowadzić ewaluację
Ocena skuteczności narzędzi sztucznej inteligencji w ochronie zdrowia stanowi jedno z najbardziej złożonych i wymagających zagadnień opisanych w raporcie JAMA. W przeciwieństwie do tradycyjnych technologii medycznych, których działanie można ocenić w sposób izolowany, sztuczna inteligencja funkcjonuje jako system o charakterze zintegrowanym, a jej skuteczność zależy nie tylko od jakości samego algorytmu, lecz także od sposobu jego wdrożenia, środowiska klinicznego, kompetencji użytkowników i interakcji z pacjentami. Autorzy raportu zwracają uwagę, że AI nie jest pojedynczym produktem, ale złożonym układem wzajemnie powiązanych elementów, obejmującym model matematyczny, dane wejściowe i sposób ich pozyskiwania, interfejs użytkownika oraz kontekst organizacyjny i kulturowy, w którym narzędzie jest stosowane.
Trudność oceny polega na tym, że efektywność działania tego samego systemu może znacząco różnić się pomiędzy placówkami medycznymi, nawet gdy wykorzystują one identyczne oprogramowanie. Różnice w jakości i strukturze danych, w poziomie wyszkolenia personelu, w sposobie integracji z infrastrukturą informatyczną czy w przyjętym modelu organizacji pracy mogą prowadzić do odmiennych wyników klinicznych. Dlatego raport JAMA zaleca, by proces ewaluacji uwzględniał pełny kontekst użycia narzędzia, a nie ograniczał się wyłącznie do analizy poprawności działania algorytmu.
Proponowane przez ekspertów podejście ma charakter wielopoziomowy i obejmuje zarówno ocenę techniczną, jak i praktyczną. Ważne jest, by zrozumieć sposób, w jaki model przetwarza dane i jakie czynniki wpływają na jego decyzje (interpretability), a także zapewnić przejrzystość mechanizmów działania i możliwość ich wyjaśnienia w sposób zrozumiały dla użytkownika końcowego (explainability). Kluczowe znaczenie ma również prowadzenie testów w rzeczywistych warunkach klinicznych (prospective evaluation), które pozwalają ocenić faktyczny wpływ narzędzia na decyzje lekarzy i wyniki leczenia pacjentów.
Raport podkreśla ponadto konieczność wdrożenia ciągłego monitorowania skuteczności po wprowadzeniu narzędzia na rynek (post-market monitoring). Taki nadzór ma umożliwiać wczesne wykrywanie nieprawidłowości, błędów w działaniu lub spadku jakości prognoz w wyniku tzw. data drift, czyli zmian w charakterystyce danych klinicznych, które z czasem mogą prowadzić do pogorszenia dokładności modelu. Autorzy wskazują, że tylko dynamiczna, kontekstowa i długofalowa ocena skuteczności narzędzi AI może zapewnić ich rzeczywiste bezpieczeństwo i wartość dla systemu ochrony zdrowia, gwarantując, że technologie te będą wspierać, a nie zaburzać proces podejmowania decyzji klinicznych.
Pomiar wyników i przyczynowości
Ocena skuteczności narzędzi sztucznej inteligencji w ochronie zdrowia stanowi jedno z najbardziej złożonych i wymagających zagadnień opisanych w raporcie JAMA. W przeciwieństwie do tradycyjnych technologii medycznych, których działanie można ocenić w sposób izolowany, sztuczna inteligencja funkcjonuje jako system o charakterze zintegrowanym, a jej skuteczność zależy nie tylko od jakości samego algorytmu, lecz także od sposobu jego wdrożenia, środowiska klinicznego, kompetencji użytkowników i interakcji z pacjentami. Autorzy raportu zwracają uwagę, że AI nie jest pojedynczym produktem, ale złożonym układem wzajemnie powiązanych elementów, obejmującym model matematyczny, dane wejściowe i sposób ich pozyskiwania, interfejs użytkownika oraz kontekst organizacyjny i kulturowy, w którym narzędzie jest stosowane.
Trudność oceny polega na tym, że efektywność działania tego samego systemu może znacząco różnić się pomiędzy placówkami medycznymi, nawet gdy wykorzystują one identyczne oprogramowanie. Różnice w jakości i strukturze danych, w poziomie wyszkolenia personelu, w sposobie integracji z infrastrukturą informatyczną czy w przyjętym modelu organizacji pracy mogą prowadzić do odmiennych wyników klinicznych. Dlatego raport JAMA zaleca, by proces ewaluacji uwzględniał pełny kontekst użycia narzędzia, a nie ograniczał się wyłącznie do analizy poprawności działania algorytmu.
Proponowane przez ekspertów podejście ma charakter wielopoziomowy i obejmuje zarówno ocenę techniczną, jak i praktyczną. Ważne jest, by zrozumieć sposób, w jaki model przetwarza dane i jakie czynniki wpływają na jego decyzje (interpretability), a także zapewnić przejrzystość mechanizmów działania i możliwość ich wyjaśnienia w sposób zrozumiały dla użytkownika końcowego (explainability). Kluczowe znaczenie ma również prowadzenie testów w rzeczywistych warunkach klinicznych (prospective evaluation), które pozwalają ocenić faktyczny wpływ narzędzia na decyzje lekarzy i wyniki leczenia pacjentów.
Raport podkreśla ponadto konieczność wdrożenia ciągłego monitorowania skuteczności po wprowadzeniu narzędzia na rynek (post-market monitoring). Taki nadzór ma umożliwiać wczesne wykrywanie nieprawidłowości, błędów w działaniu lub spadku jakości prognoz w wyniku tzw. data drift, czyli zmian w charakterystyce danych klinicznych, które z czasem mogą prowadzić do pogorszenia dokładności modelu. Autorzy wskazują, że tylko dynamiczna, kontekstowa i długofalowa ocena skuteczności narzędzi AI może zapewnić ich rzeczywiste bezpieczeństwo i wartość dla systemu ochrony zdrowia, gwarantując, że technologie te będą wspierać, a nie zaburzać proces podejmowania decyzji klinicznych.
Kto jest odpowiedzialny za ewaluację
Raport JAMA podkreśla, że jednym z kluczowych problemów w procesie oceny skuteczności narzędzi sztucznej inteligencji jest rozproszenie odpowiedzialności pomiędzy wieloma podmiotami uczestniczącymi w cyklu życia technologii. Obecny system nadzoru i ewaluacji nie wskazuje jednoznacznie, kto powinien odpowiadać za badanie rzeczywistych efektów klinicznych oraz monitorowanie długoterminowego bezpieczeństwa stosowania AI w medycynie.
Twórcy i dostawcy technologii skupiają się przede wszystkim na aspektach komercyjnych – rozwijaniu funkcjonalności, wizerunku rynkowego i atrakcyjności produktu – natomiast kwestie oceny skuteczności i wpływu na zdrowie pacjentów często pozostają na marginesie ich działań. Z kolei placówki medyczne, które w praktyce korzystają z tych rozwiązań, nie dysponują wystarczającymi zasobami finansowymi, technicznymi ani kadrowymi, by prowadzić niezależne badania skuteczności. Ich działania ograniczają się zazwyczaj do krótkotrwałych pilotaży, mających na celu ocenę przydatności narzędzia w konkretnym środowisku klinicznym, bez szerszej analizy jego wpływu na wyniki leczenia.
Dodatkowym problemem jest niewystarczające zaangażowanie instytucji publicznych i agencji finansujących badania, które wspierają jedynie nieliczne projekty o charakterze naukowym lub eksperymentalnym. Brak systemowego podejścia powoduje, że zdecydowana większość narzędzi AI wchodzi do obiegu klinicznego bez dowodu skuteczności i bez planu długoterminowego monitorowania ich działania. W efekcie decyzje o dopuszczeniu i stosowaniu tych technologii często opierają się na danych deklaratywnych lub krótkoterminowych wynikach wdrożeniowych, a nie na obiektywnych dowodach naukowych.
Autorzy raportu wskazują na konieczność stworzenia nowej, zintegrowanej infrastruktury nadzorczej, która umożliwiłaby gromadzenie i analizę danych dotyczących rzeczywistych efektów działania narzędzi AI. System taki powinien funkcjonować na szczeblu krajowym i obejmować mechanizmy podobne do programu FDA Sentinel, pozwalającego na stałe śledzenie bezpieczeństwa, skuteczności oraz wpływu algorytmów na wyniki zdrowotne populacji. Wdrożenie tego rodzaju platformy pozwoliłoby na szybkie reagowanie w przypadku wykrycia nieprawidłowości i na tworzenie polityki opartej na dowodach, a nie wyłącznie na deklaracjach producentów czy danych komercyjnych.
Podsumowując, ocena skuteczności narzędzi sztucznej inteligencji w ochronie zdrowia wymaga gruntownej przebudowy dotychczasowych metod badawczych i systemów nadzoru. Niezbędne jest odejście od jednorazowych testów walidacyjnych na rzecz ciągłego, cyklicznego monitorowania działania algorytmów w praktyce klinicznej, obejmującego zarówno efektywność medyczną, jak i bezpieczeństwo, przejrzystość oraz wpływ na sposób świadczenia opieki. Dopóki taki system nie zostanie wdrożony, proces implementacji sztucznej inteligencji w medycynie pozostanie eksperymentem o nie w pełni poznanych konsekwencjach dla pacjentów i całego systemu ochrony zdrowia.
Wyzwania wdrożeniowe i monitorowanie
Raport JAMA podkreśla, że nawet najlepiej zaprojektowane i teoretycznie skuteczne narzędzia sztucznej inteligencji mogą zawieść w praktyce klinicznej, jeśli zostaną wdrożone w niewłaściwym kontekście organizacyjnym lub bez odpowiedniego przygotowania użytkowników. Skuteczność działania systemów AI jest bowiem ściśle uzależniona od jakości danych, infrastruktury technicznej, kultury pracy w danej placówce oraz poziomu zrozumienia zasad działania algorytmów przez personel medyczny.
Autorzy raportu zauważają, że brak jest spójnej infrastruktury umożliwiającej bezpieczne testowanie, ocenę i ciągłe monitorowanie narzędzi AI w warunkach klinicznych. Większość szpitali nie posiada dedykowanych zespołów zajmujących się analizą skutków wdrożeń technologii opartych na uczeniu maszynowym ani systemów służących do bieżącej kontroli jakości danych. W rezultacie proces wdrożenia nowych rozwiązań odbywa się często w sposób fragmentaryczny i bez systematycznej oceny efektów, co zwiększa ryzyko błędów i niespójności w praktyce medycznej.
Istotnym problemem jest również brak jednolitych standardów nadzoru nad działaniem algorytmów po ich wprowadzeniu do obiegu. Raport wskazuje na potrzebę wprowadzenia nowej koncepcji określanej mianem „algorithmovigilance”, inspirowanej istniejącymi w farmakologii zasadami farmakowigilancji. Tak jak w przypadku leków prowadzi się systematyczne monitorowanie skutków ubocznych i bezpieczeństwa stosowania, tak samo narzędzia sztucznej inteligencji powinny podlegać ciągłej obserwacji, analizie i raportowaniu incydentów związanych z ich użyciem. System taki miałby umożliwiać szybkie reagowanie w sytuacjach, gdy algorytm generuje błędne rekomendacje, traci dokładność w wyniku zmian danych wejściowych (data drift) lub prowadzi do niezamierzonych skutków klinicznych.
Obecne mechanizmy nadzoru skupiają się głównie na ocenie bezpieczeństwa – czyli na minimalizowaniu ryzyka bezpośredniego zagrożenia zdrowia lub życia pacjenta. Natomiast aspekt efektywności, rozumiany jako realny wpływ AI na jakość opieki zdrowotnej, wyniki kliniczne, równość dostępu do świadczeń czy satysfakcję pacjentów, jest wciąż marginalizowany. Brakuje zharmonizowanych metod pozwalających na ocenę, czy konkretne narzędzie rzeczywiście poprawia proces diagnostyczny i terapeutyczny, czy jedynie zwiększa obciążenie administracyjne personelu.
Raport JAMA wskazuje, że odpowiedzialne wdrożenie AI wymaga nie tylko regulacji formalnych, ale również budowy „ekosystemu uczenia się” (learning health system), w którym dane pochodzące z codziennej praktyki klinicznej służą do doskonalenia działania algorytmów i korygowania ich błędów. Oznacza to konieczność stworzenia wspólnych platform wymiany informacji pomiędzy twórcami technologii, placówkami medycznymi i organami nadzoru, a także zapewnienia odpowiednich zasobów finansowych i kadrowych do prowadzenia audytów oraz analiz efektywności.
W konkluzji autorzy podkreślają, że bez trwałego systemu monitorowania i oceny działania algorytmów, wdrażanie AI w ochronie zdrowia będzie nadal obarczone wysokim ryzykiem organizacyjnym i klinicznym. Odpowiedzialne wykorzystanie tych technologii wymaga więc przejścia od podejścia jednorazowego wdrożenia do modelu ciągłego nadzoru, analizy i doskonalenia, który stanie się integralną częścią każdego systemu opieki zdrowotnej korzystającego ze sztucznej inteligencji.
Propozycje rozwiązań
Raport JAMA nie ogranicza się do diagnozy problemów związanych z rozwojem i wdrażaniem sztucznej inteligencji w ochronie zdrowia, lecz przedstawia również kompleksowy zestaw rekomendacji mających na celu stworzenie bezpiecznego, skutecznego i zrównoważonego ekosystemu AI. Zaproponowane kierunki działań obejmują zarówno kwestie regulacyjne i organizacyjne, jak i finansowe oraz infrastrukturalne. Autorzy podkreślają, że bez wspólnej strategii obejmującej cały cykl życia technologii, w tym jej rozwój, wdrożenie i długoterminowy nadzór, potencjał sztucznej inteligencji w medycynie nie zostanie w pełni wykorzystany.
Jednym z kluczowych postulatów jest wprowadzenie modelu zarządzania pełnym cyklem życia produktu (Total Product Life Cycle), w którym odpowiedzialność za projektowanie, testowanie, wdrażanie i monitorowanie narzędzi AI byłaby współdzielona przez wszystkich uczestników systemu – twórców technologii, lekarzy, instytucje opieki zdrowotnej, pacjentów oraz organy regulacyjne. Tylko takie podejście umożliwia utrzymanie równowagi pomiędzy innowacyjnością a bezpieczeństwem oraz zapewnia, że technologie są dostosowane do rzeczywistych potrzeb klinicznych, a nie wyłącznie do celów komercyjnych.
Drugim obszarem działań jest rozwój nowych narzędzi oceny i certyfikacji, które pozwolą na obiektywną weryfikację jakości i skuteczności rozwiązań opartych na sztucznej inteligencji. Raport wskazuje na potrzebę standaryzacji metod raportowania i badań poprzez wykorzystanie istniejących już ram metodologicznych, takich jak APPRAISE-AI, SPIRIT-AI, TRIPOD+AI czy DECIDE-AI, które określają zasady rzetelnego dokumentowania i publikowania wyników dotyczących algorytmów medycznych. Wśród proponowanych rozwiązań znajduje się również tworzenie tzw. „kart modeli” (model cards), zawierających przejrzyste informacje o przeznaczeniu, ograniczeniach, parametrach technicznych oraz ryzykach danego narzędzia. Wspomniano również o inicjatywie The Joint Commission oraz Coalition for Health AI (CHAI), które prowadzą prace nad stworzeniem standardów certyfikacji placówek określanych jako „AI-ready hospitals”, czyli szpitali przygotowanych do bezpiecznego wdrażania i nadzorowania narzędzi opartych na sztucznej inteligencji.
Trzeci kierunek rekomendacji dotyczy budowy infrastruktury danych i środowiska uczenia się (Learning Health System). Autorzy raportu podkreślają, że skuteczna ocena i rozwój AI wymagają dostępu do wiarygodnych, interoperacyjnych i bezpiecznych danych. Proponuje się utworzenie krajowego „sandboxu danych”, który pozwoliłby na testowanie modeli w środowisku kontrolowanym, a jednocześnie zgodnym z zasadami ochrony prywatności. Kluczową rolę odgrywają tu federacyjne modele danych, umożliwiające analizę rozproszonych zbiorów informacji bez konieczności ich fizycznego udostępniania, co zapewnia wyższy poziom bezpieczeństwa i zgodności z przepisami o ochronie danych osobowych. Inspiracją dla tego rozwiązania ma być amerykański program FDA Sentinel, który od wielu lat służy do monitorowania bezpieczeństwa leków i wyrobów medycznych na podstawie rzeczywistych danych populacyjnych.
Czwartym filarem strategii jest stworzenie systemu zachęt finansowych i wsparcia regulacyjnego (Incentive Structure). Raport proponuje, by rządowe agencje zdrowia oraz instytucje finansujące badania stworzyły programy wspierające wdrażanie i ocenę narzędzi AI, w tym finansowanie projektów o wysokiej wartości klinicznej i społecznej. Wskazuje się na możliwość zastosowania modelu podobnego do ustawy HITECH, która w przeszłości przyspieszyła cyfryzację amerykańskiego systemu zdrowia. Rekomendacje obejmują także granty badawcze na rozwój metod ewaluacji, tworzenie systemów monitorowania, a także inicjatywy zmniejszające nierówności cyfrowe, aby uniknąć sytuacji, w której dostęp do zaawansowanych technologii AI byłby ograniczony do wybranych ośrodków lub grup społecznych.
W ocenie autorów raportu wdrożenie powyższych działań wymaga koordynacji pomiędzy sektorem publicznym, prywatnym i naukowym, przy jednoczesnym uwzględnieniu interesu pacjenta jako nadrzędnego celu. Tylko dzięki połączeniu regulacji, edukacji, transparentności i długofalowego monitorowania możliwe będzie stworzenie systemu, w którym sztuczna inteligencja stanie się narzędziem realnie wspierającym poprawę zdrowia populacji, a nie źródłem nowych ryzyk i nierówności.
Wpływ AI na personel medyczny
Rozwój i upowszechnienie narzędzi sztucznej inteligencji w ochronie zdrowia wywołują głębokie zmiany w strukturze zawodów medycznych, modelach pracy oraz wymaganych kompetencjach personelu. Raport JAMA wskazuje, że AI staje się katalizatorem transformacji organizacyjnej i kulturowej w systemie opieki zdrowotnej, wpływając zarówno na sposób wykonywania zawodu lekarza, jak i na relacje pomiędzy człowiekiem a technologią w procesie leczenia.
Wraz z automatyzacją wielu zadań administracyjnych i diagnostycznych dochodzi do przemiany roli klinicystów, którzy z bezpośrednich wykonawców procedur coraz częściej stają się koordynatorami procesów decyzyjnych opartych na danych. AI wspiera analizę wyników badań, przewidywanie ryzyka czy opracowywanie planów terapeutycznych, ale jednocześnie wymusza na personelu medycznym nowy zakres kompetencji cyfrowych i interpretacyjnych. Lekarze i pielęgniarki muszą rozumieć zasady działania algorytmów, potrafić ocenić wiarygodność generowanych przez nie rekomendacji oraz identyfikować potencjalne błędy wynikające z ograniczeń danych lub uprzedzeń systemowych (bias).
Raport podkreśla znaczenie edukacji w zakresie tzw. AI literacy – umiejętności świadomego korzystania z narzędzi sztucznej inteligencji w sposób bezpieczny, etyczny i zgodny z dobrymi praktykami klinicznymi. Konieczne jest również włączenie do programów kształcenia zawodów medycznych elementów etyki algorytmicznej, obejmującej zagadnienia odpowiedzialności, transparentności i sprawiedliwości w zastosowaniach AI. Wiedza ta ma kluczowe znaczenie nie tylko dla poprawnego wykorzystania nowych technologii, ale również dla utrzymania zaufania pacjentów do decyzji wspieranych przez systemy automatyczne.
Jednocześnie wdrażanie AI wiąże się z ryzykiem konfliktów kompetencyjnych i reorganizacji struktur pracy. W niektórych dziedzinach, takich jak radiologia czy patomorfologia, systemy oparte na uczeniu maszynowym zaczynają przejmować część zadań dotychczas zarezerwowanych dla specjalistów. Może to prowadzić do obaw o marginalizację roli człowieka w procesie diagnostycznym, a w konsekwencji – do napięć zawodowych i poczucia utraty kontroli nad decyzjami klinicznymi.
Raport zwraca również uwagę na psychologiczne konsekwencje wdrożeń AI, zwłaszcza w kontekście przeciążenia pracą i zjawiska wypalenia zawodowego. Choć sztuczna inteligencja często jest postrzegana jako narzędzie służące redukcji obciążenia biurokratycznego – dzięki automatyzacji dokumentacji czy raportowania – nie stanowi ona panaceum na problem wypalenia. W niektórych przypadkach może wręcz potęgować stres, jeśli zwiększa tempo pracy, wprowadza konieczność stałego nadzoru nad działaniem systemu lub ogranicza poczucie sprawczości personelu.
Autorzy raportu podkreślają, że przyszłość pracy w ochronie zdrowia będzie wymagała równowagi między kompetencjami technologicznymi a empatią i refleksją etyczną, które pozostają nieodzowne w relacji lekarz–pacjent. Sztuczna inteligencja może być cennym wsparciem dla profesjonalistów, lecz tylko wtedy, gdy zostanie wdrożona w sposób odpowiedzialny, zapewniający jasny podział ról między człowiekiem a maszyną oraz utrzymujący centralne znaczenie ludzkiego osądu w procesie leczenia.
Kwestie etyczne i prawne
Rozwój i wdrażanie sztucznej inteligencji w ochronie zdrowia nieuchronnie rodzą złożone dylematy etyczne i prawne, które wykraczają poza tradycyjne ramy regulacji dotyczących bezpieczeństwa czy skuteczności produktów medycznych. Raport JAMA wskazuje, że tempo innowacji technologicznych znacząco przewyższa zdolność systemów prawnych do reagowania, co prowadzi do licznych luk w zakresie odpowiedzialności, nadzoru i ochrony danych.
Jednym z kluczowych zagadnień jest kwestia własności danych i prywatności. W Stanach Zjednoczonych obowiązujący reżim prawny oparty na ustawie HIPAA (Health Insurance Portability and Accountability Act) okazuje się niewystarczający w kontekście nowych form przetwarzania danych generowanych przez narzędzia AI, w szczególności przez aplikacje konsumenckie i systemy analizujące dane pozamedyczne. Wiele z tych danych nie jest formalnie kwalifikowanych jako „dane zdrowotne”, a zatem nie podlega pełnej ochronie prawnej. Autorzy raportu podkreślają rosnącą potrzebę wprowadzenia ram prawnych inspirowanych rozwiązaniami europejskimi, zwłaszcza RODO (GDPR) oraz nadchodzącym AI Act, które kładą nacisk na przejrzystość, ograniczenie celu przetwarzania i obowiązek oceny ryzyka związanego z działaniem algorytmów.
Kolejnym obszarem wymagającym uregulowania jest etyczny nadzór nad stosowaniem narzędzi sztucznej inteligencji. Raport wskazuje, że w środowisku akademickim i klinicznym toczy się dyskusja, czy wdrożenie AI w praktyce medycznej należy traktować jako badanie naukowe, które wymaga zatwierdzenia przez komisję etyczną (Institutional Review Board – IRB), czy też jako działanie z zakresu poprawy jakości (quality improvement), które takiego nadzoru nie wymaga. Brak jasnych kryteriów prowadzi do niejednolitej praktyki – niektóre instytucje obejmują projekty AI kontrolą etyczną, inne natomiast traktują je jako standardowe działania modernizacyjne. W efekcie system ochrony zdrowia nie posiada jednolitego mechanizmu zapewniającego, że nowe technologie są wdrażane w sposób etycznie uzasadniony i z poszanowaniem praw pacjentów.
Szczególne kontrowersje budzi również kwestia odpowiedzialności prawnej za błędy popełnione przez systemy AI. W zależności od charakteru zdarzenia odpowiedzialność może spoczywać na lekarzu, który zaufał błędnej rekomendacji algorytmu, na placówce, która wdrożyła system bez odpowiedniej weryfikacji, lub na samym producencie oprogramowania. Raport podkreśla, że brak jednoznacznych regulacji w tym zakresie prowadzi do niepewności prawnej, która może zniechęcać do wdrażania innowacji lub skłaniać do nadmiernej ostrożności w ich stosowaniu.
W raporcie pojawia się również nowy i nieoczywisty problem – ryzyko prawne wynikające z braku użycia AI. W sytuacji, gdy określone narzędzie zostanie uznane za standard opieki (standard of care), jego niewykorzystanie może zostać potraktowane jako błąd w sztuce lekarskiej, zwłaszcza jeśli doprowadzi do negatywnych skutków dla pacjenta, których można było uniknąć dzięki technologii. Taka zmiana paradygmatu stawia przed personelem medycznym i instytucjami nowe wyzwania dotyczące odpowiedzialności za decyzje zarówno o wdrożeniu, jak i o niewdrożeniu narzędzi opartych na sztucznej inteligencji.
Autorzy raportu JAMA konkludują, że skuteczna regulacja AI w medycynie wymaga równoczesnego podejścia etycznego, prawnego i technicznego. Ochrona prywatności, jasne zasady odpowiedzialności, przejrzystość działania algorytmów oraz zagwarantowanie nadzoru etycznego nad procesem wdrażania stanowią warunek konieczny, by wykorzystanie sztucznej inteligencji w ochronie zdrowia było zgodne z zasadą primum non nocere – „po pierwsze, nie szkodzić”.
Podsumowanie
Raport JAMA kończy się jednoznacznym stwierdzeniem, że sztuczna inteligencja nieuchronnie zrewolucjonizuje system opieki zdrowotnej, wprowadzając zmiany o skali porównywalnej do rewolucji informatycznej sprzed dwóch dekad. Jej potencjał do poprawy jakości, dostępności i efektywności świadczeń medycznych jest ogromny, jednak aby został w pełni wykorzystany, konieczne jest stworzenie nowych mechanizmów nadzoru, oceny i współpracy, które pozwolą połączyć innowacyjność technologii z zasadami bezpieczeństwa pacjenta i etyki zawodowej.
Autorzy raportu podkreślają, że tradycyjne ramy oceny i regulacji wywodzące się z farmakologii i wyrobów medycznych są niewystarczające w odniesieniu do narzędzi sztucznej inteligencji, które podlegają ciągłemu doskonaleniu, uczą się w oparciu o nowe dane i zmieniają swoje działanie w czasie. System ochrony zdrowia potrzebuje zatem dynamicznego, uczenia się ekosystemu, zdolnego do szybkiej reakcji na błędy, nieprawidłowości i pojawiające się ryzyka, a także do systematycznego gromadzenia i analizowania informacji o faktycznych efektach działania AI w praktyce klinicznej.
Kluczowym celem tego nowego modelu jest budowa spójnego i przejrzystego systemu wiedzy o wpływie sztucznej inteligencji na zdrowie publiczne – systemu, który pozwoli w sposób rzetelny i ciągły monitorować zarówno korzyści, jak i potencjalne szkody wynikające z jej stosowania. Tylko w ten sposób możliwe będzie utrzymanie równowagi między innowacją a bezpieczeństwem, między efektywnością ekonomiczną a ochroną praw pacjenta.
Raport kończy się apelem o zintegrowane podejście wszystkich interesariuszy – twórców technologii, personelu medycznego, instytucji publicznych, regulatorów, naukowców i pacjentów. Ich współpraca jest warunkiem nie tylko skutecznego wdrażania rozwiązań AI, ale również tworzenia zasad odpowiedzialnego ich użycia. Sukces tej transformacji zależy od przyjęcia wspólnych standardów w zakresie bezpieczeństwa, skuteczności, przejrzystości i etyki, które pozwolą, by sztuczna inteligencja stała się narzędziem realnie wspierającym człowieka w procesie leczenia, a nie źródłem nowych zagrożeń czy nierówności w dostępie do opieki.
Udostępnij
Najczęściej zadawane pytania
Czy sztuczna inteligencja może zastąpić lekarzy w procesie diagnostycznym lub terapeutycznym?
Nie. Raport JAMA podkreśla, że AI ma charakter wspierający, a nie zastępujący człowieka. Systemy te mogą przyspieszać analizę danych, wspomagać decyzje kliniczne czy ograniczać obciążenie administracyjne, jednak ostateczna odpowiedzialność za decyzję medyczną zawsze spoczywa na lekarzu. Celem wdrożenia AI nie jest eliminacja roli specjalistów, lecz umożliwienie im koncentracji na złożonych aspektach opieki, których maszyna nie potrafi ocenić w sposób empatyczny czy kontekstowy.
Jakie są największe zagrożenia etyczne i prawne związane z użyciem AI w medycynie?
Raport wskazuje kilka kluczowych ryzyk: naruszenie prywatności i własności danych pacjentów, brak przejrzystości działania algorytmów (black box problem), a także niejasny podział odpowiedzialności prawnej w razie błędu systemu. Dodatkowo istnieje obawa, że brak wdrożenia narzędzia AI uznanego za standard może być w przyszłości traktowany jako błąd w sztuce. Dlatego autorzy apelują o stworzenie spójnych ram prawnych i etycznych, inspirowanych m.in. europejskimi rozwiązaniami RODO i AI Act.
Co jest warunkiem bezpiecznego i skutecznego wykorzystania AI w ochronie zdrowia?
Zgodnie z raportem JAMA, kluczem jest zintegrowane podejście wszystkich interesariuszy – twórców technologii, lekarzy, placówek medycznych, regulatorów i pacjentów – obejmujące pełny cykl życia narzędzia AI, od etapu projektowania, przez wdrożenie, aż po ciągłe monitorowanie i doskonalenie. Tylko współpraca i transparentność mogą zagwarantować, że AI będzie służyła poprawie jakości opieki, a nie generowała nowych zagrożeń.
Artykuły blogowe
AI w edukacji i oświacie – jak szkoły mogą robić to odpowiedzialnie
Sztuczna inteligencja staje się jednym z kluczowych czynników kształtujących współczesne…
AI w administracji publicznej – przegląd rozwiązań
Sektor publiczny coraz śmielej otwiera się na rozwiązania oparte na…
Prawo do dokumentacji medycznej
Prawo pacjenta do dostępu do dokumentacji medycznej Każdy pacjent ma…
Prawo medyczne
Niezależnie od skali i złożoności Państwa problemu, jesteśmy tu, aby zapewnić Państwu profesjonalne wsparcie i pewność podczas podejmowania kluczowych decyzji.
Nasze specjalizacje
Odwołanie do ZUS
Odwołanie do ZUS to formalny sposób zakwestionowania decyzji, która może negatywnie wpływać na Twoje prawa do świadczeń. W procesie odwoławczym ważne jest przygotowanie odpowiednich dokumentów oraz przedstawienie rzetelnych argumentów, które uzasadnią Twoje stanowisko. Skuteczne odwołanie może prowadzić do ponownego rozpatrzenia sprawy i, w konsekwencji, do przyznania należnych świadczeń.
Błąd medyczny
Nasze wieloletnie doświadczenie w zakresie prawa medycznego pozwala na skuteczne dochodzenie odszkodowania jak zadośćuczynienia za błąd w sztuce lekarza. Jeżeli szukasz skutecznej i profesjonalnej pomocy prawnej skontaktuj się z pracownikiem Kancelarii i umów się na poradę konsultacyjną.
Odwołanie od orzeczenia o niepełnosprawności
Odwołanie od orzeczenia o niepełnosprawności pozwala osobie, która nie zgadza się z wydaną decyzją, na skorzystanie z możliwości ponownego rozpatrzenia jej sytuacji. W procesie tym istotne jest dostarczenie dodatkowych dokumentów lub dowodów, które mogą potwierdzić zasadność wniosków o stwierdzenie niepełnosprawności.