Nowości

AI może pomóc pacjentom – ale tylko wtedy, gdy lekarze to zrozumieją

Pielęgniarka Dina Sarro niewiele wiedział o sztucznej inteligencji, kiedy szpital Duke University Hospital zainstalował oprogramowanie do uczenia maszynowego, aby podnieść alarm, gdy dana osoba była zagrożona sepsą, powikłaniem infekcji, która jest zabójcą numer jeden w szpitalach w USA. Oprogramowanie o nazwie Sepsis Watch przekazało alerty z algorytmu, który badacze Duke dostroili z 32 milionami punktów danych od byłych pacjentów, do szpitalnego zespołu pielęgniarek szybkiego reagowania, któremu współprzewodniczy Sarro.

Ale kiedy pielęgniarki przekazywały te ostrzeżenia lekarzom, czasami spotykały się z obojętnością lub nawet podejrzeniami. Kiedy lekarze zapytali, dlaczego sztuczna inteligencja uważa, że ​​pacjent potrzebuje dodatkowej uwagi, Sarro znalazła się w trudnej sytuacji. „Nie miałabym dobrej odpowiedzi, ponieważ jest oparta na algorytmie” – mówi.

Sepsis Watch jest nadal używany w Duke – w niemałej mierze dzięki Sarro i jej koleżankom pielęgniarkom, którzy na nowo odkryli siebie jako dyplomaci sztucznej inteligencji, zdolni do łagodzenia relacji człowiek-maszyna. Opracowali nowe przepływy pracy, które pomogły uczynić skrzeczenia algorytmu bardziej akceptowalnymi dla ludzi.

Nowy raport think tanku Data & Society nazywa to przykładem „prac naprawczych”, które często muszą towarzyszyć przełomowym postępom technologicznym. Współautorka Madeleine Clare Elish mówi, że często pomija się ważny wkład ludzi na linii frontu, takich jak Sarro. „Te rzeczy zawiodą, gdy jedyne zasoby zostaną przeznaczone na samą technologię” – mówi.

obraz artykułu

Przewodnik WIRED po sztucznej inteligencji

Inteligentne algorytmy nie podejmą wszystkich zadań, ale uczą się szybciej niż kiedykolwiek, robiąc wszystko, od diagnostyki medycznej po wyświetlanie reklam.

Mediacja człowiek-maszyna wymagana w Duke ilustruje wyzwanie, jakim jest przełożenie niedawnego wzrostu badań nad zdrowiem AI na lepszą opiekę nad pacjentami. W wielu badaniach opracowano algorytmy, które działają równie dobrze lub lepiej niż lekarze podczas testów na podstawie dokumentacji medycznej, takiej jak zdjęcia rentgenowskie lub zdjęcia zmian skórnych. Nie wiadomo jednak, jak pożytecznie stosować takie algorytmy w szpitalach i klinikach. Algorytmy uczenia maszynowego są notorycznie nieelastyczne i nieprzejrzyste nawet dla ich twórców. Dobre wyniki na starannie dobranym zestawie danych badawczych nie gwarantują sukcesu w chaotycznym zegarku szpitala.

Niedawne badanie oprogramowania do klasyfikacji pieprzyków wykazało, że jego zalecenia czasami przekonały doświadczonych lekarzy do zmiany diagnozy z prawidłowej na błędną. Kiedy Google wprowadził system zdolny do wykrywania chorób oczu u diabetyków z 90-procentową dokładnością w klinikach w Tajlandii, system odrzucił ponad 20 procent zdjęć pacjentów z powodu problemów, takich jak zmienne oświetlenie. Elish niedawno dołączyła do firmy i mówi, że ma nadzieję kontynuować badania nad sztuczną inteligencją w opiece zdrowotnej.

Projekt Duke’a dotyczący sepsy rozpoczął się w 2016 roku, na początku niedawnego boomu na opiekę zdrowotną opartą na sztucznej inteligencji. Miał on ulepszyć prostszy system wyskakujących ostrzeżeń o sepsie, które pracownicy przytłoczeni powiadomieniami nauczyli się odrzucać i ignorować.

Naukowcy z Duke Institute for Health Innovation doszli do wniosku, że bardziej ukierunkowane ostrzeżenia, wysyłane bezpośrednio do szpitalnych pielęgniarek szybkiego reagowania, które z kolei informowały lekarzy, mogą mieć lepsze wyniki. Wykorzystali głębokie uczenie się, technikę sztucznej inteligencji preferowaną przez branżę technologiczną, aby wytrenować algorytm na 50 000 rekordów pacjentów i zbudowali system, który skanuje karty pacjentów w czasie rzeczywistym.

Sepsis Watch otrzymało antropologiczne zbliżenie, ponieważ twórcy Duke wiedzieli, że w zgorzkniałym tęgim szpitalu będą nieznane i poprosili Elisha o pomoc. Spędziła całe dni obserwując pielęgniarki i lekarzy z izby przyjęć oraz przeprowadzając wywiady, i odkryła, że ​​algorytm ma skomplikowane życie towarzyskie.

System wyrzucał alerty na iPady monitorowane przez pielęgniarki, zgłaszając pacjentów, u których stwierdzono umiarkowane lub wysokie ryzyko sepsy lub tych, u których doszło już do śmiertelnej choroby. Pielęgniarki miały natychmiast wezwać lekarza oddziału ratunkowego w przypadku pacjentów oznaczonych jako wysokiego ryzyka. Ale kiedy pielęgniarki przestrzegały tego protokołu, napotkały problemy.

Niektóre wyzwania wynikały z zakłócenia zwykłej pracy w ruchliwym szpitalu – wielu lekarzy nie jest przyzwyczajonych do przyjmowania wskazówek od pielęgniarek. Inne były specyficzne dla sztucznej inteligencji, tak jak wtedy, gdy Sarro stawiał czoła żądaniom, aby dowiedzieć się, dlaczego algorytm podniósł alarm. Zespół odpowiedzialny za oprogramowanie nie ma wbudowanej funkcji wyjaśniającej, ponieważ podobnie jak w przypadku wielu algorytmów uczenia maszynowego nie jest możliwe ustalenie, dlaczego wykonał określone wywołanie.

Zostaw komentarz

Maciek Luboński
Z wykształcenia jestem kucharzem , ale to nie przeszkadza mi pisać dla Was tekstów z wielu ciekawych dziedzin , których sam jestem fanem.Piszę dużo i często nie na tak jak trzeba , ale co z tego skoro tak naprawdę liczy się pasja.

Najlepsze recenzje

Video

gallery

Facebook