Kiedy algorytm bierze stetoskop - czy zaufanie do medycznej sztucznej inteligencji jest groźne?
Image
Wraz z rozwojem technologii coraz więcej osób zaczyna traktować sztuczną inteligencję jako zaufane źródło wiedzy medycznej. Chatboty diagnozują objawy, podpowiadają leki, a nawet uspokajają pacjentów. W teorii mają pomagać, w praktyce coraz częściej przejmują rolę lekarza – i to bez odpowiedzialności. Najnowsze badania wskazują, że ludzie mają naturalną skłonność do bezkrytycznego przyjmowania zaleceń wygenerowanych przez algorytmy, nawet jeśli są one błędne lub sprzeczne z intuicją.
Psychologowie nazywają to zjawisko „efektem autorytetu algorytmu”. W momencie, gdy człowiek widzi pewny siebie ton i logiczny układ odpowiedzi, jego zaufanie gwałtownie rośnie. Sztuczna inteligencja wydaje się nieomylnym ekspertem, pozbawionym emocji i błędów ludzkiego osądu. Jednak badania pokazują, że ta pozorna obiektywność może być złudna. Użytkownicy często nie potrafią odróżnić poprawnej diagnozy od błędnej sugestii generowanej przez sieć neuronową, a co gorsza – przestają zadawać pytania.
Zjawisko to nosi nazwę „automatyzacyjnego uprzedzenia”, czyli tendencji do polegania na decyzjach systemów zautomatyzowanych, nawet jeśli istnieją przesłanki, że są one błędne. W kontekście medycznym może to mieć dramatyczne skutki. Pacjent, który uwierzy, że AI „wie lepiej”, może zrezygnować z wizyty u lekarza, zignorować objawy lub rozpocząć samoleczenie na podstawie błędnych wskazówek. W niektórych przypadkach takie decyzje kończyły się pogorszeniem stanu zdrowia, a nawet hospitalizacją.
Problem pogłębia brak przejrzystości algorytmów. Większość systemów AI działa jak „czarna skrzynka” – użytkownik nie ma pojęcia, w jaki sposób dochodzi do diagnozy czy rekomendacji. Jeśli maszyna się pomyli, nie da się ustalić, gdzie leży źródło błędu. Pojawia się więc pytanie: kto ponosi odpowiedzialność za skutki błędnych porad? Twórca oprogramowania, firma udostępniająca usługę, czy użytkownik, który zaufał technologii bardziej niż lekarzowi?
Sytuację dodatkowo komplikuje fakt, że sztuczna inteligencja potrafi wytwarzać złudne poczucie bezpieczeństwa. Dla wielu osób to pierwszy kontakt z „doradcą”, który zawsze ma odpowiedź, nigdy się nie denerwuje i nigdy nie odsyła do kolejki w przychodni. Ta płynność komunikacji sprawia, że relacja człowiek–AI zaczyna przypominać relację pacjent–autorytet. To niebezpieczne, ponieważ usuwa z procesu leczenia element krytycznej refleksji.
Specjaliści ostrzegają, że bez jasnych zasad użycia i nadzoru medycznego sztuczna inteligencja może stać się narzędziem niekontrolowanego ryzyka. Wprowadzenie obowiązkowych zabezpieczeń, takich jak systemy weryfikujące rekomendacje AI lub ostrzeżenia wymuszające refleksję użytkownika, mogłoby ograniczyć skutki błędów. Jednak żadne rozwiązanie nie zastąpi zdrowego rozsądku – tego, czego technologia nie potrafi i długo jeszcze nie będzie potrafiła.
Sztuczna inteligencja może wspierać lekarzy, ale nie powinna ich zastępować. W epoce, w której coraz więcej ludzi oddaje swoje zdrowie w ręce maszyn, najważniejszym lekarstwem pozostaje krytyczne myślenie. Bo nawet najlepszy algorytm nie zastąpi ludzkiej odpowiedzialności.
Źródła:
https://ai.nejm.org/doi/full/10.1056/AIoa2300015
https://pmc.ncbi.nlm.nih.gov/articles/PMC7973477
https://www.sciencedirect.com/science/article/pii/S2949916X24000914
https://www.pneumon.org/Risks-of-Artificial-Intelligence-AI-in-Medicine%2C191736%2C0%2C2.html
https://arxiv.org/abs/2408.15266
- Dodaj komentarz
- 311 widoków
