Google usuwa podsumowania sztucznej inteligencji z poufnych wyszukiwań medycznych

  • Google wyłączył funkcję AI Overviews w przypadku określonych zapytań dotyczących testów czynności wątroby po dochodzeniu przeprowadzonym przez The Guardian.
  • Eksperci ostrzegają, że podsumowania sztucznej inteligencji oferują dane medyczne bez kontekstu, ignorując takie czynniki jak wiek, płeć, pochodzenie etniczne i narodowość.
  • Organizacje zajmujące się ochroną zdrowia apelują do Google o priorytetowe traktowanie wiarygodnych źródeł medycznych i podjęcie problemu w sposób strukturalny, wykraczający poza odosobnione przypadki.
  • Sprawa ta ponownie rozgorzała w Europie debata na temat roli sztucznej inteligencji w ochronie zdrowia i odpowiedzialności dużych firm technologicznych za dostępność informacji medycznych w Internecie.

Google AI w służbie zdrowia

Google zdecydowało się wycofać część swoich usług podsumowania stanu zdrowia generowane przy użyciu sztucznej inteligencji wyników wyszukiwania, po tym jak dziennikarskie śledztwo wykazało, że mogą one dostarczać błędnych i potencjalnie niebezpiecznych informacji medycznych. Zmiana ta dotyczy funkcji znanych jako Przeglądy sztucznej inteligencji, pola szybkich odpowiedzi, które pojawiają się na górze wyników wyszukiwania Google.

Firma utrzymuje, że podsumowania te są na ogół przydatne i niezawodne dla większości użytkownikówSprawę odkryła jednak brytyjska gazeta The Guardian Uwypukliło to, w jaki sposób Google radzi sobie z wyszukiwaniami dotyczącymi zdrowia, a jest to obszar szczególnie wrażliwy zarówno w Wielkiej Brytanii, jak i w pozostałych krajach Europy.

Dlaczego Google usunęło przeglądy sztucznej inteligencji w opiece zdrowotnej

Kontrowersje wybuchły, gdy „The Guardian” odkrył, że usługa AI Overviews zwróciła dane dotyczące analiz medycznych bez odpowiedniego kontekstuKonkretnie, po wpisaniu hasła „jaki jest prawidłowy zakres badań krwi wątrobowej” lub „jaki jest prawidłowy wynik badania czynności wątroby” sztuczna inteligencja Google’a wyświetliła długą listę wartości liczbowych przedstawionych jako prawidłowe, bez wyjaśnienia, że ​​zakresy te zależą od wielu czynników osobistych.

Specjaliści hepatologii i rzecznicy organizacji pacjentów ostrzegali, że taki sposób prezentacji informacji może być mylące dla osób z poważną chorobą wątrobyUżytkownik z objawami lub historią schorzenia może uznać, że jego wyniki mieszczą się w tych ogólnych zakresach, założyć, że wszystko jest w porządku i odłożyć wizytę u lekarza rodzinnego lub specjalisty — co jest szczególnie niepokojące w systemach opieki zdrowotnej takich jak w Hiszpanii, gdzie wczesne wykrycie to klucz.

Jednym z najczęściej krytykowanych punktów jest to, że podsumowania nie uwzględniają podstawowych zmiennych, takich jak: wiek, płeć, pochodzenie etniczne lub narodowość pacjentaW praktyce oznacza to mieszanie informacji pochodzących z różnych laboratoriów i krajów, co stwarza pozory precyzji, która w rzeczywistości nie ma potwierdzenia klinicznego.

Po opublikowaniu badań Google przystąpiło do wyłącz przeglądy sztucznej inteligencji dla konkretnych zapytań dotyczących funkcji wątrobyWedług samej analizy, wyszukiwania te są dotknięte The GuardianPrzestano pokazywać pole AI, chociaż w wielu przypadkach pierwszym organicznym wynikiem stawał się właśnie artykuł potępiający problem.

Konsultacje zdrowotne, na które najczęściej zwraca się uwagę: badania czynności wątroby

Najbardziej uderzające przykłady dotyczyły dobrze znanych testów czynności wątroby, bardzo powszechnych zarówno w podstawowej opiece zdrowotnej, jak i w szpitalach europejskich. Testy te obejmują zestaw analiz (takich jak ALT, AST, bilirubina, fosfataza alkaliczna i GGTP, między innymi), które wymagają… indywidualna interpretacja kliniczna i nie można ich podsumować w jednym zakresie, który byłby ważny dla wszystkich.

Według Vanessy Hebditch, dyrektor ds. komunikacji i polityki w Brytyjski Fundusz WątrobowyOdpowiedzi wygenerowane przez sztuczną inteligencję Google'a zaoferowały listy liczb, które nie zawsze odpowiadały konkretnemu testowi Co więcej, nie było jasne, jak ktoś, kto miał pozornie prawidłowe wyniki, mógł nadal cierpieć na poważną, wczesną chorobę wątroby.

Hebditch z zadowoleniem przyjął usunięcie tych podsumowań przez Google, uznając to za konieczny krok w celu uniknięcia nieporozumień. Podkreślił jednak, że problem wykracza daleko poza kilka wyszukiwań: niepokojące jest to, że logika stojąca za konstruowaniem przeglądów stanu zdrowia AI może powtórzyć ten sam błąd podczas innych konsultacji medycznych.

Sama brytyjska gazeta potwierdziła, że ​​poprzez nieznaczną zmianę sformułowania pytania na takie wyrażenia jak „zakresy referencyjne dla testów czynności wątroby” lub „zakres referencyjny LFT”, Ciągle pojawiały się automatyczne podsumowaniaPrzynajmniej w ciągu pierwszych kilku godzin po ujawnieniu sprawy. Dopiero po dalszych kontrolach potwierdzono, że Google usunął również te wyniki z rozszerzonymi wynikami.

Oficjalna odpowiedź Google i jej ograniczenia

W odpowiedzi na krytykę rzecznik Google stwierdził, że firma zazwyczaj... Skomentuj konkretne wypłaty w swojej wyszukiwarceZamiast podać szczegóły dotyczące tego, które konkretne zapytania zostały zmodyfikowane, przedstawiciel firmy po prostu stwierdził, że firma pracuje nad „szeroko zakrojonymi usprawnieniami” i stosuje swoje wewnętrzne zasady, gdy stwierdzi, że treści dotyczące sztucznej inteligencji nie odpowiadają niezbędnemu kontekstowi.

Rzecznik dodał, że wewnętrzny zespół specjalistów medycznych dokonał przeglądu wyszukiwań oznaczonych przez The Guardian i według jego wersji w wielu przypadkach Informacje te nie były całkowicie nieprawdziwe i zostały poparte rzetelnymi informacjami z witryn internetowych.Kontrowersje zatem skupiają się nie na tym, czy dane były fałszywe, a na tym, w jaki sposób zostały zaprezentowane użytkownikom niemającym odpowiedniego przeszkolenia zdrowotnego.

Wyjaśnienie to jest istotne w kontekście europejskiej debaty na temat regulacji sztucznej inteligencji w opiece zdrowotnej, ponieważ skupia się na odpowiedzialność duże platformy podczas kontekstualizacji treściSamo linkowanie do wiarygodnych źródeł nie wystarczy, jeśli automatyczne podsumowanie może prowadzić do błędnych interpretacji delikatnych tematów, takich jak testy diagnostyczne lub parametry kliniczne.

Na razie firma nie ogłosiła publicznie żadnych konkretnych zmian w usłudze AI Health Overviews w Hiszpanii ani w innych krajach europejskich. Decyzje dotyczące wyszukiwarki są jednak zazwyczaj podejmowane globalnie, więc Użytkownicy w Europie również odczują zmiany w funkcjonalnościach sztucznej inteligencji. w przypadku zapytań podobnych do tych wykrytych w Wielkiej Brytanii.

Obawy organizacji pacjentów i ekspertów w dziedzinie zdrowia

Oprócz konkretnego przypadku badań czynności wątroby, kilka organizacji wykorzystało okazję, aby ostrzec przed szerszym problemem: trudności, jakie wiele osób ma w dostępie do jasnych i wiarygodnych informacji medycznych w internecie. Sue Farrington, prezes Forum Informacji PacjentaStwierdził, że usunięcie tych podsumowań to „dobry pierwszy krok”, ale podkreślił, że nadal istnieje zbyt wiele przykładów nieprawdziwych treści dotyczących zdrowia generowanych przez sztuczną inteligencję.

Dlatego organizacje te zwracają się do Google i innych dużych firm technologicznych z prośbą o zobowiązanie się do priorytetyzuj linki do zastosowania sanitarne i referencyjnych organizacji zajmujących się zdrowiemtakich jak publiczne służby zdrowia, szpitale uniwersyteckie czy uznane stowarzyszenia pacjentów. Wymagają również, aby w wyszukiwaniach o wyraźnie wrażliwym charakterze (na przykład dotyczących raka, zdrowia psychicznego lub wyników badań) sztuczna inteligencja uwzględniała widoczne ostrzeżenia zachęcające użytkowników do konsultacji z lekarzem.

Farrington zauważył, że miliony dorosłych w Wielkiej Brytanii, Hiszpanii i innych krajach europejskich już teraz mają trudności ze zrozumieniem tradycyjnych informacji medycznych, nawet pochodzących z oficjalnych źródeł. Jeśli do tego dodamy… warstwa AI, która kondensuje złożoną treść bez niuansów, ryzyko nieporozumień wzrasta jeszcze bardziej.

Podobnie eksperci technologiczni, tacy jak Victor Tangermann, starszy redaktor specjalistycznego serwisu medialnego FuturyzmUważają, że sprawa ta wyraźnie to ilustruje Systemy sztucznej inteligencji generatywnej nie są jeszcze gotowe zastąpić profesjonalną opiekę medycznąTangermann podkreśla potrzebę ustalenia jasnych granic dotyczących tego, gdzie i w jaki sposób powinny być wykorzystywane tego typu podsumowania.

Konsekwencje dla Europy i wyszukiwań medycznych w języku hiszpańskim

Choć sprawa wyszła na jaw za pośrednictwem brytyjskiego medium, jej konsekwencje bezpośrednio dotykają Unię Europejską, w tym Hiszpanię. Europejskie przepisy dotyczące sztucznej inteligencji, promowane przez Ustawa o sztucznej inteligencjiZawiera już szczegółowe wymagania dla systemów wysokiego ryzyka, m.in. dla sektora opieki zdrowotnej, co może mieć wpływ na sposób, w jaki Google i inne platformy będą strukturyzować swoje produkty wyszukiwania.

W praktyce miliony ludzi w Europie korzystają z Google jako pierwszy punkt kontaktu w przypadku pytań dotyczących zdrowiajeszcze przed skontaktowaniem się z ośrodkiem zdrowia lub punktem rezerwacji wizyt. Oznacza to, że każda wada wyświetlanych informacji, nawet subtelna, może mieć potencjalny wpływ na to, jak użytkownicy interpretują objawy, badania lub metody leczenia.

W krajach, w których funkcjonuje publiczny system opieki zdrowotnej, takich jak Hiszpania, gdzie zachęca się do prowadzenia badań przesiewowych i wczesnej diagnostyki, niepokojące jest to, że pojedynczy wynik wyszukiwania może zniechęcić kogoś do szukania porady lekarskiej. umów się na wizytę do lekarza rodzinnego Mogłoby to być sprzeczne z polityką zdrowia publicznego. Dlatego wielu specjalistów chce, aby wyszukiwarka wyraźnie wskazywała, że ​​interpretacja wyników badań powinna zawsze być dokonywana przez lekarza.

W środowiskach dwujęzycznych lub wielojęzycznych, takich jak niektóre regiony Hiszpanii, występuje również dodatkowa trudność, automatyczne tłumaczenia i generowane podsumowania Należy zachować ostrzeżenia, niuanse kliniczne i szczegółowe zakresy referencyjne, które mogą się różnić w zależności od laboratorium lub kraju.

Cała ta debata ponownie otwiera fundamentalne pytanie: w jakim stopniu narzędzie takie jak wyszukiwarka Google, wzbogacone o sztuczną inteligencję generatywną, powinno być zaangażowane w interpretację złożonych problemów klinicznych? Przypadek wycofanych przeglądów sztucznej inteligencji w opiece zdrowotnej sugeruje, że o ile nie zostanie zapewniony odpowiedni kontekst i solidny nadzór medycznyWszelkie próby uproszczenia informacji o zdrowiu za pomocą sztucznej inteligencji niosą ze sobą ryzyko stworzenia fałszywego poczucia bezpieczeństwa, w wyniku którego najrozsądniejszym rozwiązaniem pozostaje konsultacja ze specjalistą.

Podobne artykuł:
Panasonic testuje usługę teleopieki z tabletami