Firma OpenAI wykonała kolejny krok w swojej strategii uczynienia ze sztucznej inteligencji narzędzia codziennego użytku, wprowadzając na rynek ChatGPT Zdrowienowe doświadczenie w Twoim asystencie cyfrowe zdrowie Obiecuje połączenie osobistych danych medycznych, informacji o samopoczuciu i zaawansowanych możliwości konwersacyjnych. Idea polega na tym, że każdy użytkownik może zadać pytania dotyczące badań lekarskich, objawów, nawyków lub ubezpieczenia zdrowotnego i otrzymać wyjaśnienia dostosowane do jego konkretnej sytuacji.
Firma szacuje, że co tydzień ponad 230 milionów ludzi zadaje pytania na temat zdrowia i dobrego samopoczucia. na platformie, która już reprezentuje około 5% wszystkich wiadomości wysłane do ChatGPT na całym świecie. Dzięki tej nowej sekcji OpenAI ma na celu skierowanie tej ogromnej liczby pytań do bardziej ustrukturyzowanego środowiska, z większymi gwarancjami prywatności i wyraźnym naciskiem na wsparcie pacjenta, a nie diagnozę.
Czym właściwie jest ChatGPT Health i jaki jest jego cel?
ChatGPT Health prezentuje się jako konkretna sekcja w aplikacji ChatGPTAsystent, zaprojektowany tak, aby wykraczał poza jednorazowe zapytania, które użytkownicy już zadawali, ma działać jako swego rodzaju „panel sterowania” zdrowiem, centralizując Elektroniczna dokumentacja medyczna, dane z aplikacji Zdrowie na iPhone'a i metryki z aplikacje wellness i ćwiczenia.
Platforma umożliwia użytkownikowi, jeśli tak wybierze, Połącz swoją historię medyczną z aplikacjami takimi jak Apple Health, MyFitnessPal, Function, Peloton, a nawet usługami receptyNa tej podstawie asystent może udzielać odpowiedzi, uwzględniając wyniki analizy, poziom aktywności fizycznej, liczbę godzin snu, wagę, tętno lub inne parametry zbierane przez telefon komórkowy lub smartwatch.
W praktyce oznacza to, że użytkownik może poprosić system o: Interpretować wyniki badań lekarskich, podsumowywać badania krwi Przed randką zaproponuj Pytania do lekarza, pomóc w ustaleniu diety wraz z dostosowanymi ćwiczeniami lub wyjaśnić różnice między różnymi planami ubezpieczenia zdrowotnego na podstawie sposobu korzystania z systemu opieki zdrowotnej.
Oprócz standardowych funkcji konwersacyjnych ChatGPT Health obsługuje przesyłanie zdjęć i plików, wyszukiwanie zaawansowane, tryb głosowy i dyktowanieMożesz również ustawić niestandardowe instrukcje, tak aby asystent unikał określonych drażliwych tematów, nadawał priorytet określonym typom rekomendacji lub organizował informacje w określony sposób, co zapewnia pewną elastyczność w zakresie tonu i poziomu szczegółowości odpowiedzi.
Zwiększona prywatność i osobna przestrzeń do przechowywania danych medycznych
Jednym z punktów, który budzi największe podejrzenia jest zarządzanie danymi zdrowotnymi, uważana za szczególnie wrażliwą kategorię w prawie wszystkich aktach prawnych. OpenAI twierdzi, że stworzyło Sekcja Izolowana opieka zdrowotna w ChatGPTtak aby rozmowy i pliki medyczne były przechowywane oddzielnie od pozostałych czatów i miały niezależną pamięć.
Według firmy interakcje w tym trybie są Liczą się zarówno w tranzycie, jak i w spoczynku Dodano dodatkowe warstwy izolacji technicznej, aby zapobiec nieautoryzowanemu dostępowi lub mieszaniu kontekstu z innymi zastosowaniami asystenta. Użytkownicy mogą w dowolnym momencie przeglądać i usuwać swoją dokumentację medyczną, rozłączać powiązane aplikacje lub cofać uprawnienia za pomocą ustawień.
OpenAI wyraźnie stwierdza, że Rozmowy prowadzone w ramach ChatGPT Salud nie będą wykorzystywane do szkolenia podstawowych modeli lingwistycznych firmy.Teoretycznie aplikacje połączone nie mogą uzyskać dostępu do większej ilości danych niż jest to absolutnie konieczne i podlegają dodatkowym wymogom dotyczącym prywatności i bezpieczeństwa. Mimo to firma przyznaje, że może zostać zmuszona do udostępnienia informacji władzom w przypadku nakazów sądowych lub w sytuacjach awaryjnych.
W Stanach Zjednoczonych powstały sojusze takie jak ten b.dobrzeSieć łącząca miliony dostawców usług opieki zdrowotnej ułatwia dostęp do elektronicznej dokumentacji medycznej osobom dorosłym powyżej 18. roku życia. Połączenie to ma na celu zapewnienie, że system będzie posiadał oficjalne dane medyczne, a nie tylko informacje wprowadzane ręcznie przez użytkownika, choć dodatkowo ogranicza poufny charakter przetwarzanych danych.
Rozwój poparty przez pracowników służby zdrowia
Aby rozwiać obawy dotyczące jakości odpowiedzi, OpenAI podkreśla, że ChatGPT Health Nie został on zbudowany wyłącznie z myślą o technologii.Firma twierdzi, że współpracuje z nami już od ponad dwóch lat ponad 260 lekarzy z 60 krajów i dziesiątki specjalności, które zostały zrecenzowane 600.000 interakcji systemu.
Praca ta daje początek Ławka zdrowiaRamowa metoda oceny klinicznej, która koncentruje się nie tylko na tym, czy sztuczna inteligencja „koryguje” test teoretyczny, ale także na tym, w jaki sposób komunikuje: jaki jest sugerowany poziom pilności, kiedy zaleca się osobistą konsultację z pracownikiem służby zdrowia, jak unikać niepotrzebnych alarmów lub mylących komunikatów oraz jak priorytetowo traktować bezpieczeństwo użytkownika w obliczu potencjalnie poważnych objawów.
Narzędzie jest przeznaczone do wspierać zarówno pacjentów, jak i profesjonalistówDla użytkowników może pomóc w rozszyfrowaniu terminów medycznych, które były niejasne podczas konsultacji, uporządkowaniu informacji z różnych raportów lub identyfikacji wzorców zdrowotnych w czasie. Dla pracowników służby zdrowia jest on wsparciem w zadaniach administracyjnych i dokumentacyjnych, które przyczyniają się do… wypalić sięuwalniając czas, który mógłby być przeznaczony na bezpośrednią opiekę.
W warunkach klinicznych przykłady integracji z platformami takimi jak Otwarte dowodyktóra umożliwia lekarzom z obszarów o mniejszych zasobach dostęp do odpowiedzi opartych na najnowszej literaturze naukowej; istnieją również inicjatywy takie jak Strażnik Umysłu w celu wczesnego wykrywania choroby Alzheimera lub projektów akademickich, takich jak Sztuczna inteligencja umysłu klinicznego na Uniwersytecie Stanforda, gdzie wykorzystuje się sztuczną inteligencję do tworzenia symulacji pacjentów i trenowania rozumowania klinicznego w kontekście telemedycyny.
Masowe wykorzystanie, które już powoduje zmiany w zachowaniu
Wewnętrzne dane udostępnione przez OpenAI wskazują, że zdrowie jest jednym z najczęściej powtarzające się tematy w rozmowach z chatbotemSzacuje się, że dziennie około [liczba] osób [liczba osób] 40 milionów ludzi korzysta z ChatGPT w celu uzyskania porady na temat problemów medycznych lub związanych z samopoczuciemi że pomiędzy Od 1,6 do 1,9 miliona wiadomości tygodniowo poświęconych jest wyłącznie porównywaniu ofert ubezpieczeniowych, rozszyfruj ceny lub zarządzaj odmowami pokrycia kosztów.
Ponad połowa dorosłych, którzy już korzystają z narzędzi AI, używa ich jako pierwszy filtr do sprawdzenia objawów przed pójściem do lekarzaPrawie połowa pacjentów korzysta z nich, aby ponownie przeczytać instrukcje kliniczne, które nie były do końca jasne podczas konsultacji. Ta zmiana nawyków niesie ze sobą zarówno korzyści – bardziej świadomych i przygotowanych pacjentów – jak i wyzwania w relacjach z pracownikami służby zdrowia.
Lekarze, z którymi konsultowano się w hiszpańskich mediach, wskazują, że Pacjenci zaczynają przychodzić do kliniki z wydrukowanymi odpowiedziami ChatGPT. lub na telefonach komórkowych, a następnie omawiają diagnozy lub metody leczenia na podstawie tego, co powiedziało urządzenie. Na razie są to odosobnione przypadki, ale eksperci przewidują, że wraz z upowszechnianiem się narzędzi takich jak ChatGPT Salud, Napięcia między profesjonalną oceną a algorytmiczną „drugą opinią” mogą się nasilić.
Udokumentowano również, że wykorzystanie sztucznej inteligencji w profesjonalnych placówkach opieki zdrowotnej gwałtownie rośnie. W Stanach Zjednoczonych różne badania wskazują na jej wykorzystanie na poziomie około 66% to odsetek lekarzy, którzy już korzystają z algorytmów sztucznej inteligencji w pewnej części swojej praktyki, a większość uważa, że narzędzia te poprawiają zarówno zdolność diagnostyczną, jak i wydajność zadań biurokratycznych, takich jak kodowanie lub fakturowanie.
Ryzyko, błędy i problematyczne przykłady
Chociaż OpenAI twierdzi, że ChatGPT Health nie jest przeznaczony do diagnozowania ani przepisywania metod leczeniaJednak ryzyko związane z jego użytkowaniem nie jest bez znaczenia. Z jednej strony firma ostrzega, że wdrożono zabezpieczenia, które w przypadku wykrycia niebezpiecznych sytuacji, zwłaszcza w obszarze..., kierują użytkowników do służb ratunkowych na miejscu zdarzenia. salud psychicznegoZ drugiej strony przyznaje, że narzędzie to może być błędne i że odpowiedzi, które ono daje, nie zastępują opinii klinicznej.
Doświadczenia ostatnich lat pokazują, że błędy nie są teoretyczne, ale rzeczywisteW czasopismach medycznych opisywano przypadki takie jak przypadek pacjenta, który doznał zatrucia bromkiem po zastosowaniu się do zaleceń dietetycznych chatbota, czy przypadek osoby z bólem gardła, której objawy zostały zbagatelizowane przez sztuczną inteligencję, co opóźniło diagnozę raka o kilka miesięcy. To pojedyncze przypadki, ale ilustrują one skalę problemu, jaki może stanowić sztuczna inteligencja. Nadmierne poleganie na systemach probabilistycznych może mieć poważne konsekwencje.
Eksperci ds. sztucznej inteligencji, z którymi konsultowano się w Hiszpanii, wskazują, że w zasadzie ChatGPT nie „zna” medycyny w ludzkim rozumieniu tego terminu, ale raczej generuje wiarygodne teksty na podstawie wzorców statystycznych z dużych ilości danych. Z tej perspektywy jego zachowanie przypominałoby raczej „googlowanie objawów i pisanie podsumowania” niż właściwą ocenę medyczną.
Innym obszarem budzącym obawy jest sposób działania wielu narzędzi AI Ograniczają swoją odpowiedzialność za pomocą zawiadomień prawnychCzęsto ostrzeżenia, że informacje mogą być błędne, niepełne lub nieaktualne, pojawiają się małym drukiem lub w sekcjach, które użytkownik rzadko sprawdza, co przyczynia się do powstania wrażenia większej niezawodności urządzenia, niż powinno być w rzeczywistości.
Ramy prawne w Europie: RODO, ustawa o sztucznej inteligencji i sceptycyzm wobec opieki zdrowotnej
Chociaż ChatGPT Health jest już testowany z mała grupa użytkowników w Stanach Zjednoczonych i innych krajach spoza Europejskiego Obszaru GospodarczegoJej wejście do Unii Europejskiej wydaje się znacznie bardziej skomplikowane. Połączenie Dane kliniczne, dokumentacja elektroniczna i informacje o nawykach Usługa ta jest objęta najsurowszymi zasadami Rozporządzenia ogólnego o ochronie danych (RODO).
Hiszpańscy specjaliści w dziedzinie zarządzania opieką zdrowotną, tacy jak dyrektor medyczny Szpitala Klinicznego San Carlos, podkreślają, że Przy obecnych przepisach bardzo trudno jest, aby taki środek transportu, który koncentruje się na ochronie zdrowia, mógł swobodnie funkcjonować w UEPrzepisy europejskie są szczególnie restrykcyjne w odniesieniu do międzynarodowego transferu danych dotyczących zdrowia i wymagają gwarancji proporcjonalności, minimalizacji i kontroli przetwarzania, co mogłoby kolidować z modelem biznesowym i architekturą techniczną firmy takiej jak OpenAI.
Ramy te zostały dodatkowo wzmocnione dzięki niedawno zatwierdzonemu Europejska ustawa o sztucznej inteligencjiktóra klasyfikuje wiele zastosowań sztucznej inteligencji w opiece zdrowotnej jako wysokiego ryzyka. Oznacza to obowiązek poddania systemów oceny skutków, audyty, kompleksowa dokumentacja i wzmocnione kontrole ludzkie przed wdrożeniem. Niektórzy profesorowie sztucznej inteligencji na hiszpańskich uniwersytetach uważają, że w obecnej formie ChatGPT Salud, Jego powszechne stosowanie w Europie można uznać za całkowicie nielegalne właśnie teraz
Oprócz wymogów formalnych, kilku ekspertów ds. prywatności i etyki cyfrowej wskazuje, że udostępnianie danych medycznych chatbotowi w celach komercyjnych może być decyzja, którą trudno odwrócićGłównym strachem jest nie tylko potencjalne naruszenie bezpieczeństwa – w 2023 r. OpenAI doświadczył już incydentu, który ujawnił pewne informacje o użytkownikach – ale także wtórne wykorzystanie tych danych do targetowanie reklamowe lub spersonalizowane produkty finansowe, co kierownictwo firmy zasugerowało jako możliwą ścieżkę rozwoju biznesu w przyszłości.
Integracja z aplikacją iPhone Health i rolą Apple
Jednym z ruchów, który wygenerował najwięcej nagłówków jest Bezpośrednie połączenie między ChatGPT Health a aplikacją iPhone HealthFirma OpenAI potwierdziła, że użytkownicy, którzy chcą to zrobić, będą mogli połączyć dane zebrane przez ich telefon komórkowy, a także, w stosownych przypadkach, przez Apple Watch i inne urządzenia. wearables: dzienna liczba kroków, wzorce snu, tętno, wskaźniki aktywności, dzienniki wagi i inne wskaźniki dobrego samopoczucia.
Dzięki tej integracji asystent jest w stanie wykrywać trendy w danych i oferować wyjaśnienia lub ogólne zaleceniaOdpowiedź chatbota oparta na subiektywnym opisie objawów to nie to samo, co odpowiedź oparta na danych historycznych, takich jak tętno, liczba godzin odpoczynku czy saturacja tlenem. Teoretycznie, bardziej ilościowy kontekst powinien zmniejszyć liczbę ewidentnie niedokładnych odpowiedzi.
Synchronizacja z aplikacją Apple'a następuje w delikatnym momencie, tuż przed tym, jak firma z Cupertino zaprezentuje swoją własną aplikację Opieka zdrowotna oparta na sztucznej inteligencjiOczekuje się bardzo konserwatywnego podejścia, silnie potwierdzonego badaniami klinicznymi. Apple zazwyczaj poddaje swoje funkcje medyczne rygorystycznym testom. długie procesy walidacji, testowanie z udziałem specjalistów i ograniczenia użytkowania przed udostępnieniem ich szerszej publiczności.
Jednak Ta integracja z danymi iPhone'a nie jest dostępna w Unii Europejskiej ani w Wielkiej BrytaniiNa terenach, na których działa system, dostęp do niego jest wdrażany stopniowo i za pośrednictwem listy oczekujących, jednocześnie udoskonalane są zabezpieczenia prywatności oraz komunikaty ostrzegawcze towarzyszące reakcjom związanym ze zdrowiem.
Potencjalny sojusznik w obliczu załamania i „pustyni zdrowotnej”
Oprócz kwestii prawnych i etycznych, OpenAI podkreśla potencjał ChatGPT Health w zakresie złagodzić niektóre niedociągnięcia strukturalne w systemach opieki zdrowotnejzwłaszcza w krajach o dużych obszarach wiejskich lub ograniczonym dostępie do specjalistów. W Stanach Zjednoczonych firma szacuje, że w tzw. „gościnne pustynie” —obszary, w których najbliższy szpital jest oddalony o ponad pół godziny drogi — już powstają w pobliżu 600 000 cotygodniowych wiadomości o zdrowiu.
Warto zauważyć, że około 70% tych rozmów odbywa się poza godzinami pracygdy centra są zamknięte, a wsparcie telefoniczne ograniczone. W takich kontekstach chatbot staje się swego rodzaju pierwszy punkt kontaktowy dostępny 24 godziny na dobęw szczególności w celu wyjaśnienia drobnych wątpliwości, przetłumaczenia protokołów lub pomocy w podjęciu decyzji, czy konkretny dyskomfort uzasadnia udanie się na pogotowie, czy też można poczekać na standardową wizytę.
Stany takie jak Wyoming, Oregon, Montana lub Dakota PołudniowaObszary o niskiej gęstości zaludnienia i dużych odległościach między ośrodkami miejskimi należą do obszarów, gdzie ChatGPT jest najczęściej wykorzystywany na obszarach objętych ograniczeniami medycznymi. Chociaż sytuacji tej nie można bezpośrednio przenieść na Europę, wiele systemów opieki zdrowotnej na kontynencie boryka się z podobnymi problemami na obszarach wiejskich lub starzejących się, co sprawia, że idea stałej dostępności asystenta medycznego wydaje się atrakcyjna dla niektórych administratorów.
Dla profesjonalistów wykorzystanie sztucznej inteligencji jest również postrzegane jako narzędzie przeciwko chroniczne wyczerpanieAutomatyzacja zadań związanych z dokumentacją, przygotowywanie podsumowań klinicznych lub sporządzanie listów informacyjnych może zmniejszyć obciążenie biurokratyczne. Jednak kilka organizacji zawodowych wskazuje, że Nadmierne delegowanie zadań do nieprzejrzystych systemów może wiązać się z nowymi ryzykamiod błędów diagnostycznych po błędy w przekazywaniu istotnych informacji.
Model biznesowy, reklama kierowana i przyszłość regulacyjna
Zaangażowanie OpenAI w sektor opieki zdrowotnej ma również wyraźny komponent strategiczny. Zdrowie to pole powtarzających się zapytań i z silnym komponentem emocjonalnym, gdzie zależność i retencja użytkownika mogą być bardzo wysokie. Integracja dokumentacji medycznej, codziennych czynności i podłączonych urządzeń sprawia, że chatbot bardziej przypomina osobisty harmonogram medyczny niż ogólna wyszukiwarka odpowiedzi.
W tym kontekście wypowiedzi dyrektora generalnego OpenAI Sama Altmana wywołały debatę, otwierając drzwi do potencjalne komercyjne zastosowania danych w przyszłości, w tym ukierunkowane produkty reklamowe. Chociaż firma zapewnia, że ChatGPT Health zawiera dodatkowe zabezpieczenia i że dane medyczne nie są obecnie wykorzystywane do szkolenia głównych modeli, organizacje zajmujące się prawami cyfrowymi ostrzegają, że Polityka prywatności może z czasem ulec zmianie.
Tymczasem eksperci ds. polityki zdrowotnej wskazują, że wzrost liczby tego typu narzędzi zmusi zaktualizować ramy regulacyjneW Stanach Zjednoczonych mówi się o konieczności opracowania przez FDA specjalnego programu Urządzenia medyczne oparte na sztucznej inteligencji, które nie pasują do tradycyjnych kategoriiW perspektywie średnioterminowej rozważane są trzy główne filary: integracja danych globalnych (w tym genomika i obrazowanie) w ramach silnych gwarancji prywatności, skala laboratoria robotyczne które mogą przełożyć odkrycia z zakresu sztucznej inteligencji na terapie i na nowo zdefiniować kryteria oceny i zatwierdzania.
W Europie debata krzyżuje się z przepisami takimi jak RODO i ustawa o sztucznej inteligencji, a także z różnymi wrażliwościami dotyczącymi komercjalizacji danych medycznych. Wielu naukowców zastanawia się, czy UE będzie skłonna… poświęcając część swojego poziomu ochrony danych, aby mieć narzędzia tak zaawansowane, jak te, które mogą być opracowywane na innych rynkach.
Pojawienie się ChatGPT Health potwierdza, że połączenie danych klinicznych, podłączonych urządzeń i sztuczna inteligencja Zdobędzie on znaczącą popularność w naszym rozumieniu opieki zdrowotnej, od codziennych konsultacji po zarządzanie ubezpieczeniami i badania. Ruch ten otwiera ekscytujące możliwości lepszego informowania pacjentów i dodatkowego wsparcia dla specjalistów, ale rodzi również poważne pytania dotyczące prywatności, odpowiedzialności, stronniczości i zależności technologicznej, które, przynajmniej w Europie, będą wymagały czegoś więcej niż tylko dobrych intencji i obietnic szyfrowania.