Problem dotykajacy 300 milionow operacji rocznie
Za kazdym razem, gdy pacjent potrzebuje operacji, anestezjolog ocenia stan zdrowia i przyznaje wynik: klasyfikacja ASA-PS. Problem? Lekarze sie nie zgadzaja. Badania pokazuja, ze prawidlowa klasyfikacja jest przyznawana tylko w 70% przypadkow.
Odkrycie: AI rozumuje, nie zgaduje
W 2024 roku HT-X zaczelo badac, czy modele jezykowe nowej generacji ze strukturalnym rozumowaniem (chain-of-thought) moga osiagnac lepsze wyniki niz srednia lekarzy, z konsekwencja, jakiej zaden czlowiek nie jest w stanie zagwarantowac na przestrzeni tysiecy ocen.
Badanie: 11 modeli AI, 20 przypadkow klinicznych, 2 jezyki
Zespol przetestowal 11 roznych modeli AI na 20 standaryzowanych przypadkach klinicznych. Najwazniejsze wyniki:
- 97,5% dokladnosci dla zaawansowanych modeli
- 89% redukcji bledow w porownaniu z lekarzami i modelami wczesniejszej generacji
- DeepSeek R1: idealna dokladnosc (10/10) z pelna powtarzalnoscia
- Brak roznicy miedzy ocenami w jezyku angielskim i wloskim
Dlaczego on-premise, a nie ChatGPT
38% badan LLM w ochronie zdrowia nawet nie porusza kwestii prywatnosci danych pacjentow. HT-X uczynil to centralnym elementem: DeepSeek R1 dziala na chmurze UE, zadne dane pacjentow nie opuszczaja Europy, zgodnosc z RODO i regulacjami zdrowotnymi z projektu oraz identyczna wydajnosc jak modele chmurowe.
Od artykulu do produktu: jak powstalo KOI
Badanie naukowe bylo fundamentem, na ktorym HT-X zbudowal KOI, kliniczny system wspomagania decyzji do klasyfikacji anestezjologicznej. Droga: identyfikacja potrzeby klinicznej, rygorystyczne badania naukowe, wybor technologii (modele open-source on-premise), walidacja wielojezyczna, sciezka regulacyjna (certyfikacja MDR) i wdrozenie kliniczne.
Czesto zadawane pytania
Wczesne modele jak GPT-4 osiagaja okolo 77% dokladnosci — ten sam poziom co ludzcy lekarze. Ale prawdziwy problem to nie precyzja: ChatGPT wysyla kliniczne dane pacjentow na serwery OpenAI w USA, naruszajac RODO i europejskie regulacje dotyczace ochrony zdrowia. KOI od HT-X uzywa modeli AI on-premise (jak DeepSeek R1) osiagajac 97,5% dokladnosci bez opuszczania szpitala przez jakiekolwiek dane.
Klasyfikacja ASA-PS (American Society of Anesthesiologists Physical Status) to globalny standard przedoperacyjnej oceny ryzyka. Skaluje sie od ASA 1 (zdrowy pacjent) do ASA 5 (pacjent umierajacy). Jest kluczowa, bo determinuje srodki ostroznosci anestezjologicznej, ale lekarze zgadzaja sie co do prawidlowej klasy tylko w 70% przypadkow.
KOI przechodzi certyfikacje jako wyrob medyczny zgodnie z europejskim rozporzadzeniem MDR i norma IEC 62304. System jest zaprojektowany jako narzedzie wspomagania decyzji: ostateczna klasyfikacja pozostaje odpowiedzialnoscia anestezjologa.
Szukasz prywatnego ChatGPT dla swojej firmy?
ORCA to platforma AI on-premise od HT-X (Human Technology eXcellence): Twoje dane pozostaja Twoje, zgodna z RODO i AI Act.
Poznaj ORCA