Wydanie 01 — Wiosna 2026
Europejski magazyn o prywatnej AI
Badania

Od problemu klinicznego do artykulu naukowego: jak powstalo KOI, AI pomagajaca lekarzom klasyfikowac ryzyko znieczulenia

Jak HT-X opracowalo KOI z Centro Ortopedico di Quadrante (Ramsay Sante): system AI on-premise redukujacy bledy klasyfikacji ASA-PS o 89%. Historia produktu zrodzonego z badan.

KOIsluzba zdrowiaanestezjologiaLLMwyrob medycznypeer review

Problem dotykajacy 300 milionow operacji rocznie

Za kazdym razem, gdy pacjent potrzebuje operacji, anestezjolog ocenia stan zdrowia i przyznaje wynik: klasyfikacja ASA-PS. Problem? Lekarze sie nie zgadzaja. Badania pokazuja, ze prawidlowa klasyfikacja jest przyznawana tylko w 70% przypadkow.

Odkrycie: AI rozumuje, nie zgaduje

W 2024 roku HT-X zaczelo badac, czy modele jezykowe nowej generacji ze strukturalnym rozumowaniem (chain-of-thought) moga osiagnac lepsze wyniki niz srednia lekarzy, z konsekwencja, jakiej zaden czlowiek nie jest w stanie zagwarantowac na przestrzeni tysiecy ocen.

Badanie: 11 modeli AI, 20 przypadkow klinicznych, 2 jezyki

Zespol przetestowal 11 roznych modeli AI na 20 standaryzowanych przypadkach klinicznych. Najwazniejsze wyniki:

  • 97,5% dokladnosci dla zaawansowanych modeli
  • 89% redukcji bledow w porownaniu z lekarzami i modelami wczesniejszej generacji
  • DeepSeek R1: idealna dokladnosc (10/10) z pelna powtarzalnoscia
  • Brak roznicy miedzy ocenami w jezyku angielskim i wloskim

Dlaczego on-premise, a nie ChatGPT

38% badan LLM w ochronie zdrowia nawet nie porusza kwestii prywatnosci danych pacjentow. HT-X uczynil to centralnym elementem: DeepSeek R1 dziala na chmurze UE, zadne dane pacjentow nie opuszczaja Europy, zgodnosc z RODO i regulacjami zdrowotnymi z projektu oraz identyczna wydajnosc jak modele chmurowe.

Od artykulu do produktu: jak powstalo KOI

Badanie naukowe bylo fundamentem, na ktorym HT-X zbudowal KOI, kliniczny system wspomagania decyzji do klasyfikacji anestezjologicznej. Droga: identyfikacja potrzeby klinicznej, rygorystyczne badania naukowe, wybor technologii (modele open-source on-premise), walidacja wielojezyczna, sciezka regulacyjna (certyfikacja MDR) i wdrozenie kliniczne.

Czesto zadawane pytania

Wczesne modele jak GPT-4 osiagaja okolo 77% dokladnosci — ten sam poziom co ludzcy lekarze. Ale prawdziwy problem to nie precyzja: ChatGPT wysyla kliniczne dane pacjentow na serwery OpenAI w USA, naruszajac RODO i europejskie regulacje dotyczace ochrony zdrowia. KOI od HT-X uzywa modeli AI on-premise (jak DeepSeek R1) osiagajac 97,5% dokladnosci bez opuszczania szpitala przez jakiekolwiek dane.

Klasyfikacja ASA-PS (American Society of Anesthesiologists Physical Status) to globalny standard przedoperacyjnej oceny ryzyka. Skaluje sie od ASA 1 (zdrowy pacjent) do ASA 5 (pacjent umierajacy). Jest kluczowa, bo determinuje srodki ostroznosci anestezjologicznej, ale lekarze zgadzaja sie co do prawidlowej klasy tylko w 70% przypadkow.

KOI przechodzi certyfikacje jako wyrob medyczny zgodnie z europejskim rozporzadzeniem MDR i norma IEC 62304. System jest zaprojektowany jako narzedzie wspomagania decyzji: ostateczna klasyfikacja pozostaje odpowiedzialnoscia anestezjologa.

Szukasz prywatnego ChatGPT dla swojej firmy?

ORCA to platforma AI on-premise od HT-X (Human Technology eXcellence): Twoje dane pozostaja Twoje, zgodna z RODO i AI Act.

Poznaj ORCA