Kwestionariusz dotyczący sztucznej inteligencji w wyrobach medycznych opublikowany przez TEAM-NB
Kwestionariusz dotyczący sztucznej inteligencji w wyrobach medycznych, opracowany przez Team-NB i IG-NB, stanowi kluczowy przewodnik mający na celu dostosowanie wyrobów medycznych opartych na AI do wymagań MDR oraz IVDR. Dokument ten oferuje rekomendacje procesowe dla producentów, koncentrując się na bezpieczeństwie, wydajności oraz zgodności regulacyjnej na każdym etapie cyklu życia wyrobów medycznych opartych na AI.
Kwestionariusz koncentruje się na wymaganiach procesowych zamiast na specyficznych cechach produktów. Jego celem jest:
Ujęcie wszystkich etapów cyklu życia AI, od opracowania i walidacji po nadzór po wprowadzeniu do obrotu.
Podkreślenie znaczenia dostosowania oceny zgodności do przewidzianego zastosowania wyrobu
MDR kładzie nacisk na zgodność z Ogólnymi Wymaganiami Bezpieczeństwa i Działaia (GSPR) określonymi w Załączniku I. Kwestionariusz uwzględnia zarządzanie cyklem życia, zapewniając zgodność w procesach iteracyjnych, takich jak aktualizacje lub ponowne szkolenie modeli AI. MDR (Załącznik II) wymaga obszernej dokumentacji technicznej, co kwestionariusz odzwierciedla, kładąc nacisk na klarowność proceduralną i rygor dokumentacyjny.
Zbieranie, przetwarzanie, przechowywanie i szkolenie zbiorów danych dla SaMD
Kwestionariusz określa solidne wymagania dotyczące zbierania, przetwarzania i przechowywania zbiorów danych do szkolenia, walidacji i testów, w tym:
Procedury anonimizacji i pseudonimizacji danych wrażliwych
- Uzasadnienie reprezentatywności zbiorów danych, uwzględniające potencjalne błędy i nierówności.
- Dokumentację kryteriów technicznych włączania/wykluczania.
MDR Załącznik I (Rozdziały 1 i 3) wyraźnie wymaga odpowiedzialnego zarządzania danymi pacjentów, szczególnie w kontekście prywatności i dokładności w wydajności wyrobu. Kwestionariusz ściśle się z tym zgadza, integrując zasady RODO (Rozporządzenie UE 2016/679) dla ochrony danych osobowych.
Walidacja systemów AI w SaMD:
Walidacja systemów AI powinna obejmować:
- Walidację modeli przed wprowadzeniem na rynek, zapewniając zgodność z przewidzianym zastosowaniem.
- Zajęcie się ryzykiem związanym z adaptacyjnymi, samouczącymi się modelami poprzez ograniczenie możliwości certyfikacji, chyba że wdrożone zostaną odpowiednie zabezpieczenia.
MDR Załącznik XIV podkreśla konieczność przeprowadzania oceny klinicznej, aby potwierdzić, że wyrób osiąga zamierzony cel i korzyści przewyższają ryzyko. Kwestionariusz uzupełnia te wymagania, uwzględniając wyzwania związane z AI, takie jak dryf modelu i potrzeba iteracyjnej ponownej walidacji.
Ocena ryzyka w wyrobach medycznych z AI
Kwestionariusz nakazuje kompleksowe oceny ryzyka, w tym:
- Ryzyka wynikające z niezrównoważonych zbiorów danych, różnic demograficznych lub algorytmów uprzedzonych.
- Zagrożenia dla cyberbezpieczeństwa, w tym ataki specyficzne dla algorytmów AI.
Zarządzanie ryzykiem zgodnie z MDR (Załącznik I, Sekcja 3) wymaga, aby producenci minimalizowali ryzyko w możliwie największym stopniu. Kwestionariusz rozwija to, koncentrując się na unikalnych zagrożeniach związanych z AI, wymagając planów łagodzenia zgodnych z ISO 14971:2019.
Ewaluacja kliniczna w wyrobach medycznych z AI
Kwestionariusz obejmuje uzasadnienie zastosowania AI zamiast metod konwencjonalnych, z udokumentowanymi korzyściami klinicznymi i ocenami wydajności w różnych grupach demograficznych.
MDR Załącznik XIV wymaga solidnych badań klinicznych, szczególnie dla nowych technologii. Kwestionariusz wzmacnia te wymagania, promując dowody na możliwość transferu modeli AI między populacjami, co zapewnia sprawiedliwą wydajność kliniczną.
Zarządzanie zmianami i iteracyjne aktualizacje
Systemy AI często ewoluują po wdrożeniu. Kwestionariusz podkreśla:
- Wymogi dotyczące zarządzania istotnymi zmianami, takimi jak ponowne szkolenie algorytmów czy aktualizacja zbiorów danych.
- Zapewnienie, że takie zmiany nie naruszają wcześniej potwierdzonej wydajności.
- Zgodnie z MDR Artykułem 120(3), każda istotna zmiana wymaga nowej oceny zgodności.
Bezpieczeństwo i cyberbezpieczeństwo w SaMD z AI
Kwestionariusz zawiera kroki do ograniczenia ryzyk specyficznych dla AI, w tym identyfikację zagrożeń takich jak ataki typu „poisoning” czy „evasion”.
Nadzór po wprowadzeniu do obrotu (PMS)
Producenci muszą opracować kompleksowe plany PMS oraz monitorować dane z rzeczywistego świata w celu zapewnienia ciągłej zgodności z oczekiwaniami dotyczącymi wydajności i bezpieczeństwa.