Czy można ufać sztucznej inteligencji w produkcji?

Zarządzana, przejrzysta sztuczna inteligencja

Odpowiedzialne korzystanie ze sztucznej inteligencji w wersji 5 – ISO 42001, wiarygodność sztucznej inteligencji, zarządzanie ryzykiem i rzeczywistość GMP

Sztuczna inteligencja przybywa do MES, SZJ oraz WMS platformy na długo przed tym, zanim organy regulacyjne zakończą definiowanie swoich oczekiwań. Producenci z branży nauk przyrodniczych, żywności, kosmetyków i chemikaliów znajdują się w impasie między presją „dodania sztucznej inteligencji” a rzeczywistością, GMP, integralność i walidacja danych nie zniknęły. Kluczowe pytanie nie brzmi: „Czy masz sztuczną inteligencję?”, lecz: „Czy możesz udowodnić, że sztuczna inteligencja nie podważa twojej kontroli nad procesem?”.

SG Systems Global przyjął świadomie konserwatywne stanowisko w sprawie Śledzenie V5. V5 nie jest platformą AI typu „czarna skrzynka”. To system egzekucji z twardą bramką które mogą włączać inteligencję w sposób, który pozostaje przejrzysty, możliwy do przeglądu i audytu. Tam, gdzie wykorzystywana jest sztuczna inteligencja, zobowiązany za pomocą przepływów pracy zatwierdzania, podpisów i śladów audytu zgodnie z 21 CFR część 11, integralność danych oczekiwania i nowoczesne wytyczne dotyczące zarządzania sztuczną inteligencją.

„Nasza filozofia jest prosta: sztuczna inteligencja może sugerować, ale nie może po cichu decydować. W wersji V5 każda czynność wspomagana przez sztuczną inteligencję jest możliwa do śledzenia, weryfikacji i podlega tym samym kontrolom, co każdy inny krok krytyczny dla GMP”.

— Kierownik ds. Jakości, Producent Regulowany

Krajobraz standardów dla sztucznej inteligencji w regulowanej produkcji

Obecnie oczekiwania dotyczące odpowiedzialnego korzystania ze sztucznej inteligencji kształtuje szereg standardów i dokumentów doradczych. Trzy z najważniejszych to:

W regulowanej produkcji te nowe standardy sztucznej inteligencji opierają się na znanych podstawach:

Dla klientów praktyczne pytanie brzmi: czy zachowanie sztucznej inteligencji platformy jest zgodne z tymi zasadami i czy tę zgodność można wykazać podczas inspekcji, a nie tylko obiecać w prezentacji?

Co tak naprawdę oznacza „AI w wersji 5”

W wersji V5 „sztuczna inteligencja” nie oznacza wpychania niekontrolowanych, dużych modeli językowych bezpośrednio do rekordów wsadowych, etykietowania czy decyzji o wydaniu. Zamiast tego V5 koncentruje się na:

  • Reguły deterministyczne oraz bramkowanie twarde kroków wykonawczych.
  • Akcje wspomagane gdzie sztuczna inteligencja sugeruje treści (np. wersje robocze szkoleń, podsumowania dokumentów), ale nie może ominąć przepływów pracy związanych z zatwierdzaniem.
  • Ścisła separacja między warstwami sugestii i krytycznymi dla GMP rekordami, takimi jak eBMR, DHR oraz MMR.
  • Minimalne zewnętrzne interfejsy API, z importowanymi danymi kierowanymi przez workflow zatwierdzania i sprawdza przed użyciem.
  • Dzienniki gotowe do audytu dla każdego wydarzenia wspomaganego przez sztuczną inteligencję, powiązanego z użytkownikami, zasobami i partiami.

Gdy V5 integruje się z zewnętrzną sztuczną inteligencją (na przykład w celu wsparcia treści szkoleniowych), integracja ta przebiega w kontrolowanym środowisku testowym. Wyniki są traktowane jako warcaby które muszą zostać sprawdzone i zatwierdzone zanim staną się częścią kontrolowanego systemu jakości.

ISO/IEC 42001 – System zarządzania sztuczną inteligencją i model zarządzania V5

ISO / IEC 42001 definiuje sposób, w jaki organizacja strukturyzuje swoje System zarządzania sztuczną inteligencją (AIMS): polityki, role, ocena ryzyka, kontrole, dokumentacja i doskonalenie. Jest to odpowiednik normy ISO 9001 lub ISO 27001 w dziedzinie sztucznej inteligencji, ale skupia się na zarządzaniu działaniami związanymi ze sztuczną inteligencją.

V5 został zaprojektowany tak, aby wygodnie mieścić się w takim systemie AIMS. Ogólnie rzecz biorąc:

  • Zakres – klienci mogą wyraźnie określić, które funkcje V5 wykorzystują sztuczną inteligencję (jeśli w ogóle) i ograniczyć pozostałe wyłącznie do deterministycznych reguł.
  • Role i obowiązki – Funkcje wspomagane przez sztuczną inteligencję mogą być ograniczone do zdefiniowanych ról i muszą być zgodne z udokumentowanymi SOP.
  • Ocena ryzyka – każdy przypadek użycia sztucznej inteligencji można ocenić przy użyciu tych samych narzędzi zarządzania ryzykiem jakości, które są już używane w przypadku zmian procesów lub sprzętu.
  • Środki kontrolne – bramki twarde, zatwierdzenia i ślady audytu w wersji V5 stają się konkretną warstwą „kontroli” dla sugestii sztucznej inteligencji lub importowanej treści.
  • Monitorowanie i doskonalenie – Wersja 5 udostępnia dzienniki zdarzeń i metryki, które można wykorzystać w cyklu przeglądu AIMS w organizacji.

W rezultacie sztuczna inteligencja nigdy nie stoi „ponad” systemem jakości. Staje się kolejnym elementem składowym dobrze zdefiniowanego środowiska cyfrowego, w którym każda czynność jest rejestrowana, a każda kluczowa decyzja pozostaje pod kontrolą człowieka.

ISO/IEC TR 24028 – Wiarygodność sztucznej inteligencji w ramach przepływów pracy GMP

ISO/IEC TR 24028 koncentruje się na tworzeniu sztucznej inteligencji godny zaufania: solidne, bezpieczne, przejrzyste i zrozumiałe dla ludzi. W środowisku GMP lub GFSI oznacza to:

  • Brak niewidocznych zmian do instrukcji wsadowych, etykiet lub planów kontroli sterowanych bezpośrednio przez sztuczną inteligencję.
  • Wyjaśnialne sugestie – na przykład pokazując, dlaczego zaproponowano aktualizację klasyfikacji odchylenia lub szkolenia.
  • Ograniczona autonomia – Sztuczna inteligencja nie jest w stanie podejmować decyzji regulacyjnych; może jedynie wspierać człowieka, który podpisze decyzję.
  • Kontrola bezpieczeństwa i prywatności – dane przesyłane do zewnętrznych usług AI są ograniczone, w miarę możliwości anonimizowane i regulowane umowami z dostawcami.

W wersji V5 wiarygodność osiąga się nie tyle poprzez tworzenie bardziej złożonych modeli, co poprzez zmniejszając przestrzeń, w której mogą działaćPlatforma opiera się na deterministycznej kontroli ważenie i dozowanie, kontrola etykiet, genealogia oraz przytrzymaj / zwolnijWszelkie wsparcie ze strony sztucznej inteligencji musi być zintegrowane z istniejącymi zabezpieczeniami.

ISO 23894 – Zarządzanie ryzykiem sztucznej inteligencji w powiązaniu z zarządzaniem ryzykiem jakości

ISO 23894 Stosuje znaną logikę identyfikacji, analizy, oceny i postępowania z ryzykiem w odniesieniu do zagrożeń związanych ze sztuczną inteligencją. Dla producentów już korzystających z takich narzędzi jak FMEA, PFMEA or HAZOP, jest to naturalne rozszerzenie.

Typowe pytania dotyczące ryzyka związanego ze sztuczną inteligencją w środowisku V5 obejmują:

  • Czy sugestia sztucznej inteligencji może mieć wpływ na odchylenie klasyfikacja lub CAPA w sposób ukrywający krytyczny trend?
  • Czy zewnętrzne dane wejściowe AI mogą uszkodzić dane specyfikacji używane do weryfikacja etykiety lub decyzji o zwolnieniu?
  • Czy podczas korzystania z funkcji wspomaganych przez sztuczną inteligencję używana jest jakakolwiek funkcja? walidacja procesui jeśli tak, w jaki sposób jest to udokumentowane?

Ponieważ V5 już obsługuje strukturę rejestry ryzyka, zmienić kontrolę oraz plany główne walidacjiKlienci mogą rozszerzyć te ramy na sztuczną inteligencję bez konieczności tworzenia równoległego systemu. Sztuczna inteligencja jest traktowana po prostu jako kolejny potencjalny czynnik ryzyka, który należy analizować i kontrolować.

21 CFR Część 11, Integralność danych i treść generowana przez sztuczną inteligencję

Gdy sztuczna inteligencja dotknie czegokolwiek, co stanie się częścią stałego zapisu produkcyjnego — instrukcji partii, specyfikacji, etykiet, odchyleń, dochodzeń, szkoleń — jej wyniki podlegają 21 CFR część 11 oraz ALCOA+. Wersja 5 traktuje szkice generowane przez sztuczną inteligencję jako niekontrolowany aż do uzyskania kwalifikacji użytkownika:

  • Przegląda zawartość platformy.
  • Modyfikuje w razie potrzeby.
  • Zatwierdza i przekształca je w kontrolowany dokument lub rekord, korzystając ze standardowych przepływów pracy.

Każdy krok pozostawia ścieżka audytu: kto dokonał przeglądu, co zostało zmienione, kto podpisał, kiedy weszło w życie. Silnik sztucznej inteligencji nigdy nie zapisuje bezpośrednio do wydanej wersji SOP, MMR lub grafika etykiety. To rozdzielenie jest kluczowe podczas wyjaśniania systemu inspektorom.

GAMP 5, CSA i walidacja przepływów pracy wspomaganych przez sztuczną inteligencję

Pod GRA 5, nacisk położony jest na walidację przeznaczenieW przypadku funkcji wspomaganych przez sztuczną inteligencję wersja V5 obsługuje:

  • Udokumentowane opisy tego, co funkcja sztucznej inteligencji może robić (i czego nie może robić).
  • Rekordy konfiguracji pokazujące, w jaki sposób funkcja jest włączana, ograniczana lub wyłączana w danej lokalizacji.
  • Zbadaj dowody na to, że sugestie sztucznej inteligencji nie mogą ominąć wymaganych zatwierdzeń ani bezpośrednio zmienić kontrolowanych rekordów.
  • Bieżące monitorowanie w celu wykazania ciągłej kontroli nad czasem.

Pojawiają się CSV / Podejście CSA polega na skoncentrowaniu wysiłków walidacyjnych tam, gdzie ryzyko jest najwyższe. W wersji 5 oznacza to poświęcenie największej uwagi temu, jak funkcje wspomagane przez sztuczną inteligencję współpracują z:

Ponieważ V5 jest już wdrożony jako zweryfikowana platforma, możliwości wspomagane przez sztuczną inteligencję są pozycjonowane jako konfigurowalne opcje zamiast niekontrolowanych dodatków. Klienci mogą je włączać, wyłączać lub ograniczać dla każdego zakładu, rodziny produktów lub roli w ramach własnej strategii walidacji.

Dobre i złe wzorce sztucznej inteligencji na hali produkcyjnej

Dobre wzory

  • Sztuczna inteligencja kiedyś zaproponować Tekst SOP, testy szkoleniowe lub narracje śledcze, zawsze uzupełniane przez przegląd i zatwierdzenie przez człowieka w wersji 5.
  • Sztuczna inteligencja służy do wyróżniania wzorców w odchyleniach, skargach lub wynikach OOS, co pozwala na wprowadzanie ustrukturyzowanych analiza przyczyn.
  • Sztuczna inteligencja pomaga w klasyfikowaniu rekordów i kierowaniu zadaniami, podczas gdy faktyczne decyzje i podpisy pozostają w gestii upoważnionych użytkowników.
  • Cała aktywność sztucznej inteligencji jest rejestrowana ścieżki audytu, widoczne dla działu zapewnienia jakości i inspektorów.

Złe wzorce

  • Niekontrolowane, zewnętrzne narzędzia do czatów służące do projektowania instrukcji wsadowych, etykiet lub protokołów walidacji bez możliwości śledzenia.
  • Sztuczna inteligencja bezpośrednio edytuje opublikowane dokumenty w systemie DMS lub zmienia krytyczne wartości specyfikacji.
  • Autonomiczne agenty zamykające odchylenia lub CAPA lub zmieniające status wydania, bez przeglądu przez człowieka.
  • Brak dokładnych zapisów określających, jaki komunikat doprowadził do jakiej zmiany, uniemożliwiał przeprowadzenie dochodzenia.

V5 został zaprojektowany tak, aby umożliwić pierwszy zestaw wzorców i strukturalnie zapobiegać drugiemu. Nawet w miarę rozwoju możliwości sztucznej inteligencji, zasada pozostaje ta sama: Sztuczna inteligencja może informować, ale nie działa po cichu.

Przykład: szkolenie wspomagane sztuczną inteligencją i kontrola dokumentów w wersji 5

Praktycznym przykładem są treści szkoleniowe i dokumentacja proceduralna. W wielu zakładach eksperci merytoryczni mają trudności z synchronizacją procedur operacyjnych (SOP) i modułów szkoleniowych ze zmianami w procesach. Sztuczna inteligencja może w tym pomóc – pod warunkiem, że wdrożenie jest kontrolowane.

W typowym scenariuszu V5:

  1. Właściciel procesu aktualizuje trasę lub formułę w wersji 5. Zmiana ta jest rejestrowana za pośrednictwem zmienić kontrolę.
  2. System oznacza powiązane procedury operacyjne i jednostki szkoleniowe, które mogą wymagać przeglądu.
  3. Asystent AI może sugerować zaktualizowano sformułowania lub pytania quizowe na podstawie nowego procesu, ale nadal mają one formę roboczą.
  4. Pracownicy działu zapewnienia jakości i szkoleń dokonują przeglądu, dostosowują i zatwierdzają nowe treści w kontrolowanych modułach DMS i szkoleniowych.
  5. Aktualizowane szkolenie jest przypisywane za pośrednictwem macierz szkoleniowa, a V5 blokuje dostęp do ekranów krytycznych dla GMP aż do zakończenia prac.

Sztuczna inteligencja przyspiesza etap tworzenia, ale nie zastępuje odpowiedzialności, przeglądu ani zatwierdzenia. Wszystkie standardowe funkcje kontroli – wersjonowanie, podpisy, daty wejścia w życie – pozostają nienaruszone.

Odniesienia zewnętrzne dotyczące zarządzania sztuczną inteligencją

Dla zespołów tworzących własne ramy zarządzania sztuczną inteligencją wokół wersji V5 przydatne mogą okazać się poniższe dokumenty zewnętrzne (wszystkie otwierają się w nowych kartach):

Te zewnętrzne źródła w połączeniu z wewnętrznym systemem jakości i strukturą kontroli V5 stanowią podstawę obronnej strategii wykorzystania sztucznej inteligencji w regulowanej produkcji.

Powiązany słownik i artykuły systemów SG

Podsumowując: Sztuczna inteligencja jest akceptowalna w regulowanym procesie produkcyjnym jedynie wtedy, gdy jest objęta silnymi ramami zarządzania. Wersja 5 została stworzona przede wszystkim jako system wykonawczy o jakości zgodnej z przepisami. Sztuczna inteligencja jest dopuszczona do tego środowiska na takich samych warunkach, jak każda inna funkcja krytyczna: udokumentowana, poddana ocenie ryzyka, zweryfikowana i zawsze pod kontrolą człowieka.

POWRÓT DO AKTUALNOŚCI