Lze věřit umělé inteligenci ve výrobě?

Řízená, transparentní umělá inteligence

Zodpovědné používání umělé inteligence ve V5 – ISO 42001, důvěryhodnost umělé inteligence, řízení rizik a realita GMP

Umělá inteligence přichází MES, QMS a WMS platformy dlouho předtím, než regulátoři dokončí definování svých očekávání. Výrobci v oblasti biologických věd, potravin, kosmetiky a chemikálií uvízli mezi tlakem na „přidání umělé inteligence“ a realitou, že Správná výrobní praxe (GMP), integrita dat a validace nezmizely. Základní otázka nezní: „Máte umělou inteligenci?“ Zní: „Můžete dokázat, že umělá inteligence neoslabuje vaši kontrolu nad procesem?“

SG Systems Global zaujal záměrně konzervativní postoj Sledovatelnost V5V5 není platforma umělé inteligence typu black-box. Je to systém s pevně řízeným spuštěním které mohou zahrnovat inteligenci způsobem, který zůstává transparentní, kontrolovatelný a auditovatelný. Tam, kde se používá umělá inteligence, je ohraničený schvalovacími pracovními postupy, podpisy a auditními záznamy v souladu s 21 CFR část 11, integrity dat očekávání a moderní pokyny pro správu a řízení umělé inteligence.

„Naše filozofie je jednoduchá: umělá inteligence může navrhovat, ale nemůže tiše rozhodovat. Ve verzi V5 je každý úkon asistovaný umělou inteligencí sledovatelný, kontrolovatelný a podléhá stejným kontrolám jako jakýkoli jiný krok kritický z hlediska správné výrobní praxe.“

— Vedoucí oddělení kvality, regulovaný výrobce

Standardizační prostředí pro umělou inteligenci v regulované výrobě

Očekávání ohledně zodpovědného používání umělé inteligence nyní formuje několik norem a pokynů. Tři z nejrelevantnějších jsou:

V regulované výrobě tyto nově vznikající standardy umělé inteligence stojí na známých základech:

Pro zákazníky zní praktická otázka: je chování umělé inteligence platformy v souladu s těmito principy a lze tuto shodu prokázat během inspekce, nikoli pouze slíbit v prezentaci?

Co vlastně znamená „AI ve V5“

Ve verzi V5 „AI“ neznamená vnucování nekontrolovaných rozsáhlých jazykových modelů přímo do dávkových záznamů, označování nebo rozhodnutí o vydání. V5 se místo toho zaměřuje na:

  • Deterministická pravidla a tvrdé hradlování kroků provedení.
  • Asistované akce kde umělá inteligence navrhuje obsah (např. návrhy školení, shrnutí dokumentů), ale nemůže obejít schvalovací pracovní postupy.
  • Přísné oddělení mezi vrstvami návrhů a záznamy kritickými pro GMP, jako například eBMR, DHR a MMR.
  • Minimální externí APIs importovanými daty směrovanými přes Pracovní postupy schvalování a kontroly před použitím.
  • Protokoly připravené k auditu pro jakoukoli událost s podporou umělé inteligence, propojenou s uživateli, aktivy a položkami.

Když se V5 integruje s externí umělou inteligencí (například pro pomoc s výukovým obsahem), tato integrace běží v řízeném sandboxu. Výstupy jsou považovány za dáma které musí být přezkoumány a schváleny, než se stanou součástí systému řízené kvality.

ISO/IEC 42001 – Systém managementu AI a model řízení V5

ISO / IEC 42001 definuje, jak organizace strukturuje své Systém správy umělé inteligence (AIMS): zásady, role, hodnocení rizik, kontroly, dokumentace a zlepšování. Jedná se o analogii norem ISO 9001 nebo ISO 27001 pro umělou inteligenci, ale zaměřenou na řízení aktivit umělé inteligence.

V5 je navržen tak, aby se uvnitř takového AIMS pohodlně umístil. Na vysoké úrovni:

  • Rozsah – zákazníci si mohou explicitně určit, které funkce V5 používají umělou inteligenci (pokud nějaké používají), a ostatní uzamknout pouze deterministickými pravidly.
  • Role a odpovědnosti – Funkce s podporou umělé inteligence mohou být omezeny na definované role a musí se řídit dokumentovanými postupy. SOP.
  • Posouzení rizik – každý případ použití umělé inteligence lze vyhodnotit pomocí stejných nástrojů pro řízení rizik v oblasti kvality, které se již používají pro změny procesů nebo zařízení.
  • Kontrolní opatření – hard-gates, schválení a auditní záznamy se ve V5 stávají konkrétní „kontrolní“ vrstvou pro návrhy umělé inteligence nebo importovaný obsah.
  • Monitorování a zlepšování – V5 poskytuje protokoly událostí a metriky, které mohou být zpětně propojeny s kontrolním cyklus AIMS organizace.

Výsledkem je, že umělá inteligence nikdy nestojí „nad“ systémem kvality. Stává se dalším vstupem do dobře definovaného digitálního prostředí, kde je každá akce zaznamenávána a každé kritické rozhodnutí zůstává pod lidskou kontrolou.

ISO/IEC TR 24028 – Důvěryhodnost umělé inteligence v rámci pracovních postupů GMP

Norma ISO/IEC TR 24028 zaměřuje se na tvorbu umělé inteligence důvěryhodný: robustní, bezpečné, transparentní a srozumitelné pro lidi. V prostředí GMP nebo GFSI se to promítá do:

  • Žádné neviditelné změny k dávkovým instrukcím, štítkům nebo kontrolním plánům řízeným přímo umělou inteligencí.
  • Vysvětlitelné návrhy – například s uvedením důvodu, proč byla navržena klasifikace odchylek nebo aktualizace školení.
  • Omezená autonomie – Umělá inteligence nemůže činit regulační rozhodnutí; může pouze podpořit člověka, který jej podepíše.
  • Ovládací prvky zabezpečení a ochrany osobních údajů – data odesílaná externím službám umělé inteligence jsou omezená, pokud možno anonymizovaná a řídí se smlouvami s dodavateli.

Ve verzi V5 se důvěryhodnosti dosahuje méně složitějšími modely a více zmenšování prostoru, kde mohou jednatPlatforma je postavena na deterministickém řízení vážení a dávkování, ovládací prvek popisku, genealogie a držet / uvolnitJakákoli asistence umělé inteligence se musí zapojit do těchto stávajících zábran.

ISO 23894 – Řízení rizik dle umělé inteligence v souladu s řízením rizik kvality

ISO 23894 aplikuje známou logiku identifikace, analýzy, hodnocení a řešení rizik na rizika specifická pro umělou inteligenci. Pro výrobce, kteří již používají nástroje jako FMEA, PFMEA or HAZOP, toto je přirozené rozšíření.

Mezi typické otázky týkající se rizik umělé inteligence v prostředí V5 patří:

  • Mohl by návrh umělé inteligence ovlivnit odchylka klasifikace nebo CAPA způsobem, který skrývá kritický trend?
  • Mohl by externí vstup umělé inteligence poškodit specifikační data použitá pro ověření štítku nebo rozhodnutí o propuštění?
  • Používá se během nějaké funkce s podporou umělé inteligence? validace procesu, a pokud ano, jak je to zdokumentováno?

Protože V5 již podporuje strukturované registry rizik, ovládání změn a hlavní plány validace, zákazníci mohou tyto rámce rozšířit na umělou inteligenci, aniž by museli vynalézat paralelní systém. Umělá inteligence je považována pouze za další potenciální rizikový faktor, který je nutné analyzovat a kontrolovat.

21 CFR Část 11, Integrita dat a obsah generovaný umělou inteligencí

Jakmile se umělá inteligence dotkne čehokoli, co se stane součástí trvalého výrobního záznamu – instrukcí pro dávkování, specifikací, štítků, odchylek, vyšetřování, školení – její výstupy podléhají… 21 CFR část 11 a ALCOA +V5 zachází s návrhy generovanými umělou inteligencí jako nekontrolované dokud kvalifikovaný uživatel:

  • Provádí kontrolu obsahu uvnitř platformy.
  • V případě potřeby jej upraví.
  • Schválí a povýší jej na řízený dokument nebo záznam pomocí standardních pracovních postupů.

Každý krok zanechává audit trailKdo provedl revizi, co se změnilo, kdo podepsal a kdy to vstoupilo v platnost. Engine umělé inteligence nikdy nezapisuje přímo do vydané verze SOP, MMR nebo grafický návrh štítku. Toto oddělení je zásadní při vysvětlování systému inspektorům.

GAMP 5, CSA a ověřování pracovních postupů s podporou umělé inteligence

Pod GAMP 5, důraz je kladen na validaci zamýšlené použitíPro funkce s podporou umělé inteligence podporuje V5:

  • Zdokumentované popisy toho, co funkce umělé inteligence smí dělat (a co nesmí).
  • Konfigurační záznamy ukazující, jak je funkce zapnuta, omezena nebo zakázána pro jednotlivé lokality.
  • Otestujte důkazy, že návrhy umělé inteligence nemohou obejít požadovaná schválení ani přímo změnit kontrolované záznamy.
  • Průběžné monitorovací záznamy prokazující trvalou kontrolu v čase.

Vznikající CSV / Myšlení CSA spočívá v zaměření úsilí o validaci tam, kde je riziko nejvyšší. Ve verzi V5 to znamená věnovat největší pozornost tomu, jak funkce s podporou umělé inteligence spolupracují s:

Protože V5 je již nasazena jako ověřená platforma, funkce s podporou umělé inteligence jsou prezentovány jako konfigurovatelné možnosti spíše než nekontrolované doplňky. Zákazníci je mohou povolit, zakázat nebo omezit pro každý závod, produktovou řadu nebo roli v rámci své vlastní ověřovací strategie.

Dobré vs. špatné vzorce umělé inteligence v dílně

Dobré vzory

  • Umělá inteligence dříve navrhnout Text standardních operačních postupů (SOP), školicí kvízy nebo vyšetřovací popisy, vždy následované lidskou kontrolou a schválením ve verzi V5.
  • Umělá inteligence používaná k zvýraznění vzorců v odchylkách, stížnostech nebo výsledcích OOS, a jejím vstupem do strukturovaných analýza příčiny.
  • Umělá inteligence používaná k pomoci s klasifikací záznamů nebo směrováním úkolů, zatímco skutečná rozhodnutí a podpisy zůstávají u oprávněných uživatelů.
  • Veškerá aktivita umělé inteligence zachycená v auditní stopy, viditelné pro QA a inspektory.

Špatné vzorce

  • Nekontrolované externí chatovací nástroje používané k návrhu dávkových instrukcí, štítků nebo validačních protokolů bez možnosti sledovatelnosti.
  • Umělá inteligence přímo upravuje vydané dokumenty v DMS nebo mění kritické hodnoty specifikací.
  • Autonomní agenti uzavírající odchylky nebo CAPA, nebo měnící stav vydání, bez lidské kontroly.
  • Neexistuje jasný záznam o tom, která výzva vedla k jaké změně, což znemožňuje vyšetřování.

V5 je navržena tak, aby umožňovala první sadu vzorců a strukturálně bránila druhé. I když se možnosti umělé inteligence rozšiřují, princip zůstává stejný: Umělá inteligence může informovat, ale nejedná tiše.

Příklad: Školení a správa dokumentů s podporou umělé inteligence ve verzi V5

Praktickým příkladem je obsah školení a procedurální dokumentace. V mnoha závodech se odborníci na danou problematiku potýkají s tím, aby standardní operační postupy (SOP) a školicí moduly byly synchronizovány se změnami procesů. V tomto případě může pomoci umělá inteligence – pokud je implementace kontrolována.

V typickém scénáři V5:

  1. Vlastník procesu aktualizuje směrování nebo vzorec ve verzi V5. Tato změna je zaznamenána prostřednictvím ovládání změn.
  2. Systém označí propojené standardní operační postupy (SOP) a výcvikové jednotky, které mohou vyžadovat revizi.
  3. Asistent s umělou inteligencí může navrhnout aktualizované znění nebo kvízové ​​otázky na základě nového procesu, ale ty zůstávají ve fázi návrhů.
  4. Zaměstnanci QA a školitelé kontrolují, upravují a schvalují nový obsah v řízeném DMS a školicích modulech.
  5. Aktualizované školení je přidělováno prostřednictvím tréninková maticea V5 hardwarově blokuje přístup k obrazovkám kritickým pro GMP až do dokončení.

Umělá inteligence urychluje krok přípravy návrhu, ale nenahrazuje vlastnictví, kontrolu ani schvalování. Všechny obvyklé ovládací prvky – verzování, podpisy, data účinnosti – zůstávají zachovány.

Externí reference pro správu a řízení umělé inteligence

Pro týmy, které si budují vlastní rámec pro správu umělé inteligence kolem V5, jsou užitečnými referenčními body následující externí dokumenty (všechny se otevírají v nových záložkách):

Tyto externí zdroje v kombinaci s vaším interním systémem kvality a kontrolním rámcem V5 poskytují páteř pro obhajitelnou strategii umělé inteligence v regulované výrobě.

Související glosář a články o systémech SG

Sečteno a podtrženo: Umělá inteligence je v regulované výrobě přijatelná pouze tehdy, je-li součástí silného rámce správy a řízení. V5 je nejprve vybudován jako systém pro provádění splňující normy. Umělá inteligence je do tohoto prostředí povolena za stejných podmínek jako jakákoli jiná kritická funkce: dokumentovaná, s posouzením rizik, validovaná a vždy pod lidskou kontrolou.

ZPĚT K NOVINKÁM