人工智能在制造业中值得信赖吗?

受监管、透明的人工智能

V5 中人工智能的负责任使用——ISO 42001、人工智能可信度、风险管理和 GMP 现实

人工智能即将到来 MES系统, 质量管理体系 以及 WMS 在监管机构完成对平台的预期之前,生命科学、食品、化妆品和化工制造商就已陷入“添加人工智能”的压力与现实之间的两难境地。 GMP、数据完整性和验证 问题并没有消失。核心问题不是“你是否拥有人工智能?”,而是“你能否证明人工智能不会削弱你对流程的控制?”

SG Systems Global 一直采取刻意保守的立场 V5可追溯性V5 不是一个黑箱式人工智能平台。它是一个 硬门控执行系统 它能够以透明、可审查和可审计的方式融入智能技术。人工智能的应用领域是…… 通过审批工作流程、签名和审计跟踪,符合以下规定: 21 CFR第11部分, 数据的完整性 关于人工智能治理的期望和现代指导。

“我们的理念很简单:人工智能可以提出建议,但不能擅自做决定。在V5版本中,每一个人工智能辅助的操作都是可追溯的、可审查的,并且与其他任何GMP关键步骤一样,都受到相同的控制。”

— 受监管制造商的质量主管

受监管制造业中人工智能的标准格局

目前已有若干标准和指导文件对负责任的人工智能使用提出了预期。其中三份最为相关:

在受监管的制造业中,这些新兴的人工智能标准建立在人们熟悉的基础之上:

对于客户而言,实际的问题是:该平台的 AI 行为是否符合这些原则,以及这种符合性能否在检查过程中得到证明,而不仅仅是在幻灯片中做出承诺?

V5 中的“AI”究竟意味着什么

在 V5 版本中,“人工智能”并非指将不受控制的大型语言模型直接应用于批量记录、标注或发布决策。相反,V5 版本更侧重于:

  • 确定性规则 以及 硬性限制 执行步骤。
  • 协助行动 AI 可以提供内容建议(例如训练草稿、文档摘要),但不能绕过审批流程。
  • 严格分离 在建议层和GMP关键记录之间,例如 基础代谢率, DHR 以及 孕产妇死亡率.
  • 极简外部API,导入的数据通过以下方式路由 审批流程 使用前需进行检查。
  • 可用于审计的日志 对于任何人工智能辅助事件,都与用户、资产和地块相关联。

当 V5 与外部 AI 集成时(例如,用于辅助训练内容),该集成在受控沙箱中运行。输出被视为 草案 必须经过审核和批准后,才能成为受控质量体系的一部分。

ISO/IEC 42001 – 人工智能管理体系和V5治理模型

ISO / IEC 42001 定义了一个组织如何构建其结构 人工智能管理系统(AIMS)包括政策、角色、风险评估、控制、文档和改进。它是人工智能领域类似于 ISO 9001 或 ISO 27001 的标准,但侧重于人工智能活动的治理。

V5 的设计旨在完美适配此类 AIMS。概括而言:

  • 适用范围 – 客户可以明确地限定哪些 V5 功能使用 AI(如果有的话),并将其他功能锁定为仅使用确定性规则。
  • 角色和责任 – AI辅助功能可能仅限于特定角色,并且必须遵循已记录的规则。 标准操作程序.
  • 风险评估 – 每个 AI 应用案例都可以使用与流程或设备变更相同的质量风险管理工具进行评估。
  • 控制措施 – V5 中的硬性限制、审批和审计跟踪成为 AI 建议或导入内容的具体“控制”层。
  • 监测与改进 – V5 提供事件日志和指标,可以反馈到组织的 AIMS 审查周期中。

结果是,人工智能永远不会凌驾于质量体系之上。它只是定义明确的数字化环境中的又一个输入,在这个环境中,每一个操作都会被记录,每一个关键决策仍然由人掌控。

ISO/IEC TR 24028 – GMP 工作流程中的人工智能可信度

ISO/IEC TR 24028 专注于人工智能的开发 可靠:稳健、安全、透明且易于人理解。在符合GMP或GFSI标准的环境中,这意味着:

  • 没有不可见的变化 批量处理由人工智能直接驱动的指令、标签或检验计划。
  • 可解释的建议 – 例如,说明为什么提出偏差分类或训练更新。
  • 有限自主性 人工智能无法做出监管决定;它只能辅助签署决定的人。
  • 安全和隐私控制 – 发送给外部 AI 服务的数据受到限制,尽可能进行匿名化处理,并受供应商协议的约束。

在V5版本中,提高模型可信度不再是通过增加模型的复杂性来实现的,而是更多地通过…… 缩小他们被允许行动的空间。该平台基于确定性控制构建。 称重和分发, 标签控制, 家谱 以及 保持/释放任何人工智能辅助都必须融入现有的安全保障机制中。

ISO 23894 – 人工智能风险管理与质量风险管理相一致

ISO 23894 将风险识别、分析、评估和处理的常用逻辑应用于人工智能特有的风险。对于已经在使用类似工具的制造商而言,这套方法尤其适用。 FMEA的, PFMEA or 危险品这是自然而然的延伸。

V5 环境下典型的 AI 风险问题包括:

  • 人工智能建议能否影响…… 偏差 分类或 CAPA 方式是否掩盖了关键趋势?
  • 外部人工智能输入是否会破坏用于此目的的规范数据? 标签验证 还是发布决定?
  • 期间是否使用了任何人工智能辅助功能 工艺验证如果属实,又是如何记录的呢?

因为V5已经支持结构化 风险登记册, 切换控制 以及 验证总计划客户无需另起炉灶,即可将这些框架扩展到人工智能领域。人工智能被视为另一种潜在风险因素,必须对其进行分析和控制。

21 CFR 第 11 部分,数据完整性和人工智能生成的内容

一旦人工智能接触到任何成为永久生产记录一部分的内容——批次指令、规格、标签、偏差、调查、培训——其输出都将受到…… 21 CFR第11部分 以及 美国铝业+V5 将 AI 生成的草稿视为 不受控制 直到合格用户为止:

  • 评论平台内的内容。
  • 必要时进行修改。
  • 使用标准工作流程,将其批准并提升为受控文档或记录。

每一步都会留下痕迹 审计线索谁审核了、修改了什么、谁签署了、何时生效。人工智能引擎绝不会直接写入已发布的修订版本。 SOP,MMR 或标签图案。这种区分对于向检查员解释该系统至关重要。

GAMP 5、CSA 和验证 AI 辅助工作流程

甘普5重点在于验证 有可能的使用对于人工智能辅助功能,V5 支持:

  • 对人工智能功能允许执行的操作(以及不允许执行的操作)进行书面描述。
  • 配置记录显示了每个站点如何启用、限制或禁用该功能。
  • 测试证据,证明人工智能建议不能绕过必要的审批程序或直接更改受控记录。
  • 持续监测记录,以证明对控制工作的持续控制。

新兴的 CSV CSA 的理念是将验证工作集中在风险最高的地方。在 V5 版本中,这意味着要重点关注 AI 辅助功能如何与以下方面交互:

由于V5已部署为经过验证的平台,因此人工智能辅助功能被定位为 可配置选项 而不是不受控制的附加组件。客户可以根据自身的验证策略,按工厂、产品系列或角色启用、禁用或限制这些组件。

车间中人工智能模式的优劣对比

好的模式

  • 人工智能过去曾 提供 SOP 文本、培训测验或调查叙述,始终在 V5 中进行人工审核和批准。
  • 人工智能用于突出显示偏差、投诉或 OOS 结果中的模式,并将其输入结构化分析。 根本原因分析.
  • AI 用于帮助对记录进行分类或分配任务,而实际的决策和签名仍然由授权用户做出。
  • 所有人工智能活动均被捕获 审计跟踪质量保证人员和检验员均可见。

不良模式

  • 使用不受控制的外部聊天工具设计批次指令、标签或验证协议,且无法追溯。
  • AI 直接编辑 DMS 中已发布的文档或更改关键规范值。
  • 自主代理关闭偏差或纠正预防措施 (CAPA),或更改 发布状态未经人工审核。
  • 由于没有明确的记录表明是什么因素导致了哪些变化,因此无法进行调查。

V5 的架构旨在实现第一组模式,并从结构上防止第二组模式的出现。即使人工智能能力不断扩展,这一原则依然不变: 人工智能可以提供信息,但它不会默默行动。

示例:V5 中的 AI 辅助培训和文档控制

一个实际的例子是培训内容和程序文档。在许多工厂,领域专家难以确保标准操作规程 (SOP) 和培训模块与流程变更保持同步。人工智能可以在这方面提供帮助——前提是实施过程得到有效控制。

在典型的 V5 场景中:

  1. 流程所有者在 V5 中更新了路由或公式。该更改会通过以下方式记录: 切换控制.
  2. 系统会标记出可能需要修订的相关标准操作规程和培训单元。
  3. 人工智能助手可以 建议 根据新流程更新措辞或测验题,但这些仍是草稿。
  4. 质量保证和培训人员审核、调整和批准受控文档管理系统和培训模块中的新内容。
  5. 更新后的培训安排通过以下方式进行: 训练矩阵V5 严格限制对 GMP 关键筛选的访问,直到完成为止。

人工智能可以加快起草流程,但不会取代所有权、审核或批准。所有常规控制措施——版本控制、签名、生效日期——都保持不变。

人工智能治理的外部参考资料

对于围绕 V5 构建自身 AI 治理框架的团队而言,以下外部文档是有用的参考资料(均在新标签页中打开):

这些外部资源,加上您的内部质量体系和 V5 控制框架,为受监管制造业中可防御的 AI 战略提供了支柱。

相关SG系统术语表和文章

底线: 人工智能只有在健全的治理框架内才能被监管制造业所接受。 V5 首先被构建为一个合规级别的执行系统。人工智能被允许进入该环境,其条件与其他任何关键功能相同:必须有文档记录、经过风险评估、验证,并且始终处于人工控制之下。

返回新闻