AI安全 5 days ago 106 Views 0 Comments

谷歌 Apigee 添加了内置的 LLM 治理 Model Armor

InfoQ
InfoQ

Published 66 Articles

谷歌云推出了 Model Armor 的公开预览版,这是一个集成到 Apigee API 管理平台的原生大语言模型(LLM)治理框架。一篇社区帖子中详细介绍了 Model Armor,它引入了针对 LLM 特定策略的即开即用执行,例如提示验证、输出过滤和 API 层的 token 级控制。

 

Model Armor 直接在 Apigee 的代理层运行,在那里它使用声明性策略检查请求和响应。它适用于所有Apigee层,允许团队无论他们的订阅级别如何,都能采用 LLM 治理。LLM API 实现了强大的新客户体验和自动化,但也引入了风险,例如提示注入(LLM 的一个重要OWASP前10风险)攻击和敏感数据的暴露。

 

这些策略可以检测到越狱尝试、提示注入和个人身份信息(PII)暴露等问题,允许根据需要对输出进行编辑、更改或阻止,而无需修改下游系统。根据谷歌的说法,“有了 Model Armor,企业可以像对待传统 API 一样严格地对 LLM 流量进行同样的治理”。

 

这些控制用 Apigee 基于 XML 的策略语言表示,允许团队将 LLM 安全规则集成到现有 API 中。一个实践教程展示了如何应用这些策略,涵盖了提示检查、token 配额和与Vertex AI的集成。教程包括一个可下载的代理模板和配置 Model Armor 执行规则的分步指导。策略执行在代理层应用,以实现服务和端点之间的一致性。

 

<!---->

Apigee 和 Model Armor 架构(来源:谷歌社区帖子

 

Model Armor 支持多个 LLM 提供商,包括 Vertex AI(Gemini、Meta Llama)、OpenAI、Anthropic 和自托管模型,允许在异构架构中进行集中治理。

 

此外,谷歌已将 Model Armor 与Google Kubernetes Engine(GKE)和 Security Command Center 集成。这允许组织直接在 GKE 集群中运行的推理网关或在负载均衡器上部署 Model Armor 策略。这些策略在模型提示和响应到达内部服务之前进行检查。任何违规行为都会作为安全发现出现在 Security Command Center 中,提供集中监控、预警和修复工作流程。这种集成加强了 Model-Armor 作为 LLM 流量治理和更广泛的云安全运营之间桥梁的地位。


<!---->

Apigee 作为 LLM 应用程序和模型之间的网关(来源:谷歌社区帖子

 

该框架为每次策略评估记录了详细的元数据,包括触发的过滤器和执行结果。这些日志输入到 Apigee 的可观测性和日志管道中,支持监控、异常检测和 LLM 行为的事后分析。

 

虽然其他 API 网关也提供了通用流量控制,但它们通常需要自定义中间件来实现模型级安全。Model Armor 旨在通过在 Apigee 中提供原生的 LLM 特定策略执行来消除这种复杂性。

 

原文链接:

https://www.infoq.com/news/2025/07/google-apigee-llm-model-armor/

InfoQ

InfoQ

66 Articles 8863 Views 0 Fans

Comment (0)

睡觉动画