无防护构建AI:半导体生态直面标准分裂、IP泄露与运行时保障危机
人工智能正以远超监管规则的速度渗透整个 半导体生态 ,IP 盗窃、安全漏洞风险急剧上升,且缺乏有效防范手段。
从嵌入 EDA 流程的基础模型,到影响设计、验证与物理实现的智能体系统,AI 正在重塑芯片开发方式与风险引入路径。尽管业界普遍认同 AI 治理的必要性,但现有举措碎片化、解读不统一、重意图而轻可衡量结果。简单说:当前治理严重不足,传统监管方式已落后,且难以追上创新步伐。
一、AI 治理:缺失的 “护栏”
Dana Neustadter(新思科技):“AI 治理需要指导原则、法规、政策与框架流程,引导负责任的开发、部署与使用。如同汽车的功能安全与网络安全,AI 系统需要保障数据安全、模型完整性、访问控制与身份认证,以此建立信任、伦理、问责与透明度。”
安全关键行业很可能成为首个可落地、可强制执行的 AI 问责样板,复制汽车、工业控制、航空航天与军工领域的安全标准演进路径。
John Weil(Synaptics):“半导体行业与生态伙伴几十年里一直协同建立安全标准,从 90 年代军工 / 航空安全,到汽车与工厂自动化催生大量 ISO 规范。但在 AI 领域,我们至今没有这套体系。如果有人说‘我要用 AI 做工业自动化安全产品’,这两个词现在很难放在一起。”
二、定义用例:AI 治理的关键
专家普遍将 AI 分为两类截然不同的用例:
1. 数据管理类
在网络安全领域已相对成熟,例如杀毒软件、安全运营中心(SOC)已大量由 AI 驱动。面对海量数据与关联复杂度,人类分析师已无法处理,AI 负责第一层内容与元数据分析。
但这里存在重大治理问题:
Sylvain Guilley(Secure-IC/Cadence):“SOC 运营者并不真正拥有数据,只是监控。如果数据包含敏感机密信息,治理必须确保 AI 不会导致信息损坏、泄露或被攻击。依赖 SaaS 等外部服务商时,数据所有者与分析者不一致,风险极高。”
2. 代码 / 硬件生成与验证类
更大的风险来自AI 生成知识产权。
“这里存在灰色地带:输出归谁所有取决于大模型的授权协议、训练数据来源、出口管制规则。我在法国使用国外工具,厂商说我拥有输出结果,但数据可能已流向其他国家,目前没有更强的法律依据。”
三、IP 安全风险空前严峻
基础模型与 AI 智能体在全行业普及,带来远超表面的深层风险。
Alexander Petr(是德科技 EDA):“IP 安全是我最大担忧。所有人都想极速推进,有意或无意泄露 IP 的风险极高。大家对自家 IP 非常谨慎严格,但对他人 IP 却没有同等严谨性。”
例如,客户要 构建 AI 智能体流程,需要来自晶圆厂的信息,这些信息过去受 NDA 保密协议约束。
“现有 NDA 完全没有说明如何在 AI 化过程中处理晶圆厂 IP。所有晶圆厂都在纠结:PDK 能否输入基础模型?目前没有法律先例,所有讨论最终都卡在 NDA 上,除此之外没人有答案。”
设计公司从晶圆厂获取 PDK / 库文件输入大模型,从 EDA 厂商获取工具受用户授权协议(ULA)约束。但现有 ULA 几乎不涉及 AI,只简单提到反向工程。
“用户把两边信息都喂给大模型以求自动化与智能体能力。他们认为只要本地部署、做好安全就没问题。但我们能指望他们妥善保护 IP 吗?能确保配置不会泄露回基础模型吗?还是迟早会因为不当操作导致我们的信息进入模型?”
芯片架构师必须在鼓励创新与强制安全之间艰难权衡,需要可适配的行业标准与法律框架,确保在日益复杂的芯片设计中负责任地融合 AI。
四、AI 加剧软件开发压力
AI 工具让编码、测试、部署速度大幅提升,但也带来质量、可解释性与安全隐患。开发者可能在不完全理解含义与漏洞的情况下直接使用 AI 生成结果。
Jason Oberg(Arteris):“在传统软件开发中,大模型生成代码已非常普遍,生成 RTL、Verilog、VHDL、测试平台的情况也在增多,但不如 JS、C 语言普及。芯片设计的测试与验证原本非常严格,因为硬件无法打补丁。但现在出现问题:用 AI 生成设计,再用 AI 生成测试,测试通过就认为没问题,这其中存在巨大隐患。验证团队与设计团队如果只追求快 10 倍交付,会倾向跳过严谨校验。”
五、主要 AI 治理法规 / 标准一览