登录

离职员工成AI数字人,“知情同意”就够了吗?


速读:他指出,比如《中华人民共和国个人信息保护法》要求处理个人信息应具有明确、合理目的并遵循最小必要原则;
2026年04月09日 13:05

◎  科技日报记者 王延斌

近期,因为尝试将离职员工训练成人工智能数字人继续工作,让山东的一家游戏传媒公司备受关注,引发了公众热议。

员工是否会被AI取代?AI数字分身产生收益、出现差错,责任如何厘清?“这是社会焦点,也是最不能模糊处理的问题。”4月8日,山东省计算中心(国家超级计算济南中心)主任吴晓明向科技日报记者表示, “‘知情同意’只是起点,‘技术可行’也绝不等于‘商业可用,法律无虞’。”

第一问:如何训练AI数字人,成本高不高?

在吴晓明看来,训练AI数字人并不是简单做一个会说话的虚拟形象,而是 把一个人的外在表现、语言风格、知识结构、工作流程等,转化为可被机器调用和复用的“数字能力体”。

“从技术路径看,它通常包括四个层次。”吴晓明介绍,第一层是形象建模,即采集人脸、表情、动作等视觉特征,生成可驱动的数字形象;第二层是声音复刻,通过语音样本训练音色、语调和节奏;第三层是知识注入,把个人在长期工作中形成的业务知识、问答语料、表达习惯、处事逻辑沉淀为知识库或专属模型;第四层是流程编排,让数字人不只是“像某个人”,而是真能在多样化的场景中完成任务。“严格来说,前两层解决的是‘像不像’,后两层决定的是‘能不能用、好不好用’。”吴晓明说。

山东大学信通电子人工智能研究院常务副院长、教授韩忠义表示,训练一个基础型数字人并不难,成本也没有外界想象的那么高。

在他看来,如果企业要将其做成一个“精明能干”的数字员工,那成本就不低了。 “贵的不只是技术本身,更是数据整理、业务接入、后期维护。而更为重要的,是使用数字人须得合规。” 韩忠义的一席话,指向了公众对AI数字人的风险管控疑虑。

第二问:AI数字分身如果出错,算谁的?

尽管离职员工知情同意,但倘若AI数字分身对外提供服务出现了纰漏,责任谁来承担?齐鲁工业大学数学与人工智能学部副主任李彬表示: 责任划分不能停留在一句“员工同意了”。

“AI分身一旦对外提供服务,它就不再只是内部实验,而是进入了交易、传播和组织治理体系。”他表示,AI数字分身进入市场至少涉及三类权利边界,一是人格权益边界,包括姓名、肖像、声音、隐私、名誉等;二是个人信息与数据边界,包括采集了哪些数据、如何训练、保存多久、能否二次使用;三是劳动成果和商业收益边界,即员工多年形成的经验、话术、方法论,到底哪些属于个人特征,哪些属于职务成果,哪些可以授权使用,哪些不能无限扩张。

他指出,比如《中华人民共和国个人信息保护法》要求处理个人信息应具有明确、合理目的并遵循最小必要原则;《中华人民共和国民法典》人格权编也明确保护姓名、肖像、名誉、隐私等合法权益;现行深度合成和生成式人工智能治理的相关规则,进一步要求服务提供者落实内容审核、数据安全、个人信息保护等责任。

“换句话说,即便有授权,也不能一劳永逸,取得‘无限复制、永久使用、任意变现’的通行证。”李彬说,“一旦AI数字分身对外服务, 收益和责任更应当按照‘谁控制系统、谁设定规则、谁从中获益、谁承担主责’的原则来划分。”

主题:员工