享受“智能红利”勿忘保护隐私安全
享受“智能红利”勿忘保护隐私安全
当前,各种 人工智能 软件、办公自动化工具密集涌现, 人工智能 正从“能回答问题”走向“能执行任务”。然而,有用户反映在使用某些App和 人工智能 工具时,被提示存在信息泄露和高权限运行风险。当智能化应用进入日常生活,用户隐私该如何保护,发展和安全如何统筹?
过去说隐私泄露,人们往往想到平台漏洞或信息贩卖。而在人工智能时代,看似普通的单次数据调用、单个操作,经由信息整合、归纳、推断后,就可能还原出远超用户预期的个人画像。隐私风险不单来自恶意盗取,也可能出现在系统“正常运行”的过程中。
更值得警惕的是,一些产品为制造爆点不断放大自动化能力,弱化了风险提示、边界说明和操作约束。用户看到的是“更聪明”“更省事”,却未必知道背后意味着怎样的数据调取。尤其普通用户与技术提供方之间本就存在明显的信息差,如果平台把复杂风险包裹在便捷体验之中,把本该由产品承担的安全责任转化为用户自行承担的使用风险,那么“智能化红利”就可能演变为新的焦虑源。
处理好发展和安全的关系,要把安全前置到产品设计阶段,落实“最小必要原则”。哪些权限是完成任务所必需的,哪些关键操作必须经过再次确认,都应当在设计之初就讲清楚。涉及文件删除、数据导出、账户调用、支付验证等高风险操作,不能靠一次笼统授权就一路放行,而应建立清晰的分级授权、即时提醒和可撤回机制。
隐私保护不能只寄希望于用户“自己多留个心眼”。人工智能高度专业化、快速迭代,让普通人逐项看懂接口权限、数据流向和模型逻辑并不现实。对于高风险应用,应建立更有针对性的分类分级治理机制,对数据收集、插件接入、自动决策等环节设置更细致的规范要求。企业应增强测试验证能力,完善兼容性评估和安全审查,少一些“先上线再优化”的侥幸。
监管部门应尽快细化相关规则规定,围绕数据收集、权限调用、插件接入、自动决策等关键环节,明确权限与责任;强化安全测评、风险备案,督促企业把分级授权、操作确认等要求落到产品设计中。此外,还应加强风险提示和日常巡查,对诱导过度授权、模糊权限边界、侵害用户权益等行为及时纠偏、依法查处。
安全不是发展的对立面,隐私也不是创新的包袱。只有把用户权益放在更突出的位置,把风险治理嵌入创新过程,人工智能才能在释放红利的同时减少不安、赢得信任,走上健康的发展轨道。
(文章来源:经济日报)