如何用好AI、守住安全?中国科技社团发出这份倡议
如何用好 AI、守住安全?中国科技社团发出这份倡议
当前,人工智能正以前所未有的速度重塑世界。技术飞跃带来机遇的同时,算法偏见、隐私泄露、深度伪造、伦理失范,甚至AI失控等系统性风险,也引发了全球范围内的治理焦虑。
4月13日,在中国科协组织下,中国人工智能学会等16家单位,共同起草了《全球人工智能治理科技社团倡议》(以下简称《倡议》),提出“确保有益、赋能民生”“恪守安全、防范风险”“秉持公平、促进均衡”“交流互鉴、携手合作”“向善传播、凝聚共识”五大原则。
这是国内科技社团首次系统、全面地就人工智能全球治理发出集体声音,旨在凝聚全球学术共识,推动构建开放、公正、包容、有效的全球人工智能治理体系。
这份《倡议》背后凝聚了怎样的时代思考?科技社团在AI治理中扮演什么独特角色?我们又该如何看待当前最突出的风险与挑战?《中国科学报》就此采访了多位参与《倡议》研讨的专家学者。
AI 治理进入“必答题”阶段
《中国科学报》:当前人工智能技术发展到什么阶段,我们可能面对的风险有哪些?
孙富春(中国人工智能学会副理事长): 人工智能的发展已经从过去的交互、理解、问答系统进入行动阶段。随着机器人传感技术、认知决策技术的发展,以及与大模型的融合,智能体甚至能自主完成炒股、生产线作业等人类行为,还可能被利用于犯罪,机器犯错该追责谁的伦理问题愈发突出,这些现实风险让AI治理刻不容缓。此外,人工智能的发展已经超出单一国家范畴,跨境的安全风险、技术应用问题需要全球协同应对。
梁正(中国科学学与科技政策研究会副秘书长): 人工智能已经进入普及和大规模应用阶段,普通人能轻松使用AI生成视频、文本等工具,侵权、造假、算法滥用等问题的影响范围大幅扩大;同时全国两会明确启动人工智能立法工作,这些都说明AI治理已经从选择题变成了全球必须面对的“必答题”。
崔勇(中国通信学会智能体通信专业委员会主任委员): 随着多智能体互联互通,数据隐私、数据出境、数据不出域等问题变得异常突出。比如,不同智能体之间直接交互,我们很难监控它们是否泄露了敏感信息。我们正在研发“智能体网关”,让所有交互行为可被审计,敏感数据跨域时自动加密或过滤。
《中国科学报》:对于普通公众来说,面对AI浪潮,隐私如何保护?怎样才能不掉队?
孙富春: 人类要学会利用AI的优势,将更多精力投入到深度思考和创造性工作中,这是机器无法替代的。中国目前在基础研究、原创性成果上的略显不足,很大程度上归因于科研工作者缺乏深度思考和深耕的定力。在AI时代,更要注重培养人的独立思考和创新能力,实现人机协同的良性发展。
崔勇: 很多学生问,还要不要一行一行学编程?我的回答是,本科生还是要打好基本功,一行一行写代码的能力不能丢;高年级再学会用AI加速。 对于普通人来说,不要被年龄或专业束缚,关键是拥抱新事物,主动去用、去理解。
梁正: 我要强调科学传播和公众参与的重要性,科技社团要多渠道开展科普与对话,引导公众正确认知人工智能的发展阶段和潜在风险,提升全民科学素养,凝聚社会层面对AI治理的共识。
科技社团提出的“中国方案”
《中国科学报》:此时发布《倡议》,有着怎样的时代背景和现实考量?
梁正: 当前,全球AI治理面临三大困境:第一,技术发展快于治理能力,很多治理规则和措施刚制定,就已经难以适配新的技术应用场景;第二,地缘政治带来发展理念分歧,部分技术领先的国家抱着“先发者优势”的心态,采用以邻为壑、拉小圈子的方式,很多南方国家甚至没有能力参与到AI治理的讨论中来;第三,社会认知与技术现实的偏差,部分公众过度夸大AI的风险,也有很多人缺乏基本的防范意识,这种认知偏差导致社会层面对AI治理的共识难以形成,也影响了治理措施的落地执行。
《中国科学报》:此次发布的《倡议》提出了五大核心内容,相较于国际上其他治理思路,它的独特价值体现在哪些方面?
梁正: 《倡议》将“确保有益、赋能民生”放在首要位置,这是与西方主导治理理念的本质区别。我们强调人工智能的发展不是为了少数国家、少数人的利益,而是要服务全人类共同福祉,赋能民生是面向每一个人,发展机会属于所有国家,这体现了普惠、公平的价值追求。同时,我们坚持发展与安全并重,治理不是管制,而是为了更好地促进发展,这一理念贯穿《倡议》始终。《倡议》明确反对技术霸权、排他性“小圈子”,倡导开放包容、交流互鉴,这契合了全球人工智能发展的客观规律,也为解决当前全球治理碎片化问题提供了思路。
孙富春: 《倡议》的一大特点是立足现实,既明确了治理的底线要求,又给出了务实的思考方向。比如在“恪守安全、防范风险”方面,不仅关注算法滥用、隐私泄露等现实风险,还前瞻性关注人工智能失控、自我复制等潜在系统性风险。从技术角度来说,《倡议》背后体现的是“对症下药”的治理思路,也就是先搞清楚风险背后的技术原理,再提出针对性的反制手段。
崔勇: 《倡议》兼顾了专业性和包容性,既立足人工智能技术发展的专业规律,又充分考虑了不同国家、不同群体的发展需求。比如在“秉持公平、促进均衡”方面,《倡议》提出要助力发展中国家提升AI研究与治理能力,这一点非常重要。《倡议》倡导通过全球联合研究、联合培养、平台共建等方式弥合这一鸿沟,体现了大国担当。《倡议》还强调科技伦理规范嵌入AI研究全生命周期,这与人工智能技术发展的全链条特性相契合,让治理覆盖从研发到应用的各个环节,形成完整的治理体系。
《中国科学报》:在您看来,中国科技社团在全球AI治理中可以发挥哪些独特作用?
梁正: 第一,提供独立的、基于证据的专业判断。科技社团不受短期商业利益和政治因素干扰,最适合提出理性的治理规则。第二,推动国际标准互认和多边对话。我们正在支持在联合国框架下成立人工智能治理机构,也积极发起“人工智能国际合作组织”。第三,向发展中国家提供能力建设。我们已经连续多年举办培训班,帮助发展中国家了解AI发展和治理经验,这就是中国对全球AI治理的公共产品贡献。
推动《倡议》从共识走向落地
《中国科学报》:此次《倡议》提出了一系列行动方向,下一步如何推动《倡议》从纸面共识走向实际落地?
孙富春: 未来 AI治理要聚焦四个重点方向:一是从伦理问题根源入手,解决数据偏见、算法不公等底层问题;二是利用世界模型、元宇宙等技术构建场景,通过外部数据驱动发现潜在风险;三是结合各行业特点精准治理;四是加强国际合作,针对电信诈骗、跨境 AI 犯罪等问题,建立全球协同防控体系。此外,人工智能应用的透明性原则,要通过技术手段让 AI 始终处于人类可控范围,比如对高度自主的智能体建立监管机制,确保行为符合人类社会的伦理和法律规范。
崔勇: 在国际合作方面,要积极参与全球AI智能体技术标准制定。人才培养方面,要改变过去只注重代码、算法能力的培养模式,从学生时代开始,就要加强参与国际规则制定、话语权表达的综合能力培养。同时,国内高校和科研机构还要加强跨学科合作,融合计算机、人工智能、人文社科等多领域知识,让AI治理更具全面性。
梁正: 首先要加强全球范围内的交流互鉴,利用科技社团的桥梁作用,建立跨界多元的协同交流机制,寻求治理的“最大公约数”,中国科技社团已经与美国、欧洲、新加坡等国家和地区的相关机构保持密切合作,未来要进一步深化这些合作,比如继续联合举办国际学术会议、开展联合研究项目。其次,要推进联合国框架下国际人工智能治理机构的建设,借助联合国的多边平台,整合全球智慧,将学术共识转化为政策规则和治理实践。同时,要解决当前国际合作中的现实障碍,在保障科技安全的前提下,让学术交流更顺畅。