科学网—人机协同中人最重要的三件事
精选
已有 334 次阅读
2026-4-9 08:51
| 个人分类: 2026 | 系统分类: 科研笔记
人机协同中人的核心是三件事:一是清晰定义目标(做什么),二是严格设定边界(不能做什么),三是持续的监督与校准(如何做)。 这三点——定义目标、设定边界、监督校准,某种意义上构成了人机协同中人类作为“指挥官”与“伦理守门人”的完整闭环。
在当前的AI与机器人技术爆发期(特别是2025-2026年的行业共识中),这三点正是区分“自动化”与“智能化”的关键,也是人类在算法时代保持不可替代性的核心护城河。下面进一步把 这三件事拆解为具体的执行框架:
🎯 一、 清晰定义目标(做什么):从“解题”到“出题”
一般而言,机器擅长“解题”,而人类的核心价值在于“出题”。在人机协同中,机器往往只能优化给定的指标,却无法理解指标背后的价值意义。
1、价值对齐与方向指引
客观而言,机器可以最大化效率,但无法天然理解“代价”的意义(如短期利润与长期品牌、增长与底线)。人类必须负责定义“什么值得做”,将模糊的商业或社会愿景转化为机器可理解的具体目标。 在人形机器人领域,不少人认为,目标的设定必须由人决定,机器人不能自主决策“该做什么”。这意味着人类是任务的发起者,负责构建问题的框架。
2、意图的深层转化
人类需要将复杂的、非结构化的意图(如“提升客户满意度”)转化为机器可执行的参数。这要求人类具备极强的抽象思维能力,能够透过现象看本质,告诉AI“我们要去哪里”,而不是纠结于“怎么走”。
🚧 二、 严格设定边界(不能做什么):划定“安全围栏”
如果说定义目标是踩油门,那么设定边界就是刹车和方向盘。在AI具备一定自主性(Agent)的时代,边界设定是防止技术失控的最后一道防线。
1、规则与约束的硬性界定
规则必须由人界定,明确机器人行为的约束边界。这包括物理安全边界(如机器人的“物理围栏”、即停机制)、数据安全边界(如隐私数据的端侧处理)以及伦理边界(如算法歧视的红线)。 在自动驾驶和人形机器人领域,行业普遍采用分级界定责任。例如,L2及以下责任归用户,L3及以上归系统提供者。人类必须预先设定好这些“禁区”,确保AI在探索最优解时不会越界造成不可逆的伤害。
2、伦理与法律的兜底
边界不仅仅是技术参数,更是社会契约。人类需要为AI设定“不做恶”的底层逻辑,确保其行为符合法律法规和社会公序良俗。例如,在招聘AI中,人类必须设定“不得因性别、种族歧视”的硬性约束,防止算法放大历史偏见。
🎛️ 三、 持续的监督与校准(如何做):构建“人在回路”的反馈闭环
机器在执行过程中会出现“漂移”或“幻觉”,人类的监督与校准是确保系统长期可靠运行的关键。
1、从“人在回路”到“人机共舞”
监督不是简单的“监视”,而是深度的校准。这包括对AI输出结果的验证、对不确定性的评估以及对边缘案例的处理。 人类提出问题和约束,AI生成方案,人类专家进行“批判”(结合语境、伦理测试),然后共同“修订”,实现有效的提出-批判-修订良性循环。同时, 良好的系统会诚实地展示不确定性(如置信区间)。人类需要培养“适当的信任”,既不过度依赖,也不盲目排斥,在AI自信度低或遇到高风险场景时及时介入,把握置信度校准。
2、责任兜底与持续进化
无论AI多么智能,责任必须由人兜底。这种责任感迫使人类必须保持对系统的监督权。 监督往往还包括根据环境变化动态调整系统参数。例如,当发现AI在特定场景下表现不佳时,人类需要通过“红队测试”或反馈微调(RLHF)来纠正其行为,实现系统的持续进化。
📌 总结:人类角色的升维
这三件事或许标志着人类角色的根本性转变:

【维度 传统工具时代 人机协同智能时代
关注点 关注“怎么做”(操作技能) 关注“做什么”(目标定义)与“不能做”(边界控制)
核心能力 执行力、记忆力、计算力 判断力、价值观、系统思维、伦理审查
责任形态 对操作过程负责 对最终结果和系统影响负责(责任兜底)】
总之,在人机协同的体系中,机器是强大的引擎(提供算力与执行),而人类是方向盘(定义目标)、刹车片(设定边界)和仪表盘(监督校准)。只有守住这三件事,人类才能真正驾驭AI,而不是被AI所取代。


转载本文请联系原作者获取授权,同时请注明本文来自刘伟科学网博客。 链接地址: https://blog.sciencenet.cn/blog-40841-1529560.html
上一篇: 当AI开始用API调用人类之际……