高德地图发布“AI伴行”:让导航不止找方向还能做决策
【TechWeb】4月24日消息,今日,高德地图面向导航场景正式推出“AI 伴行”产品。据介绍,它不仅能理解用户的语言,还能实时感知用户的位置、方向与周边环境,通过摄像头理解街景画面,并结合地图数据给出与当前处境高度相关的建议。
例如,用户询问“我该往哪边走”,AI 伴行会根据用户当前朝向与周边地标回答:“朝着你右手边那个麦当劳的方向走。”系统会将抽象方向转化为用户眼前可见的参照物,从而降低理解成本。
据介绍,AI 伴行还支持视觉识别场景。用户在街区或历史建筑前举起手机,询问“这栋建筑给我讲讲”,系统会识别画面中的建筑,并结合地理位置提供历史信息、开放时间、门票情况等,同时提供前往入口的导航选项。如果用户对一家店铺感兴趣,也可以通过拍照获取评分、人均消费和招牌菜等信息。
这些场景背后,是高德为 AI 伴行构建的一套以 Agent 为核心的技术体系,主要由时空上下文感知、多模态融合理解、空间行动能力以及复杂任务处理机制四个部分组成。
在时空上下文感知上,AI 伴行运行在一个持续更新的时空上下文中,系统会实时感知用户的位置、行进方向、导航进度以及周边环境,并持续更新空间、时间、环境和行为等信息。当用户提问时,这些信息会一起参与AI的推理,使系统能够准确理解“前面”“左边”“顺路”等与具体情境密切相关的表达。
多模态融合能力上。AI 伴行能够同时融合文本、语音、视觉和位置信息,对用户所处的真实场景形成整体理解。例如,当用户对着一栋建筑说“这栋建筑真壮观,给我讲讲”时,系统会结合语音内容、摄像头画面以及当前位置识别建筑并提供相关介绍。
空间行动能力上,AI 伴行可以直接调用地图能力完成具体操作,例如规划路线、发起导航、在地图上标注推荐地点,或根据用户需求实时调整路径,系统还可以结合用户位置进行主动提示。
复杂任务处理机制上,AI 伴行内置了“龙虾模式”,能够将包含多个条件的需求拆解为不同步骤,并调用相应能力逐步完成。例如用户提出“在双井附近找一家评分4.5以上、人均100元以内的淮扬菜,饭后还能遛弯”,系统会先筛选符合条件的餐厅,再以餐厅为中心寻找适合散步的公园,并将相关地点和路线展示在地图上。
这一能力依托于 QwenPaw 任务处理框架,通过调用搜索、路线规划、视觉识别等不同工具,并在多轮对话中持续记录用户需求,使 AI 能够一步步完成更复杂的任务。