登录

首发实测|期待已久的HappyHorse 1.0,在千问能免费体验了


速读:APPSO第一时间拿到了体验资格,评测榜单的排名能说明结果,但是HappyHorse1.0生成的视频,到底有什么优点,一起来看看我们的实测。
2026年04月27日 19:2

那个一度在 Artifical Analysis 的 AI 视频竞技场排行榜中登顶第一的视频生成模型 HappyHorse 1.0, 我们终于能用官方版了,现在打开千问 APP 和千问创作Web端( c.qianwen.com ),直接就能用,甚至还有免费体验额度。

前段时间,一款名为 HappyHorse 1.0 的视频生成模型,悄然登顶权威 AI 评测平台 Artifical Analysis 的 AI 视频竞技场排行榜,引发社交媒体的纷纷议论。直到阿里正式认领 HappyHorse,谜团揭开,这匹快乐小马出自自家新成立不到一个月的 ATH 事业群。

今天,阿里公布了 HappyHorse 1.0 的体验渠道,千问官方首发灰测,千问 APP 和千问创作Web端都能直接使用。

移动端(千问 APP) ,我们只需将千问更新到最新版本,通过点击首页的「HappyHorse」胶囊,即可直接进入 HappyHorse 1.0 的生视频创作面板,并且千问还赠送了免费体验额度。

PC 网页版(千问创作 Web 端) ,针对有更专业创作需求的用户,可以通过浏览器打开 c.qianwen.com 登录使用。网页端每次生成消耗积分,综合对比下来,还是比较具有性价比的。

无论是文生视频还是图生视频,均支持最高 1080p 的视频分辨率。我们可以自由选择 16:9、9:16 或是 1:1 的视频宽高比,生成时长可选 5 秒、10 秒或15 秒,并且支持原生生成音频。

APPSO 第一时间拿到了体验资格,评测榜单的排名能说明结果,但是 HappyHorse 1.0 生成的视频,到底有什么优点,一起来看看我们的实测。

通过实测,能看到其实 HappyHorse 1.0 并没有在复杂的全能参考选项上做文章,而是 将核心发力点放在了动作、声音、空间的自然度上,加上合理的镜头语言,和风格的准确还原,整体表现确实惊艳。

用一句指令,直接搞定运镜和故事板

大部分的主流视频模型,都会把镜头运动当做一个库,给用户来调用。所谓的镜头运动,更像是从这些库里,推进、拉远、旋转,随机挑一个运镜方式,并没有配合画面里正在发生的事情。

而镜头感作为视频最重要的一部分,往往一眼就能感受到明显的差距,但它本身又很难用具体数值来量化。

HappyHorse 1.0 的处理方式也表现得可圈可点,切换镜头的时机必须是服务于作品。情绪需要收紧的地方,镜头近一点;需要交代环境的地方,给我们全景;背后是一套有叙事逻辑的调度。

同样一个提示词,丢给多个模型生成的视频画面,可能都会偏向「固定机位」,人物站在中间,缺乏镜头调度。因为这样最不容易出错,但是给视频的观感又大打折扣。

HappyHorse 1.0 在生成的视频里,则是像一个懂行的摄影指导,各种大师级运镜,从全景到近距离跟拍马蹄的扬尘,再流畅切换到低角度仰拍拔枪的瞬间。

它打破了传统的 AI 视频生成模型「为了稳妥而选择平庸」的安全构图,用大量扎实的镜头调度,把这段追逐戏的动态张力,原原本本地拍了出来。

情绪和动作都有了层次感,微表情也能演戏

对于很多视频模型,人物动作是最难解决的问题。即便使用详细的参考生成,到了后半段还是容易出现变形,比如手指多一根、脸部模糊或者动作节奏突变。

但 HappyHorse 1.0 在这个硬指标上表现非常稳定,一段 5 秒的视频,人物动作从头到尾基本保持连贯,穿帮的频率明显更低。

举个具体的例子,我们用的提示词是一个穿着白色裙子的女生走在花海里,从画面的左边走到右边,镜头跟随,女生转动裙子,捧起一朵花闻。

HappyHorse 1.0 给的动作过渡非常自然,女孩在花丛中走路完全没有那些「太空步」的滑移,从她转动裙摆,到捧起花朵凑近鼻子,整个动作流程行云流水。

动作有层次感,人物的表情同样真实。我们生成了一个小朋友咬下酸柠檬的视频,从咬下柠檬的瞬间,到强烈的酸味,开始带来面部肌肉紧绷、五官皱起、紧闭双眼,再到酸劲儿逐渐过去,面部肌肉慢慢放松,最后茫然地重新睁大眼睛。

通过动作和表情,让人物的情绪更有层次感,HappyHorse 1.0 生成视频也更不容易让人出戏。

官方数据显示, HappyHorse 1.0 的内部 GSB(Good-Significant-Bad 人类偏好评分)是 Wan2.7 的 3 倍,动作流畅性和清晰度都进步明显。

对话听起来更像真人,环境音也开始参与叙事

除了画面表现,HappyHorse 在 AI 视频配音上的表现也比其他模型更出色。

大部分的 AI 视频配音,都有一个很难绕开的问题:听上去像在「念」,不像在「说」。

语气是平的,语调不跟着情绪走,两个人对话的时候,一方说话,另一方就在那里等着,没有反应,没有表情变化,像两个人在分别完成自己的任务。

HappyHorse 1.0 在这里的处理,是对白真的有情境感。语气和语调贴着画面里的情绪,惊讶的时候语调是对的,轻松的时候节奏是松的。多人对话的场景里,听的那一方也是自然,会有表情,有细微的肌肉反应,不是在发呆等下一句。

环境音也是一样的逻辑。书写声、翻页声、远处的背景音,这些细节在大多数视频模型里是缺席的,或者听上去是从音效库里随机抓来的。

HappyHorse 1.0 里,这些声音跟画面里正在发生的事情是对得上的,而且能参与情绪。在安静的场景里,出现一点纸张摩擦声,或许比大多数配乐都更容易让人有沉浸感。

还有一个比较小众但实用的能力:多语言的唇形同步,覆盖了普通话、粤语、英语、日语、韩语、德语、法语等语言。

输入中文文本生成人物说话的视频,嘴型就能跟上语音。这个能力的想象空间相当大,从短视频配音到虚拟主播,未来都会用得上。

不需要复杂的风格提示词,轻松拿捏经典影视剧风格

如果说前面关于镜头、动作和声音几点解决的是 AI 视频的硬件问题,即 AI 视频不能让人出戏;风格的还原,则是让最后的画面更有戏。它会开始用色彩、光影和质感,去建立属于创作者的美学氛围。

风格的添加也很讲究,不是套一层滤镜,或者一个打包好的 LUT 包,它也需要视频模型对不同美学风格的了解,以应用合适的风格化。

HappyHorse 1.0 在特定风格的还原上,细节非常扎实。各类经典影视剧的风格、老港片里胶片的颗粒感和偏冷的高光,我们在实测的生成结果里面都能看到。

无论是老水浒/三国画风那种粗粝写实的历史厚重感、光影迷离的经典港风,还是强调高反差冷峻光影的美剧质感、主打细腻柔光的韩剧氛围,它都能精准拿捏。

如果你是个对画面质感有追求的创作者,非常推荐去千问里亲自感受一下这种「导演级」的美学控制力。

AI 视频赛道需要一匹黑马

告别了动辄半天的视频生成排队,一个 Video Arena 榜单第一的模型,现在不仅直接放到了手机 App 里随手可用,还给了免费体验额度,千问这波实在是给力。

回头看 HappyHorse 1.0的这几个特点, 动作不穿帮、镜头有语言感 ,解决了 AI 内容质量的可预期性,让我们不用再抱着「抽卡」的心态,去体验 AI 视频生成。

对白自然、真实的环境音、还有精准的风格化还原 ,更是让我们和创作者少了大量的后期修补成本,不需要在多个工具之间来回倒腾。

如果把这种极低门槛、高容错率的生成能力放到具体的商业语境中,价值是显而易见的。

对于新媒体运营、短剧导演或是电商营销团队而言,过去需要庞大后期团队和高昂拍摄预算才能完成的分镜预演、概念设计或视觉短片,现在只需在手机或电脑上输入指令就能快速落地。 在千问里,一个人就是一支高效的视听制作团队。

主题:HappyHorse1.0|生成|镜头|千问APP|免费体验额度