探路“一人公司”|对话OPC创业者肖镇中:研发小模型彻底颠覆“龙虾”限制
探路“一人公司”|对话OPC创业者肖镇中:研发小模型彻底颠覆“龙虾”限制
2026年04月06日 21:33
在AI大模型持续演进、资本与技术资源向头部集中之际,一种与“规模化叙事”并行的路径,正在悄然形成。2026年年初,随着AI Agent从“辅助工具”向“执行主体”加速演进,“少人+AI”的创业形态开始从技术圈内部实验,向更具现实可行性的产业路径外溢。围绕“大模型是否终局形态”的讨论,也逐步从能力边界延伸至部署方式与成本结构的再平衡。
“长远来看,AI不会只是云端超大模型一家独大。”在前海一处OPC社区办公空间内,刚刚回国不久的肖镇中对记者表示,“更多场景会在各种硬件和 消费电子 产品上发生,小模型的本地推理会成为基础能力。”在他看来,这一路径的现实意义,不仅在于技术分化,更在于对既有调用体系的重构——“云端的OpenClaw(‘龙虾’)能力很强,但它的使用方式,本身也构成了一种限制。”
与之并行的另一层变化,则来自创业组织形态本身。当“一个人公司”成为热词,其可行性边界与适用条件,也在实践中被不断检验与修正。“AI确实能放大生产力,但不是所有问题都能靠一人+AI解决。”肖镇中强调,这种“被放大”的效率背后,仍然存在精度验证与协同复杂度的结构性约束。
在技术路径与组织形态的双重变化中,一个更具现实意味的问题逐渐浮现:当AI从“能力竞赛”进入“部署竞赛”,端侧小模型是否正在成为打破“OpenClaw式调用依赖”的关键变量。
研发能“死命用”的端侧小模型
从团队构成看,肖镇中团队共9人,全部为 人工智能 方向博士,分别来自剑桥大学、牛津大学及马普所等顶尖高校与科研机构,长期从事大模型结构和训练相关研究,具备扎实的底层技术积累。
在此背景下,肖镇中向记者表示,团队选择切入小模型赛道,并非单一因素驱动:一方面源于团队的技术积累,另一方面则是对应用场景与部署逻辑的趋势判断。
具体而言,在当前主流技术路径中,大模型主要依托 数据中心 算力运行,并通过云端OpenClaw体系对外提供服务,其核心优势在于通用性与规模化能力输出。然而,随着应用逐步深入,使用成本高企、对网络环境的强依赖以及调用边界受限等问题,正开始在实际落地过程中持续暴露,并对部分场景形成约束。
“OpenClaw很强,但你必须联网、有调用限制,还要考虑费用。”肖镇中表示,“很多时候你不敢‘死命用’,因为每一次调用,本质上都是成本。”
相较之下,本地部署的小模型,则呈现出另一种使用逻辑,也构成对上述限制的直接回应。
“本地模型更像是你自己的算力资源,可以无限使用,不用担心账户被耗光。”他补充道,“某种程度上,它是在把原本受限于OpenClaw的能力,转化为可控的本地能力。”
在具体技术路径上,肖镇中强调,其团队的小模型并非单纯依赖“大模型蒸馏”这一降本方案,而是围绕端侧场景进行定向优化。
“蒸馏是一种方法,但我们更多是针对特定场景做模型设计。”他表示,“端侧设备的算力和计算方式都受限,不能简单复制 数据中心 的逻辑。”
在其描述中,小模型(通常在7B参数以下)虽然在通用能力上不及大模型,但通过任务专精,可以在特定场景中维持较高性能水平,并在使用方式上形成差异化优势。
“这更像是一种分工。”肖镇中表示,“通用能力交给大模型,但高频、刚需、对隐私敏感的场景,可以由本地小模型承接。”
基于这一判断,其团队将未来落地场景指向智能终端与本地化系统能力,包括手机、耳机、 智能家居 等设备。
“未来小模型会内置到设备里,成为本地的‘OpenClaw’。”他说,“用户不需要再每一次都去调用云端,而是直接在本地完成推理。”
这一表述,实际上指向一种更底层的变化:AI能力的“调用权”,正从平台侧向终端侧部分回流。
与技术路径变化并行的,是对“OPC创业形态”的实践性理解。
尽管团队规模为9人,已超出“一人公司”的字面定义,但肖镇中并未否认这一模式的内核逻辑。
“我们创业时,OPC还没那么流行。”他表示,“但我认同这种模式——用更少的人,通过AI撬动更大的生产力。”
在具体实践中,其团队已将AI工具深度嵌入开发流程。
“我们每天用coding agent写代码,效率提升是很明显的。”肖镇中向记者表示。
但与此同时,他也对当前市场对OPC模式的乐观预期,提出了更为审慎的观察。
“AI现在很热,大家觉得它什么都能干,但真正用好它解决复杂问题,并不简单。”他说。
例如,在文本生成类任务中,AI可以快速产出大量内容,但其准确性难以验证。
“写邮件、写文案,看起来很高效,但你很难确认它是不是完全正确。”他表示。
而在代码等高精度任务中,这一问题则更为突出。
“AI一次生成很多代码,你怎么快速验证对错?”肖镇中反问。
因此,在其看来,“一人公司”的适用范围仍存在明显边界。
“不是所有方向都能靠一人+AI搞定,很多工作还是需要团队协作。”他说。
颠覆限制仍需算力支持
如果说端侧小模型路径代表着一种技术方向的再选择,那么其背后的现实约束,则更多体现在资源结构与工程化能力上。
在当前阶段,肖镇中团队尚未完成融资。
“我们刚起步,还在准备融资阶段。”他向记者表示。
但即便在早期阶段,资源压力已经显现。
“做小模型,训练成本很高,很容易就烧掉上千万级资金。”他说。
这一表述,揭示出一个常被忽视的现实:小模型并不等同于“低成本模型”,其研发阶段依然高度依赖算力资源。
“本质问题是,模型变小之后,如何保证能力。”肖镇中表示。
在其看来,这一问题并非简单的工程优化,而是涉及模型能力与资源约束之间的结构性矛盾。
“大模型越大能力越强,现在要压缩它,同时还要保持性能,这是最难的。”他说。
目前,其团队部分算法已在实验环境中验证,并在学术界取得一定成果。
“我们在一些场景里已经跑通,也发表了论文。”他表示。
但从科研成果到产业化落地,仍存在明显断层。
“从实验室到工程落地,还有数据质量、硬件限制等一系列问题。”肖镇中指出。
这一阶段性差距,也直接影响到项目推进节奏与资源配置。
因此,在现阶段,其团队选择以自筹资金进行小规模验证。
“先把算法在小场景里打磨出来,再逐步放大。”他说。
在更宏观层面,这种资源约束并非个体问题,而是当前AI创业生态的共性特征。
“对我们来说,最大的需求就是算力资源。”肖镇中表示。
目前,地方政府已提供包括算力券在内的支持工具,但其具体使用与适配,仍需企业自行探索。
“我们后续会去了解和申请。”他说。
与此同时,他也提出了更具结构性的政策期待。
“如果在Token使用或者AI agent消耗上有支持,对整个生态都会有帮助。”肖镇中表示。
这一表述,实际上指向AI创业中另一个关键变量:调用成本结构。
在以OpenClaw为代表的云端调用体系中,Token消耗直接对应企业成本支出;而在高频使用场景下,这一成本会持续累积,形成对创新试错的约束。
因此,从算力到Token,本质上都是同一问题的不同表现形式——即AI能力的“可负担性”与“可控性”。
回到技术路径本身,小模型的价值,并不仅在于性能优化,更在于对这一成本结构的重构。
通过本地部署,其在一定程度上绕开了对OpenClaw的持续调用依赖,使AI能力从“按次计费”转向“本地资产化使用”,从而在使用频率、隐私保护与响应稳定性上形成新的均衡。
但与此同时,其前置投入与工程复杂度,也对创业团队提出了更高要求。
在肖镇中看来,这种路径并非对大模型的替代,而是一种并行演进。
“小模型不是替代大模型,而是结合。”他说。
在“云端大模型”与“端侧小模型”的分工之中,AI能力的供给方式,正在从单一中心化结构,走向更具层次感的分布式体系。而围绕“谁掌握调用权、谁承担成本、谁定义体验”的核心问题,这一结构性重构,或许才刚刚开始。
(文章来源:中国经营报)