投资人阅读版 · 2026-04

唯实通达 VisionStone

Tokens per Watt — 中国最强的 Token 工厂
算力基础设施建设 · 运维 · 消纳一体化服务商。
英伟达 NPN 体系内的 Solution Provider,NVIS 中国区核心执行方。
已交付 100 台 GB200 NV72(全亚洲第一)+ 660 台 H100 + 4 座超大规模集群。
本轮融资 ¥30 亿 · 投后估值 ¥50 亿
20 章详读 北京 · 2026 www.visionstone.net
§ 01 · 核心命题

为什么 Token 工厂 是这个时代最大的生意

每一次产业革命都有一个核心生产资料——蒸汽时代是煤炭,电气时代是电,信息时代是带宽。AI 时代,是 Token

AI 工厂收入 = Tokens × Watts
黄仁勋 · NVIDIA · 2026-04 Dwarkesh Podcast

AI 工厂的经济本质,被黄仁勋在 2026-04 的对谈中简化为一句话:"如果你建了一个 1GW 的数据中心,你最好让它产出最大数量的 Token,因为这直接转化为收入。我们是世界上每瓦产生 Token 数量最高(highest tokens per watt)的架构。"

公式的两端指向两个截然不同的产业:分子(Tokens)是英伟达及其生态在全力优化的方向——芯片、CUDA、Blackwell/Rubin/Feynman 四代 roadmap;分母(Watts)是能源、电力和数据中心基础设施的复杂组合。而在中国,这两端之间缺少一个关键环节——把英伟达的算力在中国大规模、高利用率地落地的执行方

这正是唯实通达的位置。

§ 02 · 三个不可逆趋势

万亿级确定性的结构性机会

三个几乎同步发生的产业转变,决定了 2026-2028 是 AI 基础设施赛道的黄金窗口。

趋势一 · 需求端:Token 消耗正在经历 100 万倍的量级跃迁。生成式 AI 正在向智能体(Agentic AI)演进——过去一次对话消耗数千 Token,未来一个 Agent 完成一次任务(查资料、写代码、调用工具)消耗数百万 Token。推理占企业 AI 预算 85%(Deloitte 2026),Token 单价从 $60/M 降至 <$1.5/M,但企业 AI 总支出达 $370 亿(YoY +3.2×)——价格下降的同时用量指数级爆发,这是典型的需求引爆曲线。

趋势二 · 供给端:算力饥荒持续到 2028 年以后。三星确认 2026 年内存产能完全售罄,HBM 价格同比涨 10 倍;台积电 N3 产能 86% 被英伟达吃掉;H100 发售 5 年后二手价依然约等于发售价。"算力是新石油"不再是隐喻——它就是 2026-2028 年全球最稀缺的生产资料。

趋势三 · 架构端:英伟达把 AI 工厂的门槛拉到了前所未有的高度。Vera Rubin 平台:7 款芯片 × 5 种机架 × 100% 液冷 × 三级网络互连(NVLink mm 级 → 以太网 m 级 → 光互联 km 级)× 异构推理。"买 GPU 装柜通电"的时代彻底结束——AI 工厂变成了一个垂直整合的复杂系统,没有全栈执行能力的公司已经无法参与游戏。

Investment Thesis

万亿级赛道 + 稀缺供给 + 技术门槛指数上升 = 具备全栈建设+调优能力的服务商会享受结构性溢价

§ 03 · 市场规模

这是一条万亿美元级的赛道

规模不是估算,是已经签出的采购合同和公开指引。

NVIDIA 架构订单
$1T
Blackwell + Vera Rubin · 至 2027
全球 CapEx
$650B
AWS/Google/Meta/Microsoft 年度
LPU 推理增量
$300B
解耦推理市场
企业智能体
$2T+
企业 IT → Agent 服务

黄仁勋 2026-03 GTC 宣布:未来两年英伟达架构相关订单收入将达到 1 万亿美元。全球四大云巨头的年度算力 CapEx 合计超过 6,500 亿美元(AWS $2,000 亿 + Google $1,850 亿 + Meta $1,350 亿 + Microsoft $1,000 亿)。这些数字的共同含义:需求已经兑现,剩下的问题是谁能建、谁能用得好

§ 04 · 一个被严重低估的真相

当前全球算力中心的实际利用率仅为 —— 35%

超过 60% 的 AI 基础设施资本投入正在"空转"。

这个数字背后的故事是:买到 GPU ≠ 用好 GPU。AI 训练和推理的出错率高达 70%(其中 10%-25% 归咎于物理线缆和网络连接问题)。问题不在 GPU 本身的算力——是基础设施层(网络通信、系统调优、液冷散热、存储协同)无法让 GPU 充分发挥性能。

出错率
70%
训练 + 推理
物理线缆问题
10–25%
出错归因
沉默的投资
>60%
算力在空转

"买得到硬件"≠"用得好硬件"。这个等式两边的差距,就是唯实通达的全部价值空间。

§ 05 · 唯实定位

英伟达体系内的核心执行者

唯实通达不是硬件经销商,也不是 IDC 运营商——是英伟达在中国区的官方基础设施执行方。

NVIDIA 官方资质

  1. NPN 授权 Solution Provider(数据中心网络产品,FY27 授权)——覆盖 InfiniBand/以太网 DPU、网卡、LinkX、交换机等核心网络设备。
  2. 英伟达官方认定 "智算集群最佳算力调优服务商"
  3. 独立处理高端算力产品全栈技术支持的专业技术支持中心。
  4. 可提供英伟达官方标准的网络集群交付、运维,以及官方 IB 网络工程师培训。

与 NVIS 的深度协作

NVIS(NVIDIA Infrastructure Specialist)是英伟达的基础设施专家团队,负责全球 AI 工厂的端到端部署——从设计审查、部署风险评估,到基准测试运行、性能调优、Fabric 网络验证。NVIDIA 官方文档明确要求 NVIS "与当地合作伙伴携手执行"(works hand-by-hand with NVIDIA local partners)

Key Statement

"唯实通达是 NVIS 在中国区的长期协作执行方。"

此前的大型集群交付——印尼 660 台 H100、香港 256 台 H100、全亚洲算力第一的 100 台 GB200 NV72——均与 NVIS 团队配合完成。这不是一个可以通过砸钱复制的关系,是在数年的联合作战中建立的深度信任。

§ 06 · NVIS 协作可量化

不是"卖算力小时",是为客户创造可量化的收入

我们优化客户的 算力栈(stack)某一段核心代码(kernel),模型常常就能加速 50%、2 倍甚至 3 倍 —— 这直接翻倍了客户的收入。

—— 黄仁勋 · 2026-04 · Dwarkesh Podcast

黄仁勋这段话,是对 NVIS 团队价值的官方界定——也正是唯实通达作为 NVIS 中国区执行方的核心能力。"stack" 指客户的整套软件算力栈(CUDA、框架、模型、数据管道);"kernel" 指 GPU 上执行的某一段高频核心代码。无论从宏观还是微观层面做优化,结果都是 客户同样一套硬件的吞吐能力成倍提升

对 AI 客户而言,吞吐翻倍 = 收入翻倍(同样的 GPU 装机量可以服务更多用户请求,或更快完成训练迭代)。这定义了唯实通达和传统算力租赁商的本质差异:我们不是按算力小时数收费的运营商,是为客户创造可量化吞吐增量与收入放大的合作方。这也是第二阶段(2027-)"基础租金 + 性能分成"混合定价模式的底层逻辑。

§ 07 · DSX Blueprint 中国缺口

官方 13 家合作伙伴,无一来自中国

NVIDIA 把 AI 工厂的"建造说明书"公开了,但中国市场的本土落地执行方还空缺。

2025-10 NVIDIA 发布 Omniverse DSX Blueprint——"首次将建筑、电力、冷却与 NVIDIA 的 AI 基础设施栈共同设计"的千兆瓦级 AI 工厂标准蓝图。由三大支柱构成:

EATON
GE VERNOVA
SIEMENS
SCHNEIDER
VERTIV
ABB
CAT
DELTA
JCI
HITACHI
HONEYWELL
PHOENIX
+1
CHINA 唯实

DSX 官方首发的 13 家合作伙伴,全部来自北美或欧洲。中国市场在 DSX 生态中是公开的空白——中国境内的 DSX 本土化落地,只能由 NPN 体系内的中国伙伴承担。唯实通达正处在这个位置。

这个缺口不是假设——唯实已在和 NVIDIA DSX 团队主动对接中,NVIDIA 也在同步寻找中国有绝对实力的合作方。从公式 Revenue = Tokens × Watts 的角度看,DSX 是同时操作分子和分母的唯一标准——填入这个缺口 = 拿到中国市场的规则制定权。

§ 08 · 全栈能力矩阵

能力远超 Solution Provider 授权范围

Solution Provider 只是进门的名片。真实覆盖的是 AI 数据中心从地基到算力的五层栈。

能力层唯实通达实力合作伙伴
网络 英伟达官方授权,IB/RoCE/NVLink 全栈调优,SHARP 网络计算技术实战(延迟降 7 倍,吞吐提升 2.5 倍 NVIDIA NPN 官方体系
存储 AI 存储全链路调优,GDS(GPU Direct Storage)技术实战 IBM Storage Scale System 6000——英伟达 DGX 认证存储
液冷 / 物建 高密度液冷方案实施,100% 液冷集群交付经验 国家级数据中心标准制定团队 + Supermicro 顾问团队
算力调优 40+ 项自研核心优化技术,三层架构全栈优化(应用层 → 中间层 → 基础层) 英伟达 Advisory Services 互补协作
集成交付 超大规模集群全栈交付(660 台 H100 级别),跨国交付能力 NVIDIA NVIS 团队长期配合

这五层能力不是拼接的——是一套在真实项目里打磨出来的协同方法论。网络优化让延迟降 7 倍,直接影响训练同步效率;存储 GDS 让数据绕过 CPU 直达 GPU,消除 I/O 瓶颈;液冷让单机柜功耗上限从 30kW 突破到 130kW+;调优让硬件从"刚跑起来"到"榨干每一瓦"。行业内没有第二个中国团队同时拥有这五层完整能力 + 英伟达官方背书

§ 09 · 实战即壁垒

从 H100 到 GB200 到 B300,每一代顶级架构的首批大规模落地

不可压缩的时间壁垒——后来者即使有同等资金也无法回溯已经发生的时间。

01 · 2026
100
台 GB200 NV72
某头部客户 · 全亚洲算力规模第一的单体集群,验证下一代架构全栈交付能力。
02 · 2024 初
660
台 H100
印尼某互联网海外算力中心 · 利用率突破 90%+,训练耗时缩短 50%+。
03
384
台 H100
亚太经合组织峰会 AI 算力支持 · 启元人工智能实验室。
04
256
台 H100
香港某大学智能算力中心 · 全港唯一超大规模 AI 计算中心。
05
128
台 H100
广州某智能算力中心 · 综合算力利用率高达 96%,行业标杆。
06
韩国 NAVER
军品级调试与高标准交付 · 海外头部 AI 企业服务经验。

2024 年初,行业绝大多数公司还停留在百台级 H100,唯实通达已完成 660 台超大规模交付。两年后,再次率先完成 100 台 GB200 NV72 全亚洲第一集群。从 H100 到 GB200 再到 B300,每一代最顶级架构的第一批大规模落地,唯实通达都是执行者。

为什么这个壁垒无法用钱抹平

黄仁勋 2026-04 Dwarkesh Podcast 公开确认英伟达全球 GPU 分配规则:"我们永远不搞价高者得,那是糟糕的商业操守。分配是先到先得(first in, first out),外加客户数据中心的准备进度。"

这意味着唯实通达的 660 台 H100 与 100 台 GB200 NV72——不是资本竞赛的结果,是时间窗口的结果。后来者即使有同等资金也无法回溯这段已经发生的时间。

§ 10 · 经济模型

利用率从 35% 到 90%+ 的 2.5× 杠杆

单台 B300 的经济账——固定成本不变,边际电力仅增 10%,产出却翻了 2.5 倍。

行业平均
35%
1.0×
唯实通达
90%+
2.5×

GPU 折旧和运维是固定成本——无论利用率是 35% 还是 90%,每月的设备折旧和机房租金都一样。多产出的 2.5 倍 Token 几乎全部转化为净利润,只需要多支付约 10% 的电力边际成本(GPU 满载功耗 vs 空转功耗的差值)。

指标 行业平均(35%) 唯实(90%+) 差异
GPU 利用率35%90%+2.6×
有效算力产出理论 35%理论 90%+2.5×
硬件折旧相同相同
电力成本基准+10–15%微增
单台年化 Token 产出1.0×2.5×2.5×
单台年化毛利1.0×~2.3×2.3×

这是 Revenue = Tokens per Watt 公式的直接兑现——唯实通达的调优能力让分子(Token 产出)翻 2.5 倍,分母(Watt 消耗)只增 10%,单位 Token 的产出效率是行业平均的 2.3 倍

§ 11 · 芯片禁售反而是机会

中国 AI 生态的不可绕过性

出口管制收紧的背景下,英伟达官方无法直接服务中国高端调优需求——唯实填补这个空白。更深层的护城河,来自中国 AI 生态本身。

黄仁勋在 2026-04 Dwarkesh Podcast 中给出了三个关键事实,正面回应了"出口管制能否挡住中国"的问题:

这些事实的战略含义:无论中美脱钩演化到何种程度,中国境内的 Token 需求与算力供给都会继续存在并扩张。唯实通达的商业模式不押注"只能买英伟达"这个单点假设——押注的是"在中国本土完成 Token 产出与交付"这个更结构性的命题。出口管制风险在这个框架下,被解构为业务护城河。

这不是一个风险,这是一个护城河。

§ 12 · 两阶段战略

先拿 入场券,再建 Token 工厂

两阶段跃迁——先用技术换信用(整机租赁),再用信用换规模(Token 工厂),用规模换利润(港股上市)。

维度 第一阶段 · 入场券(2026) 第二阶段 · Token 工厂(2027–)
商业模式整机租赁 + 闭口合约自有资产 + Token 产出 / 性能分成
目标客户国内顶级大模型公司全行业算力需求方
毛利率20–25%(战略性定价)40–60%(技术壁垒带来定价权)
核心产出客户背书 + 性能数据 + 运维口碑现金流 + 资产规模 + 上市条件
计价单位台 / 月百万 Token
规模效应线性指数增长(优化能力可复制到每台新增服务器)
NPN 资质Solution Provider升级为 NCP(NVIDIA Cloud Partner)

第一阶段的 500 台 B300 不是为了利润最大化——是为了拿到与中国最大几家大模型公司合作的资格。头部大模型公司的训练集群最小单位是数百台级别,低于此规模根本进不了一线客户的供应商名单。500 台是"入场券"的最低面值

一旦建立客户闭口合约 + 真实运营数据(利用率、PUE、故障率、训练周期),第二阶段的扩张就从"融资说服"变成"数据说服"——NCP 资质申请、银行资产抵押融资、下一轮股权融资都有了硬依据。

§ 13 · Milestone 01

2026 年 · 500 台 B300 算力中心

用实力换信用。

规模
500
台 B300
投资
¥30B
本轮融资
目标利用率
90%+
对比行业 35%
§ 14 · Milestone 02

2027 年 · 1,500 台 与 NCP 升级

从租赁跃迁到 Token 工厂——估值倍率从"服务商"跳到"云平台"。

NCP 的战略意义

NCP(NVIDIA Cloud Partner)的价值不在"云服务商"这个标签,在它带来的 5 个权益:GPU 优先供货权 · NVIDIA 生态客户引流 · 身份从"服务商"到"云平台" · 估值倍率从 PS 3–5× 跳到 PS 10–20× · AI Enterprise / Factory OS 等核心软件栈优先部署权。

§ 15 · Milestone 03 · MMXXVIII

2028 年 · 港股上市 —— 目标市值 ¥1,000 亿

规模经济的临界点。

IPO 融资
¥30B
稀释 10%
新建 B300
2,000
第三期
资产规模
¥300-500B
2028
净利润
>¥3B
年化

2028 年港股上市,标志着唯实通达从"重资产建设方"转型为"Token 产出平台"。上市后继续投入新型资产建设,目标资产规模 300-500 亿元,收入超过 30 亿元,净利润超过 3 亿元,市值突破 1,000 亿元,形成行业规模经济效应

2029-2030 年进入海外市场拓展阶段——从"中国最强的 Token 工厂"迈向"全球最强的 Token 工厂"。叙事主线:中国电力 · 中国工厂 · 全球 Token 输出

§ 16 · 全球对标 · Neocloud

赛道已被两家公开公司验证完毕

CoreWeave $420 亿市值,Nebius $270 亿市值——Neocloud 是当下被资本市场定价最清晰的 AI 基础设施赛道。

维度 CoreWeave (CRWV) Nebius (NBIS) 唯实通达(规划 · 2028)
市值$420B$270B¥1,000B
FY25 营收$51.3 亿 +168%$5.3 亿 +351%
合同积压$668 亿$460 亿+构建中
EBITDA 利润率~60%~40%(2026 指引)40–60%
NVIDIA 关系$20 亿投资 + $63 亿容量协议$20 亿投资(8.3% 股权)NPN SP · NVIS 协作 → NCP 2027
核心客户Microsoft(62%)、OpenAIMeta($270 亿/5 年)、Microsoft国内头部 AI 企业

CoreWeave / Nebius 卖 "GPU 算时";唯实通达卖 "Token 产出能力"

价值链上升一维

CoreWeave 从 2017 年加密矿场转型到 2025 年 NASDAQ 上市,用了 6 年时间,市值达到 $420 亿。Nebius 从 Yandex 剥离重组到恢复上市,只用了 1 年,市值 $270 亿。这两家公司共同证明:围绕英伟达 GPU 生态的算力基础设施是当下增速最快的资本市场主题。唯实通达在中国市场的对标定位不仅清晰,而且有更高的起点——调优层 + NVIS 合作方身份比纯算力租赁天然具备更高毛利空间。

§ 17 · 国内对标

在价值链上,唯实通达 高出一个维度

国内 AIDC 赛道已有千亿级上市公司——但卖的都是"机柜/电力"或"硬件"。唯实卖的是 Token 产出能力。

维度 润泽科技 协创数据 唯实通达
市值¥1,364 亿(PE 27×)¥736 亿(PE 63×)目标 ¥1,000 亿
定位园区级数据中心 + 智算租赁存储 + AI 服务器 + 智算运营Token 工厂一体化
卖什么机柜和电力硬件和基础服务Token 产出能力
毛利率~49%~19%40–60%
触碰 GPU 利用率✓ 核心差异

润泽科技以 ¥1,364 亿市值、49% 毛利率证明了 AIDC 赛道的盈利能力和资本市场溢价。但润泽卖的是"电力和机柜"——不触碰 GPU 利用率,商业模式在算力层下方。协创数据以 ¥736 亿市值、63× PE 证明市场对 AI 基础设施高成长的估值弹性,但核心是硬件制造(毛利率仅 19%)。

唯实通达的差异化:不卖机柜(润泽),不卖硬件(协创),卖 Token 产出能力。在价值链上比两家对标公司高出一个维度,对应更高的毛利率和更强的客户粘性(调优经验不可复制)。

§ 18 · 融资方案

三年三步:30 亿 → 100 亿 → IPO 30 亿

从建标杆到杠杆扩张到港股上市,每一步都有清晰的业务锚点。

本轮 TERMS · 2026

融资金额:¥30 亿

投后估值:¥50 亿(投前 ¥20 亿)

资金用途:500 台 B300 全栈建设

里程碑:2026 Q4 · 头部客户闭口合约

融资结构:唯实通达原有股东占比 30%;产业领投方出资 ¥20 亿,占比 50%,投后 ¥40 亿对应股权;其他财务投资人出资 ¥10 亿,占比 20%。本轮核心是产业锚点——谁进来,决定后续 2027-2028 的节奏。

2026

30 亿 · 建设标杆

500 台 B300 交付 · 头部大模型合约 · 真实运营数据建立信用

2027

100 亿 · 杠杆扩张

资产抵押融资 ¥90 亿 + 股权融资 ¥10-15 亿(稀释 10%)

1,500 台 B300 · NCP 升级 · 收入 ¥8 亿

2028

港股上市 · IPO ¥30 亿

上市估值 ¥300 亿(稀释 10%)· 新建 2,000 台 · 目标市值 ¥1,000 亿

2029+

全球 Token 输出

3 年中国最强,5 年全球最强

§ 19 · 风险与对冲

主动拆雷,不回避硬问题

五个投资人一定会问的风险,以及唯实的对冲策略。

风险场景应对策略已有验证
出口管制收紧 B300 供应受限 ① 改造国内存量低效数据中心,释放沉默算力;② 协助客户在合规国家部署算力 已交付 100 台 GB200 NV72;印尼、韩国等出海项目
NVIDIA 自建优化能力或自营云服务 Factory OS 推广落地本身需要体系内公司执行,自有 40+ 项优化技术是补充。云服务层面英伟达明确退让——黄仁勋公开承诺"做尽量多必要之事,做尽量少非核心之事;世界不缺云,CoreWeave、Nscale、Nebius 没有我们的支持就不会存在" 已是官方认定调优服务商;唯实在中国市场等同于 CoreWeave 之于美国市场
GPU 价格下跌或 Token 经济增速不及预期 H100 发售 5 年后二手价 ≈ 发售价;全球芯片供应不足下资产贬值风险极低 三星确认 2026 产能完全售罄
Token 单位成本年降 10 倍的资产折旧压力 黄仁勋公开预测 Token 计算成本"每年降到 1/10"。三重对冲:① 长期闭口合约锁定 12-18 个月回本窗口;② 跨代硬件下沉至 finetune / batch 推理等延迟不敏感场景持续产出;③ 电力成本优势让单位 Token 毛利持续优于同行 对标 CoreWeave:合同积压 $668 亿 + GPU 6 年折旧
重资产模式资金链风险 / 客户集中度 闭口合约锁定收入 + 资产抵押融资 + 客户多元化(NCP 后生态引流) CoreWeave/Nebius 均从单一大客户起步后多元化

这五个风险不是被动防守——是主动暴露。投资人对 BP 的第一层筛选是"这个团队有没有直面硬问题的心态"。唯实的对冲策略都有真实业务证据支撑(已交付集群、已签合约、已有运维数据),不是 PPT 层面的假设。

§ 20 · 一句话总结

英伟达定义了 AI 工厂的标准;
在中国,唯实通达是那个被选中的建设者

Revenue = Tokens × Watts。这条公式把 AI 工厂时代的所有问题简化成一个优化命题——在单位瓦特内产出尽可能多的 Token

分子端(Tokens)的优化已经由英伟达 + CUDA + 四代 roadmap 锁死。分母端(Watts)的优化是电力、液冷、调度、调优的系统工程——没有捷径。在中国,能同时操作公式两端的执行方,只有唯实通达

3 年中国最强,5 年全球最强。

中国电力 · 中国工厂 · 全球 Token

一页纸回顾