投资人阅读版 · 2026-04
唯实通达 VisionStone
Tokens per Watt — 中国最强的 Token 工厂
算力基础设施建设 · 运维 · 消纳一体化服务商。
英伟达 NPN 体系内的 Solution Provider,NVIS 中国区核心执行方。
已交付 100 台 GB200 NV72(全亚洲第一)+ 660 台 H100 + 4 座超大规模集群。
本轮融资 ¥30 亿 · 投后估值 ¥50 亿
20 章详读
北京 · 2026
www.visionstone.net
§ 01 · 核心命题
为什么 Token 工厂 是这个时代最大的生意
每一次产业革命都有一个核心生产资料——蒸汽时代是煤炭,电气时代是电,信息时代是带宽。AI 时代,是 Token。
AI 工厂的经济本质,被黄仁勋在 2026-04 的对谈中简化为一句话:"如果你建了一个 1GW 的数据中心,你最好让它产出最大数量的 Token,因为这直接转化为收入。我们是世界上每瓦产生 Token 数量最高(highest tokens per watt)的架构。"
公式的两端指向两个截然不同的产业:分子(Tokens)是英伟达及其生态在全力优化的方向——芯片、CUDA、Blackwell/Rubin/Feynman 四代 roadmap;分母(Watts)是能源、电力和数据中心基础设施的复杂组合。而在中国,这两端之间缺少一个关键环节——把英伟达的算力在中国大规模、高利用率地落地的执行方。
这正是唯实通达的位置。
§ 02 · 三个不可逆趋势
万亿级确定性的结构性机会
三个几乎同步发生的产业转变,决定了 2026-2028 是 AI 基础设施赛道的黄金窗口。
趋势一 · 需求端:Token 消耗正在经历 100 万倍的量级跃迁。生成式 AI 正在向智能体(Agentic AI)演进——过去一次对话消耗数千 Token,未来一个 Agent 完成一次任务(查资料、写代码、调用工具)消耗数百万 Token。推理占企业 AI 预算 85%(Deloitte 2026),Token 单价从 $60/M 降至 <$1.5/M,但企业 AI 总支出达 $370 亿(YoY +3.2×)——价格下降的同时用量指数级爆发,这是典型的需求引爆曲线。
趋势二 · 供给端:算力饥荒持续到 2028 年以后。三星确认 2026 年内存产能完全售罄,HBM 价格同比涨 10 倍;台积电 N3 产能 86% 被英伟达吃掉;H100 发售 5 年后二手价依然约等于发售价。"算力是新石油"不再是隐喻——它就是 2026-2028 年全球最稀缺的生产资料。
趋势三 · 架构端:英伟达把 AI 工厂的门槛拉到了前所未有的高度。Vera Rubin 平台:7 款芯片 × 5 种机架 × 100% 液冷 × 三级网络互连(NVLink mm 级 → 以太网 m 级 → 光互联 km 级)× 异构推理。"买 GPU 装柜通电"的时代彻底结束——AI 工厂变成了一个垂直整合的复杂系统,没有全栈执行能力的公司已经无法参与游戏。
Investment Thesis
万亿级赛道 + 稀缺供给 + 技术门槛指数上升 = 具备全栈建设+调优能力的服务商会享受结构性溢价。
§ 03 · 市场规模
这是一条万亿美元级的赛道
规模不是估算,是已经签出的采购合同和公开指引。
NVIDIA 架构订单
$1T
Blackwell + Vera Rubin · 至 2027
全球 CapEx
$650B
AWS/Google/Meta/Microsoft 年度
企业智能体
$2T+
企业 IT → Agent 服务
黄仁勋 2026-03 GTC 宣布:未来两年英伟达架构相关订单收入将达到 1 万亿美元。全球四大云巨头的年度算力 CapEx 合计超过 6,500 亿美元(AWS $2,000 亿 + Google $1,850 亿 + Meta $1,350 亿 + Microsoft $1,000 亿)。这些数字的共同含义:需求已经兑现,剩下的问题是谁能建、谁能用得好。
§ 04 · 一个被严重低估的真相
当前全球算力中心的实际利用率仅为 —— 35%
超过 60% 的 AI 基础设施资本投入正在"空转"。
这个数字背后的故事是:买到 GPU ≠ 用好 GPU。AI 训练和推理的出错率高达 70%(其中 10%-25% 归咎于物理线缆和网络连接问题)。问题不在 GPU 本身的算力——是基础设施层(网络通信、系统调优、液冷散热、存储协同)无法让 GPU 充分发挥性能。
"买得到硬件"≠"用得好硬件"。这个等式两边的差距,就是唯实通达的全部价值空间。
§ 05 · 唯实定位
英伟达体系内的核心执行者
唯实通达不是硬件经销商,也不是 IDC 运营商——是英伟达在中国区的官方基础设施执行方。
NVIDIA 官方资质
- NPN 授权 Solution Provider(数据中心网络产品,FY27 授权)——覆盖 InfiniBand/以太网 DPU、网卡、LinkX、交换机等核心网络设备。
- 英伟达官方认定 "智算集群最佳算力调优服务商"。
- 独立处理高端算力产品全栈技术支持的专业技术支持中心。
- 可提供英伟达官方标准的网络集群交付、运维,以及官方 IB 网络工程师培训。
与 NVIS 的深度协作
NVIS(NVIDIA Infrastructure Specialist)是英伟达的基础设施专家团队,负责全球 AI 工厂的端到端部署——从设计审查、部署风险评估,到基准测试运行、性能调优、Fabric 网络验证。NVIDIA 官方文档明确要求 NVIS "与当地合作伙伴携手执行"(works hand-by-hand with NVIDIA local partners)。
Key Statement
"唯实通达是 NVIS 在中国区的长期协作执行方。"
此前的大型集群交付——印尼 660 台 H100、香港 256 台 H100、全亚洲算力第一的 100 台 GB200 NV72——均与 NVIS 团队配合完成。这不是一个可以通过砸钱复制的关系,是在数年的联合作战中建立的深度信任。
§ 06 · NVIS 协作可量化
不是"卖算力小时",是为客户创造可量化的收入
我们优化客户的 算力栈(stack)或 某一段核心代码(kernel),模型常常就能加速 50%、2 倍甚至 3 倍 —— 这直接翻倍了客户的收入。
—— 黄仁勋 · 2026-04 · Dwarkesh Podcast
黄仁勋这段话,是对 NVIS 团队价值的官方界定——也正是唯实通达作为 NVIS 中国区执行方的核心能力。"stack" 指客户的整套软件算力栈(CUDA、框架、模型、数据管道);"kernel" 指 GPU 上执行的某一段高频核心代码。无论从宏观还是微观层面做优化,结果都是 客户同样一套硬件的吞吐能力成倍提升。
对 AI 客户而言,吞吐翻倍 = 收入翻倍(同样的 GPU 装机量可以服务更多用户请求,或更快完成训练迭代)。这定义了唯实通达和传统算力租赁商的本质差异:我们不是按算力小时数收费的运营商,是为客户创造可量化吞吐增量与收入放大的合作方。这也是第二阶段(2027-)"基础租金 + 性能分成"混合定价模式的底层逻辑。
§ 07 · DSX Blueprint 中国缺口
官方 13 家合作伙伴,无一来自中国
NVIDIA 把 AI 工厂的"建造说明书"公开了,但中国市场的本土落地执行方还空缺。
2025-10 NVIDIA 发布 Omniverse DSX Blueprint——"首次将建筑、电力、冷却与 NVIDIA 的 AI 基础设施栈共同设计"的千兆瓦级 AI 工厂标准蓝图。由三大支柱构成:
- DSX Flex(动态电网协同)—— 用 AI 智能体实时平衡能源需求与电网状态
- DSX Boost(单位瓦特性能优化)—— 同一功率下 GPU 吞吐量提升 30%
- DSX Exchange(IT/OT 统一集成)—— 电力、冷却、安全系统与 NVIDIA 软件栈无缝对接
EATON
GE VERNOVA
SIEMENS
SCHNEIDER
VERTIV
ABB
CAT
DELTA
JCI
HITACHI
HONEYWELL
PHOENIX
+1
CHINA
唯实
DSX 官方首发的 13 家合作伙伴,全部来自北美或欧洲。中国市场在 DSX 生态中是公开的空白——中国境内的 DSX 本土化落地,只能由 NPN 体系内的中国伙伴承担。唯实通达正处在这个位置。
这个缺口不是假设——唯实已在和 NVIDIA DSX 团队主动对接中,NVIDIA 也在同步寻找中国有绝对实力的合作方。从公式 Revenue = Tokens × Watts 的角度看,DSX 是同时操作分子和分母的唯一标准——填入这个缺口 = 拿到中国市场的规则制定权。
§ 08 · 全栈能力矩阵
能力远超 Solution Provider 授权范围
Solution Provider 只是进门的名片。真实覆盖的是 AI 数据中心从地基到算力的五层栈。
| 能力层 | 唯实通达实力 | 合作伙伴 |
| 网络 |
英伟达官方授权,IB/RoCE/NVLink 全栈调优,SHARP 网络计算技术实战(延迟降 7 倍,吞吐提升 2.5 倍) |
NVIDIA NPN 官方体系 |
| 存储 |
AI 存储全链路调优,GDS(GPU Direct Storage)技术实战 |
IBM Storage Scale System 6000——英伟达 DGX 认证存储 |
| 液冷 / 物建 |
高密度液冷方案实施,100% 液冷集群交付经验 |
国家级数据中心标准制定团队 + Supermicro 顾问团队 |
| 算力调优 |
40+ 项自研核心优化技术,三层架构全栈优化(应用层 → 中间层 → 基础层) |
英伟达 Advisory Services 互补协作 |
| 集成交付 |
超大规模集群全栈交付(660 台 H100 级别),跨国交付能力 |
NVIDIA NVIS 团队长期配合 |
这五层能力不是拼接的——是一套在真实项目里打磨出来的协同方法论。网络优化让延迟降 7 倍,直接影响训练同步效率;存储 GDS 让数据绕过 CPU 直达 GPU,消除 I/O 瓶颈;液冷让单机柜功耗上限从 30kW 突破到 130kW+;调优让硬件从"刚跑起来"到"榨干每一瓦"。行业内没有第二个中国团队同时拥有这五层完整能力 + 英伟达官方背书。
§ 09 · 实战即壁垒
从 H100 到 GB200 到 B300,每一代顶级架构的首批大规模落地
不可压缩的时间壁垒——后来者即使有同等资金也无法回溯已经发生的时间。
01 · 2026
100
台 GB200 NV72
某头部客户 · 全亚洲算力规模第一的单体集群,验证下一代架构全栈交付能力。
02 · 2024 初
660
台 H100
印尼某互联网海外算力中心 · 利用率突破 90%+,训练耗时缩短 50%+。
03
384
台 H100
亚太经合组织峰会 AI 算力支持 · 启元人工智能实验室。
04
256
台 H100
香港某大学智能算力中心 · 全港唯一超大规模 AI 计算中心。
05
128
台 H100
广州某智能算力中心 · 综合算力利用率高达 96%,行业标杆。
06
—
韩国 NAVER
军品级调试与高标准交付 · 海外头部 AI 企业服务经验。
2024 年初,行业绝大多数公司还停留在百台级 H100,唯实通达已完成 660 台超大规模交付。两年后,再次率先完成 100 台 GB200 NV72 全亚洲第一集群。从 H100 到 GB200 再到 B300,每一代最顶级架构的第一批大规模落地,唯实通达都是执行者。
为什么这个壁垒无法用钱抹平
黄仁勋 2026-04 Dwarkesh Podcast 公开确认英伟达全球 GPU 分配规则:"我们永远不搞价高者得,那是糟糕的商业操守。分配是先到先得(first in, first out),外加客户数据中心的准备进度。"
这意味着唯实通达的 660 台 H100 与 100 台 GB200 NV72——不是资本竞赛的结果,是时间窗口的结果。后来者即使有同等资金也无法回溯这段已经发生的时间。
§ 10 · 经济模型
利用率从 35% 到 90%+ 的 2.5× 杠杆
单台 B300 的经济账——固定成本不变,边际电力仅增 10%,产出却翻了 2.5 倍。
GPU 折旧和运维是固定成本——无论利用率是 35% 还是 90%,每月的设备折旧和机房租金都一样。多产出的 2.5 倍 Token 几乎全部转化为净利润,只需要多支付约 10% 的电力边际成本(GPU 满载功耗 vs 空转功耗的差值)。
| 指标 |
行业平均(35%) |
唯实(90%+) |
差异 |
| GPU 利用率 | 35% | 90%+ | 2.6× |
| 有效算力产出 | 理论 35% | 理论 90%+ | 2.5× |
| 硬件折旧 | 相同 | 相同 | — |
| 电力成本 | 基准 | +10–15% | 微增 |
| 单台年化 Token 产出 | 1.0× | 2.5× | 2.5× |
| 单台年化毛利 | 1.0× | ~2.3× | 2.3× |
这是 Revenue = Tokens per Watt 公式的直接兑现——唯实通达的调优能力让分子(Token 产出)翻 2.5 倍,分母(Watt 消耗)只增 10%,单位 Token 的产出效率是行业平均的 2.3 倍。
§ 11 · 芯片禁售反而是机会
中国 AI 生态的不可绕过性
出口管制收紧的背景下,英伟达官方无法直接服务中国高端调优需求——唯实填补这个空白。更深层的护城河,来自中国 AI 生态本身。
黄仁勋在 2026-04 Dwarkesh Podcast 中给出了三个关键事实,正面回应了"出口管制能否挡住中国"的问题:
- 中国拥有全球 50% 的 AI 研究人员和开发者。黄仁勋原话:"美国不应该放弃这一点。"
- 中国制造全球 60% 以上的主流芯片产能,并通过华为昇腾等国产替代构建独立算力体系——"华为刚刚创下历史最高营收记录,出货了数百万颗 AI 芯片。"
- 7nm 芯片对当前 AI 训练已经足够——"7nm 芯片本质上就是 Hopper。今天的模型很大程度上就是在 Hopper 一代上训练的。"
这些事实的战略含义:无论中美脱钩演化到何种程度,中国境内的 Token 需求与算力供给都会继续存在并扩张。唯实通达的商业模式不押注"只能买英伟达"这个单点假设——押注的是"在中国本土完成 Token 产出与交付"这个更结构性的命题。出口管制风险在这个框架下,被解构为业务护城河。
§ 12 · 两阶段战略
先拿 入场券,再建 Token 工厂
两阶段跃迁——先用技术换信用(整机租赁),再用信用换规模(Token 工厂),用规模换利润(港股上市)。
| 维度 |
第一阶段 · 入场券(2026) |
第二阶段 · Token 工厂(2027–) |
| 商业模式 | 整机租赁 + 闭口合约 | 自有资产 + Token 产出 / 性能分成 |
| 目标客户 | 国内顶级大模型公司 | 全行业算力需求方 |
| 毛利率 | 20–25%(战略性定价) | 40–60%(技术壁垒带来定价权) |
| 核心产出 | 客户背书 + 性能数据 + 运维口碑 | 现金流 + 资产规模 + 上市条件 |
| 计价单位 | 台 / 月 | 百万 Token |
| 规模效应 | 线性 | 指数增长(优化能力可复制到每台新增服务器) |
| NPN 资质 | Solution Provider | 升级为 NCP(NVIDIA Cloud Partner) |
第一阶段的 500 台 B300 不是为了利润最大化——是为了拿到与中国最大几家大模型公司合作的资格。头部大模型公司的训练集群最小单位是数百台级别,低于此规模根本进不了一线客户的供应商名单。500 台是"入场券"的最低面值。
一旦建立客户闭口合约 + 真实运营数据(利用率、PUE、故障率、训练周期),第二阶段的扩张就从"融资说服"变成"数据说服"——NCP 资质申请、银行资产抵押融资、下一轮股权融资都有了硬依据。
§ 13 · Milestone 01
2026 年 · 500 台 B300 算力中心
用实力换信用。
- 完成 500 台 B300 算力中心建设,调优性能做到行业最优
- 与国内头部大模型公司签署 长期闭口合约
- 上线高效能 SaaS 管理系统,实现算力运营可视化
- 用真实运营数据(利用率 >90%、PUE、故障率)建立行业信用标杆
- 本阶段核心 KPI 不是利润,是客户背书和技术验证
§ 14 · Milestone 02
2027 年 · 1,500 台 与 NCP 升级
从租赁跃迁到 Token 工厂——估值倍率从"服务商"跳到"云平台"。
- 完成 NCP 资质升级——获得 GPU 优先供货权和 NVIDIA 生态客户引流
- 基于第一期资产和客户合约,完成银行资产抵押再融资
- 新建第二期 1,500 台 B300 算力中心
- 资产规模超过 ¥120 亿,收入 ¥8 亿
- 探索 "基础租金 + 性能分成"的混合定价模式——基于 NVIS 优化能力可量化的 2–3 倍吞吐增量,与客户共享 Token 产出收益
- 准备港股上市
NCP 的战略意义
NCP(NVIDIA Cloud Partner)的价值不在"云服务商"这个标签,在它带来的 5 个权益:GPU 优先供货权 · NVIDIA 生态客户引流 · 身份从"服务商"到"云平台" · 估值倍率从 PS 3–5× 跳到 PS 10–20× · AI Enterprise / Factory OS 等核心软件栈优先部署权。
§ 15 · Milestone 03 · MMXXVIII
2028 年 · 港股上市 —— 目标市值 ¥1,000 亿
规模经济的临界点。
2028 年港股上市,标志着唯实通达从"重资产建设方"转型为"Token 产出平台"。上市后继续投入新型资产建设,目标资产规模 300-500 亿元,收入超过 30 亿元,净利润超过 3 亿元,市值突破 1,000 亿元,形成行业规模经济效应。
2029-2030 年进入海外市场拓展阶段——从"中国最强的 Token 工厂"迈向"全球最强的 Token 工厂"。叙事主线:中国电力 · 中国工厂 · 全球 Token 输出。
§ 16 · 全球对标 · Neocloud
赛道已被两家公开公司验证完毕
CoreWeave $420 亿市值,Nebius $270 亿市值——Neocloud 是当下被资本市场定价最清晰的 AI 基础设施赛道。
| 维度 |
CoreWeave (CRWV) |
Nebius (NBIS) |
唯实通达(规划 · 2028) |
| 市值 | $420B | $270B | ¥1,000B |
| FY25 营收 | $51.3 亿 +168% | $5.3 亿 +351% | — |
| 合同积压 | $668 亿 | $460 亿+ | 构建中 |
| EBITDA 利润率 | ~60% | ~40%(2026 指引) | 40–60% |
| NVIDIA 关系 | $20 亿投资 + $63 亿容量协议 | $20 亿投资(8.3% 股权) | NPN SP · NVIS 协作 → NCP 2027 |
| 核心客户 | Microsoft(62%)、OpenAI | Meta($270 亿/5 年)、Microsoft | 国内头部 AI 企业 |
CoreWeave / Nebius 卖 "GPU 算时";唯实通达卖 "Token 产出能力"。
价值链上升一维
CoreWeave 从 2017 年加密矿场转型到 2025 年 NASDAQ 上市,用了 6 年时间,市值达到 $420 亿。Nebius 从 Yandex 剥离重组到恢复上市,只用了 1 年,市值 $270 亿。这两家公司共同证明:围绕英伟达 GPU 生态的算力基础设施是当下增速最快的资本市场主题。唯实通达在中国市场的对标定位不仅清晰,而且有更高的起点——调优层 + NVIS 合作方身份比纯算力租赁天然具备更高毛利空间。
§ 17 · 国内对标
在价值链上,唯实通达 高出一个维度
国内 AIDC 赛道已有千亿级上市公司——但卖的都是"机柜/电力"或"硬件"。唯实卖的是 Token 产出能力。
| 维度 |
润泽科技 |
协创数据 |
唯实通达 |
| 市值 | ¥1,364 亿(PE 27×) | ¥736 亿(PE 63×) | 目标 ¥1,000 亿 |
| 定位 | 园区级数据中心 + 智算租赁 | 存储 + AI 服务器 + 智算运营 | Token 工厂一体化 |
| 卖什么 | 机柜和电力 | 硬件和基础服务 | Token 产出能力 |
| 毛利率 | ~49% | ~19% | 40–60% |
| 触碰 GPU 利用率 | ✕ | ✕ | ✓ 核心差异 |
润泽科技以 ¥1,364 亿市值、49% 毛利率证明了 AIDC 赛道的盈利能力和资本市场溢价。但润泽卖的是"电力和机柜"——不触碰 GPU 利用率,商业模式在算力层下方。协创数据以 ¥736 亿市值、63× PE 证明市场对 AI 基础设施高成长的估值弹性,但核心是硬件制造(毛利率仅 19%)。
唯实通达的差异化:不卖机柜(润泽),不卖硬件(协创),卖 Token 产出能力。在价值链上比两家对标公司高出一个维度,对应更高的毛利率和更强的客户粘性(调优经验不可复制)。
§ 18 · 融资方案
三年三步:30 亿 → 100 亿 → IPO 30 亿
从建标杆到杠杆扩张到港股上市,每一步都有清晰的业务锚点。
本轮 TERMS · 2026
融资金额:¥30 亿
投后估值:¥50 亿(投前 ¥20 亿)
资金用途:500 台 B300 全栈建设
里程碑:2026 Q4 · 头部客户闭口合约
融资结构:唯实通达原有股东占比 30%;产业领投方出资 ¥20 亿,占比 50%,投后 ¥40 亿对应股权;其他财务投资人出资 ¥10 亿,占比 20%。本轮核心是产业锚点——谁进来,决定后续 2027-2028 的节奏。
2026
30 亿 · 建设标杆
500 台 B300 交付 · 头部大模型合约 · 真实运营数据建立信用
2027
100 亿 · 杠杆扩张
资产抵押融资 ¥90 亿 + 股权融资 ¥10-15 亿(稀释 10%)
1,500 台 B300 · NCP 升级 · 收入 ¥8 亿
2028
港股上市 · IPO ¥30 亿
上市估值 ¥300 亿(稀释 10%)· 新建 2,000 台 · 目标市值 ¥1,000 亿
2029+
全球 Token 输出
3 年中国最强,5 年全球最强
§ 19 · 风险与对冲
主动拆雷,不回避硬问题
五个投资人一定会问的风险,以及唯实的对冲策略。
| 风险场景 | 应对策略 | 已有验证 |
| 出口管制收紧 B300 供应受限 |
① 改造国内存量低效数据中心,释放沉默算力;② 协助客户在合规国家部署算力 |
已交付 100 台 GB200 NV72;印尼、韩国等出海项目 |
| NVIDIA 自建优化能力或自营云服务 |
Factory OS 推广落地本身需要体系内公司执行,自有 40+ 项优化技术是补充。云服务层面英伟达明确退让——黄仁勋公开承诺"做尽量多必要之事,做尽量少非核心之事;世界不缺云,CoreWeave、Nscale、Nebius 没有我们的支持就不会存在" |
已是官方认定调优服务商;唯实在中国市场等同于 CoreWeave 之于美国市场 |
| GPU 价格下跌或 Token 经济增速不及预期 |
H100 发售 5 年后二手价 ≈ 发售价;全球芯片供应不足下资产贬值风险极低 |
三星确认 2026 产能完全售罄 |
| Token 单位成本年降 10 倍的资产折旧压力 |
黄仁勋公开预测 Token 计算成本"每年降到 1/10"。三重对冲:① 长期闭口合约锁定 12-18 个月回本窗口;② 跨代硬件下沉至 finetune / batch 推理等延迟不敏感场景持续产出;③ 电力成本优势让单位 Token 毛利持续优于同行 |
对标 CoreWeave:合同积压 $668 亿 + GPU 6 年折旧 |
| 重资产模式资金链风险 / 客户集中度 |
闭口合约锁定收入 + 资产抵押融资 + 客户多元化(NCP 后生态引流) |
CoreWeave/Nebius 均从单一大客户起步后多元化 |
这五个风险不是被动防守——是主动暴露。投资人对 BP 的第一层筛选是"这个团队有没有直面硬问题的心态"。唯实的对冲策略都有真实业务证据支撑(已交付集群、已签合约、已有运维数据),不是 PPT 层面的假设。
§ 20 · 一句话总结
英伟达定义了 AI 工厂的标准;
在中国,唯实通达是那个被选中的建设者
Revenue = Tokens × Watts。这条公式把 AI 工厂时代的所有问题简化成一个优化命题——在单位瓦特内产出尽可能多的 Token。
分子端(Tokens)的优化已经由英伟达 + CUDA + 四代 roadmap 锁死。分母端(Watts)的优化是电力、液冷、调度、调优的系统工程——没有捷径。在中国,能同时操作公式两端的执行方,只有唯实通达。
3 年中国最强,5 年全球最强。
中国电力 · 中国工厂 · 全球 Token
一页纸回顾
- 赛道:万亿级 Token 经济,需求增速 100 万倍,供给缺口持续到 2028+
- 定位:中国最强的 Token 工厂——同样硬件投入,2.5 倍 Token 产出
- 壁垒:NVIDIA NVIS 协作方 + 40+ 项自研调优技术 + 每代最新架构首批大规模交付者
- 节奏:2026 入场券(500 台 B300)→ 2027 NCP 升级 → 2028 港股上市
- 融资:2026 年 30 亿 → 2027 年 ~100 亿 → 2028 年 IPO 30 亿
- 目标:3 年中国最强,5 年全球最强,2028 年市值 ¥1,000 亿