智东西
作者 | 李水青
编辑 | 漠影
智东西3月12日报道,今日,一笔4.6亿元预算的智算中心大单,在DeepSeek创始人梁文峰的家乡湛江尘埃落定。
湛江市AI渗透之城新质生产力基础设施建设项目工程总承包(EPC)中标公告显示,中标方为中时讯、中通服中睿和云天励飞的联合体,投标报价约4.2亿元。
这不仅是又一个城市级AI推理千卡集群的落地,更因其地处DeepSeek创始人的故乡而备受瞩目——项目明确支持DeepSeek大模型,而与之适配的国产芯片供应商,正落在中标方云天励飞身上。
据悉,根据项目规划,本次AI推理算力集群将分三期建设,并将采用云天励飞自研的国产AI推理加速卡。
一期项目将部署云天励飞X6000推理加速卡;二、三期建设将率先搭载公司最新一代芯片产品,二期部署规模达3000卡,三期规划规模为5000卡。
湛江发布宣布基于DeepSeek的天书大模型服务平台已启动
国产模型与国产算力的深度绑定,正在重塑智算中心建设的底层逻辑。
从模型端看,DeepSeek近期已将备受瞩目的更新版本DeepSeek-V4优先向国产芯片供应商开放提前访问权,据路透社报道,英伟达、AMD等芯片厂商尚未获得同等权限;从算力端看,云天励飞的DeepEdge10“算力积木”芯片平台已在春节期间完成对DeepSeek多款蒸馏模型的适配,并计划全面支持DeepSeek全系列模型。
这种从研发阶段就开始的双向奔赴,正彻底改变过去“买国外芯片+跑开源模型”的被动模式。
而当下正值“龙虾(AI Agent框架OpenClaw的昵称)”为代表的AI应用需求爆发,带来AI应用新范式的同时,也被认为是不折不扣的算力吞金兽。能否支撑起这样喷涌而出的推理需求,正成为智算中心建设和国产算力供应商的核心命题。
当国产模型与国产芯片深度绑定,它们将如何支撑AI应用的爆发?本文将深入解读湛江这笔4.2亿大单背后的技术布局、产业链协同逻辑,以及它对国产AI推理降本的解决之道。
一、梁文峰家乡的4.2亿大单,给国产算力指了条明路当下,全国推理智算中心建设如火如荼。知名行研机构德勤报告显示,2026年,推理算力在整体AI计算中的占比将达到66%,首次超过训练算力。推理正从过去的技术配角转变为决定AI商业化落地的核心主力。
而聚焦湛江本次公布的智能推理集群,它不仅达到上亿元级的投资规模,更是一个 “算力底座+平台能力+行业场景” 一体化AI新型项目,具备“国模国芯绑定”、“应用场景导向”的特征。
2月12日,湛江市AI渗透之城新质生产力基础设施建设项目工程总承包(EPC)招标公告发布。公告显示,项目建设内容包括基础设施建设及服务、应用支撑系统建设、应用系统建设、AI+行业应用匹配建设及外包等内容。
项目招标公告部分截图
具体内容包括:
1、构建基础资源服务:以购买服务方式搭建行业模型资源服务和通用资源服务,主要包括算法超市资源服务、大模型平台资源服务、推理集群资源服务和通用资源服务。
2、基础资源配套设施建设:基础资源配套设施建设主要包含安全设备、机柜建设、网络建设和配套软件平台建设。
3、智能体平台建设:建设智能体平台,包含AI服务中台、AI应用建设服务中心、AI服务广场等,构建全域协同的智能底座。
4、城市数据汇聚中枢建设:建设城市数据汇聚中枢系统,聚焦物联感知、视频资源、算法能力、可信数据空间能力的深度融合与可信流通,提供高质量数据支撑和智能决策能力。
5、AI+行业应用场景建设:以 “场景为王” 为导向,重点建设AI+海洋应用、AI+应急管理、AI+智慧教育、AI+综治应用、AI+自然资源、AI+政务应用等核心领域应用场景。
6、AI融合中心建设:利用现有场地,建设改造约3000平方米的AI融合中心,配备相关配套设施。
可以看到,这是一个“五脏俱全”的城市级AI推理千卡集群。而从第一种标候选人的能力圈来看,其是典型的 “基建(中时讯)+ 集成(中通服中睿)+ AI底座(云天励飞)” 全链条能力组合。
而背后,还有更隐蔽但深入国产技术力量协同。
二、国产芯片与DeepSeek的“双向奔赴”国产模型和国产算力双加持,成为当下国内智算中心建设的主流趋势。
从模型部署上来看,DeepSeek、GLM、Qwen、Kimi等国产模型都积极响应。此前2月底,据路透社今日报道,DeepSeek近期已将备受瞩目的更新版本DeepSeek-V4向国产芯片供应商提供提前访问权,以支持其优化处理器软件,确保模型在硬件上高效运行。但英伟达、AMD等芯片厂商还未获得权限。
而聚焦本次位于DeepSeek创始人梁文峰老家湛江的智算中心的大单,同样首要支持DeepSeek大模型。而与之适配的芯片供应商,无疑落到了本次的中标候选人云天励飞身上。
正如前文提到,3月3日,湛江当地官方媒体发文,湛江市与云天励飞达成深度合作,启动基于DeepSeek底座的天书大模型服务平台本地化部署工作。基于国产化技术栈打造的DeepSeek-R1 671B大模型,已于3月1日在湛江政务云平台成功上线运行。
由云天励飞官方公众号可知,春节期间,云天励飞芯片团队完成 DeepEdge10 “算力积木”芯片平台与DeepSeek-R1-Distill-Qwen-1.5B、DeepSeek-R1-Distill-Qwen-7B、DeepSeek-R1-Distill-Llama-8B大模型的适配,可以交付客户使用。DeepSeek-R1-Distill-Qwen-32B、DeepSeek-R1-Distill-Llama-70B大模型、DeepSeek V3/R1 671B MoE大模型也在有序适配中。适配完成后,DeepEdge10芯片平台将在端、边、云全面支持DeepSeek全系列模型。
云天励飞芯片已与DeepSeek适配
DeepEdge10系列芯片是专门针对大模型时代打造的芯片,支持包括Transformer模型、BEV模型、CV大模型、LLM大模型等各类不同架构的主流模型;基于自主可控的先进国产工艺打造,采用独特的“算力积木”架构,可灵活满足不同场景对算力的需求,为大模型推理提供强大动力。
值得关注的是,此次部署创新采用了“国产化技术栈+本地化服务”双轮驱动模式,通过构建政务专属模型与行业垂直模型的双层架构,既保障核心数据安全可控,又可实现行业知识的持续进化。
可以看到,国产模型与国产算力的深度绑定,正在重塑智算中心建设的底层逻辑:从过去 “买国外芯片+跑开源模型” 的被动模式,转向 “国产模型+国产芯片”的自主可控生态闭环。
三、“龙虾”吞金时代,吹响推理降本号角智算中心建设,最终要落到AI应用需求的响应上。
近期爆火的龙虾(AI Agent框架OpenClaw的昵称),在带来AI应用新范式的同时,也被普遍认为是一个不折不扣的算力吞金兽和token粉碎机。它的token消耗量级远超传统的对话式AI,给开发者和企业带来了实实在在的算力成本压力。
有用户分享,部署OpenClaw一周就消耗了超8000万token,按市场价折算费用高达4800元,远超预期。还有用户因程序陷入循环,短短6小时内就烧掉9000万token,产生超1100元的意外账单。企业级成本估算更加惊人,以一个重度使用的程序员“数字员工”为例,若每天消耗1亿token,使用像Claude Opus 4.6这类高性能模型,月成本可高达10万元人民币以上。
能否解决这样喷涌而出的推理需求?各地都在从统筹层面为此布局。在深圳刚刚发布的“龙虾十条”里就特别提及了算力与场景应用支持,要为“养虾人”协调智能算力资源,为经认定的相关企业提供三个月的免费算力资源,经相关评定后给予最高不超过400万元支持。
而降低AI推理成本,同样是智算中心建设者和国产算力供应商的目标所在。
以云天励飞为例,其就曾在2月5日公布了未来三年的大算力芯片战略——目标把百万tokens推理成本降低100倍以上。其提出“训练追赶、推理超车”的战略方向,并发布了基于“PD分离”思路的芯片路线图。
云天励飞董事长兼CEO陈宁博士谈道,训练芯片对成本相对不敏感,推理芯片的核心考量则在于成本、效率与市场经济学,每一个token背后的边际成本与整体性价比。未来公司希望把“百亿Token 1分钱”作为长期目标,加速大模型应用的规模化落地。
云天励飞董事长兼CEO陈宁博士
一句话,OpenClaw引爆的推理成本焦虑,恰恰给了国产算力“推理超车”的最佳战场,把AI从“烧钱玩具”变成普惠生产力,是整个产业最迫切的破局方向。
结语:国模国芯合体,加速推动推理降本湛江4.2亿大单背后,国产智算中心建设呈现新趋势:国模国芯绑定,加速推理降本。当DeepSeek与云天励飞的深度绑定走向城市级应用,当推理集群的建设目标转向token降本,这场国产技术的双向奔赴正让AI从烧钱走向普惠。
OpenClaw掀起的token消耗焦虑,恰恰给了国产算力“推理超车”的最佳战场。一边,地方政府如深圳龙岗为“养虾人”提供真金白银的算力补贴;另一边,国产芯片厂商如云天励飞也已设定“百万tokens 0.1分钱”的目标,整个产业正在形成共识。
推理成本每下降一个数量级,就意味着无数AI应用能从Demo走向规模化。长远来看,这种双轮驱动与推理超车路径,有望为中国AI产业构建起独立于海外的技术壁垒,在全球AI算力竞争中占据关键主动权。
本文内容由互联网用户自发贡献,该文观点仅代表作者本人。如发现本站有涉嫌抄袭侵权/违法违规的内容,请发送邮件至 203304862@qq.com
本文链接:https://jinnalai.com/jiaodian/814941.html
