C114门户论坛百科APPEN| 举报 切换到宽版

亚星游戏官网

 找回密码
 注册

只需一步,快速开始

短信验证,便捷登录

搜索

军衔等级:

亚星游戏官网-yaxin222  一级通信军士

注册:2018-6-2420
发表于 2025-2-14 11:51:43 |显示全部楼层
一、基本情况
DeepSeek的模型开源对整个AI领域产生了革命性影响。一方面,它对企业和个人开发者开辟了全新的AI发展路径,促进了AI应用爆发,同时也会激发市场对算力的强劲需求。
另一方面,它的开源特性深度促进了大模型和云计算的融合。第一个是MaaS云服务会成为主流的服务模式。Deep seek的AI能力能够无限集成到云计算台,打破了过往的模型能力壁垒,使得中小企业云计算能够具备提供AI的服务能力。MaaS云服务会成为模型和应用的桥梁,将模型封装成为云服务,企业可以直接调用API接口和配套服务,经营模式会成为中期的主流。第二点是拓展云服务的应用场景。基于自然语言处理和图像DeepSeek,云服务企业会在金融、医疗、精准营销等多个行业拓展应用场景,为行业的AI发展注入新的活力。第三点是推动AI的应用出海。大家之前服务的一些生数科技、mini max等客户,他们在海外已经排名靠前。但DeepSeek是一个全球应用级、现象级的应用,他们也会在美国、欧洲、印度等广泛使用。第四个方面,AI平权效应有助于云厂商的毛利提升。DeepSeek的模型平权效应打破了原有的产业价值链分配,打破了模型壁垒,给模型厂商和一线厂商带来超额利润。具备场景生态优势的二线厂商,可以利用开源,足以赶上模型的一个升位差。
这类云厂商的能力有望得到提升,这是大家讲到的DeepSeek对云计算行业产生的深远影响。
首都在线的战略:从24年大家一直在一云多模、一云多芯和一云多池策略,打造了基于m种模型和n种芯片的首都在线智算云。一云多模主要是大家的卖服务,首机在线的GPUZone平台,大家已经将国内的DeepSeek、智谱、千问,包括海外Llama等主流大模型都部署到了大家的平台上。后期还会有行业应用,包括生数都会转化为云上的应用,将模型转化为云服务,促进企业和个人开发者直接调用API接口和配套服务。为此,大家也把产品搭建从l1到l5层,涵盖算力到模型的全栈产品体系。
底层是大家的计算中心gpu裸金属、网络存储等基础设施支撑整个体系进行。中间层是gpu云主机、容器等APP服务,满足高弹性算力需求。上层是大模型和行业垂类模型,满足千万AI应用、用户及个人开发者对模型使用的差异化需求。这种规划让大家有了全栈服务能力:一方面,客户能得到一站式服务,从算力供应到定制模型的多样选择,省时又省力;另一方面,大家能更好地把控业务,提升服务质量和响应速度。一云多芯实现国产芯片全面适配。DeepSeek发布对原英伟达CUDA生态造成冲击,国产芯片通过适配有望在下一轮AI推理应用环节中落地。大家已被HW等多家国产芯片完成适配工作,并成功构建英伟达和国产算力的异构构资源池。
大家提前布局了以HW为代表的国产芯片生态,为下一步奠定坚实发展基础。一云多池通过算力调度纳管方式,将第三方碎片化控制算力利用起来。大家能在轻资产运营基础上,获得海量弹性计算、弹性算力资源。目前,大家算力芯片规模超过两万,其中90%为推理芯片,主要是英伟达。在两万片中,60%芯片是大家纳管的。
第三类是国产芯片,大家会购买其芯片,并基于这些芯片构建资源池,以提供云服务。
最后一个方面,我讲一下大家的全球计算节点布局。作为全球云计算服务厂商,大家覆盖了北美、南美、欧洲、亚太、中国核心区,在24个区域遍及50多个国家和地区,拥有100条海缆专线使用权。在全球网络和客户海外服务经验方面拥有核心优势。
当下AI应用出海热潮正盛,大家已经抓住机遇,在国内外成功建设了六个规模较大的计算资源池。在国内,大家的资源主要覆盖了华北的怀来数据中心,这是未来3000架高密度的智算中心。在华南,大家布局在芜湖,是两个战略高地,总计约7000架的高密度计算资源池。最后,在西北的庆阳,大家也已布局,但目前尚未拿地。但政府给予了大家宝贵的资源,如果大家想建设,也是可以的。比较有特点的是,大家最早的一个数据中心建在海南,因为海南明年将封岛,并开通25条海缆直连全球。大家的布局旨在通过海南覆盖东南亚的业务,这个资源也是独一无二的,未来能够覆盖东南亚。在海外,大家目前在美国达拉斯有自己的机房,预计未来将在欧洲、东南亚等地陆续布局全球计算节点。这么做的目的是为了更好地承接AI技术需求所带来的中国AI应用出海热潮,抢占海外市场先机。

二、问答交流
DeepSeek在全球都非常火爆,那么相对于国内和国外的同行,大家的优势大概在哪里?
大家的第一个优势是,在CPU时代大家就已经出海,在全球有多个节点。在美洲有3到4个节点,欧洲也有两个节点。这些节点的布局原本是基于CPU的业务,未来如果要布局GPU业务,大家已在达拉斯部署了4090,已经在线上了。本来大家也打算在达拉斯布局GB200。
在美国的节点上,大家已经有了计算能力。未来如果DeepSeek在欧洲有业务,大家可以很快将美国的库存直接发到欧洲开通,迅速上线。大家在印度也有节点,在人口密集、众多的国家和地区都有节点。大家的优势是能够快速上线,提供服务。

大家现在主要服务了哪些大模型的客户?
大家的大模型客户目前主要是像智谱华章,包括AI 6小龙,智谱华章90%的推理都在大家平台,到明年我觉得整个年收入是上亿了。剩下的是像生数科技、美图、爱诗,这些都是典型的大模型客户,基本上都是大家的客户。

模型和推理平台适配的工作量和难度到底有多大?
这两天国产AI芯片都在说自己适配DeepSeek,包括我目前看到的天数智星都能实现一天之内的快速适配。我想告诉大家,难度没有那么大,不过大家之前的积累非常重要。所以这块目前大家看到的难度,与之前的模型比如Llama去适配相比,是降低的。
大家今天才发布,是因为大家慢了,只是公布得稍微迟了一点,整个工作量不是很大,大家前几天在内部早就已经做完适配。但大家的技术人员要求比较完美,一定是上线了才叫发布

DeepSeek推理云客户与大家原先的客户群体有怎样的交叉和关联?
我觉得用户群体一定会有变化。大家之所以说要做l1到l5层,去年九月份开始推GPUZone新平台,就是因为大家认为基于开源的大模型,越来越多的个人开发者会在开源大模型上进行创业。就像之前大家在互联网上创业一样,现在大家会在AI上进行创业,这就会有很多中小企业,还有包括个人开发者。这个客户群体其实是有变化的,会针对一些小B,甚至会有一些C。其中一些小B可能会未来长成大的企业,我会在这个过程中陪伴他们长大。首都在线线做云的服务和IDC的服务过程中,也经历了这个过程,比如聚美优品当年也是用了一台两台云主机,到后来是上千台的规模。他们越用越觉得,确实比自己用服务器扩张得快,弹性也好。它是伴随着大家一起长大的,还有一个伴随着大家一起长大的,像唯品会,当年它是传统的IDC服务客户,可能一开始是十个八个柜子,到后来是上几千个机架,它也是一个从小伴随客户长大的。
所以大家的GPUZone平台会对一些中小企业进行孵化。大家的cloud OS大的云平台会针对于中大型企业,包括大家刚才讲到的在怀来、芜湖、庆阳这些资源节点,肯定也是针对于大的模型客户,像智普华章现在在庆阳上万台的推理集群规模。像这种客户,大的集群节点可能会在这里,大家会有一些小的缝隙,就像说的这种中小模型未来成长起来,他就会成为我新的一种类型的客户。还有很重要的一个,刚才大家讲到的,它是一个重新的价值分配,价值链的分配。大家以后会有几百个甚至上万个模型在大家的接入平台上,到L 5层。这种情况下,模型卖完之后,模型厂商会给我分20%,就像现在在AMAZON上的服务,20%分给AMAZON,80%留给自己。未来的模型也会使用这种方式,20%付给大家这种云厂商,提供了云服务,然后会有一个分成,80%是来自于他自己。所以这是一个很大的变化。

用国产卡去做推理,性价比如何看待?
国产芯片目前大家看到它还处于能用阶段,主要说到好用,目前来看还有一定差距。所以硅基流动上使用服务的感受没有那么好。大家自己内部也做了昇腾与英伟达系做对比,整体来看还是有差距的。token吐出的速度和并发量都很重要,可能对你的卡量还是有一定要求,对并发量也有一定要求。由于大家之前也做过一些大客户万卡集群,在底层资源的调度层面,大家有一些技术积累。

在当前推理算力稀缺的情况下,是否已经看到了流量的涌入?
大家这边能看到的是,来了一波很大的个人用户开发,这是大家没有想到的。还有大家没有想到的是,会发现一堆在大家大地客户清单里的客户,也有一波流量过来,这是我没有意想到的,比如,大家有一个体量大概在月收入30万级别的,大家认为这可能不是我的目标客户,但他今天也来了后。

未来企业的资源闲置是否会减少?
大家现在IDC上闲置的资源,主要是海南建机房的项目,那个机房有几个条件,一个是他封岛后联通了全球海缆。当然,我不知道智算这波是否会在海南兴起,如果能用的话,可能需求会起来得更快,如果不能用的话,可能还是要等到海缆接通。
所以IDC和怀来的数据中心,大家会接到大量的需求询问,特别是自动驾驶的企业比较多,来问什么时候能交付。所以大家怀来的机房也在加紧设计和准备,要在今年十月份交付。这块肯定有一部分大家会直接使用,提供云服务GPU,还有一块也会直接机架租给自动驾驶的企业,因为本身小米也是大家的客户。小米现在用的是北京的四季青机房的机架,未来它也觉得扩张的需求量很大。可以用怀来的机房来满足需求,所以大家能看到IDC这块的需求还是很旺盛的。第二块就是大家闲置的,之前买的一些,比如A5000的卡,这一类卡其实是属于闲置的。这类卡大家通过GPU Zoom这个新产品,能把这些闲置的卡提供给个人开发者,他们可能算力要求不是这么强。可以提供给这类客户,提升大家的资源使用效率,从而提升毛利。剩下最后一块,大家有一大块闲置的是之前CPU的业务,大家内部正在尝试,因为deep蒸馏了很多,像1.5b小的模型,这一块大家内部正在尝试。
有没有可能CPU和CPU的组合能够提供服务?因为大家主要CPU在海外。所以我希翼如果能够使用,必须要加上CPU,能够在海外把那些闲置的卡都用掉,那也是能够提升整个企业的毛利。

deep seek模型的推理云服务会有一些算力需求的中溢出,大家还有哪些竞争力和独特的商业模式?
确实有算力的溢出,因为这一波流量确实太大,而且真实的用户需求也确实非常大。所以这一块大家也会利用好大家在海外达拉斯的一些资源,因为那是大家本来就有的资源,不仅在国内受欢迎,在海外也很受欢迎。
第二个是我目前看到的,一些客户有一些调优和微调的需求。大家可能会跟客户一起合作生成一个偏行业属性的模型。这是接下来可能要跟客户一起做的。客户很需要这个东西,但中间最后一公里,或者100米,我觉得大家是可以做的,也是大家的一个竞争优势。

未来国产卡在推理环节的可用度、性价比等怎么看?
从目前来看,我觉得差异还是NV相对更有性价比。国产卡是大家必须要做的事,也是大家在一直做的。但我觉得可能不会那么快,也不会那么慢。今年一旦整个应用层爆发,可能会有不一样的结果,现在确实无法预知。国产和英伟达的差别,目前大家确实觉得还需要再看看,因为现在整个大模型的变化实在太快。
大家考察国产芯片、国产卡最重要的两个指标,其实算力除外,大家更看重它的显存和显存带宽。

您觉得如果deepseek今年带来了应用爆发,这个时点大概可能会在什么时候?
大家目前看到的是,加上适配周期和变化,在一季度后面可能会很明显。因为大家目前一些客户原来可能都没有做一些开发,比如投资人都不投钱,但现在整个创投圈好像也火起来了。从我这次来看,客户的需求就变得很多了,但这个需求从原来的找大家要4090的机器、显卡,转化为找大家要服务,这种需求都确实从近来来看是涨起来了。

4090和h20哪个的性价比可能会更好一点?
从大家这次来看,像他满血版的deepseek r1,是六百七十多b的参数。目前来看4090肯定跑不起来的,大家目前看内部可能大厂,包括大家都在用h20。显存能接受、能装下模型里面,大家觉得还是4090的性价比会高很多。

deepseek的算力这么紧张,企业有没有跟他们接洽,提供相关的算力服务?
第一个问题大家肯定要去跟DeepSeek接洽,正好他现在算力也很紧张,那是他的痛点,所以大家会在第一时间尽可能去跟他们接洽,来帮他们解决目前的算力难题。刚才徐涛总也说到现在的AI模型里的六小龙,其实都是大家的客户,可能有的客户使用量规模不同。像DeepSeek,大家一定会去接洽。

中国企业在海外买卡,提供这种算力服务是不受这些禁令的影响或限制么?
在海外买卡的事情上,目前看东南亚很多都在东南亚买,只要不运进国内,在海外提供服务是合法合规的,也可以在海外买。但是不确定会不会出新的禁令,我听说过可能会出新的禁令,比如在东南亚地区,包括新加坡。在没有出之前,你买了卡放在整个东南亚地区,包括你在美国买、在美国用都没有问题。大家在新加坡、美国当地都有节点,并且也有当地的企业,所以在当地买卡提供服务都没有问题。在国内,目前很多人买了卡,大家现在是两种方式,一种方式是大家直接买,在国内有买的,大家可以向他们买完以后直接提供服务。还有一种就是大家纳管了他们的平台资源。

举报本楼

您需要登录后才可以回帖 登录 | 注册 |

版规|手机版|C114 ( 沪ICP备12002291号-1 )|联系大家 |网站地图  

GMT+8, 2025-2-23 18:28 , Processed in 0.221525 second(s), 16 queries , Gzip On.

Copyright © 1999-2023 C114 All Rights Reserved

Discuz Licensed

回顶部
XML 地图 | Sitemap 地图