适用于 BMS、BUS、工业、仪器仪表电缆。

春节将至,围绕DeepSeek的热情依然高涨。最近的假期突显了科技行业的竞争氛围,许多人都在讨论和分析这条“鲶鱼”。硅谷正经历着前所未有的危机感:开源的拥护者再次发出声音,就连OpenAI也在重新评估其闭源策略是否是最佳选择。更低计算成本的新模式引发了英伟达等芯片巨头的连锁反应,导致美股创下单日市值跌幅纪录,而政府机构正在调查DeepSeek所用芯片的合规性。尽管海外市场对DeepSeek的评价褒贬不一,但在国内,它却正经历着非凡的增长。R1型号发布后,相关应用程序的流量激增,这表明应用领域的增长将推动整个AI生态系统向前发展。积极的一面是,DeepSeek将拓宽应用的可能性,这意味着未来依赖ChatGPT的成本将不再那么高。这种转变在OpenAI的近期活动中有所体现,包括为了响应DeepSeek R1,向免费用户提供了名为o3-mini的推理模型,以及后续的升级,将o3-mini的思维链公开。虽然这条思维链只是个总结,但不少海外用户对DeepSeek的这些进展表示感谢。
乐观来看,DeepSeek 正在凝聚国内力量。DeepSeek 致力于降低训练成本,各上游芯片厂商、中间云服务商以及众多创业公司都在积极加入,提升 DeepSeek 模型的使用成本效率。根据 DeepSeek 的论文,V3 模型的完整训练仅需 278.8 万个 H800 GPU 小时,且训练过程高度稳定。与拥有 4050 亿个参数的 Llama 3 相比,V3 的预训练成本降低了 10 倍,MoE(混合专家)架构功不可没。目前,V3 是首个在 MoE 方面达到如此高稀疏度的公认模型。此外,MLA(多层注意力机制)在推理方面也发挥了协同作用。传境科技的一位研究员在为《AI技术评论》撰写的分析文章中指出:“MoE越稀疏,推理过程中所需的批处理大小就越大才能充分利用计算能力,而KVCache的大小是关键的限制因素;MLA显著降低了KVCache的大小。” 总的来说,DeepSeek的成功在于多种技术的结合,而非单一技术。业内人士对DeepSeek团队的工程能力表示赞赏,称赞他们在并行训练和算子优化方面表现出色,通过精益求精,取得了突破性的成果。DeepSeek的开源模式进一步推动了大型模型的整体发展,预计如果类似的模型扩展到图像、视频等领域,将极大地刺激整个行业的需求。
第三方推理服务的机会
数据显示,DeepSeek上线仅21天,日活跃用户(DAU)就已达2215万,占据ChatGPT用户总数的41.6%,超越豆包的1695万日活跃用户,成为全球增长最快的应用,并在157个国家和地区的苹果App Store中排名第一。然而,在用户蜂拥而至的同时,黑客却不断攻击DeepSeek,导致其服务器压力巨大。业内分析认为,部分原因是DeepSeek采用卡片式训练,而推理计算能力不足。一位业内人士告诉《人工智能技术评论》,“频繁出现的服务器问题,可以通过收费或融资购买更多机器轻松解决,最终还是取决于DeepSeek的决策。” 这体现了技术与产品化之间的权衡。 DeepSeek 一直以来主要依靠量子量化技术自给自足,很少获得外部资金,因此现金流压力相对较小,技术环境也较为纯净。目前,鉴于上述问题,一些用户在社交媒体上敦促 DeepSeek 提高使用门槛或推出付费功能,以提升用户使用体验。此外,开发者也开始使用官方 API 或第三方 API 进行优化。然而,DeepSeek 开放平台近期发布公告称:“当前服务器资源紧张,API 服务充值已暂停。”
这无疑为AI基础设施领域的第三方厂商打开了更多机会。近期,国内外众多云厂商纷纷上线DeepSeek的模型API,海外巨头微软、亚马逊等更是在1月底率先加入。国内龙头华为云更是率先行动,于2月1日联合硅基Flow发布了DeepSeek R1和V3推理服务。《AI技术评论》报道称,硅基Flow的服务用户量激增,一度导致平台“崩溃”。BAT(百度、阿里巴巴、腾讯)和字节跳动也从2月3日起推出了低价限时优惠活动,这不禁让人想起去年DeepSeek V2模型发布引发的云厂商价格战,当时DeepSeek被称为“价格屠夫”。云供应商的疯狂举动,与微软 Azure 和 OpenAI 早期的紧密合作如出一辙。2019 年,微软向 OpenAI 投入了 10 亿美元,并在 2023 年 ChatGPT 发布后获益匪浅。然而,在 Meta 开源 Llama 之后,这种紧密关系开始出现裂痕,微软 Azure 生态系统之外的其他供应商也开始用其大型模型进行竞争。DeepSeek 不仅在产品热度上超越了 ChatGPT,还在 o1 发布后推出了开源模型,其热度与 Llama 复兴 GPT-3 的兴奋程度不相上下。
事实上,云厂商也将自己定位为AI应用的流量入口,深化与开发者的合作意味着抢占先机。据悉,在DeepSeek模型上线当天,百度智能云已有超过1.5万客户通过千帆平台使用其模型。此外,一些规模较小的厂商也纷纷推出解决方案,包括硅基流、绿晨科技、传境科技以及多家AI基础设施厂商,均已推出对DeepSeek模型的支持。《AI技术评论》了解到,目前DeepSeek本地化部署的优化机会主要集中在两个方面:一是针对MoE模型的稀疏性特性进行优化,采用混合推理的方式,将6710亿参数的MoE模型部署到本地,同时利用GPU/CPU混合推理;此外,MLA的优化也至关重要。不过,DeepSeek的两个模型在部署优化方面仍面临一些挑战。 “由于模型规模庞大且参数众多,优化过程确实非常复杂,尤其是在本地部署的情况下,实现性能和成本之间的最佳平衡将极具挑战性,”传境科技的一位研究员表示。最大的挑战在于克服内存容量限制。“我们采用异构协作的方式,充分利用 CPU 和其他计算资源,仅将稀疏 MoE 矩阵的非共享部分放在 CPU/DRAM 上,使用高性能 CPU 算子进行处理,而密集部分则保留在 GPU 上,”他进一步解释道。报告显示,传境的开源框架 KTransformers 主要通过模板将各种策略和算子注入到原始的 Transformers 实现中,从而显著提升了使用 CUDAGraph 等方法的推理速度。DeepSeek 为这些初创公司创造了机会,其增长效益日益显现;许多公司在推出 DeepSeek API 后报告了显著的客户增长,并收到了来自寻求优化方案的旧客户的咨询。业内人士指出:“过去,一些较为成熟的客户群体往往被大公司的标准化服务所束缚,受制于规模带来的成本优势。然而,在春节前完成DeepSeek-R1/V3的部署后,我们突然收到了一些知名客户的合作请求,甚至一些之前默默无闻的客户也主动联系我们,希望引入DeepSeek服务。” 目前看来,DeepSeek让模型推理性能变得愈发重要,而随着大模型的广泛应用,这将继续深刻影响人工智能基础设施行业的发展。如果能够以低成本在本地部署DeepSeek级别的模型,将极大地助力政府和企业的数字化转型。然而,挑战依然存在,一些客户可能对大模型的能力抱有很高的期望,这使得在实际部署中平衡性能和成本变得尤为重要。
要评估 DeepSeek 是否优于 ChatGPT,必须了解它们的主要区别、优势和用例。以下是全面的比较:
特征/方面 | DeepSeek | ChatGPT |
---|---|---|
所有权 | 由一家中国公司开发 | 由 OpenAI 开发 |
源模型 | 开源 | 所有权 |
成本 | 免费使用;更便宜的 API 访问选项 | 订阅或按使用付费定价 |
定制 | 高度可定制,允许用户调整和构建 | 有限的定制可用 |
具体任务中的表现 | 在数据分析和信息检索等某些领域表现出色 | 多才多艺,擅长创意写作和会话任务 |
语言支持 | 高度重视中国语言和文化 | 广泛的语言支持但以美国为中心 |
培训费用 | 降低培训成本,优化效率 | 训练成本较高,需要大量计算资源 |
响应变化 | 可能会有不同的反应,可能受到地缘政治背景的影响 | 基于训练数据的一致答案 |
目标受众 | 针对需要灵活性的开发人员和研究人员 | 针对寻求对话功能的普通用户 |
用例 | 更高效的代码生成和快速任务 | 非常适合生成文本、回答问题和参与对话 |
对“颠覆英伟达”的批判性观点
目前,除华为外,摩尔定律、沐鸣、比然科技、天旭智芯等多家国产芯片厂商也在适配DeepSeek的两种模型。一位芯片厂商告诉《AI科技评论》,“DeepSeek的架构体现了创新,但它仍然是一个LLM(法理学硕士)模型。我们对DeepSeek的适配主要集中在推理应用上,技术落地比较简单快捷。” 然而,摩尔定律(MoE)的方式对存储和分发的要求更高,加上与国产芯片部署时的兼容性问题,适配过程中存在诸多工程挑战需要解决。“目前国产算力在易用性和稳定性上与Nvidia不匹配,需要原厂参与搭建软件环境、进行问题排查,以及基础性能优化。”一位业内人士结合实际经验表示。同时,“由于DeepSeek R1的参数规模较大,国内算力需要更多节点进行并行化。此外,国内硬件规格也存在一定差距,例如华为910B目前尚无法支持DeepSeek引入的FP8推理。” DeepSeek V3模型的一大亮点是引入了FP8混合精度训练框架,并在超大规模模型上得到了有效验证,取得了显著进展。此前,微软、英伟达等巨头已提出相关工作,但业内对其可行性存疑。据了解,相比INT8,FP8的主要优势在于训练后量化可以实现近乎无损的精度,同时显著提升推理速度。相比FP16,FP8在英伟达H20上可实现高达2倍的加速,在H100上可实现超过1.5倍的加速。值得注意的是,随着国产算力加国产模型趋势的讨论升温,关于英伟达是否会被颠覆、CUDA护城河是否会被突破的猜测也日益盛行。不可否认的是,DeepSeek确实导致英伟达市值大幅下跌,但这一转变也引发了人们对英伟达高端算力完整性的质疑。此前关于资本驱动算力积累的主流观点正在受到挑战,但英伟达在训练场景下仍然难以被完全取代。分析DeepSeek对CUDA的深度使用,我们发现,诸如使用SM进行通信或直接操控网卡等灵活性并非普通GPU所能承受。业界观点强调,英伟达的护城河涵盖了整个CUDA生态系统,而不仅仅是CUDA本身,DeepSeek使用的PTX(并行线程执行)指令仍然是CUDA生态系统的一部分。 “短期内,Nvidia 的算力优势不可忽视,尤其是在训练方面;然而,部署国产卡进行推理相对容易,因此进展可能会更快。国产卡的适配主要集中在推理方面;目前还没有人能够在国产卡上大规模训练出像 DeepSeek 那样性能的模型。”一位行业分析师向《AI 技术评论》表示。总体而言,从推理的角度来看,国产大模型芯片的前景令人鼓舞。由于训练要求过高,阻碍了进入,国产芯片制造商在推理领域的机会更加明显。分析师认为,仅仅使用国产推理卡就足够了;如果需要,可以额外购置一台机器,而训练模型则面临着独特的挑战——管理更多机器会变得繁重,更高的错误率会对训练结果产生负面影响。训练对集群规模也有特定的要求,而推理对集群的要求不那么严格,因此对 GPU 的要求也更低。目前,英伟达单卡H20的性能并未超越华为或寒武纪,其强项在于集群。从对算力市场的整体影响来看,陆辰科技创始人游洋在接受《AI科技评论》采访时指出:“DeepSeek可能会暂时颠覆超大规模训练计算集群的搭建和租赁模式。但从长远来看,通过大幅降低大型模型训练、推理和应用的成本,市场需求有望大幅增长。基于此的后续AI迭代将持续拉动算力市场的持续需求。” 此外,“DeepSeek对推理和微调服务的强势需求,更契合国内本土算力相对薄弱的现状,有助于缓解集群搭建后资源闲置的浪费,为国内不同层级的计算生态厂商创造了良机。” 陆辰科技已与华为云合作,推出基于国内算力的DeepSeek R1系列推理API和云端影像服务。游洋对未来表示乐观:“DeepSeek 为国产解决方案注入了信心,鼓励人们在未来对国产计算能力投入更多热情和资金。”

结论
DeepSeek 是否比 ChatGPT“更好”取决于用户的具体需求和目标。对于需要灵活性、低成本和定制化的任务,DeepSeek 可能更胜一筹。对于创意写作、一般性探究和用户友好的对话界面,ChatGPT 可能更胜一筹。每种工具的用途各不相同,因此选择很大程度上取决于它们的使用环境。
控制电缆
结构化布线系统
网络和数据、光纤电缆、跳线、模块、面板
2024年4月16-18日迪拜中东能源展
2024年4月16日至18日莫斯科Securika
2024年5月9日上海新产品新技术发布会
2024年10月22日至25日,北京中国国际安防展览会
2024年11月19-20日 沙特阿拉伯互联世界
发布时间:2025年2月10日