AI变BI?研究机构爆DeepSeek惨况 | |
www.wforum.com | 2025-07-05 10:05:57 自由财经 | 0条评论 | 查看/发表评论![]() |
![]() |
![]() |
|
|
|
中国AI新创DeepSeek 在今年初发布“DeepSeek-R1”大模型,打著成本低廉及宣称性能与OpenAI相当,一度血洗华尔街。随后被爆出用户个资被“送中”,遭到多国政府机构及企业封杀。半导体研究机构SemiAnalysis最新研究指出,DeepSeek的流量和用户已呈现僵尸化,市占率下滑。更惨的是传出辉达H20芯片禁输中,导致新一代的R2 开发难产。 《SemiAnalysis》指出,中国DeepSeek R1 发布后,震撼股市和西方AI产业界,RI发布后,其用户应用流量激增,市占率也随之大幅提升。不过,DeepSeek爆炸性成长并未跟上其他 AI 应用的步伐,DeepSeek 的市占率也随之下滑。 报告称,DeepSeek 流量的绝对值下降,数据更加严峻。反观其他领先的 AI 模型供应商在同一时间段内的用户数量,都取得令人印象深刻的增长。 为什么使用者要转向其他开源供应商呢?答案在于Token(代币)经济学以及为模型提供服务的 KPI 之间的权衡。Token如同是 AI 阅读与写作时的计数单位,用户输入一段文字会被拆解成很多Token;AI输出的回复也会包含很多Token,AI的收费依据这些Token的总数计算。 报告说,DeepSeek 能够将其产品定价如此低廉的一个重要原因是,他们强制用户等待数秒,相比之下,其他一些提供者以相同的价格提供该服务,但回应延迟时间要短得多。报告指,DeepSeek 专注于实现通用人工智慧(AGI),对最终用户体验不感兴趣。 报告指出,为了将算力成本压至极限,DeepSeek在服务品质做出妥协。官方平台的首Token延迟(First Token Latency)动辄数秒,远低于业界对“即时”响应的期待;与之形成鲜明对比的是,Parasail、Friendli等第三方平台仅收取2到4美元,即可获得高达100 万Token的几乎零延迟体验。 若与更大规模云厂商相比,差距仍明显。微软Azure托管DeepSeek模型的价格约为官方2.5倍,但首Token延迟却足足少了25秒,CP值优势一目了然。值得注意的是,即使以相同延迟水平衡量价格,DeepSeek也并非最佳选择,众多托管商已趁机在价格战上抢占先机。 报告直指,在AI的世界里,算力就是王道。美国的出口管制限缩了中国AI模型的算力。DeepSeek只能将最少的算力用于对外推理服务,而将绝大部分算力资源保留给内部研发。
|
|
|
|
![]() |
![]() |
兰德公司预测俄乌战争后果,内容炸裂 |
![]() |
沉睡在山体中的传奇:中国的红岸基地? |
![]() |
目前见到的J-15和J-15T最好的对比图 |
![]() |
焕然一新!福建舰已经做好服役准备 |
![]() |
趴窝印度20天后,英国打算将F35B拆散带走 |