发布日期:2025-01-08 04:51 点击次数:64
我是万万没思到,就在西方还千里浸在圣诞假期,跋扈 “ 过年 ” 的时候,我们中国企业给东谈主家放了个新年二踢脚,给东谈主家脑瓜子崩得嗡嗡得。
前有宇树科技的机器狗视频让人人惊呼,还要啥波士顿能源。
紧接着又来了个国产大模子 DeepSeek,甚而有股作念空英伟达的滋味。
具体咋回事儿,咱给你唠闪现咯。
前几天, DeepSeek 刚刚公布最新版块 V3 ,谛视,与大洋此岸阿谁自称 Open ,却越来越 Close 的公司产品不同,这个 V3 是开源的。
不外开源还不是他最高大的标签, DeepSeek-V3 ( 以下简称 V3 )还兼具了性能国外一流,工夫力过劲,价钱击穿地心三个特色,这一套不明释连招打得业内大模子厂商们齐有点昏头昏脑了。
V3 一发布, OpenAI 首创成员 Karpathy 平直看嗨了,甚而发出了灵魂发问,难谈说大模子们根底不需要大范围显卡集群?
我推测老黄看到这头皮齐得发麻了吧。
同期, Meta 的 AI 工夫官亦然直呼 DeepSeek 的服从伟大。
有名 AI 评测博主 Tim Dettmers ,平直吹起来了,示意 DeepSeek 的搞定优雅 “elegant” 。
而在这些工夫成立的东谈主,看着 V3 的成绩送去赞赏的时候,也有些东谈主急了。
比如奥特曼就搁那说,复制比拟通俗啦,很难不让东谈主认为他在内涵 DeepSeek 。
更有好奇的是,作念到这些的公司既不是什么大厂,也不是纯血 AI 厂商。
DeepSeek 公司华文名叫深度求索,他们本来和 AI 没任何联系。
就在大模子爆火之前,他们其实是私募机构幻方量化的一个团队。
而深度求索能够杀青弯谈超车,既有点势必,也好像有点命运的好奇。
早在 2019 年,幻方就投资 2 亿元搭建了自研深度学习考研平台 “ 萤火虫一号 ” ,到了 2021 年如故买了足足 1 万丈英伟达 A100 显卡的算力储备了。
要知谈,这个时候大模子没火,万卡集群的主张更是还没出现。
而恰是凭借这部分硬件储备,幻方才拿到了 AI 大模子的入场券,最终卷出了当今的 V3 。
你说好好的一个量化投资领域的大厂,干嘛要跑来搞 AI 呢?
深度求索的 CEO 梁文锋在吸收采访的时候给人人聊过,并不是什么看中 AI 出路。
而是在他们看来, “ 通用东谈主工智能可能是下一个最难的事之一 ” ,对他们来说, “ 这是一个怎样作念的问题,而不是为什么作念的问题。 ”
即是抱着这样股 “ 莽 ” 劲,深度求索才搞出了此次的大新闻,底下给大产物体讲讲 V3 有啥荒芜的处所。
最初即是性能强悍,当前来看,在 V3 眼前,开源模子险些没一个能打的。
还铭记客岁年中,小扎的 Meta 推出模子 Llama 3.1 ,那时就因为性能优秀况且开源,一时候被捧上神坛,戒指在 V3 手里,基本是全面落败。
而在多样大厂手里的闭源模子,那些人人耳闻目染的什么 GPT-4o 、 Claude 3.5 Sonnet 啥的, V3 也能打得有来有回。
你看到这,可能认为不外如斯,也即是追上了国外卓越水平嘛,值得这样吹吗?
狡滑的还在后头。
人人豪放齐知谈了,当今的大模子即是一个通过无数算力,让模子吃多样数据的真金不怕火丹流程。
在这个真金不怕火丹期,需要的是无数算力和时候往里砸。
是以在圈子里有了一个新的计量单元 “GPU 时 ” ,也即是用了若干块 GPU 花了若干个小时的考研时候。
GPU 时越高,意味着耗尽的时候、资产资本就越高,反之就物好意思价廉了。
前边说的此前开源模子王者, Llama 3.1 405B ,考研周期耗尽了 3080 万 GPU 时。
可性能更强的 V3 ,只花了不到 280 万 GPU 时。
以钱来换算,彩娱乐招商加盟 DeepSeek 搞出 V3 版块,豪放只花了 4000 多万东谈主民币。
而 Llama 3.1 405B 的考研时间, Meta 光是在老黄那买了 16000 多个 GPU ,保守推测至少齐花了十几亿东谈主民币。
至于另外的那几家闭源模子,动辄齐是几十亿上百亿大撒币的。
你别以为 DeepSeek 靠的是什么歪门邪谈,东谈主家是正经八百的有工夫傍身的。
为了搞明晰 DeepSeek 的工夫咋样,我们特意相关了语核科技首创东谈主兼 CTO 池光耀,他们主力发展企业向的 agent 数字东谈主,早即是 DeepSeek 的铁粉了。
池光耀告诉我们,此次 V3 的更新主淌若 3 个方面的优化,分辨是通讯和显存优化、推理众人的负载平衡以及FP8 混杂精度考研。
各个部分怎样杀青的咱也就未几说了,总体来说,大的举座结构没啥变化,更多的像是我们搞基建的那一套传统艺能,把工程作念得更高效、更合理了。
最初, V3 通过通讯和显存优化,极大幅度减少了资源散逸率,耕作了愚弄服从。
而推理众人( 具备推贤慧商的 AI 系统或算法,能够通过数据分析得出论断 )的负载平衡就更私密了,一般的大模子,每次启动,必须把系数众人齐等比例放进工位( 显存 ),但信得过回应用户问题时,十几个众人内部只用到一两个,剩下的众人占着工位( 显存 )摸鱼,也干不了别的事情。
而 DeepSeek 把众人分红热点和冷门两种,热点的众人,复制一份放进显存,搞定热点问题;冷门的众人也不摸鱼,老是能被分拨到问题。
FP8 混杂精度考研则是在之前被许多团队尝试无果的方朝上拓展了新的一步,通过裁减考研精度以裁减考研时算力支拨,但却神奇地保持了回应质料基本不变。
也恰是这些工夫上的雠校,才取得了大模子圈的一致好评。
通过一直以来的工夫更新迭代, DeepSeek 收成的讲演亦然尽头惊东谈主的。
他们 V3 版块推出后,他们的价钱如故是低到百万次几毛钱、几块钱。
他们甚而还在搞了个新品促销举止,到来岁 2 月 8 号之前,在本来廉价的基础上再打折。
而一启动提到不异开源的 Claude 3.5 Sonnet ,每百万输入输出,至少齐得要几十块以上。。。
更要命的是,这对 DeepSeek 来说如故是老例套路了。
早在客岁初,DeepSeek V2 模子发布后,就靠着一手廉价,被人人叫作念了AI 界拼多多。
他们还进一步激发了国内大模子公司的价钱战,诸如智谱、字节、阿里、百度、腾讯等大厂纷纷降价。
池光耀也告诉我们,他们公司早在客岁 6 、 7 月份就启动用上了 DeepSeek ,那时也有国内其他一些大模子厂商来找过他们。
但和 DeepSeek 价钱差未几的,模子 “ 又太笨了,跟 DeepSeek 不在一个维度 ” ;如果模子智商和 DeepSeek 差未几,阿谁价钱 “ 基本齐是 10 倍以上 ” 。
更夸张的是,由于工夫 “ 遥遥卓越 ” 带来的降本增效,哪怕 DeepSeek 卖得这样低廉,把柄他们首创东谈主梁文峰所说,他们公司如故获利的。。。是不是有种近邻比亚迪搞 998 ,照样财报飘红的滋味了。
不外关于我们通俗用户来说, DeepSeek 似乎也有点偏门了。
因为他的坚定主淌若在推理、数学、代码标的,而多模态和一些文娱化的领域不是他们的所长。
况且脚下,尽管 DeepSeek 说我方如故获利的,但他们团队上高下下齐有股极客味,是以他们的买卖化比起其他厂商就有点弱了。
但不论怎样说, DeepSeek 的见效也阐发了,在 AI 这个赛谈还存在的更多的可能。
按曩昔的领会,思玩转 AI 后头莫得个金主爸爸砸钱买显卡,根底就玩不转。
但当今看起来,掌捏了算力并不一定即是掌捏了一切。
我们不妨期待下畴昔,更多的优化出现,让更多的小公司、初创企业齐能干涉 AI 领域,差评君总嗅觉CYL699.VIP,那才是信得过的 AI 海浪才对。