AI产业中的生态,和其他行业的生态其实完全不是一个概念
【本文由“雨蓝之伤”推荐,来自《意外!老黄剧透下一代GPU芯片,新演讲又把摩尔定律按在地上摩擦》评论区,标题为小编添加】
- 雨蓝之伤
英伟达已经建立了比较完善的AI生态链,它领先的不仅是硬件,各类开发工具也被普遍使用,正在形成垄断局面,生态环境一旦形成,强者恒强的局面就不容易打破,除非有新的颠覆性技术被应用,颠覆旧有的局面……
AI产业中的生态, 和其他行业的生态其实完全不是一个概念.
首先AI行业现在其实底层主要还是由大厂推出的, 核心技术的集中度非常高, 这些大厂对NV的营收影响也非常大.
所谓AI生态其实主要是NV与其他巨型AI企业之间的博弈, 这些企业很有动力抛弃NV, 毕竟太贵了.
先说大模型生态, 实际上对模型底层是不关心的. 我举个例子, GPT4现在使用的是NV的设备提供算力, 某一天全部切到了B公司的设备或者GPT5不用NV设备了. 实际上对上层大模型的呈现是完全不受影响的,
NV的系统主要也是对巨型企业销售的, 普通研究员根本玩不起这些设备.
再说AI开发生态, 普通玩家用CUDA来手搓模型, 实际上和底层也完全不接触(99.99%的开发者不需要深入到CUDA中去, 而是使用框架的API), 底层已经被pytorch, tensorflow这类框架封装过, 生态是在这些框架上, 并不完全在CUDA上. 只要pytorch这些框架支持新套件开发者就有可能被分流到新的, 便宜的, 性能不差太多的系统上.
最后看大厂的需求, 其实微软的GPT, 谷歌的gemini, 脸书的LLM, 他们或闭源或开源, 现在NV通过CUDA可以把各种框架模型串联起来以发挥其算力. 但是兼容就意味着浪费, 意味着成本. 这些企业只需要芯片中极小部分功能就能运行起自己的模型, 但是他们目前还没有太多合适的选择.
现在微软和谷歌已经都发布了自己的AI芯片并且少量列装, 脸书在18年也公布了自己的AI芯片计划. 随着模型越来越专, 资源消耗越来越大, 使用通用芯片是完全的浪费, 随时有可能上马列装专用芯片.
这也是为什么老黄需要发后面几代的芯片规格, 一个是拉高入门门槛拉高大厂期待. 这样如果专用芯片没有足够大的优势就难以入门AI市场.
现在的NV太大太强, 压制了客户的议价能力, 就像前几年的宁德时代之于国内新能源, 车企给电池厂打工, 宁王独享新能源车行业大部分利润, 谁都想从宁王的市场上咬一块肉下来, 到现在形成了群雄割据的新能源市场.
AI算力行业目前的技术集中程度更强, 但是毫无疑问谁都想从这个市场撕下一块肉来. NV作为防守方此时是烈火烹油的鼎盛状态. 只要哪家大客户下定决心转向扶持其他企业或者干脆大量使用自研芯片, NV的占有率就随时可能迅速下滑.