文/陈冠廷分析师
圣诞节整个 AI 产业界的重磅消息,辉达结盟AI新创,策略性收购Groq 队,首先有言论指出,LPU 靠 SRAM,大幅提高速度,HBM会被取代,这仍值得商确,HBM 并不会如此轻易就被取代。过去 AI 大家最看重的,是前端语言模型训练这一块的市场,而辉达就是训练这块的王者,GPU 是最适合拿来训练 AI 的。
但当AI模型训练完之后,部署到市场,跟使用者产生互动,每一个对 AI 下的指令,AI 产生的每一个图档,每一段文字,每一部影片,通通是推论。所以推论是难度不高,但重复性非常高,非常需要效率的一环。GPU 在推论是没有优势的。所以Google才会有自己的TPU,也是专门为推论而设计。辉达为了要巩固推论这块的市场,才会有收购Groq的行动。
LPU 在速度与容量间,极度放大追求速度,所以成功把推论这一块,做了很强的优化。而推论是实现 AI 应用,使用者感受之中,非常重要的一环。像 Groq 的客户里,就有 Canva 这家设计巨头,所以推论变的更好用,应用端可以打的更广,消费者会更爱用。想像一下,像 ChatGPT 和 Gemini,你输入指令,它都会有延迟,但 LPU 可以让延迟趋近于零,你下指令,AI 马上给你答案,大家会不会更爱用。
但LPU追求速度过程中,仍需要外部记忆体,去协同运作。你不可能在AI世界里,只追求极致的速度,终究更大的语言模型,更海量的运算,生成式AI更巨量的内容,通通都需要频宽,都需要 HBM 和存储。
所以可能的结果是,LPU 让推论变更强,推论让消费者,使用 AI 应用时感受更好,越多人愿意使用AI应用,当越多人使用AI,不是只有LPU的SRAM,会成长而已。是DRAM、HBM、SSD,通通都会往上成长。这才是记忆体产业可能的走法,并不是 SRAM,会取代 HBM 如此简单的跳跃。
而且推论在AI发展后期,会享受到更长周期的成长,因为一个语言模型训练完,部署下去,全球千百万的使用者,所有下的指令,都是推论。想像一下这成长空间有多大。而推论必然会吃到记忆体容量,所以不只是追求运算速度的 SRAM、HBM 会成长,存储空间的 NAND FLASH、SSD、HDD 通通跟著成长。群联就是 SSD 固态硬碟模组厂。华邦电则有 SRAM 产能。南亚科 有 DRAM 利基型市场。
※本公司所推荐分析之个别有价证券
※无不当之财务利益关系 以往之绩效不保证未来获利
※投资人应独立判断 审慎评估并自负投资风险
如没特殊注明,文章均来源于互联网,版权归原创作者所有,如有侵权,请联系我们处理!

