SRAM概念爆火 多家公司回应最新布局 业内:短期难以形成技术颠覆
作者: 投资币 时间: 2024-11-30 04:42 阅读: 799
SRAM(静态随机存取存储器)作为一种传统存储方案,近两日相关概念连续点燃A股半导体板块。今日(2月21日),SRAM概念股再度拉升,西测数据20CM涨停,北京君正、恒烁股份等个股盘中一度涨超10%,万润科技、东方中科等个股跟涨。
消息面上,谷歌TPU第一代设计者Jonathan Ross所创立的Groq公司正式宣布,其新一代LPU在多个公开测试中,以几乎最低的价格,相比GPU推理速度翻倍。并且后续有三方测试结果表明,该芯片对大语言模型推理进行优化效果显著,速度相较于英伟达GPU提高了10倍。与GPU不同的是,LPU的内存采用了SRAM。
上述消息爆出后,多家A股公司通过投资者互动平台等渠道,阐释公司SRAM相关的研究和业务。同时,今日(2月21日)《科创板日报》记者以投资者身份致电多家涉及SRAM储存器业务的公司,采访了解其进展。
整体来看,包括炬芯科技、恒烁股份、成都华微等在内的多家科创板公司,均声称业务与SRAM储存器有关联或关注相关技术,其中有公司表示正在基于SRAM研发AI存算芯片,并且将在2024年取得阶段性进展。
不过,多位半导体业内人士接受《科创板日报》记者采访时,对SRAM相关产品方案将可能引起的算力爆发,保持较为审慎的态度。无论是SRAM本身的高成本、低容量,还是基于SRAM的LPU产品的通用性局限,短期来看对当前算力技术和产业难以形成颠覆。
多家A股公司回应SRAM相关产品进展
《科创板日报》记者通过互动平台向炬芯科技询问基于数模混合电路的SRAM存内计算路径进展,炬芯科技证代办人士表示,炬芯科技将推出最新一代升级为CPU+DSP+NP三核异构的高端AI音频芯片ATS286X,预计在2024年中,向下游客户提供样品芯片,该芯片为便携式产品提供更大的算力。
炬芯科技证代办人士称,“SRAM是和FLASH和DRAM一样的一种储存器,SRAM用于AI芯片也有特定的场景,例如推理场景,但AI芯片是公司未来的重点研发方向。”
炬芯科技股份有限公司董事长兼CEO周正宇,曾在2023年11月举行的中国集成电路设计业2023年会上公开表示,基于SRAM的CIM具有非常显著的技术优势,包括能效比高,功耗低,读写速度快,适合低功耗高性能装置使用;写次数没有限制,适用于模型反复调整的;工艺成熟,可大规模量产;工艺领先,适合集成。“针对低功耗的音频SoC,基于SRAM的CIM是目前打造低功耗音频AI算力的首选。”
恒烁股份证代办人士向《科创板日报》记者表示,该公司基于NOR Flash的存算一体芯片恒芯2号已回片,正处于测试阶段,该公司自2023年下半年同步也在进行基于SRAM的数字存算一体方案的研发,进展符合预期。
上述恒烁股份证代办人士称:“NOR Flash存算一体芯片与SRAM的数字存算一体均可以用于AI芯片,但SRAM是‘数字’存算一体,两者仍然存在功能方面的差别。顺利的话,公司预计2024年底能回片。而且AI芯片也是公司未来的发展方向。”
成都华微在互动平台上表示,该公司承担的“十三五”国家科技重大专项基于28nm工艺平台,突破超大规模高性能FPGA低功耗设计方法等关键技术,建立高性能、高性价比千万门级SRAM型FPGA器件自主研发与工程化应用能力。此外,该公司智能SoC芯片可以应用于人工智能领域,但目前处于研发、送样阶段。
《科创板日报》记者致电成都华微采访其相关芯片进展详情,截至发稿暂未得到回复。值得注意的是,与此前两家拥有消费级应用布局的公司不同,成都华微隶属于中国电子信息产业集团,专注于特种集成电路研发、设计、测试与销售,以提供信号处理与控制系统的整体解决方案为产业发展方向。
中科蓝讯证代办人士向《科创板日报》记者表示,目前该公司在研的智能蓝牙音频芯片、物联网芯片产品等均是基于NOR储存器,暂时没有产品基于SRAM研发。“目前NOR已经能满足所有产品智能化方面的需求,是否应用SRAM要根据下游客户需要进行。”该证代办人士称。
也有投资者关注到军用电子元器件芯片检测公司思科瑞,并询问该公司是否有SRAM芯片相关业务。思科瑞证代办人士向《科创板日报》记者表示,“公司主要从事芯片检测,拥有一种随机静态存储芯片SRAM的测试筛选技术,每年可检测约10万只该种类型芯片。”
LPU通用能力或存局限,短期未必形成技术颠覆
在生成式人工智能引发的算力焦虑中,能产生算力爆炸的颠覆性技术也更容易受到市场关注。但这会是SRAM或基于SRAM的AI芯片吗?多位受访的半导体从业者对此表示怀疑。
“SRAM是个非常成熟的技术了,CPU中的寄存器和缓存都用的是SRAM。”业内人士接受《科创板日报》记者采访表示,SRAM早已以IP内核形式完成在SoC的集成,本身的技术价值没有更大的突破。
上述人士表示,SRAM确实要比DRAM快,但SRAM价格很贵,容量较小。“LPU乃至其他计算芯片,大量使用SRAM时需要有所权衡,比如需不需要为了性能而牺牲容量。”
“之所以Groq选择了SRAM,是因为它只推理、不训练,而推理所需要的存储空间比训练要小得多,所以Groq的一个板卡只有230MB的内存,而GPU的DDR空间基本都是几个GB的大小。”该人士称,由于成本和容量限制,目前还看不到SRAM爆发的希望。
而对于基于SRAM的LPU产品,业内人士则质疑其不同场景中的通用能力,可能会影响该类产品的规模应用。
有芯片从业者表示,LPU目前的优势在于推理,而训练方面能力偏弱。Groq使用的是开源模型,而且不训练这些模型。这样的方案“优点是推理速度很快,适用于单个模型的场景,但一旦涉及多个模型,LPU就没有任何优势了。”
“训练比推理难很多”。有从事国产大模型训练的业内人士向《科创板日报》记者表示,推理是模型结构固定,模型权重已经冻结之后做的,但训练是为了训出模型,通常算法工程师会通过改变模型结构等操作来调整模型,这些操作非常灵活,并且大模型的训练还要分很多阶段。
“对应到场景而言,越通用,则对训练过程的灵活性要求越高,越专用,则适用场景越小。”该大模型研发人士直言,LPU甚至可能是一个专为某种模型结构设计的硬件,很可能大模型换个结构就很难支持,另外Groq官网也只提到在大语言模型上的优势,专为语言模型设计,估计在图像和视频方面没有优势。
“Groq公司LPU产品应用范围限制比较大,相比于英伟达更为完善的软件生态和GPU产品的通用计算平台,短期来看也完全没法取代GPU。”上述人士称。