广发证券:SRAM提升AI推理速度 相关架构进入主流大厂视野
广发证券:SRAM提升AI推理速度 相关架构进入主流大厂视野
  • 2026-04-23 17:08:33
    来源:称臣纳贡网

    广发证券:SRAM提升AI推理速度 相关架构进入主流大厂视野

    字体:

    智通财经APP获悉,广发证券发布研报称,在大模型应用中,相比依赖外置HBM,SRAM可显著降低权重与激活数据的访延迟与抖动,从而改善Time-to-First-Token与尾时延表现。目前,Groq与Cerebras都相继推出基于SRAMAI芯片。SRAM架构进入主流视野,根据Groq官网以及市场媒体报道,英伟达此前斥�亿美元获得Groq的知识产权的非独家授权;OpenAI与Cerebras签�亿美元合同,部署多�兆瓦的定制AI芯片。

    广发证券主要观点如下:

    SRAM是片上高带宽存储层

    存储分级为SRAM、HBM、DRAM和SSD,其中SRAM(静态随机存取存储器)集成在CPU、GPU计算核心附近的片上存储,具备纳秒级访问时延与高度确定性的带宽特性,带宽高但容量小、成本高。

    SRAM可提升AI推理速度

    在大模型应用中,相比依赖外置HBM,SRAM可显著降低权重与激活数据的访延迟与抖动,从而改善Time-to-First-Token与尾时延表现。Groq和Cerebras两家明星创业公司都推出了基于SRAM的AI芯片。

    根据Groq官网,其LPU单芯片内集成�MB片上SRAM,存储带宽高� TB/s(GPU片外HBM 的内存带宽约𰹌TB/s)。以Llama3.3 70B模型为例,根据Artificial Analysis的独立基准测试,GroqLPU芯片在不同上下文长度下均能维持稳定推理速度,�-276token/s,显著优于其他推理平台。

    根据Cerebras官网,其晶圆级引𿀏(WSE-3)芯片集�GB SRAM,片上存储带宽� PB/s,在OpenAI GPTOSS 120B推理任务中实现>3000 tokens/s的输出速度,较主流GPU云推理快�×。此外,2026𻂊月,OpenAI推出首个运行在Cerebras Systems AI加速器上的模型GPT-5.3-Codex-Spark预览版,支持>1000tokens/s的代码生成响应速度,为用户提供更具交互性的编程体验。

    SRAM架构进入主流视野

    根据Groq官网、半导体行业观察公众号数据,2025�月,英伟达斥�亿美元获得Groq的知识产权的非独家授权,其中包括其语言处理单元(LPU)和配套软件库,并引入Groq核心工程团队。根据Openai官网、芯东西公众号数据,2026𻂊月,Cerebras宣布完�亿美元F轮融资,估值�亿美元,此外,OpenAI与Cerebras签�亿美元合同,部署多�兆瓦的定制AI芯片。

    投资建议

    AI的Memory时刻,AI记忆持续扩展模型能力边界,AI Agent等应用加速落地。AI记忆相关上游基础设施价值量、重要性将不断提升,建议关注产业链核心受益标的。

    风险提示

    AI产业发展以及需求不及预期;AI服务器出货量不及预期,国产厂商技术和产品进展不及预期。

    【纠错】【责任编辑:我爱老詹威少】