全球热资讯!集邦咨询:预估2023年AI服务器出货量年增率可达15.4%
(资料图片)
智通财经APP获悉,TrendForce集邦咨询表示,展望2023年,Microsoft、Meta、Baidu与ByteDance相继推出基于生成式AI衍生的产品服务而积极加单,预估今年AI服务器出货量年增率可望达15.4%,2023~2027年AI服务器出货量年复合成长率约12.2%。
目前NVIDIA所定义的DL/ML型AI服务器平均每台均搭载4张或8张高端显卡,搭配两颗主流型号的x86服务器CPU,而主要拉货力道来自于美系云端业者Google、AWS、Meta与Microsoft。据TrendForce集邦咨询统计,2022年高端搭载GPGPU的服务器出货量年增约9%,其中近80%的出货量均集中在中、美系八大云端业者。
AI服务器出货动能强劲带动HBM(high bandwidth memory)需求提升,据TrendForce集邦咨询研究显示,2022年三大原厂HBM市占率分别为SK海力士(SK hynix)50%、三星(Samsung)约40%、美光(Micron)约10%。此外,高阶深度学习AI GPU的规格也刺激HBM产品更迭,2023下半年伴随NVIDIA H100与AMD MI300的搭载,三大原厂也已规划相对应规格HBM3的量产。因此,在今年将有更多客户导入HBM3的预期下,SK海力士作为目前唯一量产新世代HBM3产品的供应商,其整体HBM市占率可望藉此提升至53%,而三星、美光则预计陆续在今年底至明年初量产,HBM市占率分别为38%及9%。
根据TrendForce集邦咨询调查,AI服务器可望带动存储器需求成长,以现阶段而言,Server DRAM普遍配置约为500~600GB左右,而AI服务器在单条模组上则多采64~128GB,平均容量可达1.2~1.7TB之间。以Enterprise SSD而言,由于AI服务器追求的速度更高,其要求优先满足DRAM或HBM需求,在SSD的容量提升上则呈现非必要扩大容量的态势,但在传输接口上,则会为了高速运算的需求而优先采用PCIe 5.0。而相较于一般服务器而言,AI服务器多增加GPGPU的使用,因此以NVIDIA A100 80GB配置4或8张计算,HBM用量约为320~640GB。未来在AI模型逐渐复杂化的趋势下,将刺激更多的存储器用量,并同步带动Server DRAM、SSD以及HBM的需求成长。
相关新闻
- 全球热资讯!集邦咨询:预估2023年AI服务器出货量年增率可达15.4%
- 全球时讯:窦骁和奚梦瑶顶峰相见? 这是什么小说文学
- 美国编剧工会投票通过罢工授权 或将扰乱好莱坞影片制作 环球时快讯
- 突发!美国外交使团在苏丹遇袭_当前短讯
- 进口新车报道:最高降2.2万 新款森林人疑似售价曝光 天天热点评
- 常州投入10亿元撬动文商旅市场 力争2025年实现产业、消费双双千亿级-天天消息
- 济南起步区首次名校招聘 49名清北学子签订就业意向 焦点观察
- 当前焦点!布登:字母哥今日MRI结果显示并无大碍,他仍有痛感但在好转
- 天天百事通!特斯拉人形机器人风起 中国机遇或在零部件供应链
- 天天观速讯丨2只科创板新股今日上市 开盘平均涨12.09%
- 世界动态:果然不爱听促和声音!白宫指责巴西在乌问题上“鹦鹉般模仿俄中宣传”
- 全球热文:香喷喷的几道家常菜,一道更比一道香,下酒又下饭绝配
- 苏丹武装部队同意将再次开辟人道主义安全通道3小时 当前热点
- 环球信息:四糸乃怎么念_四糸乃怎么读
- 知识产权评估
- 祸妃狂天下青争儿 祸妃狂天下
- “侨商回归、晋品出海”
- 世界速递!2023上海车展探馆:星途揽月REEV
- 环球快播:Astro提供超过24个月高达RM696的光纤回扣与电视配套
- 海信视像(600060)龙虎榜数据(04-17)