温馨提示:本站为狂欢票务官方授权演出订票中心,请放心购买。
你现在的位置:首页 > 演出资讯  > 演唱会

源达:豆包大模型迎来重磅更新,AI应用繁荣推动算力基础设施建设

更新时间:2025-01-02 17:26  浏览量:3

人工智能行业专题研究

出自:源达信息证券研究所

分析师:吴起涤

执业登记编号:A0190523020001

研究助理:程治

发布日期:2024年12月31日

要点

豆包大模型重磅更新,有望带动AI应用市场繁荣

2024年12月火山引擎冬季FORCE原动力大会推出豆包视觉理解大模型和3D生产大模型,并对通用模型Pro、音乐生产模型和文生图模型性能升级。根据智源研究院发布的FlagEval“百模”评测结果,豆包通用模型Pro在大语言模型总榜中主观评测得分最高,豆包视觉理解模型和文生图模型在多模态模型主观测评中得分第二。豆包视觉理解大模型和3D生产大模型具备的内容识别、视觉描述和3D内容生成能力进一步增强AI应用实用性,而使用成本相比行业价格可降低85%,有望推动AI应用市场的商业繁荣。

大模型的大规模商业化应用已成熟,拉动算力基础设施建设

人工智能行业已跨过AI大模型大规模成熟商业化应用的节点,国内厂商加大对AI Agent等新一代人工智能应用的投入。AI大模型性能提升所需的千亿级参数训练及应用端繁荣对算力规模的需求,都将推动算力基础设施的建设。根据IDC数据,2024年全球人工智能资本开支有望达2350亿美元,并预计2028年增长至6320亿美元,复合增速达29%。此外生成式人工智能资本开支2024-2028年GAGR有望达59%,显著高于其他人工智能技术的22%。

算力基础设施建设趋势下,核心供应链环节将充分受益

人工智能行业带动算力基础设施建设趋势下,服务器、液冷设备、芯片及光模块等是供应链的核心环节。1)服务器:服务器是算力载体,AI服务器比普通服务器对算力及存储性能要求更高,2024年全球普通AI服务器和高端AI服务器出货量分别为72.5和54.3万台,分别同比增长54.2%和172.0%。2)液冷设备:液冷服务器具有低能耗、高散热优点,符合高算力数据中心需求;3)芯片:芯片是算力大脑,卡脖子风险最高,国产芯片亟待突破。4)光模块:800G和1.6T高端光模块用量有望大幅提升,国产公司在全球市场具有领先地位。

建议

豆包大模型产品力大幅提升,并大幅降低人工智能大模型使用成本,有望推动AI应用的商业繁荣。建议关注服务器、液冷设备、芯片和光模块等领域的投资机会:1)服务器:浪潮信息、中科曙光;2)液冷设备:英维克;3)芯片:海光信息;4)光模块:中际旭创、天孚通信、光迅科技。

风险提示

AI应用渗透不及预期;算力开支不及预期;宏观经济不及预期;竞争加剧。

源达信息证券研究所(简称:源达信息)是河北源达信息技术股份有限公司设立的专业的证券研究部门,源达信息证券研究所由吴起涤所长领衔,专注于宏观经济研究、行业研究和公司研究,致力于为投资者、政府、企业提供有价值的研究咨询服务。源达信息证券研究所,希望通过深度研究,助力中国经济发展。

标签: 豆包 模型 源达