您的位置:首页>新闻 >

开放一周内抢注一空!ChatGPT带火AI算力服务算力霸权时代来了?

写诗、编程、聊天互动hellip;hellip;打着AI聊天机器人名头的ChatGPT,集成了多种功能,也一跃成为史上月活用户数增长最快的消费者应用。ChatGPT的爆火,也让人们注意到了AI应用背后庞大的算力需求与挑战。

中科曙光便表示,截止2月12日,曙光智算公司提供用于AI训练与推理计算的试用资源,在开放使用后一周内已被抢注一空。通常情况下,这些计算资源要三个月左右才能被用户注册并使用。目前,曙光智算正协调多个计算中心,提供更多算力资源满足用户需求。

而在上周,浪潮信息也宣布推出AI算力服务产品,基于智算中心的算力基础设施,客户可申请AI算力免费试用。

实际上,以ChatGPT为首的生成式AI开发主要依托于大模型技术,这就离不开算力支撑。而在算力基建中,除了芯片之外,AI服务器、AIDC等专用数据中心建设也同样必不可少。

就在2月13日,北京市宣布,将支持头部企业打造对标ChatGPT的大模型。同日北京昇腾人工智能计算中心正式点亮,并与首批47家企业和科研单位签约。该中心一期算力规模达100P,短期算力规模将达500P,远期将达1000P,可为企业和科研单位等提供AI算力服务。

的确,AI对算力的需求已不能仅仅用快速来形容mdash;mdash;据ChatGPT开发公司OpenAI 研究,2012-2018年,最大的AI训练的算力消耗已增长30万倍,平均每3个多月便翻倍,速度远远超过摩尔定律。

另据《2022-2023 中国人工智能计算力发展评估报告》,2022年我国智能算力规模已达268百亿亿次/秒,超过通用算力规模。预计未来5年,中国智能算力规模年复合增长率将达52.3%。

人工智能算法计算量发展趋势

生成式AI的开发需要基于海量的自然语言或多模态数据集,对拥有巨大参数的超大规模模型进行训练。要成功训练出更大参数、更高精度、更高能力的大模型,不仅需要巨量的高性能AI算力进行支撑,还需要依托精心清洗获得的高质量海量数据集,同时还需要有高效的系统平台来保障长时间的模型训练过程。

华泰证券2月13日报告也指出,以GPT模型为代表的AI大模型训练,需要消耗大量算力资源,随着国产大模型开发陆续进入预训练阶段,算力需求持续释放或将带动算力基础设施产业迎来增长新周期。未来拥有更丰富算力资源的模型开发者,或将能够训练出更优秀的AI模型,算力霸权时代或将开启。

正如上文提到的,算力基础设施产业链主要可以分为三个环节:

算力芯片:GPU采用数量众多的计算单元和超长的流水线,架构更适合进行大吞吐量的AI并行计算,相关厂商包括景嘉微、寒武纪、海光信息、龙芯中科、中国长城等;

服务器:ChatGPT模型训练涉及大量向量及张量运算,AI服务器具备运算效率优势,大模型训练有望带动AI服务器采购需求放量,相关厂商包括浪潮信息、中科曙光等;

数据中心:IDC算力服务是承接AI计算需求的直接形式,随着百度、京东等互联网厂商相继布局ChatGPT类似产品,核心城市IDC算力缺口或将加大,相关厂商有宝信软件等。

声明:本网转发此文章,旨在为读者提供更多信息资讯,所涉内容不构成投资、消费建议。文章事实如有疑问,请与有关方核实,文章观点非本网观点,仅供读者参考。

热门资讯

图片新闻