大模型兴起导致算力紧张?专家呼吁——国产AI芯片系统应练好“内功”

来源:中国科技网 日期:2023-12-22

 “大模型需要训练大量的数据,因此需要很大的算力。”在日前召开的首届“AI Tech Day(人工智能科技日)”峰会上,中国工程院院士、清华大学计算机科学与技术系教授郑纬民介绍,自去年12月份以来,大模型需要的AI芯片涨价一倍,国外芯片“一卡难求”,尽管国内也有数十家公司在AI芯片研制和生产方面取得了很大进步,但国产芯片却尚未受到市场的广泛青睐。

一边是大模型快速发展带来的算力紧张问题,一边是国产AI芯片面临“用户不爱用”的局面。对此,与会专家呼吁,解决算力难题,应重塑大模型算力生态,助力国产AI芯片系统练好“内功”。

加强底层研发,提升国产AI芯片“包容力”

“如果原来基于国外芯片编写的软件,能够很容易移植到我们的国产芯片系统上来,用户就会感觉到国产芯片好用。”郑纬民表示,但目前国产芯片由于生态建设不完备,在大模型训练相关软件“移植”方面表现不太顺畅,因此需要进一步加强底层研发,做好包括编程框架、并行加速、通信库在内的支撑软件研发工作。

“为了发展AI芯片的生态体系,一些国际大企业甚至可以放弃一些高利润的项目和方案。”英博数科CEO周韡韡表示,营造生态需要发动整个行业的创新力量,例如国际企业曾通过主动开源部分软件的底层代码、让利给基于芯片的软件开发者,从而形成以AI芯片为核心的算力体系。

相较于芯片本身的硬件性能提升,郑纬民认为,通过营造生态,提升国产AI芯片的“包容力”更加急迫。“如果我们国产芯片的硬件性能是国外性能的60%及以上,但生态做得非常好,大家也会喜欢用。”郑纬民说,但如果算力生态没做好,新型软件跑不起来、软件移植不顺畅,即便硬件性能达到国外的120%,照样难以转变为有效算力。

为凝聚行业力量,改变当前的大模型算力生态,英博数科联合百川智能、中国计算机学会、清华大学等单位共同成立北京AI创新赋能中心技术委员会。技术委员会顾问、清华大学电子工程系教授汪玉表示,“在大模型领域,我们将同时从软件侧和硬件侧方面开展联合优化,在打造通用型人工智能服务平台的同时,针对高性能计算领域的智能芯片和高模态电路推动相关关键技术的研发。”

会议现场 科技日报记者 张佳星摄

共建基础生态,推动现有算力融合创新

“算力建设在大模型兴起之前就有,但此前的算力相对而言利用率较低,跟不上现阶段大模型对于算力指数级发展的需求。”艾瑞咨询产业数字化研究院负责人徐樊磊介绍,为提升整体算力效率和满足差异化需求,应建立支撑大模型万亿量级参数计算的“智算中心”。可利用已有高质量数据中心,通过提升组网能力、协同能力、软硬件适配能力等实现部署。当前,“万卡”级别的智算中心在主要节点城市发展起来。

与会专家认为,推动现有算力融合创新将进一步提升当前算力使用效率。

“1万块卡(AI芯片)应该怎么连?是不是每块卡和其他9999块直连?如果这样,中间的连接将需要1万乘以9999个连接卡,成本将非常高。”郑纬民说,因此,通过最有效的连接支持模型并行、数据并行等不同的要求,是融合创新的关键。

大模型背后运行的是更加复杂的网络架构和智能算法。如何在降本增效的同时,促进大模型算力使用门槛的降低?

“‘云’模式是打通供需不对称、达成算力普惠的有效路径。”周韡韡表示,通过共享、共融集结现有算力,万卡平台和配备高效网络交互机制的大模型训练与推理平台可以为大企业、小微企业共用。通过搭载数据迁徙、训练数据库等工具,云平台等基础生态的搭建有望让算力像水和电一样随取随用。

    A+
声明:本文转载自其它媒体,转载目的在于传递更多信息,并不代表赞同其观点和对其真实性负责。