深入探究2023年芯片排行榜,MLPerf Inference v0.5基准测试结果公布,引领行业巨头争夺冠军
自成立初期,MLPerf组织便致力于打造机器学习处理器的标准化基准测试,以此来衡量不同加速器和系统在执行训练后的神经网络方面的性能。尽管该组织目前还在完善其基准测试,但即使是初步版本v0.5也已吸引了主要芯片公司的广泛关注,并展示了它们各自在推理任务上的成就。
截至6月份,该组织发布了第二个推理基准测试集MLPerf Inference v0.5,这是一个旨在测量各种加速器和系统执行推理任务速度和效率的通用方法。该基准将成为评估从低功耗SoC中的NPU到数据中心高性能加速器性能的一种标准。
尽管当前仅涵盖五个网络/基准,并未包括功耗测试指标,但第一轮官方结果仍然获得了超过600份提交,其中包括40多种不同的测试。这些成绩分布于四种方案中:单路、多路、服务器以及离线,每一种方案都有其特定的应用场景。
更为重要的是,MLPerf提供了两个分区:封闭分区与开放分区。在封闭分区中,加速器必须使用预先训练好的网络并且禁止重新训练,而开放分区则允许加速器重新训练网络并进行更广泛的量化工作,使得芯片公司可以以最佳方式展示自己的解决方案。
最终收到的官方意见来自CPU、GPU、FPGA、DSP和专用ASIC等领域,从NVIDIA的GPU到Google的TPU,再到英特尔的CPU和加速器,以及Habana Labs 的Goya 加速器,都参与了一一对比。而除了这些大型企业之外,即使Raspberry Pi 4 和阿里巴巴含光800也抢占了一席之地。
虽然缺乏功耗测试限制了能效评价,但几乎每家芯片公司都能够在某些类别中取得胜利,比如Google TPUv3从1扩展到32;NVIDIA Tesla 在某些情况下名列前茅;英特尔 CPU 在其他场合领先;而高通骁龙855则表现突出,在官方结果中远超同级竞争者。
值得注意的是,这只是机器学习优化的一个开端,对未来几年的发展趋势有着重要影响。在随后的时间里,我们期待看到这项技术如何进一步成熟,并逐渐渗透到消费级硬件中,为用户带来更加智能、高效的人工智能体验。