在雷锋网 AI 科技评论的关注下,网络结构搜索(NAS)技术正在深度学习领域产生重大影响。近年来,NAS 已经成功地减少了设计神经网络结构的负担,并且优化后的模型性能得到了显著提升。最新一期,地平线-华中科技大学计算机视觉联合实验室提出了一种新颖的 Differentiable NAS 方法——DenseNAS,这项技术能够搜索网络中的每个 block 的宽度和对应的空间分辨率。
DenseNAS 不仅推动了神经网络结构设计的发展,而且提供了更高灵活性的应用潜力。通过构建一个密集连接的搜索空间,该方法可以同时搜索宽度、下采样的位置以及全局深度,从而实现了更为精细化和全面化的人工智能模型结构设计。在 ImageNet 上,DenseNAS 得到的模型以较低的 latency 取得了 75.9% 的精度,而整个搜索过程仅需 4 块 GPU 和 23 个小时。
论文已获得地平线公众号许可进行转载,其详细信息如下:论文地址:https://arxiv.org/abs/1906.09607;代码地址:https://github.com/JaminFong/DenseNAS。
除了 DenseNAS 外,其他 NAS 搜索元素也被广泛研究,如操作(operation)类型、宽度、深度等。这些建议不仅提高了模型性能,还减轻了工程师在设计和调优模型时所承受的心智负担。然而,由于现有方法通常只能在离散空间中进行宽度或深度的选择,因此仍然存在着对于不同需求场景下的灵活性不足的问题。
为了解决这一问题,本文将会从简介、思路介绍、实现方法以及实验结果等方面,对 DenseNAS 进行详尽解读。本文旨在探索如何通过新的 Differentiable NAS 方法来提升自动化神经网络设计效率,同时满足不同任务需求下的灵活性要求,为特定场景数据、特定性能速度要求甚至特定设备部署提供更加个性化、高效的人工智能模型结构。此外,本文还将分析当前 NAS 技术面临的一些挑战,以及未来的研究方向与展望,以期为该领域带来更多创新成果。