当前位置:静雅生活网 > 数码百科 >

龙芯宣布支持 NCNN 框架:100% 自研指令集 性能翻倍

导读:作为国产 CPU 的代表之一,龙芯这两年已经将架构转向自研的 LoongArch 指令集,号称 100% 自主,现在还在不断扩展 LoongArch 的应用领域,今天龙芯宣

  作为国产 CPU 的代表之一,龙芯这两年已经将架构转向自研的 LoongArch 指令集,号称 100% 自主,现在还在不断扩展 LoongArch 的应用领域,今天龙芯宣布支持了 NCNN 神经网络计算框架,各项性能比通用实现普遍提升一倍以上。据龙芯介绍,近期经过龙芯中科与 NCNN 社区的共同努力,在 NCNM 中使用龙架构(LoongArch)向量优化实现了大部分算子,得益于龙架构向量的高效实现,优化后 NCNN 在平台上各项性能测试比通用实现普遍提升一倍以上。

龙芯宣布支持 NCNN 框架:100% 自研指令集 性能翻倍

  NCNN 作为业界首个为移动端优化的神经网络前向计算框架,在 2017 年首次开源,是腾讯优图实验室第一次对外公开深度学习的研究成果。目前多应用在图像方面,例如人像自动美颜,照片风格化,超分辨率,物体识别等等。NCNN 计算框架,因其高性能、无第三方依赖、跨平台支持大部分常见 CNN 网络的特点,是许多开发者在移动端、嵌入式设备上部署深度学习算法的首选框架。

龙芯宣布支持 NCNN 框架:100% 自研指令集 性能翻倍

  本次优化共产出 3 万多行代码,成果将应用于龙芯 AI 边缘计算场景,完成基于龙架构平台的特征识别、图像处理、人脸识别等模型的部署和推理,如门禁系统、手势识别、口罩检测等等。依托于 NCNN 计算框架优秀的低耦结构,开发者只需关注算子在龙架构平台上的高效实现,无需考虑整个系统结构问题,实现更高效的开发与部署工作。

  前期,NCNN 与龙芯 CPU 进行了较为全面的适配和性能优化,共同打通了 AI 应用和国产 CPU 硬件间的壁垒。龙芯表示将与 NCNN 社区保持密切合作,继续根据龙架构平台向量特点不断优化算子,推进龙架构生态成果落地更多场景、服务更多领域、欢迎社区广大开发者与龙芯中科一道共建自主开放的龙架构生态体系。

版权声明:本文部分来自互联网,由小编精心所写,本文地址:http://www.zhubian88.cn/smbk/70722.html,如需转载,请注明出处!

联系我们

在线咨询:点击这里给我发消息

微信号:weixin888

工作日:9:30-18:30,节假日休息