p406
您所在的位置:汽车行业网 > 行业 >

100%自研指令集国产CPU龙芯支持NCNN框架:性能轻松翻倍

文章来源:TechWeb     发布日期:2022-11-26 08:44     阅读量:12018   

作为国产CPU的代表之一,龙芯这两年把架构转向了自研的龙芯指令集,号称100%独立,现在还在拓展龙芯的应用领域今天龙芯宣布支持NCNN神经网络计算框架,性能较一般实现普遍提升一倍以上

据龙芯介绍,最近通过龙芯中科和NCNN社区的共同努力,NCNM大部分运营商已经通过使用龙芯架构向量进行了优化得益于龙芯架构vector的高效实现,优化后的NCNN在平台上的性能测试普遍比一般实现提高了一倍以上

基于龙腾架构向量优化的NCNN开放前后性能对比

NCNN作为业内首个针对移动终端优化的神经网络正向计算框架,于2017年首次开源是腾讯优图实验室首次向公众开放深度学习的研究成果

目前广泛应用于图像,如人像自动美颜,照片风格化,超分辨率,物体识别等NCNN计算框架,由于其高性能,无第三方依赖和对大多数常见CNN网络的跨平台支持,是许多开发者在移动和嵌入式设备上部署深度学习算法的首选框架

本次优化产生了3万多行代码,成果将应用到龙芯AI边缘计算场景,完成基于龙芯架构平台的特征识别,图像处理,人脸识别等模型的部署和推理,如门禁系统,手势识别,口罩检测等。

依托NCNN计算框架优秀的低耦合结构,开发者只需关注运营商在龙芯架构平台上的高效实现,无需考虑整个系统架构,从而实现更高效的开发和部署。

前期,NCNN和龙芯CPU进行了全面的适配和性能优化,共同突破了AI应用和国产CPU硬件之间的壁垒。

龙芯AI边缘计算场景与NCNN框架

龙芯表示,将与NCNN社区保持紧密合作,根据龙芯平台的载体特性持续优化运营商,推动龙芯平台的生态成果落地更多场景,服务更多领域,欢迎社区开发者与龙芯中科共建独立开放的龙芯生态系统。

声明:本网转发此文章,旨在为读者提供更多信息资讯,所涉内容不构成投资、消费建议。文章事实如有疑问,请与有关方核实,文章观点非本网观点,仅供读者参考。

推荐阅读

fc451
i8a8566
C-U501