SNPE 是神经网络在骁龙平台上推理的开发套件,方便开发者在使用高通芯片的设备上加速AI应用。
无论是芯片制造商的发布会还是各大厂商的手机发布会,AI能力一直是大家谈论的焦点。
骁龙888采用了新一代的Hexagon 780架构Hexagon Tensor Processer(HTP),算力从865的15TOPS提升到了26TOPS,888+ 进一步提升到了32TOPS,尽管高通没有提供算力的细节,但从TOPS数值来看,确实很强大。
那么作为开发者,有没有办法使用HTP加速自己的AI模型推理呢?答案是肯定的,下面我们来一起探索如何使用888的HTP推理inceptionV3。
本文包含以下两部分。
首先,我们用手机的CPU和GPU做模型推理,并记录他们的推理速度。这里我用搭载888的Redmi K40 pro开始。
(1)模型和数据采用上一篇 上手SNPE-推理inceptionV3 准备好的inception_v3.dlc 和 data
(2)准备SNPE对应的库libSNPE.so和测试工具snpe-net-run
(3) 在CPU和GPU上推理inceptionV3
pull outputs 到主机
用snpe-diagview 解析SNPEDiag.log 得到推理的时间
测试结果是在单一手机上的默认设置得到,并不代表任何性能指标
(1)量化模型
(2)准备888 HTP 需要的dsp库
(3)在888 HTP上推理inceptionV3
(4)推理速度的比较
依然用snpe-diagview 解析SNPEDiag.log 得到推理的时间
这里每层的时间单位不是us, 应该是cycles
测试结果是在单一手机上的默认设置得到,并不代表任何性能指标。如果需要测试性能,需要设定性能模式和其他一些选项的设定,可以使用SNPE里面的snpe-throughput-net-run测试工具。
<path_to_snpe_sdk>/snpe-1.52.0.2724/doc/html/index.html
本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,并请自行核实相关内容。本站不承担此类作品侵权行为的直接责任及连带责任。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕,E-mail:xinmeigg88@163.com
本文链接:http://www.ksxb.net/tnews/11235.html