3毫秒極速識(shí)別,一個(gè)4.1k Satr的開(kāi)源項(xiàng)目
發(fā)布日期:2022/7/19 10:58:07 瀏覽量:
人臉、車輛、人體屬性、卡證、交通標(biāo)識(shí)等經(jīng)典圖像識(shí)別能力,在我們當(dāng)前數(shù)字化工作及生活中發(fā)揮著極其重要的作用。業(yè)內(nèi)也不乏頂尖公司提供的可直接調(diào)用的API、SDK,但這些往往面臨著定制化場(chǎng)景泛化效果不好、價(jià)格昂貴、黑盒可控性低、技術(shù)壁壘難以形成等諸多痛點(diǎn)。
而今天小編要給大家推薦的是一個(gè)完全開(kāi)源免費(fèi)的、覆蓋人、車、OCR等9大經(jīng)典識(shí)別場(chǎng)景、在CPU上可3毫秒實(shí)現(xiàn)急速識(shí)別、一行代碼就可實(shí)現(xiàn)迭代訓(xùn)練的項(xiàng)目PaddleClas!
圖1 PaddleClas 圖像分類應(yīng)用示意圖
話不多說(shuō),趕緊送上傳送門,識(shí)貨的小伙伴趕緊嘗試一下吧!
記得Star收藏防止走丟哦!
https://github.com/PaddlePaddle/PaddleClas
下面小編就來(lái)詳細(xì)拆解下這個(gè)項(xiàng)目的過(guò)人之處吧!
圖2 9大場(chǎng)景模型效果示意圖
1
亮點(diǎn)一
完美平衡精度與速度
從大名鼎鼎的Resnet50到如今火熱的Swin-Transformer,模型精度不斷被刷新,但是預(yù)測(cè)效率并不高。即使是Swin-Transformer最小的模型,在CPU上的預(yù)測(cè)速度也超過(guò)100ms,遠(yuǎn)遠(yuǎn)無(wú)法滿足產(chǎn)業(yè)實(shí)時(shí)預(yù)測(cè)的需求。
而使用MobileNet系列等輕量化模型可以保證較高的預(yù)測(cè)效率,在CPU上預(yù)測(cè)一張圖像大約3ms,但是模型精度往往和大模型有很大差距。
PaddleClas推出的超輕量圖像分類方案(Practical Ultra Light Classification,簡(jiǎn)稱PULC),就完美解決上述產(chǎn)業(yè)落地中算法精度和速度難以平衡的痛點(diǎn)。
表1 不同模型精度速度結(jié)果對(duì)比
如圖所示,它的精度與Swin-Transformer等大模型比肩,預(yù)測(cè)速度卻可以快30倍以上,在CPU上的推理時(shí)長(zhǎng)僅需2ms!
2
亮點(diǎn)二
易用性極強(qiáng)
PULC方案不僅完美地平衡了精度與速度,還充分考慮了產(chǎn)業(yè)實(shí)踐過(guò)程中需要定制化的對(duì)算法快速迭代的需求,只需一行命令,就可完成模型訓(xùn)練。
與此同時(shí),PaddleClas 團(tuán)隊(duì)還發(fā)布了包括人、車、OCR在內(nèi)的9大場(chǎng)景模型,僅需2步就能實(shí)現(xiàn)業(yè)務(wù) POC 效果驗(yàn)證,訓(xùn)練、推理、部署一條龍,真正實(shí)現(xiàn)“開(kāi)箱即用”。
不僅如此,項(xiàng)目還匹配了詳細(xì)的中文使用文檔及產(chǎn)業(yè)實(shí)踐范例教程。
圖3 使用文檔及范例示意圖
3
亮點(diǎn)三
集成超多硬核技術(shù)
超輕量圖像分類方案(PULC)集成了業(yè)界4大業(yè)界領(lǐng)先的優(yōu)化策略:
圖4 超輕量圖像分類方案(PULC)示意圖
PP-LCNet輕量級(jí)骨干網(wǎng)絡(luò)
PP-LCNet作為針對(duì)CPU量身打造的骨干網(wǎng)絡(luò)模型,在速度、精度方面均遠(yuǎn)超如MobileNetV3等同體量算法,多個(gè)場(chǎng)景模型優(yōu)化后,速度較SwinTransformer的模型快30倍以上,精度較MobileNetV3_small_0.35x高18個(gè)點(diǎn)。
SSLD預(yù)訓(xùn)練權(quán)重
SSLD半監(jiān)督蒸餾算法可以使小模型學(xué)習(xí)到大模型的特征和ImageNet22k無(wú)標(biāo)簽大規(guī)模數(shù)據(jù)的知識(shí)。在訓(xùn)練小模型時(shí),使用SSLD預(yù)訓(xùn)練權(quán)重作為模型的初始化參數(shù),可以使不同場(chǎng)景的應(yīng)用分類模型獲得1-2.5個(gè)點(diǎn)的精度提升。
數(shù)據(jù)增強(qiáng)策略集成
該方案融合了圖像變換、圖像裁剪和圖像混疊3種數(shù)據(jù)增強(qiáng)方法,并支持自定義調(diào)整觸發(fā)概率,能使模型的泛化能力大大增強(qiáng),提升模型在實(shí)際場(chǎng)景中的性能。模型可以在上一步的基礎(chǔ)上,精度再提升1個(gè)點(diǎn)左右。
SKL-UGI知識(shí)蒸餾算法
SKL(symmetric-KL)在經(jīng)典的KL知識(shí)蒸餾算法的基礎(chǔ)上引入對(duì)稱信息,提升了算 法的魯棒性。 同時(shí),該方案可以方便地在訓(xùn)練中加入無(wú)標(biāo)簽訓(xùn)練數(shù)據(jù)(Unlabeled General Image),可以進(jìn)一步提升模型效果。 該算法可以使模型精度繼續(xù)提升1-2個(gè)點(diǎn)。
4
服務(wù)真實(shí)場(chǎng)景需求
20種產(chǎn)業(yè)算法落地方案
不僅如此,PaddleClas團(tuán)隊(duì)考慮到真實(shí)產(chǎn)業(yè)應(yīng)用面對(duì)的各種軟硬件環(huán)境和不同的場(chǎng)景需求,在提供PULC方案的同時(shí),還提供了包括3種訓(xùn)練方式、5種訓(xùn)練環(huán)境、3種模型壓縮策略和9種推理部署方式在內(nèi)的20種產(chǎn)業(yè)算法落地方案:
表2 PaddleClas訓(xùn)練推理部署功能支持列表
其中值得高度關(guān)注的有:
01 分布式訓(xùn)練
飛槳分布式訓(xùn)練架構(gòu)具備4D混合并行、端到端自適應(yīng)分布式訓(xùn)練等多項(xiàng)特色技術(shù)。在PP-LCNet訓(xùn)練中,4機(jī)8卡相較于單機(jī)8卡加速比達(dá)到3.48倍,加速效率87%,精度無(wú)損。
02 模型壓縮
飛槳模型壓縮工具PaddleSlim功能完備,覆蓋模型裁剪、量化、蒸餾和NAS。圖像分類模型經(jīng)過(guò)量化裁剪后,移動(dòng)端平均預(yù)測(cè)耗時(shí)減少24%。
03 移動(dòng)端/邊緣端部署
飛槳輕量化推理引擎Paddle Lite適配了20+ AI 加速芯片,可以快速實(shí)現(xiàn)圖像分類模型在移動(dòng)設(shè)備、嵌入式設(shè)備和IOT設(shè)備等高效設(shè)備的部署。
以上所有模型、代碼均在PaddleClas中開(kāi)源提供,還有超詳細(xì)文檔教程和范例項(xiàng)目,趕緊查看全部開(kāi)源代碼并Star收藏吧~
鏈接指路
https://github.com/PaddlePaddle/PaddleClas
-
官網(wǎng)地址:
https://www.paddlepaddle.org.cn
-
PaddleClas項(xiàng)目地址:
GitHub: https://github.com/PaddlePaddle/PaddleClas
Gitee: https://gitee.com/paddlepaddle/PaddleClas
馬上咨詢: 如果您有業(yè)務(wù)方面的問(wèn)題或者需求,歡迎您咨詢!我們帶來(lái)的不僅僅是技術(shù),還有行業(yè)經(jīng)驗(yàn)積累。
QQ: 39764417/308460098 Phone: 13 9800 1 9844 / 135 6887 9550 聯(lián)系人:石先生/雷先生