滴滴在招聘,以及司乘防疫口罩识别技术的系统框架、原理和方法展
“數據猿年度重磅活動預告:2020年度金猿策劃活動(金猿榜單發布+金猿獎杯頒發)即將推出,盡情咨詢期待!
大數據產業創新服務媒體
——聚焦數據 · 改變商業
桔妹導讀:2020年新春伊始,新冠疫情爆發。為有效預防感染,保障司乘生命安全,滴滴利用在計算機視覺技術的多年研發積累,研制了口罩識別防疫系統。本文重點介紹口罩識別系統的框架、原理和方法,同時也介紹圖像技術團隊今年在國際計算機視覺領域的比賽進展。
1.?
口罩識別技術
????
2020年新春伊始,新冠疫情席卷全國。為有效預防感染,防止疫情持續擴散,滴滴投入了多種AI視覺抗疫措施,督促司機進行積極防疫,保障司機自身和乘客的健康安全,包括口罩佩戴識別、視頻消毒噴灑識別、消毒貼紙識別、圖片消毒壺識別等,解決了出行運輸行業面臨車輛地域分布廣泛、活動頻率較高、活動時間跨度較長、司機數量龐大等現實問題,其中口罩佩戴識別最為典型。
口罩佩戴識別技術方案基于特征融合和分割監督相結合的人臉檢測(DFS--Detection with Feature Fusion and Segmentation Supervision)和口罩屬性識別兩大模塊組成,前者實現在圖像中準確定位人臉區域的功能,后者在單個人臉區域的基礎上利用注意力學習進一步分析人臉屬性,從而判斷人臉是否佩戴口罩。測試結果表明,上述技術方案在人臉佩戴口罩識別任務中,圖像級準確率超過99.50%,可快速定位未按要求佩戴口罩的重點人員,有效解決了24小時復雜光照、多種類型遮擋、人臉姿態變化、不同距離人臉尺度、口罩款式類型多樣化等實際應用中的難題,靈活適應不同場景環境。
口罩佩戴識別是一種人臉屬性識別,它包括人臉檢測技術和口罩屬性分類技術兩部分。由于人臉的特殊性,在目標檢測技術的基礎上發展了一系列的人臉檢測算法。而口罩佩戴識別可通過目標分類技術來實現。因此人臉佩戴口罩識別涉及目標檢測技術和分類技術。
目標檢測技術是指從一幅場景中找出所有感興趣的目標,確定它們的位置和類別,包括了檢測和分類兩個過程。近幾年來深度學習技術飛速發展,目前基于深度學習技術的目標檢測算法分為兩類:一類是雙階段目標檢測算法,另外一類是單階段目標檢測算法。常見的雙階段目標檢測算法包括Faster R-CNN[1]、R-FCN[2]和FPN[3]等。該類算法在基于特征提取的基礎上,有獨立的網絡分支生成大量的候選區域,然后對這些候選區域進行分類和回歸,確定目標的準確位置框和類別。對于單階段目標檢測算法,常見的有包括YOLO V3[4]、SSD[5]和RetinaNet[6]等。該類算法直接生成候選區域的同時進行分類和回歸。通常情況下,雙階段目標檢測算法精度更高,而單階段的目標檢測算法速度更快。人臉檢測是目標檢測的一種特例。對于任意一幅輸入的圖像,采用一定的算法或策略對其進行搜索以確定其中是否含有人臉,如果存在人臉,則返回所有人臉的位置等信息。目標檢測一般會檢測多個類別,而人臉檢測是二類問題,只檢測人臉和背景兩類。針對人臉類別的單一性、以及人臉的五官特殊性,在目標檢測算法的基礎上,發展出了大量的人臉檢測算法,包括MTCNN[7]以三個級聯網絡實現快速人臉檢測,并利用圖像金字塔實現不同尺度人臉的檢測、Face R-CNN[8]基于Faster R-CNN框架進行人臉檢測、SSH[9]提出了對不同深度的卷積層分別進行檢測以實現多尺度、FAN[10]提出了基于錨點級的注意力機制、PyramidBox[11]利用人臉的上下文信息提高遮擋人臉檢測,即結合人頭、身體等信息。上述算法主要解決不同于其他領域的人臉多尺度、遮擋等問題[12][13]。
目標分類技術按照目標的性質、用途等進行歸類。基于深度學習的分類技術包括骨干網絡和損失函數兩部分。骨干網絡有AlexNet[14]使用層疊的卷積層以及Dropout、Relu等;VGG-Net[15]使用更深的網絡結構,探索了深度與性能的關系;GoogLeNet[16]在增加網絡深度和寬度的同時減少參數,在多個尺寸上同時進行卷積再聚合,并使用1×1的卷積來進行升降維;ResNet[17]設計了一種短連接的結構,解決了神經網絡加深后的退化問題。
我們提出了一種基于CNN的人臉佩戴口罩識別算法,包括人臉檢測和佩戴口罩識別兩部分,如圖1所示,人臉檢測模塊首先對輸入的圖像進行人臉檢測;佩戴口罩識別模塊對檢測到的人臉區域按照一定比例擴展,并裁剪出人臉區域子圖像,采用圖像分類的方法,對整個人臉區域子圖像進行二分類,從而得到是否佩戴口罩的識別結果。
圖1 人臉佩戴口罩識別整體框圖
??
人臉檢測模塊使用了DFS(Detection with Feature Fusion and Segmentation Supervision)[18]算法。該算法以卷積神經網絡中的特征融合為基礎,利用特征融合金字塔[19]結構同時以空間和通道注意力學習的方式融合高低層特征,以防止高層特征圖上的語義信息覆蓋低層特征圖上的細節信息,從而使語義和細節相互補充,在不失細節信息的同時將語義信息作為上下文線索從而能夠增強低層特征。如圖2所示,輸入圖像經過網絡逐層提取特征后,自最高層向下,相鄰層間通過特征融合模塊進行特征融合后,再和低一層的特征進行融合,依次類推。融合后的各層特征被Detection模塊用于對應尺度人臉的檢測。
圖2 DFS人臉檢測算法整體架構圖
此外,DFS算法以標注的人臉框作為人臉檢測候選框的弱監督信息,具體到每一層則是標注框在相應層所對應的感受野,這樣使得人臉檢測框和分割框在每一層具有相同的尺度。分割層有效幫助網絡快速學習到人臉區域的特征信息,同時讓分類和回歸更容易收斂。在推理時候,分割分支會被去除,這樣不會增加模型的參數和計算量。另外直接采用人臉標注框作為分割信息,無需額外標注,雖然人臉標注框中會含有一定的背景信息,但相對于其中占主導的人臉區域,其影響可以忽略不計。相對于其他算法利用分割預測圖在主網絡中針對特征信息進行引導,弱監督方式不會引入多余的參數和運算。
2019年4月DFS人臉檢測算法在WIDER FACE官方驗證集和測試集上進行了評測。WIDER FACE是目前業界公開的數據規模最大、檢測難度最高的人臉檢測數據集之一,由香港中文大學于2016年建立,共包含32,203張圖像和393,703個人臉標注。其中,40%的數據為訓練集(Training)、10%的數據為驗證集(Validation)、50%的數據為測試集(Testing)。每個集合中的數據根據人臉檢測的難易程度分為“Easy”、“Medium”、“Hard”,如圖3所示[20]。由于匯集了人臉尺寸大小變化、拍照角度引起的人臉姿態變化、不同程度的人臉遮擋、表情變化、光照強弱差異以及化妝等多種影響因素,該數據集在全球人臉檢測領域極具挑戰性,吸引了多家國內外科技巨頭及高校院所在這個數據集上進行算法效果的驗證。
圖3 WIDER FACE人臉檢測評測集
在“Easy”、“Medium”和“Hard” 三個驗證子集中,DFS算法AP性能分別達到96.9%、95.9%和91.2%。在“Easy”、“Medium”和“Hard”三個測試子集中,性能分別達到96.3%、95.4%和90.7%。DFS算法在六項評估結果中取得五項第一、一項第二的成績[21-22],因此它可以很好地解決實際環境下人臉存在各種姿態變化問題,如側臉、低頭、仰頭,以及人臉遮擋和不完整等,同時可有效解決不同光照條件的影響,如強光、弱光、反光等,另外對不同尺度人臉的檢測有一定的魯棒性。
通過人臉檢測獲得圖像中的人臉區域后,需要識別當前人臉區域是否佩戴口罩。口罩屬性識別模型是基于ResNet50改進的,加入了注意力學習機制,進一步強化口罩區域,并針對損失函數進行了優化等。圖4所示為佩戴口罩識別的模型結構示意圖,圖像經過輸入層的數據預處理后,依次經過模型的block1、block2、block3提取特征,并和attention層的權重相乘后經過block4和block5提取特征后輸出分類結果。在輸入層的數據預處理中,提出了人臉區域擴展的方法,即針對人臉檢測獲得的邊界框進行一定比例的擴展。這是因為實際人臉檢測中,由于受到多種復雜條件的影響,檢測框少數情況下會存在一定程度的坐標誤差。通過邊界框擴展不但可以消除檢測誤差,還能夠包含更多的人臉佩戴口罩區域,如耳帶等,從而提高模型的分類能力。實驗中采用了寬高等比例擴展,擴展的比例是20%。另外,針對口罩在人臉中的佩戴位置固定的特性,模型中加入注意力學習機制,從而提高針對困難樣本的檢測能力。如圖4所示,在ResNet50網絡模型的block3層后加入了attention網絡層,引導模型重點關注人臉中的口罩區域,從而對特征層中的對應區域進行加權,弱化非口罩區域的特征表達,提高口罩區域特征的顯著性。本文的attention網絡采用了卷積的形式,尺度與Block3層特征圖相對應,利用點對點乘積的方式對該層特征圖進行加權,使Block3層特征更關注相應尺度下的口罩區域,從而實現注意力學習。
圖4 基于Resnet50的戴口罩識別模型結構示意圖
滴滴采用的口罩佩戴識別技術方案針對性地在預處理、算法、模型、數據、訓練等維度做優化,將人臉檢測和口罩屬性識別技術有機結合,并積極利用注意力學習和數據增強等方法,最終產生的一套綜合性解決方案,該技術已經發表在《中國科學-信息科學》期刊上[23]。2020年1月末起,滴滴將這一技術應用于出車前的智能出車質檢系統及車載設備中,能在出車前和行程中基于這一技術自動分析平臺網約車司機是否佩戴口罩,以進一步督促司機做好個人防護,在疫情期間已經全國上線。自2020年2月19日起,這套口罩佩戴識別技術方案已經對全社會開放和開源[24],企業和個人開發者均可快速便捷地獲取和部署,滿足對人員佩戴口罩情況的全天候實時檢測需求。
2.?
視覺比賽
滴滴能夠及時提出多種AI抗疫措施,保障司機和乘客生命安全,本質上公司非常重視計算機視覺技術的投入。隨著滴滴在交通出行領域業務的不斷推進,計算機視覺技術在公司業務領域起到的作用越來越重要。智能業務中臺視覺AI技術部圖像技術團隊積極儲備和研發相關技術能力,今年參加了多項國際計算機視覺比賽,并取得很好的成績,為承接公司核心業務打下扎實的基礎。
參加了ACM ICMI2020組織的Emotion Recognition in the Wild 2020(EmotiW2020)競賽[25],在Driver Gaze Prediction(司機視線預測)賽道上,獲得世界第一;在Group Emotion Recognition(視頻多人表情識別)賽道上,獲得世界第三。ICMI(International Conference on Multimodal Interaction)是由國際計算機協會ACM(Association for Computing Machinery)舉辦的,致力于通過多學科研究實現多模態人機交互、接口和系統開發的著名國際會議,在人機交互領域的期刊、會議中極具學術影響力。2020年10月,第22屆ICMI將在荷蘭烏得勒支舉辦。此次參加的Emotion Recognition in the Wild 2020(EmotiW2020)正是由ICMI2020會議所組織的,世界范圍內視頻情感識別領域最高級別、最具權威性的競賽。
圖5 ICMI2020[25]
司機視線預測Driver Gaze Prediction賽道,主要針對車內司機的視線區域進行預測。車內的視線范圍分為9個區域,包括正前方、車內后視鏡、兩邊的后視鏡、儀表盤、中控臺等。比賽以分類準確率作為最終的衡量指標。每個參賽隊在組委會公布測試集后均有5次提交機會,以最高結果作為該參賽隊的最終成績。
圖6 Driver gaze prediction(圖片來自比賽數據集[25])
司機視線預測在司機輔助駕駛系統Advanced Driver AssistanceSystem(ADAS)中扮演非常重要的角色。它可以檢測司機的精神注意力狀態,即當司機視線偏移正前方的時候,對其進行提醒、防止分神,目的是提高駕駛安全性,減少交通事故的發生,從而保障司機、乘客和車外行人的生命安全。該比賽在出行領域非常具有實際意義和價值,通過參賽所積累的技術可以直接應用于具體業務場景,落地于交通安全項目。
通過分析后發現,比賽方提供的數據存在以下特點:
數據集中視線區域即包含跨度較大的左右后視鏡,也包含跨度距離較近的儀表盤、正前方和正上方等區域;
數據集中司機包含不同的年齡、性別、裝扮的差異,以及眼鏡、墨鏡等不同物體的面部遮擋,反光、模糊等圖像質量影響;
數據采集拍攝所用的攝像頭的位置也是不同的,有在正上方的,也有在下方中控臺位置的,因而成像角度差異巨大。
圖7 算法采用的主要特征信息(圖片來自比賽數據集[25])
為了解決上述問題,參賽同學采用了外貌特征(Appearance Feature)和幾何特征(Geometric Feature)相結合的策略。而外貌特征中利用了人臉特征圖、頭部姿態(Head Pose)、局部人眼信息、3D信息輔助監督等;幾何特征中利用了人臉關鍵點(Landmark)的位置信息、人臉德勞內三角形(Delaunay triangular)的角度信息。最后采用先進的模型融合技術,準確率達到了82.5288%,比第二名成績高出1.0144%,獲得了第一名的優異成績。
圖8 Driver Gaze Prediction賽道前三名得分
Group Emotion Recognition賽道的任務是基于視頻的多人情緒識別。競賽數據集共包含2661個訓練集視頻和766個驗證集視頻,將情緒定義為三個類別:積極的、負面的、自然的。每支參賽隊伍均有5次提交結果機會,以最高的分類acc結果作為隊伍的最終成績。
本次競賽在上一賽季的基礎上增加了難度,從識別單人視頻和多人圖片改為對多人視頻進行情緒識別。數據集反映出的主要挑戰在于:視頻均來自互聯網且質量不一。視頻內容包括了電影、新聞、訪談、閱兵等多種場景,往往在一個視頻段中多人的情緒并不完全一致。部分視頻中甚至沒有正面人臉出現,只能依據一些人體的肢體動作來做判斷。
圖9 比賽數據集視頻截圖(圖片來自比賽數據[25])
通過對視頻數據進行深入分析,采用了以下多個技術方案并進行融合:
通過視頻理解的方向,對視頻做end-end的建模,通過時序建模抽取有用的語義信息來建模,獲取視頻的分類;
通過人臉表情的方向,通過提取視頻的人臉特征,并利用人臉特征的時序來建模;
通過肢體方向,使用人臉、肢體關鍵點的特征來建模,有利于提取視頻的行為特征;
通過融合視頻、人臉表情、肢體等多個維度的特征,來實現最終的模型輸出。
圖10 人臉的特征提取(圖片來自比賽數據集[25])
圖11 肢體關鍵點的特征提取(圖片來自比賽數據集[25])
融合完成后的模型得分為70.7672,最終獲得了世界第三的優異成績。
圖12 Group Emotion Recognition賽道前三名得分
另外滴滴圖像技術團隊之前還參加了ICME2020組織的名為Embedded Deep Learning Object Detection Model Compression Competition for Traffic in Asian Countries比賽[26],榮獲世界第三。
ICME(IEEE International Conference on Multimedia and Expo)是由4個IEEE協會聯合舉辦的,致力于將電路與系統、通信、計算機技術和信號處理等領域最先進的研發成果應用于多媒體技術、系統和應用當中去。自2000年首次舉辦此會議以來,ICME每年都能吸引超過1000篇論文投稿和500名以上的參與者,是多媒體領域知識傳播的主要論壇。今年的ICME將于7月份在倫敦舉辦。
圖13 比賽官網[26]
Embedded Deep Learning Object Detection Model Compression Competition for Traffic in Asian Countries是ICME2020會議組織的比賽。該比賽主要面向亞洲國家交通出行領域的感知場景,試圖通過分析車輛前置攝像頭采集到的圖像信號,在嵌入式平臺上有限的計算資源條件下,實時的檢測道路上的行人、汽車、摩托車和自行車等四類常見目標。由于相關技術在自動駕駛、智慧交通以及城市計算等領域有著較大的應用落地價值,因此吸引了全球共計133個參賽者參賽。為了更好地貼近實際場景,本次比賽分為資格賽和決賽兩個階段。其中,資格賽只考察模型的精度,在所有參賽者提交的結果中,選取Top15進入決賽。決賽階段則從四個角度考察模型性能,分別是:模型精度(mAP, mean Average Precision)、模型大小、計算復雜度以及在嵌入式平臺(Nvidia Jetson TX2)上的運行速度,經過綜合考慮給出最終得分排名。有別于其他只考慮精度的比賽,該比賽更有實際意義,所儲備的技術更加貼近實際場景,更容易產生落地價值。
圖像技術團隊同學自接受比賽任務以來,在完成自身業務項目的同時積極備戰。通過分析后發現,比賽方提供的數據存在以下特點:
數據集中含有大量受黑夜、雨霧、抖動等低質量樣本,整體數據集難度較大;
數據集分布極不均衡:大量的數據樣本集中在汽車這個類別上,而其他類別尤其是自行車的數據樣本極為稀疏;
數據集標注標準不統一:部分受遮擋的目標標注標準不統一;
為了解決上述問題,參賽同學使用數據擴增(Data Augmentation)、在線難例挖掘(OHEM)等技術對上述難點進行糾正。在資格賽階段共計訓練了基于Anchor Based和Anchor Free兩大技術流派的三個檢測模型,采用先進的模型融合技術,最終以第三名的身份進入決賽階段。
進入決賽階段以后,參賽同學及時調整了初賽時單純追求精度的打法,開始著力于模型性能和速度的平衡工作。最終決定采用知識蒸餾和定點化加速等技術,對資格賽模型進行加速和壓縮等優化工作。經過比賽組織方的評測,圖像技術團隊參賽模型以滿分的成績獲得模型大小、計算復雜度以及運行速度三項世界第一、綜合總分世界第三的成績。
圖14 模型示意圖
通過上述這一系列的比賽和研究活動,圖像技術團隊錘煉了云端和邊端上的圖像感知技術,為更好的承接公司內外業務以及今年抗疫項目打下了堅實基礎。?
參考鏈接:
???????????[1]? ? Ren S Q, He K M, Girshick R B, et al. Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2015, 39(6): 1137-1149
[2]???Dai J F, Li Y, He K M, et al. R-FCN: Object detection via region-based fully Convolutional networks. Proceedings of Conference on Advances in Nerual Information Processing Systems, 2016
[3]???Lin T, Dollar P, Girshick R B, et al. Feature Pyramid Networks for Object Detection. 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2017: 936-944
[4]????Redmon J, Farhadi A. YOLOv3: An incremental improvement. IEEE Conference on Computer Vision and Pattern Recognition, 2018
[5]????Liu W, Anguelov D, Erhan D, et al. SSD: Single Shot MultiBox Detector. Proceedings of European Conference on Computer Vision, 2016:21-37
[6]????Lin T Y, Goyal P, Girshick R, et al. Focal Loss for Dense Object Detection. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2017, PP(99):2999-3007
[7]????Zhang K, Zhang Z, Li Z, et al. Joint Face Detection and Alignment Using Multitask Cascaded Convolutional Networks. IEEE Signal Processing Letters, 2016, 23(10): 1499-1503
[8]????Wang H, Li Z, Ji X, et al. Face R-CNN. arXiv preprint arXiv:1706, 01061, 2017
[9]????Najibi M, Samangouei P, Chellappa R, et al. SSH: Single Stage Headless Face Detector. 2017 IEEE International Conference on Computer Vision (ICCV), 2017: 4885-4894
[10]?? Wang J, Yuan Y and Yu G. Face attention network: An effective face detector for occluded faces. arXiv preprint arXiv:1711.07246, 2017
[11]?? Tang X, Du D K, He Z, et al. Pyramidbox: A context-assisted single shot face detector. ?Proceedings of European Conference on Computer Vision (ECCV), 2018
[12]? ?Pang Y W, Xie J, Khan M H, et al. Mask-Guided Attention Network for Occluded Pedestrian Detection. 2019 IEEE International Conference on Computer Vision (ICCV), 2019: 4966-4974
[13]?? Xie J, Shao L. PSC-Net: Learning Part Spatial Co-occurence for Occluded Pedestrian Detection. arXiv preprint arXiv:2001.09252, 2020
[14]?? Krizhevsky A, Sutskever I, Hinton G. Image Net classification with deep convolutional neural networks. International Conference on Neural Information Processing System, 2012: 1097-1105
[15]?? Simonyan K, Zisserman A. Very deep convolutional networks for large-scale image recognition,?Proc. ICLR, 2015: 409-420
[16]?? Szegedy C, Liu W, Jia Y Q, et al. Going deeper with convolutions. 2015 IEEE Conference on Computer Vision and Pattern Recognition(CVPR),2015: 1-9
[17]?? He K M, Zhang X Y, Ren S Q, et al. Deep Residual Learning for Image Recognition. 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR),2016: 770-778
[18]?? Tian W X, Wang Z X, Shen H F, et al. Learning better features for face detection with feature fusion and segmentation supervision. arXiv preprint arXiv:1811.08557, 2018
[19]?? Lin T Y, Dollár, Piotr, Girshick R, et al. Feature Pyramid Networks for Object Detection. 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2017: 936-944
[20]?? http://shuoyang1213.me/WIDERFACE/index.html
[21]?? http://mmlab.ie.cuhk.edu.hk/projects/WIDERFace/WiderFace_Results.html
[22]?? https://www.sohu.com/a/310461017_100092059
[23]?? 張修寶, 林子原等。全天候自然場景下的人臉佩戴口罩識別技術. 中國科學-信息科學, 2020年第7期1110-1120
[24]?? http://github.com/didi/maskdetection
[25]?? https://sites.google.com/view/emotiw2020
[26]?? https://www.2020.ieeeicme.org/index.php/grand-challenges-2/#GC3
本文作者
?
2017年6月加入滴滴,任首席算法工程師,負責交通出行場景中的圖像技術研發工作。2006年博士畢業于北京郵電大學,博士論文獲得2007年北京郵電大學優秀學位論文。曾在松下、百度和微軟等多家知名公司工作,專注于AI技術研發。近年了參加過多個國際計算機視覺比賽,榮獲多個第一。在NeurIPS、CVPR、ECCV、PKDD、LNCS、LNAI等發表近20篇論文,在國內外申請發明專利近百項。
團隊招聘
?
滴滴圖像技術團隊基于滴滴積累的海量交通出行場景數據,研發各種視覺感知、識別和理解技術,包括人臉識別、光學字符識別、目標識別和視頻理解等,并成功地將這些技術應用于司機服務質檢、司乘安全、智慧交通等各個領域,為出行安全和乘車體驗保駕護航。
團隊長期招聘計算機視覺工程師和專家,工作內容包括不局限于:目標檢測/分類/跟蹤/理解,人體關鍵點檢測,語義標注,場景分析,視頻分析,視頻動作/行為/關系理解,光學字符識別,人臉/行人識別等。歡迎有興趣的小伙伴加入,可投遞簡歷至 diditech@didiglobal.com,郵件請郵件主題請命名為「姓名-應聘部門-應聘方向」。
點擊文末“閱讀原文”可查看具體招聘職位要求。
掃碼了解更多崗位
—— /?END?/?——
以下內容更精彩
︾
2019數據猿年度金猿榜:
●2019大數據產業趨勢人物榜TOP 10
●2019大數據產業創新服務企業榜TOP 15
●2019大數據產業創新服務產品榜TOP 40
2020年度金猿榜,盡情期待!
2020數據猿《#榜樣的力量#尋找新冠戰“疫”,中國數據智能產業先鋒力量》大型公益主題策劃活動:
●《新冠戰“疫”——中國數據智能產業最具社會責任感企業》榜
●《看過大佬們發的朋友圈之后,我相信:明天會更好,明年定會春暖花開》條漫
總結
以上是生活随笔為你收集整理的滴滴在招聘,以及司乘防疫口罩识别技术的系统框架、原理和方法展的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 陌上花开,可缓缓归矣
- 下一篇: u盘在计算机磁盘中显示为磁盘1,U盘盘符