同盾科技声纹识别建模大赛
賽事簡介
本次“同盾科技聲紋識別建模大賽”立足于選拔出色AI人才,致力于打造“智能風控”,為高潛力人才與高增長行業建立起精準對接的橋梁。此次同盾聯合科賽、希爾貝殼,并由騰訊云全程支持計算資源,發起聲紋大賽。基于同盾科技核心業務展開,以一線業務的實戰經驗為素材,與廣大AI技術開發者一起針對聲紋識別在風控領域的應用做更深入的探索。
數據提供方:希爾貝殼
云資源支持:由騰訊云|云+創業全力
大賽命題
要求基于給定的訓練數據建立模型,從而可對任給定的兩段語音數據,模型輸出這兩段語音是由同一個人說的概率p, p∈[0,1]。
比賽日程
??比賽時間:2018-08-01 至 2018-10-22
??????????初賽階段:2018-08-01(12:00:00) 至 2018-09-07(23:59:59)
??????????初賽評審階段:2018-09-08 至 2018-09-10
??????????復賽階段:2018-09-11 (12:00:00)至 2018-10-10(23:59:59)
??????????復賽評審階段:2018-10-11 至 2018-10-15
??????????決賽線下路演:2018-10-22(14:00:00)
??比賽階段:
??????????初賽:2018-08-01 至 2018-09-10
??????????????????選取初賽排行榜前30名的隊伍進入復賽
??????????復賽:2018-09-11 至 2018-10-15
????????????????選取復賽排行榜前10名的隊伍進入決賽
??????????線下決賽路演:2018-10-22
????????????????當天進行選手作品答辯,評出獲得一、二、三等獎和優秀獎的隊伍
獎項設置
獎金設置:
? 本次大賽共設置三個獎項,獎金一共¥276,000人民幣。
| 獎項 | 一 | 二 | 三 | 優秀 |
| 隊伍數 | 1 | 2 | 3 | 4 |
| 每支隊伍獎金(¥) | 80,000 | 50,000 | 20,000 | 9000 |
其他獎勵:
? 為進入決賽的優秀選手提供兩個實習名額(若優秀選手較多,可適當增加名額)
數據說明&查看路徑
初賽數據集訪問路徑
? 請在K-Lab Kernel中輸入如下指令訪問數據集:
????!ls /mnt/datasets/tongdun_competition/1st_round/
? 可以看到如下文件/文件夾
??????? pair_id.txt
??????? training_set_spk_info.csv
??????? training_set/
??????? test_set/
初賽中使用的數據分為訓練集和測試集兩部分
? 訓練集:
??????? 共1000個說話人,具體關于訓練集中錄音人相關信息的內容,請查看文件目錄下的training_set_spk_info.csv
??????? 訓練集中每個文件夾名為該錄音人的ID,其中包含所有該錄音人所說的語音
? 測試集:
??????? 共包含1200對語音音頻組合,pair_id.txt預置在了數據集中
初賽階段:
? K-Lab使用騰訊云CPU,4核16G內存。K-Lab的單次運行時長為6小時,運行時長的最后90分鐘內皆可選擇是否“延長可用時長”。
? 任務:
? 訓練/驗證:使用所提供的說話人各自的語音音頻數據與說話人性別,在K-Lab中建立模型、驗證模型,可對任給定的兩段語音數據,模型輸出這兩段語音是由同一個人說的概率p, p∈[0,1]
? 輸出結果:根據訓練集中所提供的pair_id.txt,對測試集中的1200對語音分別輸出是由同一人說的概率p,并將結果文件(csv)通過K-Lab上傳至自動測評系統得到EER分數
? 測試集說明:測試集包含1200對語音音頻組合,pair_id.txt預置在了復賽使用的數據集中。示例如下:??
| pairs_id |
| 0001_0002 |
| 0003_0004 |
| 0004_0005 |
*?每一行表示一對音頻組合。'0001_0002'表示測試集目錄test_set下的音頻0001.wav和0002.wav; '0003_0004'表示測試集目錄下的音頻0003.wav和0004.wav,以此類推。
? 本次比賽初賽的訓練數據隨機從希爾貝殼中文普通話語音數據庫中,每人抽取5分鐘左右的數據,共1000名來自中國不同口音區域的發言人參與錄制。錄制過程在安靜室內環境中,同時使用3種不同設備: 高保真麥克風(44.1kHz,16bit);Android系統手機(16kHz,16bit);iOS系統手機(16kHz,16bit)。錄音內容涉及財經、科技、體育、娛樂、時事新聞等12個領域。
? 語料池處理
??????? 脫敏處理。刪除政治敏感、個人隱私、色情暴力等內容。
??????? 刪除 < , > , [ , ] , ~ , / , \ , = 等符號。
??????? 刪除含有中文和英文以外語言的內容。
??????? 統一格式。
復賽數據集訪問路徑:
? 請在K-Lab Kernel中輸入如下指令訪問數據集:
??!ls /mnt/datasets/
? 可以看到如下文件/文件夾
??????? pairs_id.txt
??????? training_set/
??????? test_set/
??????? spk_info.csv
??????? trainingset_transcript.txt
復賽中使用的數據分為訓練集和測試集兩部分
? 訓練集
??????? 訓練集包含超過6000名錄制人的音頻,來自OpenSLR數據集和AISHELL-2500數據集。
??????? 對于來自AISHELL-2500數據集的部分,我們提供了spk_info.csv文件,記錄了音頻錄制人的id,年齡段,性別,口音區域,句數等信
????????息;以及trainingset_transcripts.txt,包含了音頻錄制者所有話語的文字記錄。
? 測試集
??????? 測試集共包含3000對音頻,以及pairs_id.txt,記錄了測試集音頻的ID字段。
復賽階段:
? K-Lab使用GPU,M40。
? 任務:
??????? 訓練/驗證:使用所提供的說話人各自的語音音頻數據與說話人性別,在K-Lab中建立模型、驗證模型,可對任給定的兩段語音數據,模
??????? 型輸出這兩段語音是由同一個人說的概率p, p∈[0,1]
??????? 輸出結果:根據訓練集中所提供的pair_id.txt,對測試集中的3000對語音分別輸出是由同一人說的概率p,并將結果文件(csv)通過
????????K-Lab上傳至自動測評系統得到EER分數
??????? 測試集說明:測試集包含3000對語音音頻組合,pair_id.txt預置在了復賽使用的數據集中。示例如下:
| pairs_id |
| 0001_0002 |
| 0003_0004 |
| 0004_0005 |
* 每一行表示一對音頻組合。'0001_0002'表示測試集目錄test_set下的音頻0001.wav和0002.wav; '0003_0004'表示測試集目錄下的音頻0003.wav和0004.wav,以此類推。
評審標準
自動評審:
提供每天5次的評測與排名機會,實時更新排行榜,按照評測分數從高到低排序。若隊伍一天內多次提交結果,新結果版本將覆蓋原版本。
評測指標說明:
初賽
? 評審使用EER值來判斷分類模型的好壞。
復賽評審
? 評測指標EER
? 評審采用Public/Private榜,答案文件中,40%的數據被用于Public榜的評測,其余60%的數據被用于Private榜評測
*比賽結束后Private成績將被自動公開,最終比賽成績由private榜確定。
每階段比賽結束后,我們會檢查選手提交的結果是否
? 無作弊
? 提交了K-Lab notebook
? 在K-Lab中可以成功復現
在上述條件均滿足的隊伍中,初賽排行榜前30,和復賽排行榜分數排名前10名的隊伍將晉級到下一階段。若參賽隊伍在上述條件中有一條未滿足,則沒有晉級資格。
* 進行復賽進決賽評審時,進入復賽的全部30支隊伍需提交notebook
決賽評審
? 復賽成績權重:60%
? 決賽答辯成績:40%
? 決賽答辯評分規則:
| 維度 | 說明 | 權重 |
| 創新性 | 方案的技術創新程度,包括技術的新穎性、獨創性和先進性,符合本領域的技術發展趨勢, ?非簡單復用現有成熟方案 | 35% |
| 完整性 | 技術關鍵路徑的完整性,包括技術方案的調研?比較、測試評估的科學性、 模型訓練調優的體系化,以及上述這些措施在最終結果中的體現 | 35% |
| 可行性 | 技術方案在實際應?用中的可?行行性,包括對計算資源、對數據量量的要求 ,調?用延遲?小 | 30% |
備注:?如果選手的決賽成績相同,復賽排行榜名次高者獲勝。
決賽獲獎名單
一等獎:河姆渡小分隊
二等獎:咖喱棒, SeuTao
三等獎:HelloKittty, C-baseline, cehn
總結
以上是生活随笔為你收集整理的同盾科技声纹识别建模大赛的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 战舰少女r服务器维修,战舰少女r修理时间
- 下一篇: 初识 Linux