直播 | AAAI 2021:如何缓解GNN预训练和微调之间的优化误差?
「AI Drive」是由 PaperWeekly 和 biendata 共同發起的學術直播間,旨在幫助更多的青年學者宣傳其最新科研成果。我們一直認為,單向地輸出知識并不是一個最好的方式,而有效地反饋和交流可能會讓知識的傳播更加有意義,從而產生更大的價值。
本期 AI Drive,我們邀請到騰訊微信事業群應用研究員陸元福,為大家解讀其發表于 AAAI 2021?的最新工作。對本期主題感興趣的小伙伴,1 月 28 日(周四)晚 7 點,我們準時相約 PaperWeekly B 站直播間。
直播信息
傳統 GNN 預訓練是一個兩階段的流程,即先在大規模圖數據集上進行預訓練,進而在下游數據上進行微調。但是,通過對兩階段優化目標的分析,我們發現這兩個步驟之間是存在一些差異的,這一差異在一定程度上影響預訓練模型的遷移效果。因此,在本文中,我們考慮如何緩解傳統預訓練和微調兩個步驟之間差異,從而更好的實現知識遷移。
基于此,我們提出了一種自監督預訓練策略,充分利用無標簽的圖數據,并在兩個大規模數據集上取得了顯著提升。同時,我們還發布了一個包含百萬量級子圖的大規模圖數據,可用于圖分類等任務。代碼及數據已公開。
論文標題:
Learning to Pre-train Graph Neural Networks
論文鏈接:
https://yuanfulu.github.io/publication/AAAI-L2PGNN.pdf
代碼鏈接:
https://github.com/rootlu/L2P-GNN
本次分享的具體內容有:?
在傳統的 GNN 預訓練模型中,存在預訓練和微調之間有差異的問題
為了緩解這一差異,我們提出了一種自監督的預訓練模型
在兩個大規模數據集上,所提出的模型取得了顯著提升。
嘉賓介紹
?陸元福?/?騰訊微信事業群應用研究員?
陸元福,騰訊微信事業群應用研究員,碩士畢業于北京郵電大學計算機學院,主要研究方向:graph embedding、recommender systems 和 meta learning。目前以第一(學生)作者在 IEEE TKDE、KDD、AAAI 和 CIKM 等會議發表相關論文多篇。
直播地址?& 交流群
本次直播將在 PaperWeekly B 站直播間進行,掃描下方海報二維碼或點擊閱讀原文即可免費觀看。線上分享結束后,嘉賓還將在直播交流群內實時 QA,在 PaperWeekly 微信公眾號后臺回復「AI Drive」,即可獲取入群通道。
B 站直播間:
https://live.bilibili.com/14884511
合作伙伴
????
現在,在「知乎」也能找到我們了
進入知乎首頁搜索「PaperWeekly」
點擊「關注」訂閱我們的專欄吧
關于PaperWeekly
PaperWeekly 是一個推薦、解讀、討論、報道人工智能前沿論文成果的學術平臺。如果你研究或從事 AI 領域,歡迎在公眾號后臺點擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。
總結
以上是生活随笔為你收集整理的直播 | AAAI 2021:如何缓解GNN预训练和微调之间的优化误差?的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 耗儿鱼的家常做法?
- 下一篇: 学习历史预测未来,国防科大新模型实现未来