更好的对比样本选择,更好的对比效果
?原創(chuàng) ·?作者?|?張琨
學(xué)校?|?中國(guó)科學(xué)技術(shù)大學(xué)博士生
研究方向?|?自然語(yǔ)言處理
自監(jiān)督學(xué)習(xí)(Self-Supervised Learning, SSL),或者自監(jiān)督學(xué)習(xí)中的對(duì)比學(xué)習(xí)(Contrastive Learning,CL)在近兩年成為人工智能研究的一個(gè)重要研究方向和方法。自監(jiān)督學(xué)習(xí)或者對(duì)比學(xué)習(xí)能夠充分利用數(shù)據(jù)本身的特性,在不需要標(biāo)注的前提下實(shí)現(xiàn)對(duì)輸入數(shù)據(jù)的準(zhǔn)確表征學(xué)習(xí),輔助增強(qiáng)了模型在下游任務(wù)中的性能。
為了進(jìn)一步挖掘自監(jiān)督學(xué)習(xí)或者對(duì)比學(xué)習(xí)的潛能,針對(duì)自監(jiān)督學(xué)習(xí),人們?cè)O(shè)計(jì)了更加精巧,和下游任務(wù)更相關(guān)的自監(jiān)督任務(wù)用于模型訓(xùn)練;針對(duì)對(duì)比學(xué)習(xí),不同的距離度量方法,不同的損失函數(shù)設(shè)計(jì),不同的正負(fù)樣本采樣方法,是否使用已有的標(biāo)簽信息都是重要的研究方向。
本文針對(duì)對(duì)比學(xué)習(xí),尤其是對(duì)比學(xué)習(xí)中利用更好的采樣方式增強(qiáng)對(duì)比效果的一些工作進(jìn)行簡(jiǎn)單介紹,希望能為大家?guī)?lái)一些微小的啟發(fā)。
對(duì)比學(xué)習(xí)簡(jiǎn)介
什么是對(duì)比學(xué)習(xí),簡(jiǎn)單來(lái)講,對(duì)比學(xué)習(xí)就是通過(guò)數(shù)據(jù)之間的對(duì)比進(jìn)行表示學(xué)習(xí),目的就是為了獲得更通用的知識(shí),用于輔助下游任務(wù)。它與表示學(xué)習(xí),度量學(xué)習(xí)相比,都是為了獲得輸入的更好表征,只是側(cè)重點(diǎn)不同。
對(duì)比學(xué)習(xí)更側(cè)重于學(xué)習(xí)方法,他的核心思想可以總結(jié)為在向量表征空間中將正樣本(positive example)與錨點(diǎn)樣本(anchor example)之間的距離拉近,將負(fù)樣本(negative example)與錨點(diǎn)樣本(anchor example)之間的距離拉遠(yuǎn),通過(guò)這樣的方式自然而言的就能夠構(gòu)建損失函數(shù)(triplet loss)進(jìn)行模型訓(xùn)練。
因此重點(diǎn)就落到了如何定義正樣本,負(fù)樣本,為了避免對(duì)標(biāo)簽的要求,通用的做法是利用數(shù)據(jù)增強(qiáng)的方法(例如圖像中的旋轉(zhuǎn),裁剪等)獲得錨點(diǎn)樣本的增強(qiáng)樣本,作為正樣本;而在同一批次的訓(xùn)練數(shù)據(jù)中,其他樣本都可以認(rèn)為是負(fù)樣本。這樣就實(shí)現(xiàn)了在不需要標(biāo)簽信息的條件下,利用數(shù)據(jù)本身的特點(diǎn)進(jìn)行對(duì)比學(xué)習(xí)。以上就是對(duì)比學(xué)習(xí)的基本思想。下圖是對(duì)比學(xué)習(xí)中的一個(gè)典型框架。
對(duì)比學(xué)習(xí)降低了對(duì)標(biāo)簽的依賴(lài),讓我們能夠在不需要標(biāo)簽的條件下實(shí)現(xiàn)輸入數(shù)據(jù)的準(zhǔn)確表示。但從他的基本思想中也可以看出來(lái),在樣本的選擇上仍然有些粗放。例如數(shù)據(jù)增強(qiáng)的樣本都是正樣本么?自然語(yǔ)言中有時(shí)候改掉一些詞會(huì)直接導(dǎo)致整體語(yǔ)義的變化,通過(guò)替換詞進(jìn)行數(shù)據(jù)增強(qiáng)不一定能夠保證正樣本的真正性(true positive)。
負(fù)樣本直接從同一個(gè) batch 中進(jìn)行選擇,很直接的同一個(gè) batch 中肯定包含屬于同一類(lèi)的樣本,那么這種樣本的真負(fù)性(true negative)該如何保證?為了解決這些問(wèn)題,進(jìn)一步挖掘?qū)Ρ葘W(xué)習(xí)的潛力,例如利用已有標(biāo)簽的方法實(shí)現(xiàn)更好的樣本選擇,當(dāng)然也有很多其他的選擇更好樣本的方法被提出來(lái)。接下來(lái),本文將對(duì)其中的一些代表性工作進(jìn)行介紹。
監(jiān)督對(duì)比學(xué)習(xí)
論文標(biāo)題:
Supervised Contrastive Learning
收錄會(huì)議:
NeurIPS 2020
論文鏈接:
https://arxiv.org/abs/2004.11362
代碼鏈接:
https://github.com/google-research/google-research/tree/master/supcon
2.1 亮點(diǎn)
該工作 [1] 在對(duì)比學(xué)習(xí)中引入了標(biāo)簽信息,利用標(biāo)簽信息將對(duì)比學(xué)習(xí)的損失擴(kuò)展為支持 multiple positive 和 multiple negative 的形式,以監(jiān)督學(xué)習(xí)的設(shè)置實(shí)現(xiàn)了對(duì)比學(xué)習(xí)效果的提升。
作者通過(guò)梯度計(jì)算的角度說(shuō)明了文中提出的 loss 可以更好地關(guān)注于 hard positives and negatives,從而獲得更好的效果。
2.2 方法
首先是傳統(tǒng)對(duì)比學(xué)習(xí)與本文提出的監(jiān)督對(duì)比學(xué)習(xí)的比較,從圖中可以看出,當(dāng)小狗為對(duì)比錨點(diǎn)時(shí),傳統(tǒng)對(duì)比學(xué)習(xí)只能學(xué)習(xí)到單個(gè)小狗的特征,而同屬于小狗但屬于不同品種的小狗則會(huì)被作為負(fù)例,從而使得小狗這一類(lèi)別的通用特征無(wú)法被整個(gè)模型學(xué)習(xí)到。
因此,如果將同屬于小狗這一類(lèi)別的樣本也作為錨點(diǎn)的正例,那么模型不僅能夠?qū)W習(xí)到單個(gè)小狗的通用特征(數(shù)據(jù)內(nèi)特征),同時(shí)也能學(xué)習(xí)到同一類(lèi)別的特征(類(lèi)內(nèi)特征),考慮到對(duì)比學(xué)習(xí)的基本思想,屬于同一類(lèi)的數(shù)據(jù)距離將會(huì)更近,類(lèi)與類(lèi)之間的差異將會(huì)更明顯。為了實(shí)現(xiàn)這個(gè)效果,作者從損失函數(shù)上進(jìn)行了相對(duì)修改,假設(shè)有 N 個(gè)隨機(jī)選擇的樣本 ,傳統(tǒng)對(duì)比學(xué)習(xí)的 InfoNCE 損失可以表示為如下形式:
其中,即排除出錨點(diǎn)樣本之外的其他樣本。通過(guò)這個(gè)損失函數(shù)可以發(fā)現(xiàn),整個(gè)模型在優(yōu)化的時(shí)候是在考慮一個(gè)正樣本和多個(gè)負(fù)樣本之間的關(guān)系。為了引入標(biāo)簽信息,作者在損失函數(shù)上進(jìn)行了如下改進(jìn):
首先,由于考慮了標(biāo)簽信息,那么在一個(gè)訓(xùn)練 batch 中的屬于同一類(lèi)的樣本將會(huì)被發(fā)現(xiàn)作為正樣本。這樣首先就可以將對(duì)比損失拓展為多個(gè)正樣本對(duì)多個(gè)負(fù)樣本。公式中 表示和錨點(diǎn)樣本屬于同一類(lèi)的樣本。這兩個(gè)公式的不同之處在于求和位置的不同,一個(gè)是在 log 內(nèi)求和,一個(gè)是在 log 外求和。作者通過(guò)分析這兩個(gè)損失函數(shù)都擁有以下特性:
1. 能夠泛化到任意數(shù)量的正樣本:保證了模型能夠?qū)儆谕活?lèi)的樣本聚的更緊密;
2. 通過(guò)求和操作,能夠進(jìn)一步利用負(fù)樣本增強(qiáng)對(duì)比學(xué)習(xí)的性能:這兩個(gè)公式都是在所有的負(fù)樣本挑選上進(jìn)行了求和,效果有點(diǎn)類(lèi)似 noise contrastive estimation 和 n-pair losses [2] [3];
3.能夠更好的實(shí)現(xiàn)強(qiáng)負(fù)樣本(正樣本)的選擇:通過(guò)考慮額外的標(biāo)簽信息,模型在正負(fù)樣本的選擇上可信度就更好,屬于同一類(lèi)別的樣本彼此之間會(huì)作為正樣本, 保證了類(lèi)內(nèi)特征的學(xué)習(xí),屬于不同類(lèi)別的樣本才會(huì)被作為負(fù)樣本,同時(shí)求和操作是在所有挑選的負(fù)樣本上進(jìn)行的,因此負(fù)樣本也可以得到充分的保證。
2.3 實(shí)驗(yàn)
有了這樣的一個(gè)損失函數(shù)之后,作者分別在不同的方法和不同的數(shù)據(jù)集上進(jìn)行效果的驗(yàn)證,以下是相關(guān)實(shí)驗(yàn)結(jié)果:
從這些實(shí)驗(yàn)結(jié)果上可以看出作者提出的方法確實(shí)有效提升了模型的性能。
從這個(gè)工作中,可以看出通過(guò)充分利用已有數(shù)據(jù),在選擇樣本的時(shí)候能夠更好的選擇正樣本,實(shí)現(xiàn)了對(duì)比學(xué)習(xí)性能的提升,這也為我們將標(biāo)簽信息融入到模型中提供了參考的思路。
HCL
論文標(biāo)題:
Contrastive Learning with Hard Negative Samples
收錄會(huì)議:
ICLR 2021
論文鏈接:
https://arxiv.org/abs/2010.04592
代碼鏈接:
https://github.com/joshr17/HCL
3.1 亮點(diǎn)
本文首次提出一種利用采樣分布實(shí)現(xiàn)更好的負(fù)采樣的方法,并且給出了一種在缺乏真實(shí)的不相似信息的條件下如何進(jìn)行采樣的采樣策略。在不使用標(biāo)簽的條件下實(shí)現(xiàn)了更好的負(fù)采樣,提升了對(duì)比學(xué)習(xí)的性能。
3.2 方法
首先是整個(gè)方法的思路圖,在傳統(tǒng)的對(duì)比學(xué)習(xí)負(fù)采樣工作中,主要是對(duì)同一個(gè) batch 中的非錨點(diǎn)隨機(jī)采樣,作為負(fù)樣本;或者是前一個(gè)工作中利用標(biāo)簽信息進(jìn)行負(fù)樣本選擇。那么這些工作確實(shí)會(huì)選擇到一個(gè)負(fù)樣本,并將其分開(kāi)。
但這些工作也存在一些問(wèn)題,一些簡(jiǎn)單的負(fù)樣本能夠被分的很開(kāi),而一些距離較近的負(fù)樣本則并沒(méi)有享受到對(duì)比學(xué)習(xí)帶來(lái)的優(yōu)惠,他們之間依然是難分的,這些負(fù)樣本就可以認(rèn)為是強(qiáng)負(fù)樣本(離樣本點(diǎn)很近但確實(shí)又不屬于同一類(lèi)的樣本),例如圖中的下方例子。為了實(shí)現(xiàn)這個(gè)目標(biāo),作者首先定義了什么是好的強(qiáng)負(fù)樣本,它們需要滿(mǎn)足兩個(gè)條件:
與原始樣本擁有不同的標(biāo)簽
與原始樣本盡可能的相似
為了滿(mǎn)足這個(gè)條件,那就要完成使用無(wú)監(jiān)督的方法刪選出不屬于同一類(lèi)的樣本,這個(gè)目標(biāo)感覺(jué)更像是一個(gè)監(jiān)督分類(lèi)問(wèn)題。對(duì)無(wú)監(jiān)督來(lái)說(shuō)過(guò)于復(fù)雜了,為此,作者進(jìn)行了一些妥協(xié),即盡量滿(mǎn)足條件 1,在對(duì)樣本難度要求不那么大的時(shí)候,可以忽略條件 2。接下來(lái)就是具體的實(shí)施辦法。
作者首先指出條件一的目標(biāo)就是要設(shè)計(jì)一個(gè)通過(guò) embedding 和錨點(diǎn)樣本可以得到的概率分布 q,在這個(gè)分布上,能夠采樣出一批滿(mǎn)足條件的負(fù)樣本,為此,作者首先給出采樣分布函數(shù):
即難負(fù)樣本的分布是以于錨點(diǎn)樣本不同為條件的概率分布,具體可以通過(guò)錨點(diǎn)樣本與負(fù)樣本的向量點(diǎn)積之后,先乘以一個(gè)系數(shù),然后作為指數(shù)項(xiàng)在于單純負(fù)樣本的分布相乘。值越大,代表這個(gè)樣本越難,那么這個(gè)樣本就更應(yīng)該被采到。但這個(gè)時(shí)候條件 1 依然是不滿(mǎn)足的,因?yàn)樵跓o(wú)標(biāo)簽的條件下,我們無(wú)法得知采到的負(fù)樣本是否真的與錨點(diǎn)樣本的標(biāo)簽是不一致的。為了解決這個(gè)問(wèn)題,這里作者使用了 PU-learning [5] 的方法重新了上述分布,即得到了如下形式:
即把負(fù)樣本拆分成來(lái)自同一標(biāo)簽的分布和來(lái)自不同標(biāo)簽的分布兩個(gè)部分,則來(lái)自同一個(gè)標(biāo)簽的分布使用和第一個(gè)公式相似的方法,可以得到
那么滿(mǎn)足兩個(gè)條件的負(fù)樣本分布就可以表示為如下形式:
在此基礎(chǔ)上,針對(duì)原始對(duì)比損失和只使用難負(fù)樣本的對(duì)比損失就可以表示為如下形式:
這個(gè)目標(biāo)函數(shù)只需要估計(jì)期望 和 即可,而針對(duì) 和 的采樣,本文采用了經(jīng)典了蒙特卡洛重要性采樣:
式子右邊分母的和是兩個(gè)配分函數(shù),可以用均值近似:
至此,整個(gè)技術(shù)部分就完成了介紹。整體看著十分復(fù)雜,設(shè)計(jì)多種多樣的抽樣方法。但在具體實(shí)現(xiàn)過(guò)程中,做著吃出,通過(guò)重新調(diào)整目標(biāo)函數(shù)的權(quán)重,而不是采樣過(guò)程,只需要額外的兩行代碼就能夠?qū)崿F(xiàn)整個(gè)方法,作者在附錄中還貼心的給出來(lái)實(shí)驗(yàn)代碼:3.3 實(shí)驗(yàn)
作者選擇 SimCLR 作為 baseline 在多個(gè)數(shù)據(jù)集上進(jìn)行了相關(guān)的實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如下:
1. 圖像表征
2. 圖的表征
3. 句子表征
從這些實(shí)驗(yàn)結(jié)果中可以充分證明作者提出的方法的有效性。同時(shí),為了更好的展示作者提出的方法的優(yōu)越性,作者還對(duì)強(qiáng)負(fù)樣本進(jìn)行詳細(xì)的分析,例如是否更難的樣本一定更好?避免錯(cuò)誤的樣本是否會(huì)改善整個(gè)采樣?通過(guò)這些實(shí)驗(yàn)驗(yàn)證,作者進(jìn)一步展示了所提出的方法的優(yōu)越性。
False Negative Cancellation
論文標(biāo)題:
Boosting Contrastive Self-Supervised Learning with False Negative Cancellation
論文鏈接:
https://arxiv.org/abs/2011.11765
4.1 亮點(diǎn)
本文首次關(guān)注負(fù)樣本的正確性,提出一種 false negative cancellation 的方法,通過(guò)將假負(fù)樣本從對(duì)比損失計(jì)算中刪除提升對(duì)比學(xué)習(xí)的性能。作者還提出了一種無(wú)監(jiān)督的識(shí)別假負(fù)樣本的方法,在無(wú)監(jiān)督條件下實(shí)現(xiàn)對(duì)比學(xué)習(xí)性能的提升。
4.2 方法
在對(duì)比學(xué)習(xí)中,正例一般是通過(guò)數(shù)據(jù)增強(qiáng)的方法得到,因此它的準(zhǔn)確性是可以保證的。但負(fù)例的準(zhǔn)確性相對(duì)來(lái)說(shuō)比較難以保證,同一個(gè) batch 中的其他樣本有可能是和錨點(diǎn)樣本屬于同一類(lèi),例如上圖。
在這種情況下,將右側(cè)的樣本作為負(fù)例一方面會(huì)使得模型忽略輸入所包含的隱式語(yǔ)義信息,另一方面則會(huì)影響模型的收斂速度。之前的方法大多集中在如何選擇質(zhì)量更高的正負(fù)樣本,忽略了樣本的準(zhǔn)確性。為此,作者就從這個(gè)角度展開(kāi)研究。
一個(gè)直觀的思路,既然負(fù)例樣本的準(zhǔn)確性之前沒(méi)有考慮過(guò),那考慮一下不就好了,在對(duì)比學(xué)習(xí)的損失中將那些假負(fù)例直接刪除,只留下真負(fù)例不就好了。基于這樣的想法,作者直接對(duì)損失函數(shù)進(jìn)行了修改,框架圖可以表示為下圖:
首先就是識(shí)別出來(lái)假負(fù)例,然后將其從負(fù)例樣本中刪除,更進(jìn)一步,為了更加充分的利用數(shù)據(jù),還可以將這些假負(fù)例作為真正例來(lái)使用,從而進(jìn)一步提升對(duì)比學(xué)習(xí)的效果,而且這種形式還可以實(shí)現(xiàn)第一個(gè)工作中提到的多對(duì)對(duì)對(duì)比形式。具體形式化可以表現(xiàn)為如下方式:
首先是原始的對(duì)比學(xué)習(xí)損失函數(shù):
當(dāng)我們識(shí)別出 batch 中的假負(fù)例集合 的時(shí)候,我們直接將這些內(nèi)容刪除即可,
更進(jìn)一步,既然這些樣本 是假負(fù)例,那么他們就是真正例,也就是說(shuō)可以將這些作為正例的樣本進(jìn)一步提升對(duì)比學(xué)習(xí)的性能,
思路非常簡(jiǎn)單且易于理解和實(shí)現(xiàn),那么關(guān)鍵問(wèn)題來(lái)了,如何確定假負(fù)例?和第一個(gè)工作類(lèi)似使用標(biāo)簽的話(huà)那就和第一個(gè)工作區(qū)別不大了,如何在無(wú)標(biāo)簽的條件下實(shí)現(xiàn)假負(fù)例的識(shí)別呢?這個(gè)就是另一個(gè)創(chuàng)新點(diǎn)
作者通過(guò)分析數(shù)據(jù)發(fā)現(xiàn),假負(fù)例擁有以下兩個(gè)特點(diǎn):
1. 假負(fù)例是來(lái)自不同輸入數(shù)據(jù),但和錨點(diǎn)數(shù)據(jù)擁有相同語(yǔ)義內(nèi)容,因此他們之間存在一定的相似度
2. 假負(fù)例可能和錨點(diǎn)沒(méi)有那么相似,但是他和錨點(diǎn)的增強(qiáng)樣本必然有更大的一個(gè)相似度,因?yàn)槊總€(gè)增強(qiáng)樣本都是從不同角度對(duì)錨點(diǎn)的一個(gè)表示。
基于以上者兩個(gè)發(fā)現(xiàn),作者提出了一種無(wú)監(jiān)督的假負(fù)例樣本識(shí)別方法,首先舉個(gè)例子:
從這個(gè)例子中可以看出,右側(cè)藍(lán)框的圖片不是左側(cè)錨點(diǎn)樣本的增強(qiáng)樣本,因此它會(huì)被作為負(fù)樣本,但實(shí)際上這個(gè)樣本和左側(cè)樣本的 support views 存在比較高的相似度,也應(yīng)該被當(dāng)作正樣本。也就是說(shuō),我們可以通過(guò)分析負(fù)樣本與錨點(diǎn)樣本的不同數(shù)據(jù)增強(qiáng)樣本之間的相似度計(jì)算來(lái)找到那些假負(fù)例。為此,作者提出了自己的方法,具體流程如下:
1. 對(duì)每個(gè)錨點(diǎn)樣本,除了生成增強(qiáng)樣本,同時(shí)也會(huì)額外生成一些增強(qiáng)樣本,組成 support set
2. 針對(duì)每個(gè)負(fù)樣本,分別計(jì)算負(fù)樣本與 support set 中的每個(gè)樣本之間的相似度(可以使用不同的相似度計(jì)算方法)
3. 將得到的相似度得分進(jìn)行整合(不同的整合方法)
4. 根據(jù)得到的最終相似度得分,選擇出合適的負(fù)樣本,將其作為假負(fù)樣本集合,用于損失函數(shù)計(jì)算。
以上就是整個(gè)方法的技術(shù)部分,非常簡(jiǎn)單易理解,但感覺(jué)特別有意思。
4.3 實(shí)驗(yàn)
為了驗(yàn)證作者提出的方法的效果,作者從多個(gè)角度進(jìn)行了模型效果的驗(yàn)證:
1. 整體的實(shí)驗(yàn)效果:
2. 兩種損失函數(shù)的對(duì)比
3. 假負(fù)例選擇策略的對(duì)比
以上只展示了部分實(shí)驗(yàn)結(jié)果,為了充分驗(yàn)證作者提出的假負(fù)例取消策略,作者進(jìn)行了多角度的實(shí)驗(yàn)驗(yàn)證,一次來(lái)充分說(shuō)明作者提出的方法的效果。美中不足的是作者只進(jìn)行了 CV 方面的實(shí)驗(yàn),如果可以加一些 NLP 相關(guān)的實(shí)驗(yàn),那就更好了。
總結(jié)
本文簡(jiǎn)單介紹了在對(duì)比學(xué)習(xí)的采樣中設(shè)計(jì)更好的采樣策略提升對(duì)比學(xué)習(xí)性能的方法,包括直接使用已有標(biāo)簽,構(gòu)建更好的概率分布實(shí)現(xiàn)更好的樣本選擇,以及通過(guò)對(duì)假負(fù)樣本的識(shí)別和重利用提升對(duì)比學(xué)習(xí)的性能,整體思路非常有意思。而確定采樣樣本的質(zhì)量能夠有效提升模型的性能,這方面還有更多值得研究的,例如如何確定選取樣本的質(zhì)量,如何選擇更合適的數(shù)據(jù)增強(qiáng)策略,如何提升所選取的樣本的可信度等等。這方面的研究是一個(gè)非常有意思的研究方向。
參考文獻(xiàn)
[1] Khosla P, Teterwak P, Wang C, et al. Supervised contrastive learning[J]. arXiv preprint arXiv:2004.11362, 2020.?
[2] Gutmann M, Hyv?rinen A. Noise-contrastive estimation: A new estimation principle for unnormalized statistical models[C]//Proceedings of the thirteenth international conference on artificial intelligence and statistics. JMLR Workshop and Conference Proceedings, 2010?
[3] Sohn K. Improved deep metric learning with multi-class n-pair loss objective[C]//Advances in neural information processing systems. 2016: 1857-1865. [^4]: Robinson J, Chuang C Y, Sra S, et al. Contrastive learning with hard negative samples[J]. arXiv preprint arXiv:2010.04592, 2020.?
[5] Elkan C, Noto K. Learning classifiers from only positive and unlabeled data[C]//Proceedings of the 14th ACM SIGKDD international conference on Knowledge discovery and data mining. 2008: 213-220.?
[6] Huynh T, Kornblith S, Walter M R, et al. Boosting contrastive self-supervised learning with false negative cancellation[J]. arXiv preprint arXiv:2011.11765, 2020.
特別鳴謝
感謝 TCCI 天橋腦科學(xué)研究院對(duì)于 PaperWeekly 的支持。TCCI 關(guān)注大腦探知、大腦功能和大腦健康。
更多閱讀
#投 稿?通 道#
?讓你的文字被更多人看到?
如何才能讓更多的優(yōu)質(zhì)內(nèi)容以更短路徑到達(dá)讀者群體,縮短讀者尋找優(yōu)質(zhì)內(nèi)容的成本呢?答案就是:你不認(rèn)識(shí)的人。
總有一些你不認(rèn)識(shí)的人,知道你想知道的東西。PaperWeekly 或許可以成為一座橋梁,促使不同背景、不同方向的學(xué)者和學(xué)術(shù)靈感相互碰撞,迸發(fā)出更多的可能性。?
PaperWeekly 鼓勵(lì)高校實(shí)驗(yàn)室或個(gè)人,在我們的平臺(tái)上分享各類(lèi)優(yōu)質(zhì)內(nèi)容,可以是最新論文解讀,也可以是學(xué)術(shù)熱點(diǎn)剖析、科研心得或競(jìng)賽經(jīng)驗(yàn)講解等。我們的目的只有一個(gè),讓知識(shí)真正流動(dòng)起來(lái)。
📝?稿件基本要求:
? 文章確系個(gè)人原創(chuàng)作品,未曾在公開(kāi)渠道發(fā)表,如為其他平臺(tái)已發(fā)表或待發(fā)表的文章,請(qǐng)明確標(biāo)注?
? 稿件建議以?markdown?格式撰寫(xiě),文中配圖以附件形式發(fā)送,要求圖片清晰,無(wú)版權(quán)問(wèn)題
? PaperWeekly 尊重原作者署名權(quán),并將為每篇被采納的原創(chuàng)首發(fā)稿件,提供業(yè)內(nèi)具有競(jìng)爭(zhēng)力稿酬,具體依據(jù)文章閱讀量和文章質(zhì)量階梯制結(jié)算
📬?投稿通道:
? 投稿郵箱:hr@paperweekly.site?
? 來(lái)稿請(qǐng)備注即時(shí)聯(lián)系方式(微信),以便我們?cè)诟寮x用的第一時(shí)間聯(lián)系作者
? 您也可以直接添加小編微信(pwbot02)快速投稿,備注:姓名-投稿
△長(zhǎng)按添加PaperWeekly小編
🔍
現(xiàn)在,在「知乎」也能找到我們了
進(jìn)入知乎首頁(yè)搜索「PaperWeekly」
點(diǎn)擊「關(guān)注」訂閱我們的專(zhuān)欄吧
·
·
總結(jié)
以上是生活随笔為你收集整理的更好的对比样本选择,更好的对比效果的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: 算法改进有多快?是否比迭代硬件收益更大?
- 下一篇: 个税贷款夫妻是各一千吗