要取信于人,AI得打开决策“黑箱”
如今,人工智能已經可以做決定,但我們仍不知道這個決定是如何做出的。人們需要了解人工智能如何得出某個結論背后的原因,而不是僅僅接受一個在沒有上下文或解釋的情況下輸出的結果。
近日,微軟前全球執(zhí)行副總裁沈向洋在接到清華大學續(xù)聘書時,通過直播方式分享了對AI可解釋性與AI偏見相關問題的研究與看法。他提到,AI就像一個黑匣子,能自己做出決定,但是人們并不清楚其中緣由。所以,我們目前需要做的就是將其打開,了解AI想表達的意思和可能會做出的決定。這就需要設計和構建“負責任”的AI。
那么,AI的可解釋性指什么?是什么導致人們無法對AI的行為進行解釋?人工智能如何做決策?研究人員可以怎樣做讓這些決策更加透明?
尚無法完整解釋決策過程。
有人說,不確定性是AI的特征之一。
所有重大技術突破的出現(xiàn),往往都伴隨著相同的問題:如何確保技術的可靠。例如,在電子時代制造和使用電子產品時,人們可以通過技術資料了解所有的元件構成,從而得以信賴它們。又如,許多技術和生活場景中有檢視清單的存在,它能指導我們如何合理完成一件任務。然而,到了人工智能時代,情況則不然。
“如今,AI已經可以做決定,這是AI過程中非常重要的一步,但我們仍缺乏對AI所做決定的認知。”沈向洋告訴科技日報記者,從某種程度上來講,你建立一個模型、算法,輸入數(shù)據(jù),之后人工智能會產生一個結果。一切看上去順理成章,但是有一個問題——我們尚不能完整解釋為何人工智能會得出這樣而不是那樣的結論。
沈向洋進一步解釋,我們將這種只能看到數(shù)據(jù)導入和輸出,而無法看到和解讀其工作原理的模型比作‘黑箱’,而將可以知曉內部工作原理的模型稱為‘白箱’。人們需要了解人工智能如何得出某個結論背后的原因,而不是僅僅接受一個在沒有上下文或解釋的情況下輸出數(shù)據(jù)和信息的結果。”沈向洋指出。
顯然,我們不能將明天交付給一個個無可解釋的“黑箱”。“我們在學習的時候,經常說不僅要知其然,還要知其所以然。”沈向洋表示,人工智能的可解釋性,指的是要“知其所以然”,要了解背后的原因和邏輯,是能回答“為什么”。
“以決策場景下的模型可解釋性為例,端到端的深度學習,一個廣為詬病的問題是其不透明性或不可解釋性,比如說識別一張照片中的物體,機器做出的判斷是基于哪些有效特征,我們無從得知。”阿里安全圖靈實驗室負責人、資深專家奧創(chuàng)認為,人工智能系統(tǒng)必須具有可解釋性,以便人類可以理解系統(tǒng)的行為。
研究發(fā)現(xiàn),一個用來判斷圖片中的動物是狼還是哈士奇的AI模型,在六幅圖片中只判斷錯了一幅,看起來準確率尚可接受,可其背后有極大的隱患。因為如果從局部維度觀察,發(fā)現(xiàn)它識別出狼的標準,根本不是狼的樣子,而是以圖片背景中的雪為標準。如果一頭狼走入沒有積雪的家中,卻因此被識別為哈士奇,那就可怕了。顯然,我們無法信任這樣的模型,這也說明了模型可解釋性的重要意義。
目前的解釋說明或損害用戶信任。
如今,AI的規(guī)范應用正在成為一個社會問題,去年,歐盟出臺《人工智能道德準則》,明確提出AI發(fā)展方向應該是“可信賴的”,包含安全、隱私和透明等方面。
“無人駕駛、人臉識別、智慧城市、智能家居等各類場景中都在運用AI,但一旦后端控制系統(tǒng)被攻擊,出現(xiàn)規(guī)模化、連鎖式的崩盤,AI失控的后果不堪設想。”奧創(chuàng)指出。
比如,無人駕駛車要通過識別交通信號標志來決定通行還是停止,而攻擊者可以生成一個欺騙通行標志的對抗樣本,在行人眼里是禁止通行,但AI系統(tǒng)會識別成允許通行,這足以造成災難性的后果。再如,自2016年以來,很多地方都推出用于預測未來罪犯的軟件,法庭在審判時已經開始用AI進行輔助判斷。然而,越是如此,人們越會擔心算法是否存在偏見。
總結
以上是生活随笔為你收集整理的要取信于人,AI得打开决策“黑箱”的全部內容,希望文章能夠幫你解決所遇到的問題。
                            
                        - 上一篇: 人工智能训练师等16个新职业今年集中“转
 - 下一篇: 富士康暂停印度厂区运作 OPPO小米等印