【17】 强化学习 17章 前沿技术
文章目錄
- 名詞
- 離軌策略
- 折扣過程
- 折扣系數
- 價值函數
- 廣義策略迭代(4.6節)或者“行動器一評判器”算法
- 正文
- 17.1 廣義價值函數和輔助任務
- 1、廣義價值函數是什么?
- 2、輔助任務是什么?
- 定義: 預測和控制不同種類的信號特征
- 作用
- 17.2、基于選項理論的時序摘要
- 人類可以無縫地在各個時間層次上切換,而沒有一點轉換的痕跡。那么MDP框架可不可以被拉伸,從而同步地覆蓋所有這些時間層次呢?
- 17.3 觀測量和狀態
- 17.4 設計收益信號
- 5 遺留問題
- 6、
- 參考文獻 歷史評注
名詞
離軌策略
允許函數以任意的目標策略作為條件
折扣過程
12.8節中, 折扣過程 推廣為 一個終止函數, 使得可以在每個時刻采用不同的折扣系數來作為回報。
折扣系數
價值函數
廣義策略迭代(4.6節)或者“行動器一評判器”算法
正文
17.1 廣義價值函數和輔助任務
1、廣義價值函數是什么?
離軌策略允許函數以任意的目標策略作為條件,終止函數的引入,使得可以在每個時刻采用不同的折扣系數來作為回報。
允許我們在一個任意的、狀態相關的視界,可以預測未來能得到多少收益。
下一步:將收益推廣, 允許對任意信號的預測。
比如,聲音、顏色等信號未來的值之和進行預測, 而不止對未來的收益值之和進行預測。
不管我沒累加的是什么信號, 我們都稱其為 預測的累積量 : 累計信號:
廣義價值函數GVF:
像傳統的價值函數(例如v或者q)一樣,這是一個可以用參數化的形式逼近的理想函數,我們可以繼續用v(s,w)來標記它,盡管對于每一種π、γ、Ct 的選擇,在每次預測過程中都會有一個不同的參數w。因為一個GVF并不必然與收益有聯系,因此將其稱為值函數可能有些用詞不當。我們可以簡單地稱之為“預測",或者用更獨特的方式說:預報(由Ring提出,準備發表)。不管如何稱呼它,它的形式都和價值函數一樣,因此可以用本書中提出的學習近似價值函數的方法學出來。在學習預測值的同時,我們也可以采用廣義策略迭代(4.6節)或者“行動器一評判器”算法,通過最大化預測值來學習策略。用這種方式,一個智能體可以學習如何預測和控制大量不同類型的信號,而不僅僅是長期收益。
為什么預測和控制長期收益之外的信號可能有用呢?這類信號控制任務是在最大化收益的主任務之外額外添加的輔助任務。一個答案是,預測和控制許多不同種類的信號可以構建一種強大的環境模型。正如我們在第8章所述,一個好的環境模型可以讓智能體更高效地得到收益。清楚地回答這個問題需要一些其他的概念,我們將在下一節中介紹。首先我們考慮兩個相對簡單的方法,在這些方法中,多個不同種類的預測問題會對強化學習智能體的學習有所幫助。
2、輔助任務是什么?
輔助任務幫助主任務的一個簡單情形是它們可能需要一些相同的表征。有些輔助任務可能更簡單,延遲更小,動作和結果之間的關聯關系更加明晰。如果在簡單的輔助任務中,可以很早發現好的特征,那么這些特征可能會顯著地加速主任務的學習。沒有什么理由可以解釋為什么這是對的,但是在很多情況下這看起來很有道理。例如,如果你學習在很短的時間內(例如幾秒鐘)預測和控制你的傳感器,那么你可能會想出這個目標物體的部分特點,這將對預測和控制長期收益有很大的幫助。
- 如果在簡單的輔助任務中,可以很早發現好的特征,那么這些特征可能會顯著地加速主任務的學習。
- 如果你學習在很短的時間內(例如幾秒鐘)預測和控制你的傳感器,那么你可能會想出這個目標物體的部分特點,這將對預測和控制長期收益有很大的幫助。
我們可能會想象一個人工神經網絡(ANN),其中的最后一層被分為好幾個部分,我們稱它們為頭部,每一個都在處理不同的任務。一個頭部可能產生主任務的價值函數預測(將收益作為其累計量),而其他的頭部可能產生很多輔助任務的解。所有的頭部都可以通過隨機梯度下降法反向傳播誤差到同一個“身體”里一即它們前面所共享的網絡部分一從第二層到最后一層都在嘗試構建表示以提供必要的信息給頭部。研究人員們嘗試了各種各樣的輔助任務,例如預測像素的變化,預測下一時間點的收益,以及預測回報的概率分布。在很多種情況下這個方法都顯示出了對主任務學習的加速效果( Jaderbergetal.,2017)。類似地,作為一種有助于狀態預測的方法,多預測的方法也被反復地提出過(見17.3節)。
另一個理解為何學習輔助任務可以提升表現的簡單的方法是類比于經典條件反射這心理學現象(14.2節)。一種理解經典條件反射的方法是,進化使我們內置(非學習式的)了一個從特定信號的預測值到特定動作之間的反射關聯。例如,人和許多其他動物看起來有一種內置的眨眼反射機制,當對于眼球將收到戳擊的預測值超過某個閾值的時候,就會閉眼。這個預測是學出來的,但是預測和閉眼之間的關聯是內置的,因此動物可以避免眼球受到突然的戳擊。類似地,恐懼和心率加快或者愣住之間的關聯、也可以是內置的,智能體的設計者們可以做一些類似的事情,例如,自動駕駛汽車可以學習“向前開車不會導致碰撞”,然后將其“停車/避開”的行為建立一個內置反射,當預測值超過一定閾值時觸發?;蛘呖紤]一個真空清潔機器人,其可以學習預測是否會在返回充電裝置前用盡電量,并且在該預測值變為非零時,條件反射一樣地掉頭移動到充電站。準確的預測取決于房間的大小、機器人所在的房間、電池的年齡,機器人的設計者很難了解所有這些細節,讓設計者使用傳感器的手段設計一個有效的算法來決定是否回頭是很困難的,但是使學習到的預測則很容易做到這一點。我們預見到很多方法都會像這樣將學習到的預測和內置控制行為的算法有效結合在一起。
最后,也許輔助任務最重要的作用,是改進了我們本書之前所做的假設:即狀態的表不是固定的,而且智能體知道這些表示。為了解釋這個重要作用,我們首先要回過頭來了本書所做的假設的重要性以及去除它所帶來的影響。這將在17.3中介紹。
定義: 預測和控制不同種類的信號特征
作用
17.2、基于選項理論的時序摘要
馬爾可夫決策過程形式上的一個吸引人的地方是,它可以有效地用在不同時間尺度的任務上。我們可以用它來形式化許多任務,例如決定收縮哪一塊肌肉來抓取一個目標,乘坐哪一架航班方便地到達一個遙遠的城市,選擇哪一種工作來過上滿意的生活。這些任務在時間尺度上差異很大,然而每一個都可以表達成馬爾可夫決策過程(MDP),然后用本書中講述的規劃和學習過程完成。所有這些任務都涉及由與環境的相互作用、序貫決策以及一個隨時間累積的收益構成的目標,因此它們都可以被形式化成馬爾可夫決策過程。
盡管所有這些任務都可以被形式化為MDP,但是我們可能認為它們不能被形式化為單一的MDP,因為這些過程涉及的時間尺度都不同,例如選擇的種類和動作都截然不同。例如,把預定跨洲的航班和肌肉收縮放在同一時間尺度上是不合適的。但是對于其他任務而言,例如抓取、擲標槍、擊打棒球,用肌肉收縮的層次來刻畫可能剛剛好。人類可以無縫地在各個時間層次上切換,而沒有一點轉換的痕跡。那么MDP框架可不可以被拉伸,從而同步地覆蓋所有這些時間層次呢?
人類可以無縫地在各個時間層次上切換,而沒有一點轉換的痕跡。那么MDP框架可不可以被拉伸,從而同步地覆蓋所有這些時間層次呢?
也許是可以的,一種流行的觀點是:先形式化一個非常小的時間尺度上的MDP,從而許在更高的層次上使用擴展動作(毎個時刻對應于更低層次上的多個時刻)的規劃。為了能到這一點,我們需要使用一個展開到多個時刻的“動作方針”的概念,井引人一個“終止”的概念。對這兩個概念的通用的形式化方式是將它們用一個策略和一個狀態相關的終止函數γ來表達,就像在GVF中定義的那樣。我們將這樣的一個“策略終止函數”二元組定義為一種廣義的動作,稱之為“選項"。在t時刻執行一個選項 ω=<πω,γω>ω=<π_ω,γ_ω>ω=<πω?,γω?> 就表示從 πω(?∣St)π_ω(·|S_t)πω?(?∣St?) 中獲得一個動作AtA_tAt?,然后在t+1時刻以1?γω(S(t+1))1-γ_ω(S_(t+1))1?γω?(S(?t+1))的概率終止。如果選項不在t+1t+1t+1時刻停止,那么A(t+1)A_(t+1)A(?t+1)從 $ π_ω(· |S_(t+1))$ 中選擇,而且選項在t+2時刻以1?γω(S(t+2))1-γ_ω(S_(t+2))1?γω?(S(?t+2))的概率終止。很容易就可以把低層次的動作看作選項的一種特例一每一個動作a都對應于一個選項(π_ω,γ_ω),這個選項的策略會選出一個動作(對于每個s∈S,πω(s)=as∈S,π_ω(s)=as∈S,πω?(s)=a),并且其終止函數是零(對于個s∈S+,γω(s)=0s∈S+,γ_ω(s)=0s∈S+,γω?(s)=0)。選項有效地擴展了動作空間。智能體可以選擇一個低層次的動作/選項,在單步之后終止,或者選一個擴展的選項,它可能在執行多步之后才終止。
"選項”的架構設計允許它與低級別的動作進行角色互換。例如,一個動作價值函數的記號qπq_πqπ?可以被自然地推廣為選項值函數,它以狀態和選項作為輸人,仍然返回期望回報,只是產生這個期望回報的過程包括了從輸入狀態開始,執行輸人的選項直到它終止,并在之后繼續遵循策略π的整個過程。我們也可以把策略的概念推廣到層次化策略,它選擇的是選項而不是動作,其中每個選項被選中之后,都會一直運行到終止。在這些思想下,本書中的許多算法都可以推廣到學習近似的選項值函數和層次化的策略。在最簡單的情況下,學到的策略從選項開始直接跳到選項結柬,更新只在選項結束的時候出現。更精細一些的做法是,更新可以在每一個時刻進行,使用一種“選項內部”的學習算法,這通常需要離軌策略算法。
選項的思想帶來的最重要的推廣也許是第3、4和8章中所提出的環境模型。關于“動作”的傳統模型是狀態轉移概率和采取這個動作的即時收益的期望。那么傳統的動作模型如何推廣到選項模型呢?對于選項而言,合適的模型也應該包含有兩部分:一個部分對應于執行選項后產生的狀態轉移結果;另一個對應于執行選項過程中的累積收益的期望。選項模型的收益部分,類比于“狀態-動作”二元組的期望收益式(35),對于所有的
選項和所有的狀態s∈S,定義為:
其中,τ是一個隨機時刻,代表選項的終止時刻,它由參數γωγ_ωγω?決定。在這個等式中,需
要注意總體折扣系數 γ 所扮演的角色一一折扣是由γ決定的,但是選項的終止是由γωγ_ωγω?
決定的。一個選項模型的狀態轉移部分則更為精巧。這部分模型刻畫了每一個可能的選項結果狀態的概率(像在式3.4中一樣),但是在這里,可能在多個時刻之后才能到達這個選項結果的狀態,其中的每個狀態都有不同程度的折扣。選項ω的這部分模型在如下公式中指定了ω的每個可能的起始狀態s,以及ω的每個可能的終止狀態s‘s`s‘
注意,由于存在折扣系數項γkγ~kγ?k,這里的
不再是一個轉移概率,并且不再對于有可能的s‘s`s‘求和為1(無論如何,我們會繼續在P中使用記號∣|∣)
上面關于選項模型的狀態轉移部分的定義使得我們可以為所有的選項定義形式化的貝爾曼方程和動態規劃算法,其中也包括作為選項特例的低級別的動作。例如,對于層次化策略π來說,通用的貝爾曼方程是:
其中,Ω(s)Ω_(s)Ω(?s)表示狀態s中所有可行的選項的集合。如果Ω(s)Ω_(s)Ω(?s)僅僅包含低級別的動作,那這個方程退化為通常的貝爾曼方程(式3.14),唯一不同的是γ被包含在新定義的p中,即式17.3,因此在此處沒有出現。類似地,相應的選項的規劃算法中也沒有γ。例如,作為式(4.10)的推廣,帶選項的價值送代算法是:
如果Ω(s)包含了每個狀態s下所有可行的低級別動作,那么這個算法會收斂到通常意義上的v?v*v?,從中我們可以計算出最優的策略。然而,如果我們能夠在每一個狀態下,只考慮所有可能選項Ω(s)的某個子集進行規劃,則可能更有用。這樣的話價值送代將會收斂到限制在給定的選項子集下的最優的層次化策略。盡管這個策略從全局看可能是次優的,但收斂可能會更快,因為我們只考慮較少的選項,而且每個選項都可以在時間上跳躍多步。
為了在有選項的情況下做規劃,我們必須已知選項模型,或者學出選項模型。一個學出選項模型的自然方法是使用一系列的GVF(我們在上一節中定義過)來對它進行表示長后使用本書中提到的方法來學習GVF。對于選項模型的收益部分,不難看出如何做到這一點。我們僅僅需要把GVF的累計量選為收益(Ct:=Rt),把它的策略設為選項的策略(π=πωπ=π_ωπ=πω?),把它的終止函數設為折扣系數乘以選項的終止函數
。如此一來,真實的GVF將等同于選項模型的收益部分,
并且本書中介紹的各種學習方法都可以用來近似它。選項模型的狀態轉移部分會更復雜一些。我們需要對選項對應的每一個可能的終止狀態分配一個GVF。除了在選項終止且終止于相應的狀態時, 我們不希望這些GVF積累任何量。
這可以通過如下設定來實現:把預測轉移到s’的GVF的累計量寫為
。該GVF的策略和終止函數都和選項模型的收益部分一樣設置。那么真實的GVF就等同于選項的狀態轉移模型的s` 部分:
,這樣本書中介紹的方法也就可以用來學習它。盡管這其中的每一步看起來都很自然,但是把它們整合在一起(包括函數通近和其他關鍵部分)是很有挑戰性的,而且超出了現有最先進的技術水平。
練習17.1 在本節中展示了折扣情況下的選項,但是在使用函數通近的時候,折扣對于控制問題是否合適是有爭議的(參見10.4節)。那么層次化策略的自然的貝爾曼方程形式應該是什么樣的呢?它應當與式(17.4)中的類似,但需要在平均收益設置(10.3節)下進行定義。類比于式(172)和式(17.3),在平均收益設置下,選項模型的兩個部分分別是什么樣子的呢?
17.3 觀測量和狀態
在本書中,我們都把學到的近似價值函數(還有第13章中的策略)寫成關于狀態的函數。這是本書的第工部分中介紹的方法的重大局限,在這些方法中,學習得到的價值函數用一張表格來表示,因此任意的價值函數都能被精確近似。這種情況等同于假設環境的狀態完全可以被智能體感知。但是在很多情況下,傳感器輸入只會告訴你這個世界狀態的部分信息。有些對象可能被其他的東西遮擋住了,或者在智能體的身后,亦或是在幾里之外。在這些情況下,關于環境的很重要的一部分信息可能并不能直接觀察到。而且,把學習到的價值函數實現為一個關于環境狀態空間的表格,是一種過強的、不現實而且局限性很大的假設。
在本書第Ⅱ部分提出的參數化函數逼近框架則限制要少得多,甚至可以說它是沒有局限性的(雖然這種說法是有爭議的)。在第Ⅱ部分中,我們保留了學習到的價值函數(和策略)是關于環境的狀態的函數這一假設,但是允許這些函數在參數化的框架下自由變化。
一個有些令人吃驚而且并不被廣泛認可的觀點是,函數逼近包含了“部分可觀測性”的很多方面。例如,如果有一個不可觀測的狀態變量,那么我們通過選擇參數化的方式使得近似價值函數與這個變量無關。這樣做的效果就如同這個狀態變量是不可觀測的。正因為如此,在所有參數化的情況下獲得的結果都可以被應用在部分可觀測的情況下,而不需要做任何改變。從這個意義上說,參數化函數逼近的情況包含了部分可觀測性的情況。
然而,如果不顯式地、明確地為部分可觀測性建模,仍然有很多問題無法被深入研究,盡管我們在這里不能給出一個完整的處理部分可觀測性的方法,但是我們可以大致列出需要做出的一些改變,以下是具體的四個步驟:
1、我們需要改變問題:環境所提供的不是其狀態的精確信息,而僅僅是觀測量,一這是一個依賴于于狀態的變量,就像機器人的傳感器那樣,提供關于狀態的部分信息。與了簡化問題,我們假設收益是一個關于狀態的直接的、已知的函數(觀測量可能是一個,收益可能是它的某一個分量)。那么環境交互將沒有明確的狀態或者收益,而僅僅出一個簡單的動作A_t∈A和觀測量O∈O的交互序列:5
永遠這樣持續下去(與式3.1對比)或者形成“幕”,每幕都以一個特殊的終止觀測量來結束。
2、然后我們可以用觀測量和動作的序列來恢復本書中提到的狀態的概念。我們使用術語"歷史"以及記號Ht表示一個軌跡從初始部分一直到當前的觀測量:0。
歷史代表了我們在不看數據流外部信息的情況下,對過去所能了解的最多信息(因為歷史是整個過去的數據流)。當然歷史會隨著t增長,從而變大而且笨重,狀態的想法就是歷史的某種“緊湊”的總結,對于預測未來而言,它和真實的歷史同等有用。我們看看這到底意味著什么:為了成為歷史的總結,狀態必須是一個歷史的函數S=f(Ht),為了能夠像歷史一樣對預測未來有用,它必須有我們所知道的馬爾可夫性。更正式的說法是,這是函數f的性質。對于所有的觀測量o∈O和動作a∈A,一個個函數f有馬爾可夫性,當且僅當任意被預測到同一個狀態(f(h)=f(h`))的兩個歷史h和h· 都對于它們的下一個觀測量有相同的概率。
馬爾可夫狀態是預測下一個觀測量(式17.6)的良好基礎,但更重要的是,它是預測控制任何事情的良好基礎。例如,令一個測試序列為任何特定的在未來可能發生的交替出現的“動作-觀測量”序列。比如一個三步的測試序列可以記為:
給定歷史h,這個測試序列的概率被定義為:
如果f是馬爾可夫的,而且h和h`是在f下會被映射到相同的狀態的兩個不同的歷史,那么對于任意長度的任意測試序列τττ,給定這兩個歷史時它們的概率一定是相同的:
換句話說,一個馬爾可夫狀態總結了對于預測測試序列的概率有用的所有歷史信息。事實上,它總結了做任何預測所需要的全部信息,包括預測任意的GVF以及最優的行為(如果f是馬爾可夫的,那么總會存在一個確定的函數π,使得選擇A:÷π(f(Ht)是最優的)。
將強化學習的概念擴展到部分可觀測的情況的第三步是需要考慮一些計算上的問題。
特別是,我們希望狀態是歷史的緊湊的總結。例如,對于一個馬爾可夫的函數f,映射到自己的函數完全滿足這個條件,然而并沒有什么用,因為正如我們之前所提到的,對應的S1=H1會隨著時間增長而變得笨重。但是更本質的原因是,這個歷史再也不會在未來出現了。智能體永遠不會兩次進入同一個狀態(在一個持續性的任務中),因此永遠不會從表格型學習方法中獲益。我們希望我們的狀態是“緊湊”的,而且是馬爾可夫的。在如何獲得和更新狀態的問題上,我們也有類似的需求。我們并不真的想要一個包括“所有歷史”的函數f。相反地,出于計算上的考慮,我們偏向于通過相對簡單的增量式遞歸計算獲得與f一樣的效果,這個計算過程使用下一個時刻的增量At 和 Ot+1 :
其中,初始狀態S0是給定的。函數u又被稱作狀態更新函數。例如,如果f是映射到自身的函數(St=Ht),那么u僅僅是在St 的后面加上了一個At和Ot+1.給定f,構造個相應的u總是可行的,但是可能在計算上并不方便,而且正如上面映射到自身的函數的例子,它可能不能產生一個“緊湊”的狀態。狀態更新函數在任何智能體的架構中都是解決部分可觀測性問題的核心部分。它必須在計算上是高效的,因為在看到狀態之前,我們不能采取任何動作或者做任何預測。
一個通過狀態更新函數獲得馬爾可夫狀態的典型例子采用了流行的貝葉斯方法,被
稱作“部分可觀測MDP"( Partially Observable MDP, POMDP)。在這個方法中,假定
存在一個完備定義的隱變量Xt,它真實反應環境的變化并產生可見的環境觀測量,但它們對于智能體而言從來都是不可觀測的(不要將它與智能體用于預測和決策的狀態S相混淆)。對于 POMDP而言,一種自然的馬爾可夫狀態S,就是給定歷史時在隱變量上的一個概率分布,這個“概率分布”被稱作置信狀態( (belief state)。為了更具體一些,假設在通常情況下,存在有限個隱變量:
那么置信狀態則是一個向量
無論t如何增長,置信狀態都保持相同的大小(相同數量的成員)。假設我們有足夠多的關于環境內部如何工作的知識,它也可以由貝葉斯公式增量式地更新。特別地,置信狀態更新函數的第i個成員是
其中,a∈Ao∈O,置信狀態s∈Ra,其元素為s。這里有4個變量的p函數與MDP
中(滲見第3章)通常使用的并不一樣,而是在 POMDP情況下的基于隱狀態的推廣形
式:r,o?x,a)=Pr{X1=,O2=0IX1-1=a,A4-1=}。這個方法在理論研究中非常流
行、并且有非常重要的應用,但是其假設和計算復雜性的可擴展性太差,我們不推薦在人工智能中使用該方法。
另ー個馬爾可夫狀態的例子是預測狀態表示( Predictive State Representations,PSR).
PSR解決了 POMDP方法的弱點:在 POMDP中,智能體的狀態S,的語義是以環境的隱狀態X為基礎的。由于隱狀態無法被觀測,其學習也就比較困難。在PSR和相關方法中,智能體狀態的語義是以未來的觀測量和動作的預測值為基礎的,因而是可以觀測到的。在PSR中,一個馬爾可夫狀態被定義為一個d維的概率向量,由d個“核心”測試序列的概率組成,測試序列則由前面介紹的式(17.7)所定義。這個向量之后由狀態更新函數u更新,它是貝葉斯公式的一種擴展,但以可觀測的數據為基礎,這就讓它的學習變得更容易了。這個方法已經在很多方面得到了擴展,包括終端測試、組合測試、強有力的“譜”方法,還有從TD方法中學到的閉環和時序摘要測試。最好的理論進展有些是針對被稱為可觀測的操作模型( Observable Operator Models,OOM)和序列系統(Thom,2017)的。
在我們簡短的概要介紹中,處理強化學習中的部分可觀測性的第四步是重新引入近似的念。正如我們在第二部分中所討論的,想要達到人工智能必須得接受近似方法。不僅于價值函數是這樣,對于狀態也是這樣。我們必須接受并且在“近似狀態”的概念下開展我們的工作。近似狀態將會在我們的算法中扮演和原來一樣的角色,因此我們繼續對智款用的狀態使用記號S,盡管它可能不是馬爾可夫的。
也許近似狀態的最簡單的例子就是最近的觀測量S=O。當然這種方法不能夠處理變量信息的情況??赡芨玫谋磉_方式是,對于某個k>1,使用最近的k個觀測量和動作來表達狀態:S:=On,A4-1O2-1…,Ar-k,這可以通過引入一個特殊的狀態更新函數來實現:每次加人新數據并平移,同時把最舊的數據刪除。k階歷史的方法仍然非常
簡單,但是相比于直接使用單個觀測量作為狀態,它可以大大增加智能體的能力。
當馬爾可夫性質(式17.6)只是被近似滿足的時候會發生什么呢?不幸的是,當單步預測所定義的馬爾可夫性變得哪怕有一點不準確的時候,長期預測的表現就可能會遭遇急劇的下滑。長期的測試序列、GVF,還有狀態更新函數都有可能近似得很糟糕。短期和長期的近似目標就是不一樣的。當前也沒有這個方面的有效的理論保證。
然而,仍然有理由認為在本節中描述的通用思想可以用到近似的情況下。這個通用的思想就是:一個對于某些預測而言好的狀態,對其他的情況也會是好的(特別是,對于一個馬爾可夫狀態,如果它足夠做單步預測,則對其他的情況也是足夠的)。如果我們退步,不考慮馬爾可夫情況下的特定結果,則前面的通用思想與我們在17.1節中討論的多頭部學習和輔助任務是相似的。在17.1節,我們討論了對于輔助任務來說好的表示為什么對于主任務來說往往也是好的。這些思想合在一起就揭示了一個可以同時對部分可觀測性和表征進行學習的方法:采用多重預測并以此來指導狀態特征的構建。這樣一來,完美但并不可行的馬爾可夫性帶來的理論保證就被一個啟發式原則所替代,這個原則就是:對某些預測有益的信息對于其他預測而言也會是好的。這種方法可以很好地與計算資源的規模相匹配。在大型機器上,人們可以嘗試大量的不同的預測:可能會傾向于那些接近于最感興趣的目標、最容易可靠地學習的預測。在這里很重要的一點是,不要手動選擇預測目標,而智能體應該做到這一點。而這可能需要一個通用的表達“預測”的語言,使得智能體可以系統地試探一個廣大的可行預測的空間,從中發現最有用的內容。
特別地, POMDP和PSR方法都可以應用于近似狀態。狀態的語義在形成狀態更新
函數的時候非常有用,就像在這兩種方法和k階的方法中那樣。但對保持狀態內信息的
有用性而言,語義正確的需求并沒有那么強烈。有些狀態擴充的算法,例如回聲狀態網
絡( Jaeger,2002),幾乎保留了關于歷史的任何信息,但是依然表現很好。這個領域依然
有很多的可能性,因此我們期待更多的工作和新的思想。針對近似狀態,學習狀態更新函數是強化學習中的表示學習問題的一個重要組成部分。
17.4 設計收益信號
強化學習相較于有監督學習的一個主要優勢是,強化學習并不依賴于細節性的監督信息:生成一個收益信號并不依賴于“智能體的哪個動作才是正確的”這一先驗知識細節。
但是強化學習的成功應用很大程度上依賴于我們的收益信號在多大程度上符合了設計者制定的目標,以及這些信號能夠多好地衡量在達到目標過程中的進步。出于這些原因,設計收益信號是任何一個強化學習應用的重要部分。
設計收益信號指的是設計智能體所在的環境的一個部分,這部分負責在t時刻產生一
個標量收益R送回到智能體。在第14章末尾討論術語的時候,我們提到,稱B更像一個在動物大腦內部產生的信號,而不是在動物的外部環境中的一個對象或者事件。大腦中產生這些信號的部分已經進化了數百萬年,因此非常適應我們的祖先在將他們的基因傳遞下去的時候所面臨的各種挑戰。我們因此不應該認為設計收益信號是一件容易的事情。
設計收益信號的一個挑戰來自于,智能體需要學習,在行為上接近并在最終達到設計者所希望的目標。如果設計者的目標很容易辨別,那么這個任務可能很簡單,例如尋找個良好定義的問題的解,或者在一個良好定義的游戲中取得高分。在這些例子中,我們通??梢酝ㄟ^“問題是否解決”和“游戲分數是否提高”來定義收益函數。但是在有些問題中,目標并不容易被翻譯成收益函數,尤其是當這些問題需要智能體做非常有技巧性的動作來完成復雜任務或者一系列任務的時候就更是如此,例如家務機器人助理所需要解決的問題。更進一步,強化學習智能體可能會發現一些意想不到的方法使得環境可以給出收益信號,但其中有一些可能是我們并不想要的,甚至有時是很危險的方法。這對于任何像強化學習這樣依賴于優化的算法而言,都是一個長期存在并且非常關鍵的挑戰。我們將在17.6節,也就是本書的最后一節中詳細討論這個問題。
即使有一個簡單且易于辨識的目標,收益稀的問題仍然時常出現。足夠緊地提供非零收益讓智能體實現一次目標,本身就已經是一個今人畏懼的挑戰,更不要說讓它高效地從各種各樣的初始狀態下進行學習了。那些可以明確地觸發收益的“狀態動作”二元組可能很少,而且相互之間隔得很遠:且代表著向目標前進的收益也可能并不常見,因為朝
向目標的進步總是很難甚至是無法衡量的。智能體可能會長期沒有目的地漫游( Minsky
1961所稱的“高原問題”)。
在實踐中,設計收益信號通常會歸到一個反復試驗的搜索過程,直到找到一個可以產生合理結果的信號。如果智能體沒有成功學習,學得太慢,或者學習到了錯誤的東西,那么這個應用的設計者會調整收益信號并且再試一次。為了做到這一點,設計者會對智能體的表現用某種評估標準來衡量,而他會把這種評估標準翻譯成一個收益信號,使得智能體的目標和設計者自己的目標相匹配。如果學習的進程大慢了,那么設計者可能會嘗試設計個非稀硫的信號,其可以在智能體與環境交互的過程中更有效地指導學習。解決稀硫收益問題的一個非常誘人的手段是,以設計者認為達到最終目標所經歷的重要的幾個階段作為子目標,對這些子目標提供收益函數。但是,當使用這些有明確目的性的補充收益來擴充原來的收益函數時,也可能會使智能體的行為與我們的預期大相徑庭智能體可能最終根本不會達到總的目標。一個更好的提供這樣的指導的方法是,把收益函數放在一邊而對價值函數的逼近過程進行擴充,給它擴充一個描述最終目標的初始猜測,或描述部分目標的初始猜測。例如,假設我們想把:S→R作為真實的最優價值函數
U。的一個初始猜測,并且我們使用關于特征x:S→Rd的線性函數逼近,那么我們可以
把初始的價值函數逼近形式定義為:
然后按照慣例更新權重w,如果初始的權重向量是0,那么初始的價值函數則是t,
但是漸近解的質量會像往常一樣由特征向量決定??梢葬槍θ我獾姆蔷€性函數通近器和任
意形式的u來做這種初始化,盡管這并不保證能加速學習。
一個處理稀疏收益問題的非常有效的方式是塑造技術,它由心理學家B.F. Skinne
提出,并在本書的14.3節中有所介紹。這種技術的有效性依賴于一個事實:稀疏收益問題并不只是收益信號本身的問題,它們也是智能體策略的問題,有些策略會阻礙智能體頻繁達到可以產生收益的狀態。塑造技術會在學習過程中不斷改變收益信號:給定智能體的初始行為,從一個不那么稀疏的收益信號開始,漸漸地把它調整到適合最初感興趣的問題的收益信號。智能體面臨一系列難度逐漸増加的強化學習問題,其中在每個階段學習到的東西,可以讓下一個更難的問題變得相對簡單一些。這是因為智能體通過學習簡單問題得到了先驗知識,這些知識使得它能夠更加頻繁地獲得復雜問題下的收益;而如果不學習先驗知識就直接優化復雜問題的收益,則收益會非常稀疏。“塑造”是訓練動物過程中的個基礎技術,它在計算強化學習中非常有效。
如果我們對于收益信號如何設計一籌莫展,但是有另外一個智能體,它可能是一個人類,已經是該領域的專家,并且它的行為可以被我們觀察到,那么我們可以如何利用這點呢?在這種情況下,我們可以使用被稱為“模仿學習”“從示范中學習”和“學徒學習”的算法。這里的思想是從專家智能體中獲得收益,同時保留進一步提升的可能性。從專家的行為中學習可以通過直接的有監督學習,或者通過被稱作“逆強化學習”的技術抽取收
益函數,然后使用強化學習算法從這個收益函數學出一個策略。Ng和Rusl(200研
究了逆強化學習的任務,他們嘗試僅僅從專家的行為中恢復出專家的收益信號。但這種做法無法找到精確解,因為一個策略可能對很多個不同的收益信號而言都是最優的(例如,任何對所有狀態和動作給予相同收益的信號)。但是,我們仍然可能找到合理的候選收益信號。只不過這個過程需要很強的假設,包括對環境動態特性的先驗知識,以及與收益信號成線性關系的特征向量。同時,這個方法也要求對問題做多次完全求解(例如通過動態
規劃)。雖然有這些困難,但是 Abbeel 7和Ng(2004)稱逆強化學習有時會比有監督學習更
有效
另一個找到好的收益信號的方法,是將試錯搜索過程自動化以找到好的信號。從應用角度來說,收益信號是學習算法的一個參數。正如我們可以對算法的其他參數所做的那樣,我們可以自定義可行的搜索空間,然后用優化算法自動優化這些收益信號。優化算法是這樣評估每一個候選收益信號的:以該收益信號運行強化學習算法若干步,然后用一個包含設計者真實目標的“高級”目標函數來計算評分,不需要考慮該智能體的局限。甚至
可以通過在線梯度上升來提升收益信號,其中梯度來自于高級的目標函數(Sorg、 Lewis和 Singh,2010)。把這個算法與真實世界相聯系的話,優化高級目標函數可以類比為進
化,其中高級優化函數代表動物的進化適應程度,這通過能活到繁殖年齡的后代數量來衡量。
這種具有上下兩層優化算法(一層類似于進化,另一層是智能體個體的強化學習)
的計算實驗已經證實,直覺本身并不總足以用來設計一個好的收益信號( Singh、 Lewis和 Barto,200)。利用高級目標函數所衡量的強化學習智能體的性能表現,可能會對智能
體收益信號的某些細節方面特別敏感,這些敏感性來源于智能體本身的局限以及它在其活動和學習的環境。這些實驗也表明一個智能體的目標不應該總是與智能體設計者的目標一致。
最初這件事情顯得很反直覺,但是對于一個智能體而言,它不可能不管收益信號是么就達到設計者的目標。智能體需要在很多限制下學習,例如有限的計算能耗、有限的環境信息或者有限的學習時間。當有這樣那樣的限制的時候,學習去達成一個與設計者目標
不同的目標,而不是直接去追求設計者的目標(Sorg、 Singh和Lewi,2010:Sorg,201)
這可能有時會更加接近于設計者的初衷。在自然界中很容易找到這樣的例子,因為我們不能直接接觸到大多數食物的營養值,我們的收益信號的設計者一一進化一一給予我們
一個收益信號讓我們去找某些特定味道。盡管這當然并不絕對可靠(事實上,在某些與祖先環境不同的環境中可能是有害的),但這個信號補償了我們之前許多的限制:有限的感官功能,有限的學習時間,以及在尋找健康飲食的過程中進行個體嘗試實驗所冒的風險。類似地,因為動物并不能實際觀察到它的進化適應性,所以進化適應性的目標函數本身并不能作為收益信號。相反,進化過程所提供的一系列收益信號都是可以觀測的,并且是對進化適應性敏感的。
最我們要記住,強化學習智能體并不一定是一個完整的有機物或者機器人。它可能是一個更大的行為系統的一部分。這意味著收益信號可能被更大的行動智能體內部的事情所影響,例如動機、記憶、想法甚至幻覺。收益信號可能也依賴于學習過程本身的一些性質,比如衡量學習中進步了多少。讓收益信號對這樣的內部信息敏感,可以使智能體作為“認知架構”的一部分,學習如何控制認知架構,同時也可以獲取一些特定的知識和技能。這些技能很難只依賴于外部的收益信號學習到。這種可能性導致了“內在激勵的強化學習”這個思想,稍后我們會簡要地討論這個問題。
5 遺留問題
在本書中,我們介紹了通向人工智能的強化學習方法的基礎知識。粗略地說,這個方
法依賴于模型無關和模型相關的方法的結合(如第8章中的Dyma框架所示),并利用第Ⅱ
部分中介紹的函數通近技術。其中的關注焦點是“在線”和“增量式”的算法(我們甚至認為這些方法比基于模型的方法更為基本),以及如何在離軌策略訓練的情形中使用這些算法。后者的完整應用只在這最后一章中有所闡述。也就是說,我們之前一直將離軌策略學習視為解決試探和開發之間矛盾的一種吸引人的方式,但是只有在這一章中,我們才真正完整地討論了依賴于離軌策略學習的應用,包括學習GVF的同時也學習多個不同的輔助任務,還有通過時序摘要的選項模型來對世界進行層次化的學習。正如我們不斷在本書中指出的,并且本章中所討論的未來潛在研究方向也表明,目前仍有很多工作有待完成。但是,假設我們認可本書中全部的內容以及本章到現在為止所概括的全部方向,那么還剩下的是什么呢?當然我們不能確切地知道什么是需要的,但是我們可以做一些猜測。在這
?節中我們強調6個更長遠的問題,有待未來的研究去解決。
第一個問題是,我們仍然需要更強大的參數化函數逼近方法,它應當可以在完全增量式和在線式的設置下很好地工作?;谏疃葘W習和人工神經網絡的方法是這個方向上的重要一步,但是它們仍然只是在極大的數據集上批量訓練才能得到很好的效果,要么是大量離線地自我對局博弈,要么是通過多個智能體在同一個任務上交錯地采集經驗來學習。這些以及其他的一些設置都是為了解決當下的深度學習方法的局限,即深度學習方法在增量式、在線式學習的設定下會陷人掙扎,而增量式和在線式學習又恰恰是本書中強調的最自然的強化學習方法的特質。這個問題又被稱作“災難性的干找”,或者“相關的數據”。每當學習到一些新的東西時,它都傾向于忘記之前學的東西,而不是將新知識作為補充,這會導致之前學習到的那些優點都丟失。例如“回放緩存”之類的技術經常被用于儲存和重新導出舊的數據,使得之前學到的優點不至于永久丟失。我們必須誠實地說,目前的深度學習方法并不完全適合在線學習。我們找不到這種限制無法解決的理由,但是迄今為止,在保持深度學習優勢的同時解決這個問題的算法仍然還沒有被設計出來。大部分當下的深度學習研究的導向是在這個限制下工作而不是去掉這個限制。
第二點(也許是緊密相連的),我們仍然需要一些方法來學習特征表示,使得后續的學習能夠很好地推廣。這個題是一個更廣義的問題(被稱為“表征學習”“構造型歸納”和“元學習”)的例子。我們如何使用經驗去學習歸納各種偏差,使得未來的學習能夠得到更好的推廣也因此學得更快,而不只是學習一個想要的函數。這是一個很老的問題,可以道潮到20世紀50年代和60年代的人工智能和模式識別的起源。這樣的年代可能會止人感到猶豫,也許這個問題沒有好的解決方案。但是同樣也有可能是我們尚未到達找出解決方案并展示它的有效性的階段。如今的機器學習是在一個遠大于過去的規模上進行的。一個好的表征學習方法可能帶來的收益越來越清晰。我們注意到,在一個新的機器學
習年會一一國際表征學習會議( International Conference on Learning Representations
ICLR)上,自2013年起每年都有人採討這個問題。但在強化學習的語境下探索表征學習則不是那么常見。強化學習給這個舊間題帶來了許多新的可能性,例如17.1節中提到的軸助任務。在強化學習中,表征學習的問題與173節中討論的學習狀態更新函數的問題是一致的。
第三點,我們仍然需要使用可擴展的方法在學習到的環境模型中進行規劃。規劃方
法已經被證明在某些應用上極為有效,如 Alphago Zero和計算機國際象棋等,這些問題
中的環境模型可以從游戲的規則或者人類設計者的知識中完整地得到。但是在完全基于模型的強化學習任務中,需要從數據中學習環境模型,然后再用于規劃,可很少有成功的例
子。第8章中介紹的Dyna系統是一個例子,但是正如我們當時所討論并且也在大部分
隨后的工作中被人提及的,它使用了一個不帶函數通近的表格型模型,這在很大程度上限了它的應用范國。只有少部分的研究探討了線性模型的使用、更少的研究同時了在172節中討論的基于選項的時序摘要方法。
為了使規劃方法可以在學習得到的環境模型上有效地使用,我們還需要做很多工作。例如,模型的學習過程應該是選擇式的,因為模型的范國會嚴重影響規劃的效率。如果一個模型注重于最重要的選項的關鍵結果,則規劃可能是快速和高效的;但是如果一個模型包含了不太可能被選到的選項的非主要后果的詳細信息,則規劃可能幾乎沒有什么用。環境模型應該以優化規劃過程為目標,謹值而明智地構建其狀態和動態特性。應該持續地監測模型的各個方面,以了解它們對規劃效率貢獻或者減損的程度。本領域尚未解決這個復雜的問題或者設計出考慮其影響的模型學習算法。
第四個在未來的研究中需要重點解決的問題,是自動化智能體的任務選擇過程,智能體在這些任務上工作并且使用這些任務提升自己的競爭力。在機器學習中,人類設計者為智能體設計學習的目標是一件很常見的事情。因為這些任務是提前已知而且固定的,因此它們可以被內嵌在學習算法的代碼中。然而如果我們看得更遠一些,則我們可能希望智能體對于將來想掌握什么技能做出自己的選擇。這可能是某個特定的已知的大任務中的一個子任務,或者它們可能意圖創造一些積木式的模塊,允許智能體在一些尚未見過但是將來可能面臨的問題上更加高效地學習。
這些任務可能像17.1節中討論的輔助任務或者GVF,或者是用17.2節中討論的基于選項的方法解決的任務。例如在構建一個GVF的過程中,累積量、策略、終止函數分別應該是什么樣子的?當前的最優方法是手動選擇它們,但是如果我們可以把這些任務選擇變得自動化,那么它可能會更強大并且推廣性也更強,尤其是當任務選擇來自于智能體已經構建的一些“積木”的時候就更是如此,這些“積木”可能是之前在表征學習或者在子問題的經驗學習中產生的結果。如果GVF的設計是自動化的,那么設計的選擇本身將會被顯式地表達出來:它們將會在計算機中以一種可以設置、改變、操控、篩選和搜索的方式自動組織起來,而不是在設計者的大腦中,隨后寫進代碼里。之后任務可以一個接著
一個地被層次化組織起來,就像人工神經網絡中的特征一樣。任務就是一個一個的問題,而人工神經網絡的內容就是這些問題的答案。我們期望將來有一個完整的層次化的問題與現代深度學習方法提供的層次化的答案相匹配。
第五個我們認為對未來研究至關重要的問題是,通過實現某種可計算的好奇心來推動行為和學習之間的相互作用。在本章中我們想象過一個場景:從一個經驗流中,通過離軌策略的方法,同時學習多個任務。采取的動作當然會影響經驗流,而經驗流反過來也會決定學習會出現多少次,什么任務將會被學習。當收益信號不可用,或者不被智能體行為強烈影響的時候,智能體可以自由選擇動作,在某種意義上最優化這些任務上的學習,也就是說使用某些衡量學習進度的指標作為內在的收益,來實現一種“好奇心”的計算形式。除了衡量學習進度之外,內在的收益函數可以以其他的可能性,找到最出人意料、新奇或者有趣的輸人,或者評價智能體對環境造成影響的能力。用這些方式產生的內在收益信號,可以被智能體用來給自己提出任務,任務的提出可以通過定義輔助任務、GVF或者選項等方式實現,以使得學到的技能可以提升智能體掌握未來任務的能力。從結果上看,這很像計算意義上的玩要?,F在已經有了很多關于使用內在收益信號的研究,在這個大的方向上還有很多激動人心的話題,等待未來的研究去揭示。
最后一個在將來的研究中需要注意的問題是開發足夠安全(達到可以接受的程度)的方法將強化學習智能體嵌入真實物理環境中,從而保證強化學習帶來的好處超過其帶來的危害。這是未來研究最重要的一個方向之一,我們將在下一節中討論它。
6、
我們在20世紀90年代中期撰寫本書第1版的時候,人工智能取得了顯著的進展,而且產生了一定的社會效應,盡管這個時期大多數激動人心的進展只是品示出人工智能可能的前景而已。機器學習就是這個前景中的一部分,但是對于人工智能而言還不能算是不可或缺的。如今人工智能的前景已經落地為應用,而且正在改變百萬人的生活。機器學習本身也成為了一項關鍵技術。在我們寫本書第2版的時候,一些人工智能方面最卓越的成就已經包括了強化學習技術,比如著名的“深度強化學習”一一強化學習與深度人工神經網絡結合。我們正處在一波人工智能真實場景應用的浪潮之中,它們中將會有很多都使用深度或者非深度的強化學習,我們很難預料它們將以什么樣的方式影響我們的生活。
但是大量真實世界中的成功案例并不代表真正的人工智能已經實現了。盡管人工智在很多領域都取得了很大的進展,但是人工智能與人類智能,甚至與動物智能之間的鴻海都是很大的。人工智能在某些領域能有超過人類的表現,甚至是圍棋這種非常難的游戲然而開發像人類這樣完整地擁有通用適應性和解決問題的能力、復雜的情感系統和創造力,以及從經驗中快速學習的能力的可交互式的智能體仍然任重道遠。強化學習作為一關注于動態環境交互式學習的技術,在將來會發展為這種智能體的不可或缺的部分。強化學習與心理學及神經科學的聯系(第14和15章)弱化了其與人工智能其他的出期目標之間的關聯,即掲示關于心智的一些關鍵問題,以及心智如何從大腦中產生。強化學習已經幫助我們理解了大腦的收益機制、動機和做決策的過程。因此有理由相信,在計算精神疾病學相結合之后,強化學習將會幫助我們研發治療精神親亂,包括藥物濫用和藥物成的方法。
強化學習在未來將會取得的另一個成就是輔助人類決策。在模擬仿真環境中進行強化學習,從中得到的決策函數可以指導人類做決策,比如教育、醫療、交通、能源、公共部門的資源調度。與其密切相關的一個強化學習的特征是,它總是考慮決策的長期效應。這在圍棋和西洋雙陸棋中是非常明顯的,這些也正是強化學習給人留下最深刻印象的案例同時這也是收關我們人類和星球命運的諸多高風險決策的特征。在過去的很多領域中策分析人員已經使用了強化學習,并將其決策用于指導人類。使用高級的函數通近方法和大量的計算資源,強化學習方法已經展現出了一些潛力,期望攻克將傳統決策輔助方法推廣到更大規模、更復雜問題的難題。
人工智能的快速發展讓我們開始擔心它可能對社會甚至人類本身造成嚴重的威脅。著
名的科學家和人工智能先驅 Herbert Simon早在2000年( Simon,2000手CMIU舉辦的地球研討會( Earthware Symposium)上的一個演講中,就預言了這一點。他指出在任何
新形式的知識中,前景和危險都存在著永恒的沖突。他用古希臘神話中普羅米修斯和潘多拉之盒的例子打比方,現代科學的英雄普羅米修斯,為了人類的福社,從諸神那里盜取火
種;而開啟潘多拉之盒,只是一個小小的無意之舉,卻給人類帶來了災難。 Simon認為我
們需要承認這樣的沖突是不可避免的,同時應該把自己當作未來的設計者而不是觀眾,我們更傾向于做普羅米修斯那樣的決策。這對于強化學習來說非常正確,如果不就地部署強化學習,它在給社會帶來福利的同時,也有可能造成我們不希望看到的后果。因此,包括強化學習在內的人工智能應用,其安全性是一個需要重視的課題。
一個強化學習智能體可以通過與真實世界環境、模擬環境(模擬真實世界的一部分)或者這兩者的結合環境進行交互而學習。模擬器提供安全的環境,以供智能體自由試探,而不需要考慮對自己/環境帶來的危害。在大多數現有的應用中,決策是通過與模擬環境交互,而不是直接與真實世界交互學習到的。除了避免在真實世界中造成不希望看到的后果之外,在模擬環境中學習,可以得到模擬的無窮無盡的數據,這比在真實環境中得到這些數據要容易得多。而且由于在模擬環境下,因此交互的速度通常比在真實環境中快,般在模擬環境中的學習也要快于在真實世界環境中的學習。
一個強化學習智能體可以通過與真實世界環境、模擬環境(模擬真實世界的一部分)或者這兩者的結合環境進行交互而學習。模擬器提供安全的環境,以供智能體自由試探,而不需要考慮對自己/環境帶來的危害。在大多數現有的應用中,決策是通過與模擬環境交互,而不是直接與真實世界交互學習到的。除了避免在真實世界中造成不希望看到的后果之外,在模擬環境中學習,可以得到模擬的無窮無盡的數據,這比在真實環境中得到這些數據要容易得多。而且由于在模擬環境下,因此交互的速度通常比在真實環境中快,般在模擬環境中的學習也要快于在真實世界環境中的學習。
然而,展現強化學習的全部潛力需要將智能體置于真實世界的經驗流中,在我們的真實世界中行動、試探、學習,而不是僅僅在它們的虛擬世界中??偠灾?#xff0c;強化學習算法(至少在本書中關注的那些)被設計成在線式的,并且它們在很多方面都在效仿動物如何在不穩定和有敵人的環境下存活。嵌入真實世界中的強化學習智能體可以在實現人工智能放大、擴充人類能力的過程中起到變革性的作用。
希望我們的強化學習智能體在真實環境中學習的一個主要原因是:以極高的保真度模擬真實世界的經驗通常是很困難甚至是不可能的,因而很難保證在模擬世界學習到的策略,無論是通過強化學習還是其他別的方法學到的,其可以安全并良好地指導真實的動作。這對于某些依賴于人類行為的動態環境而言尤其明顯,例如,教育、醫療、交通、公共政策,在這些環境中,提升決策力可以帶來切實的收益。然而部署這些智能體到真實世界中,需要考慮人工智能可能造成的危險。
其中有些危險是與強化學習密切相關的。因為強化學習依賴于優化,因此它繼承所有優化方法的優點和缺點。其中一個缺點是設計目標函數的問題,在強化學習中這被稱作收益信號,它幫助智能體學到我們想要的行為,同時規避那些我們不想要的行為。我們在17.4節中提到,強化學習智能體可能會試探到意想不到的方式,通過這種方式使它們的環境傳遞收益,而有些方式并不是我們想要的,甚至是危險的。當我們只是非直接地制定我們想要系統學習的東西時,正如我們設計強化學習的收益信號那樣,在學習結東之前,我們不會知道我們的智能體距離完成我們的期望有多近。這并不是強化學習所帶來的新問題,在文學和工程實踐中這個問題的提出已經很久了,例如在歌德的詩歌
“魔法師的學徒”( Goethe1878)中,學徒對掃帚施法,以幫助他取水,但結果卻造成了出人意料的洪水,這是因為學徒對魔法的掌握不到家。在工程中, Norbert Wiener,控制論( cybernetics)的莫基人,早在半個世紀以前就指出了這個題。他把這個問題聯系到了一個超自然的故事“猴子的爪子”( Wiener,19640):“它滿足了你向他要的,但并不是你應該向他要的,或者不是你本來的意圖?!边@個問題也在現代的文獻中有長篇討論(Nd
Bostrom2014)。任何在強化學習方面有經驗的人都可能發現他們的系統找到了一些出人
意料的方式來提高收益。有些時候意想不到的行為是很好的,它以一種全新的方式解決了問題。但是在其他情況下,智能體學習到的東西違背了系統設計者的初衷,因為設計者完全沒有考慮到某些情況。仔細設計收益函數是非常重要的,它幫助智能體在真實世界中行動,且不會給人類以觀察其行為和動機并輕易干擾它的行為的機會。
盡管優化可能帶來非預期的負面效果,但數百年來,優化一直在被工程師、架構師還有潛在的可能造福人類的設計者們廣泛使用。我們生活中很多好的方面都依賴于優化算法的應用。另一方面,也有很多方法被提出來解決優化潛在的風險,例如增加硬或軟的約束,使用魯棒和風險低的策略來限制優化,使用多目標函數優化等。這些方法中有些已經用到了強化學習中,而且更多這方面的研究還有待進行。如何把強化學習智能體的目標調整成我們人類的目標,仍然是個難題。
另一個強化學習在真實世界中行動和學習帶來的挑戰是,我們不僅僅關注智能體學習的最終效果,而且關注其在學習時的行為方式。如何保證智能體可以得到足夠多的經驗以學習一個高性能的決策,同時又能保證不損害環境、其他智能體或者它本身(更現實地說如何把傷害的可能性降得盡可能低)?這個問題并不新鮮,也不只在強化學習中存在。對于嵌入式強化學習,風險控制和減輕問題與控制工程師們在最初使用自動化控制時所面臨的同題是一樣的。那時控制器的行為并不可控,很多時候還可能有災難性后果,例如對飛機和精密化學過程的控制??刂频膽靡蕾囉诰毜南到y建模、模型驗證和大量的測試。關于讓事先完全不了解的動態系統保證收斂和適配控制器的穩定性,已經有大量的理論。理論的保證從來不是萬能的,因為它們依賴于數學上的假設成立。但是如果沒有這些理論與風險控制和減輕的實踐相結合,自適應或者其他類型的自動控制就不會像今天我們看到的那樣,可以有效地提升質量、效率和成本收益。未來強化學習研究最重要的方向之一是適應和改善現有方法,以控制嵌入式的智能體在可接受的程度上足夠安全地在真實物理環境中工作。
在最后,我們回到 Simon的號召:我們要意識到我們是未來的設計者,而不僅僅是
觀眾。通過我們作為個體所做的決策,以及我們對于社會如何治理所施加的影響,我們可以共同努力以保證新科技帶來的好處大于其帶來的危害。在強化學習領域里有充足的機會來做這件事情,因為它既可以幫助提升這個星球上生命的質量,促進公平和可持續發展也有可能帶來新的危機?,F在已經存在的一個威脅就是人工智能應用造成了許多人的失業。當然我們也有充分的理由去相信,人工智能帶來的好處將遠大于其造成的危害。關于安全問題,強化學習帶來的危害并沒有和當下已經被廣泛采用的相關領域的控制優化算法帶來的危害有本質的區別。強化學習未來的應用涉足真實世界時,開發者們有義務遵循同類技術中成熟的實踐經驗,同時拓展它們,以保證普羅米修斯一直占據上風。
參考文獻 歷史評注
17.1廣義的價值函數最早是 Sutton和他的同事( Sutton,195a; Sutton et al,201; Modayil、
White和Sutn,2013)提出的。Ring提出了(正在準備中)一種使用GVF(“預報”)的
延伸思想實驗,已經有一定的影響力,不過尚未發表。
使用多個頭部的強化學習是由 Jaderberg et al.(2017)首次展示的, Bellemare、 Dabney和 Munos(2017)等人證實了預測收益分布的更多信息可以顯著提升學習速度來實現對其期望
的優化(這也是輔助任務的一個例子)。在這之后,很多研究者都開始在這個方向開展研究工作
就我們所知,經典條件反射作為學習預測的一般理論以及對預測的內在反射性反應并沒有在
心理學的文獻中得到過明確闡述。 Modayil和Sutn(2014)將其描述為一種控制機器人和其
他智能體的方法,稱為“巴甫洛夫控制”,暗示其根源為條件反射。
172將動作的時序摘要過程形式化為“選項”的過程是 Sutton、 Precup和 Singh(199等人提出
的,這也基于前人的工作,包括Par(199和Sutt(1995a)以及半MIDP的經典工作(例如,見 Puterman,1994). Precup(200的博士論文完整地提出了選項的思想。這些早期工
作一個很大的局限是它們沒有處理離軌策略情況下的函數逼近。選項內部的學習通常來說需要離軌策略方法,那時還不能通過函數通近來可靠地完成。盡管現在我們有了一系列使用函數通近的穩定離軌策略算法,但它們與選項的結合并沒有在本書出版的時候被真正地發掘出
來。 Barto和 Mahadevan(200還有 Hengst(2012)回顧了形式化的選項,還有其他的時序
摘要算法。
使用GVF實現帶選項的模型在前文中沒有提到。我們的介紹中使用了 Modayil、 White和 Sutton(2014)等人提出的技巧,在策略結束的時候預測信號。
第17章前沿技術
使用函數通近來學習帶選項的模型的部分工作由 Bacon、Harb和 Precup(2017)等人提出。
目前的文獻中還沒有人提出把選項和帶選項的模型拓展到平均收益的情形。
173 Monahan(1982)給出了一個關于 POMDP方法的很好的展示。PSR和測試序列的概念由 Littman、 Sutton和 Singh(2002)等人提出。OOM由 Jaeger(1997,1908,2000提出。統一PSR、OOM和很多其他工作的序列系統,由 Michael Thon(2017;Thon和3 Beger
2015)在博土論文中提出。
強化學習與非馬爾可夫狀態表示的理論由 Singh、 Jaakkola和 Jordan(194; Jaakkola, Singh和 Jordan,1995)明確提出,早期的處理部分可觀測性的強化學習方法由 Chrisman(192)
Mccallum(1993, 1995). Parr i Russell(1995). Littman Cassandra M Kaelbling(1995)
還有 by Lin和 Mitchell(1992)提出
17.4早期關于強化學習的建議和教學參考包括Lin(1992), Maclin和 Shavlik(199), Clouse(1996),還有 Clouse和 Utgoff(192)
不應該將 Skinner的塑造技術與Ng、 Harada和Rusl(190提出的"基于的造”技術相混酒。 Wiewiora(2003)說明了該技術實際上與一個更簡單的思想等價:給價值函數提供
初始近似,如式(17.11)所示。
17.5我們推薦由 Goodfellow、 Bengio和 Courville(20160)所著的討論當下深度學習技術的書ANN中的災難性干找問題由 Mccloskey和 Cohen(1989), Ratcliff(1990),還有 French(1999提出。回放緩存的技術由1in(1992)提出,其著名應用是Atan游戲系統(165節
Mnih et al.,2013,2015).
Minsky(1961)是第一個認識到表征學習問題的人。
為數不多的使用學習到的近似模型做規劃的研究由 Kuvayev和 Sutton(1996), Sutton
Szepesvari、 Geramifard和 Bowling(2008), Nouri和 Littman(2009),還有 Hester和 Stone
(2012)等人做
在人工智能中,模型的設計需要仔細選擇以避免過慢的規劃,這是人們熟知的。一些經典的工
作包括 Minton(1990和 Tambe、 Newell,還有 Rosenbloom(199 Hauskrecht、 Meulear
Kaelbling、Dean和 Boutilier(1998)在帶確定性的選項的MDP中展示了相應的效果
Schmidhuber(1991a,b)指出,如果收益信號是關于智能體的環境改普得有多快的一個函數那么像好奇心那樣的事情會導致怎樣的后果。由 Klyubin、 Polan和 Nehaniv(200提出的
授權函數是一個信息理論的度量,衡量智能體控制環境的能力,它也可以作為一種內在的收益
信號。 Baldassarre和 Mirolli(2013)的文章研究生物學和計算角度上的內在收益和動機,包括一種“內在激勵的強化學習”的觀點,使用了由 Singh、 Barto和 Chentenez(2004)提出的術語。同時可以參考 Oudeyer和 Kaplan(2007), Oudeyer、 Kaplan和 Hafner(200),還有 Barto(2013)的工作。
總結
以上是生活随笔為你收集整理的【17】 强化学习 17章 前沿技术的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 人生只求少点烦恼多点快乐
- 下一篇: java校园共享单车管理系统