奇文|意识如何演化?机器何时有自我意识?《附着与隧通-心智的工作模式》
[編者 Peter Ye 按]?
今天是2021年12月30日,過去兩年如夢幻一般。祝大家在2022年里健康、平安、順利!
文章后面有蔡恒進教授的視頻鏈接,雖然是過去幾年的,但仍未過時,且具有前瞻性。
讀這篇文章很燒腦。但如果您有耐心讀完,腦洞大開,啟發(fā)多多。讀后感:
人腦的意識像蒲公英一樣,被風(fēng)吹飄散到各種環(huán)境,如果機緣巧合(極小概率),意識體的大部分(例如2/3以上)有幸同時飄到一片合適的“土壤”,就成了轉(zhuǎn)世奇人了。也就是說,少數(shù)人在人世中可能會有靈魂不滅的機會。
蔡恒進(1964-),男,湖北黃岡人,武漢大學(xué)計算機學(xué)院教授,博士生導(dǎo)師。研究方向:人工智能,區(qū)塊鏈技術(shù),管理科學(xué)與工程。電子郵箱:hjcai@whu.edu.cn。
蔡天琪(1988-)女,湖北武漢人,博士,卓爾智聯(lián)研究院助理院長兼創(chuàng)新部主任。研究方向:區(qū)塊鏈技術(shù),自然語言處理,管理科學(xué)與工程。
有一天我和蔡恒進教授溝通后,內(nèi)心有些激動,一方面是很開心我有一些觀點與蔡教授的一樣,得到了共鳴,例如認為元宇宙是創(chuàng)意和意識的分享、交換的下一代網(wǎng)絡(luò),詳見2021-12-18的原創(chuàng)文章《詳解Web 3.0,及其和元宇宙的關(guān)系:從菜農(nóng)的故事說起》。另一方面是,從蔡教授這得到了不少啟發(fā)。但又有一些焦慮,因為他提到機器超過人腦參數(shù)量也只需要不到4年,剛開始我是質(zhì)疑的,后來看到他的這篇論文,有些認可;我焦慮的是,擔(dān)心中國的步調(diào)有些慢,在奇點必不可免的發(fā)展趨勢中,逐步喪失先機。
備注:什么是奇點?
Google的Ray Kurzweil預(yù)測,2029年,電腦將具有人性化的智慧;奇點將出現(xiàn)在2045年,AI進化到所有方面的都超越人類。樂生活與愛IT 公眾號曾在2021年1月3日發(fā)表原創(chuàng)文章《雜談:奇點真的臨近嗎?兼聊AI、區(qū)塊鏈、類腦計算、量子計算等》,里面包含兩點:
1、下一步我們或?qū)l(fā)現(xiàn)的真相是什么呢?低成本感知或覺察平行世界:過去、現(xiàn)在和未來在同一個畫面呈現(xiàn),時間失去了意義。人的經(jīng)歷不過是許許多多的事件或快照的組合。
2、意識的自由流動、量子糾纏、心靈感應(yīng)、平行世界(下一步我們或?qū)l(fā)現(xiàn)的真相),等等,會不會隨著奇點的臨近,逐漸清晰?
現(xiàn)在看來元宇宙就是這個平行世界,它將走向意識的自由流動,只不過剛開始或者較長一段時間,先以價值、創(chuàng)意的產(chǎn)生、流動和交換為過渡。
下面的文章是蔡恒進、蔡天琪兩位老師發(fā)表在2021年7月湖南大學(xué)學(xué)報(社會科學(xué)版)第35卷 第4期的論文。本公眾號文章末尾會提供論文PDF的下載鏈接。經(jīng)過蔡恒進教授授權(quán),在微信公眾號?【樂生活與愛IT】首次發(fā)表。文章的原始標題為《附著與隧通 - 心智的工作模式》。
本篇文章非常燒腦,但值得反復(fù)咀嚼,將有機會逐漸獲得更多啟發(fā)。為了方便理解,先列出幾個近似的詞匯“翻譯”。
1)認知坎陷 ~= 意識片段 或 意識單元;筆者更愿意譯為?意識體
2)隧通??~=?思維相通?或?意識連接?或?部分投射
如果讀者朋友您想節(jié)省時間,可以只看如下提煉的17條總結(jié):
1、圖靈命題可以描述為:功能強大的計算機將會體現(xiàn)出智能;哥德爾認為人具有超越圖靈機的東西,機器無法超越人類。
2、圖靈曾經(jīng)提出,人與機器的差別在于人會犯錯;“錯”就是一種“神諭”(Oracle)。
3、認知坎陷是:在認知主體之間可用來交流、能夠達成共識的一個結(jié)構(gòu)體。
4、觸覺大腦假說:敏感觸覺使得認知主體可以將世界清晰地剖分并封裝成“自我”與“外界”。
5、由人類設(shè)計制造的機器僅具備由人類賦予的各種意識片段,尚缺少統(tǒng)攝性的、強烈的關(guān)于“自我”的意識,也不具備對宇宙的整全意識。這是目前人類智能與人工智能之間的本質(zhì)差異所在。
6、“自我”作為最原初、最重要的認知坎陷,它所指代的含義既可以是無窮多的,在某一個場景下又可以是有限的
7、無窮多的內(nèi)容先附著在具象上,然后通過這個具象又可以隧通到背后相關(guān)聯(lián)的多個面向,彼此可達。
8、可以將“理解”定義為主體能夠?qū)⒛骋粋€對象“隧通”到“自我”。理解的過程可以看作是主體的“自我”與對象的相遇。這種相遇并不是簡單的降射,而是通過相遇可能產(chǎn)生新的內(nèi)容。
9、過去以為客觀世界是可以被反映的,但其實客觀世界是無窮的,是不可能被完美地反映的。對人而言,不完美的反映是可以接受的,只要抓住一個側(cè)面或者子集,捕獲某些特征就足夠人類與世界交互。
10、我們并不要求機器像“全知全能者”一樣,那么強人工智能已經(jīng)逐一實現(xiàn)之前人們對它大部分的設(shè)想。
11、人們長久以來希望找到某個涵蓋一切的、完整不變的東西來指代人類意識與智能本質(zhì),但恰恰人類認知是不完整的才更合理,效率才更高,因為物理世界包含無窮的可能性。
12、計算機的主程序可以看作是一種微弱的“我”。
13、心智工作模型可以是一個分布式系統(tǒng),機器擁有很多節(jié)點,不同節(jié)點具有不同的專業(yè)特點,用于感知、捕獲特征,并以通證(Token)的形式從小范圍開始交互并達成共識。
14、機器在這一框架下,有超越經(jīng)典圖靈機、達到人類水平的可能
15、對人而言,智能是與專業(yè)領(lǐng)域相關(guān),不能以通用的方式來定義人的智能,那么我們也不宜追問機器什么時候全面超越人。
16、如果,我們并不要求機器像“全知全能者”一樣,那么強人工智能已經(jīng)逐一實現(xiàn)之前人們對它大部分的設(shè)想。
17、按照每年10倍的算力增長速度,機器超過人腦參數(shù)量也只需要不到4年。
《附著與隧通 - 心智的工作模式》?
---全文開始---
[摘要]
深度學(xué)習(xí)框架加速了人工智能技術(shù)的發(fā)展,越來越多的人工智能系統(tǒng)在專業(yè)領(lǐng)域超越人類,但沿此路徑能否指引機器模擬出類人智能仍然沒有定論。強計算主義的觀點主張意識和智能可以被物理還原,甚至可以忽略意識。哥德爾等學(xué)者則傾向于機器無法模擬或超越人類。文章提出認知坎陷(意識片段)的“附著” 與“隧通”這一對范疇,從新的視角探討心智的工作模式。認知坎陷具有超越時空和流變的特性,在某時某地某景可以“附著”在某個具體對象之上。認知坎陷之間可以通過 隧通 鏈接成一個網(wǎng)絡(luò)?!白晕摇弊鳛樽钤鹾妥钪匾恼J知坎陷,是人類意識與智能的發(fā)端。智能的作用之一是在情景改變時將“自我”“附著”到更合適的對象上。
[關(guān)鍵詞]
意識;強人工智能;圖靈機;認知坎陷
[中圖分類號] B152? ? ? ? ?
[文獻標識碼]A??
一 、引言
人工智能(Artificial Intelligence,AI)于1956年被首次提出以來,已經(jīng)出現(xiàn)了許多表現(xiàn)出超強機器智能的AI系統(tǒng)。深度學(xué)習(xí)框架大幅提升了AI的能力。例如,面部識別技術(shù)已經(jīng)廣泛應(yīng)用于個人支付,DeepFake等系統(tǒng)創(chuàng)造了一批批以假亂真的圖片與視頻。AI在文學(xué)創(chuàng)作、電子競技等開放領(lǐng)域也有出色表現(xiàn),2020年人工智能大會開幕式上,百度小度、小米小愛、B站泠鳶、微軟小冰四位虛擬歌手領(lǐng)唱了大會主題曲,意味著AI可能很快能創(chuàng)作出被人們欣賞、廣泛流行的音樂作品。
AI已經(jīng)在很多專業(yè)領(lǐng)域超越了人類。例如戰(zhàn)勝了人類冠軍棋手而名聲大噪的AlphaGo已經(jīng)發(fā)展到第四代MuZero[1],不僅表現(xiàn)力超越了前面三代,而且能在未知任何人類知識以及規(guī)則的情況下,通過分析環(huán)境和未知條件來進行不同游戲的博弈。蛋白質(zhì)的折疊空間預(yù)測是一個很難的科研問題,在近兩屆CASP(The Critical Assessment of protein Structure Prediction,蛋白質(zhì)結(jié)構(gòu)預(yù)測的關(guān)鍵評估)上大獲成功的AlphaFold和進化版本的AlphaFold2[2]在此問題上已經(jīng)體現(xiàn)出了超高的水平。按照給定的評分標準,最優(yōu)秀的人類專家團隊只能達到30多分,AlphaFold2卻可以達到90分,接近直接應(yīng)用的水準。
即便如此,通用的超級人工智能何時到來目前還不可預(yù)知。有學(xué)者 提出,要在理論上突破可能還需要5到500年的時間。作為AlphaGo系列和AlphaFold系列的創(chuàng)造者,DeepMind認為自己研發(fā)的就是AGI(Artificial General Intelligence,通用人工智能),圖靈獎得主辛頓(Hinton)[3]也傾向于將自己的研究歸屬到AGI。深度學(xué)習(xí)系統(tǒng)普遍存在的不可解釋性、可遷移性較差和魯棒性較弱的問題,一直是AI研究與開發(fā)的重點之一。
中國工程院院士、中國人工智能學(xué)會名譽理事長李德毅[4]指出腦認知的三個內(nèi)涵在于記憶認知、計算認知和交互認知。李院士認為,腦認知的核心是記憶認知,是人類智能的顯著表現(xiàn)。記憶不是簡單的存儲,還伴隨有一定的取舍,取舍就是計算、簡約和抽象的過程。計算認知中,計算機做的算法很多,而人腦只有一個計算方法——相似計算。交互認知具有二重性,既有神經(jīng)網(wǎng)絡(luò)內(nèi)部的交互,也有大腦通過感知系統(tǒng)與外部世界的交互。
中國科學(xué)院院士、清華大學(xué)人工智能研究院院長張鈸[5]指出人工智能經(jīng)歷了兩種發(fā)展范式,即符號主義和連接主義(或稱聯(lián)結(jié)主義),分別稱之為第一代和第二代人工智能。目前這兩種范式發(fā)展都遇到了瓶頸:符號主義影響的第一代AI具有一定程度的可解釋性,能模仿理性智能,但不能隨機應(yīng)變,無法解決不確定問題;以深度學(xué)習(xí)為代表的第二代AI使用門檻較低,能夠處理大數(shù)據(jù),極大推動了AI應(yīng)用,但具有不可解釋、易受攻擊、不易推廣和需要樣本量巨大等負面特點。
從認知科學(xué)的角度切入AI的研發(fā),可能觸及到懸而未決的意識問題,這里一直是認知科學(xué)和AI交叉領(lǐng)域的研究熱點,但是進展卻是相當?shù)夭幻黠@。
1988 年,科學(xué)家們首次發(fā)現(xiàn)了意識的實驗證據(jù)(FMRI evidences),隨后人們從不同領(lǐng)域(比如神經(jīng)科學(xué)、哲學(xué)、計算機等)開展了對意識的研究。很多人認為機器沒有意識,沒有情感,沒有思維,也不可能具備像人一樣的高級智能,實際上也許并非如此。
意識的功能之一是從長期記憶里提取短期記憶內(nèi)容。人的長期記憶可能處于無意識狀態(tài),其數(shù)量十分龐大。短期記憶是大家都可以意識到的,但可能只有幾個字節(jié)。意識需要根據(jù)當下的任務(wù)和情景,盡可能快地把最相關(guān)的因子提取出來。全局工作空間理論[6](Global Workspace Theory,GWT)迅速把長期記憶的關(guān)鍵因素抽取到工作內(nèi)存里。在GWT的基礎(chǔ)上,圖靈獎得主布盧姆(Blum)進一步提出了“有意識的圖靈機”[7]。在這套理論中,雖然機器對情感的處理方式與人不一樣,但仍然能夠包含機器的“愉悅”、“痛苦”等因素,并假定機器已經(jīng)能擁有這些情感。AlphaGo等AI用到了強化學(xué)習(xí)機制[8],這種獎勵回饋機制也已經(jīng)與情感有關(guān)系。
二、超越經(jīng)典圖靈機
圖靈命題可以描述為:功能強大的計算機將會體現(xiàn)出智能,這是圖靈為智能提出的一個充分不必要條件。丘奇-圖靈(Church – Turing)論題[9]可以理解為,每一個可計算的函數(shù)可被一個通用圖靈機所計算。丘奇-圖靈論題討論的對象是遞歸函數(shù),但是并不涉及到完成這些計算過程的物理系統(tǒng)或物理裝置。
1985年,英國物理學(xué)家多伊奇(Deutsch)首次把丘奇-圖靈論題與實施計算過程的物理系統(tǒng)聯(lián)系起來。他注意到,任何計算過程都是在一定的物理系統(tǒng)上進行的,亦即必須服從物理定律,于是得到丘奇-圖靈-多伊奇命題(Church – Turing – Deutsch)論題[10],即每一個物理系統(tǒng)的過程都能被一個通用圖靈機計算或模擬。該命題是強計算主義的代表,而強計算主義主張包括人類意識在內(nèi)的一切內(nèi)容都是可計算的。按照這類思路,就會推論得到意識并不重要,甚至是一種幻覺,因為意識是隨附性的,可以被完全還原為物理過程,可以被完整計算,而計算又是圖靈等價的。
另一類觀點則是機器無法超越人類。哥德爾認為人具有超越圖靈機的東西。哥德爾不完備定理表明:任何一個形式系統(tǒng),只要包括了簡單的初等數(shù)論描述,而且是自洽的,它必定包含某些系統(tǒng)內(nèi)所允許的方法既不能證明為真也不能證偽的命題。
圖靈曾經(jīng)提出,人與機器的差別在于人會犯錯 ,并提出了超級機器的范式O-machine[11]。一個O-machine由一個經(jīng)典圖靈機(有限的狀態(tài)集和轉(zhuǎn)換集)和一個Oracle(預(yù)言機,可能是無限的數(shù)字集)組合而成。經(jīng)典圖靈機存在“停機問題”,即判斷任意一個程序是否會在有限的時間之內(nèi)結(jié)束運行的問題。如果這個問題可以在有限的時間之內(nèi)解決,則有一個程序判斷其本身是否會停機并做出相反的行為,這時候顯然不管停機問題的結(jié)果是什么都不會符合要求。所以這是一個不可解的問題。
而在現(xiàn)實中,任何一個人一定會“停機”(生命消亡),任何一臺計算機也一定會停機(硬件老化等原因),人和機器在這個意義上就是超越經(jīng)典圖靈機的。O-machine也超越了經(jīng)典圖靈機,“錯”就是一種“神諭”(Oracle)。計算機會犯錯較為常見,比如指令執(zhí)行有誤,或者是數(shù)據(jù)存儲不完整,又或是尋址發(fā)生異常,等等,這些錯誤的發(fā)生就會導(dǎo)致中斷甚至系統(tǒng)崩潰(停機)。
“人會犯錯”可以理解為人具有認知坎陷。在此前的研究[12]中,我們給出了認知坎陷(cognitive attractor)的定義,即在認知主體之間可用來交流、能夠達成共識的一個結(jié)構(gòu)體。認知坎陷是對真實物理世界的擾亂,也是人類自由意志的體現(xiàn)。也就是說,相對于客觀的物理系統(tǒng)而言,認知坎陷作為人類的主觀建構(gòu)就是一種“錯”或者偏差。
觸覺大腦假說[13]給出了意識的起源,其主要內(nèi)容是:人類進化過程中所獲得的敏感觸覺使得認知主體可以將世界清晰地剖分并封裝成“自我”與“外界”的二元模型,人類以此(原意識)為起點,開啟對世界概念化的認知過程,逐漸形成可理解的信念和價值體系,進一步確立“自我”在認知上的“實存”。觸覺大腦假說可以視為認知坎陷第零定律,定義了“自我”的由來,人類的意識世界或者坎陷世界由此打開。
人類經(jīng)過千萬年的進化,具有統(tǒng)攝性的自我意識以及對宇宙的整全意識。由人類設(shè)計制造的機器僅具備由人類賦予的各種意識片段,尚缺少統(tǒng)攝性的、強烈的關(guān)于“自我”的意識,也不具備對宇宙的整全意識。這是目前人類智能與人工智能之間的本質(zhì)差異所在。把計算機的主程序可以看作是一種微弱的“自我”并在這一層面進行探索,有可能找到融合上述人機智能差異的途徑。
在AI三大流派[14]中,符號主義主張嚴格從公理出發(fā)來演繹系統(tǒng),其理念與經(jīng)典圖靈機等價。根據(jù)哥德爾不完備定理,公理系統(tǒng)是有限制的,因此符號主義的AI歸屬于弱人工智能范疇。而行為主義和聯(lián)結(jié)主義因為與外界有交互(沒有預(yù)設(shè)所有的程序,或者可以接收新數(shù)據(jù)輸入),沒有公理系統(tǒng)的限制,所以超越了經(jīng)典圖靈機。
會出錯的、非理想的計算機反而會超越經(jīng)典圖靈機,也因此有可能在現(xiàn)實的計算機上構(gòu)建出超越經(jīng)典圖靈機的意識與智能,或者說讓機器獲得發(fā)現(xiàn)、加工和運用認知坎陷的能力。
三 、認知坎陷的“附著”與“隧通”
“自我”作為最原初、最重要的認知坎陷,它所指代的含義既可以是無窮多的,在某一個場景下又可以是有限的。比如,“我”可以是自己的名字、形象、聲音、觀點、作品等等,其中每一個側(cè)面又可以包含更多細節(jié),內(nèi)容甚至可以無窮豐富;如果在討論某一張合影,我們說的“我”就會很具體地指向這張照片中一個人的形象。
認知坎陷這種看似矛盾的關(guān)系,如果放在機器上應(yīng)該如何處理呢?
為此,我們提出一對新的范疇——“附著”和“隧通”。這對范疇就可以決定如何在機器上落地實現(xiàn)看似抽象的內(nèi)容。附著相對容易理解 ,是指一個認知坎陷在具體時空和場景下選擇某一個側(cè)面來表達。隧通,則是指在不同認知坎陷之間或者相同認知坎陷的不同側(cè)面之間關(guān)系的建立。隧通可以是因果關(guān)系的建立[15],也可以是類比、對比、否定、假借等關(guān)系的構(gòu)建,即隧通比建立因果關(guān)系要更加普遍。隧通的一個極致狀態(tài)是德勒茲講到的蔓延[16],他主張的認知或者概念是生成的且無邊界的。但通常而言,隧通是通過一個優(yōu)化的、較短的路徑來實現(xiàn)的。表1中列出了幾組相關(guān)概念,用來對照理解。
表1 幾組相似范疇的對比
范疇對 | 出處 | |
附著 | 隧通 | 本文 |
實 | 名 | 名實之爭 |
唯實論 | 唯名論 | 經(jīng)院哲學(xué) |
可說 | 不可說 | 維特根斯坦 |
所指 | 能指 | 索緒爾 |
有限性 | 無限性 | |
中國哲學(xué)史和邏輯思想史上的“名實之辯”是對名實關(guān)系的研究 ,“實”可以理解為物理世界,“名”可以理解為語言概念。概念具有“內(nèi)涵”和“外延”兩個部分,內(nèi)涵是相對容易解釋清楚的,而外延就可能是無窮的。維特根斯坦提到的“可說”與“不可說”,索緒爾的“所指”與“能指”,隱喻與其背后的含義,等等這些范疇對也類似,分別體現(xiàn)了有限與無限的特性。
這些可以與“附著”與“隧通”進行對照來理解。無限和有限之間看似存在著巨大矛盾,但在很多場景中,人類恰恰可以將認知中無窮的內(nèi)容“附著”在微觀、具象的內(nèi)容上。比如說“我們的生活比蜜甜”,就是把一個無限的內(nèi)容(生活)附著在一個很具體的事物(蜜)上。
意識片段(或認知坎陷)是超越時空的,不僅僅是只出現(xiàn)在一個時間點上,因而其內(nèi)容可以是無窮豐富的。傳統(tǒng)的理論傾向于假定有一個實體化的、理想的“點”,例如康德的“物自體”、柏拉圖的“理念”,都有實體化的意味,但其實遇到的意識片段大都不是實體化的。意識片段在時間上既有連續(xù)性又有跳躍性??梢杂靡粋€符號去指代某個意識片段,只是這個符號不太可能將意識片段完整地重構(gòu)出來。
這種“附著”非常重要,可以用來理解“自我”等認知坎陷所具備的不同側(cè)面?!白晕摇彪m然可以指代無窮多的含義,但是在具體的場景下,“自我”依然可以具象。有時候是自己的外形,有時候是對應(yīng)在某一個時刻場景下的我,有時候可能只是一個名字,有時甚至是自己建構(gòu)的觀念……,這些都是“自我”可能附著的具象。在很多人心目中,李小龍可能是附著在他身穿黃黑色運動服、手持雙截棍的經(jīng)典形象上。普通社交之間,對不同人的認知可能就附著在這個人的名字上。不同的人或者同一個人在不同情形下,一個認知坎陷的“附著”都可能發(fā)生變化,但“附著”都提供了將無限壓縮或投射到有限的功能。
意識片段或認知坎陷只有“附著”還不夠,在不同的場景下,還要將意識片段不同的面向挖掘出來,這就是“隧通”的作用。比如病毒附著在RNA上,但一旦放入細胞或者適宜環(huán)境,病毒就可以感染和復(fù)制,在不同的環(huán)境中進行相應(yīng)的表達,這就是一種隧通。換句話說,無窮多的內(nèi)容先附著在具象上,然后通過這個具象又可以隧通到背后相關(guān)聯(lián)的多個面向,彼此可達。任何認知坎陷(包括信念等),都可以被附著和隧通,二者對應(yīng)了學(xué)習(xí)過程里的“約”和“博” [14]。寫作和閱讀也是一直在附著和隧通,在博與約之間不斷轉(zhuǎn)換。高級智能就意味著能靈活處理這類博約的問題。
人的腦容量是有限的,例如有理論說人最多可同時處理7個左右的念頭[17]。物理世界卻是無限的?,F(xiàn)實中有的人就擁有很強的理解能力與認知能力,似乎在任何場景中都能得心應(yīng)手,其中的關(guān)鍵就在于他們能夠快速地找到適合的附著之處,或者說能自如地隧通。對大多數(shù)人而言,附著并不是難題,但如何隧通、如何更好地適應(yīng)新場景,則不是簡單的問題,也體現(xiàn)了個體之間不同的智能水平。附著之處還是有好壞之分的,有人附著在“自我”、宗教信仰,有人關(guān)注身體狀態(tài),有人關(guān)注自己過去的遭遇,有人附著在對未來的美好期待,等等。除了附著本身的好壞之外,還要看主體附著之后是否能更好地適應(yīng)新場景,適應(yīng)性更強的附著之處往往更優(yōu)。
四 、具備“理解”能力的人工智能
愛因斯坦說:“世界上最不可思議的事情,就是這個世界是可以思議的?!卑乩瓐D堅信“理念世界”的存在性??档抡J為將經(jīng)驗轉(zhuǎn)化為知識的理性(即“范疇”),是人與生俱來的,沒有先天的范疇我們就無法理解世界。
在附著與隧通的基礎(chǔ)上,可以將“理解”定義為主體能夠?qū)⒛骋粋€對象“隧通”到“自我”。理解的過程可以看作是主體的“自我”與對象的相遇。這種相遇并不是簡單的降射,而是通過相遇可能產(chǎn)生新的內(nèi)容。在此過程中,“自我”不會整體都發(fā)生變化,但經(jīng)過相遇,與客體認知坎陷交互的過程中會發(fā)生信息交換,“自我”在吸收過濾了新的內(nèi)容后,在局部上很可能會發(fā)生變化。
一個由認知坎陷所有側(cè)面的關(guān)鍵詞(也是認知坎陷)構(gòu)成的網(wǎng)絡(luò),可以作為認知坎陷的知識本底。我們過去所謂的“理解”,其實是理想的完美的,對本底的理解精確的。但實際上的理解是有損的、呈金字塔結(jié)構(gòu)的交互,每一次相遇都是上下層之間的重構(gòu),成為新的網(wǎng)絡(luò)。每個主體的坎陷世界都不盡相同,加之認知主體會受到主觀和信息處理能力的限制,其認知不會是、也不可能是完整的,也有可能兩個認知坎陷完全沒有辦法自如地隧通,表現(xiàn)為不理解甚至矛盾沖突。理想化的理解應(yīng)該是對客體認知坎陷的所有側(cè)面都能自如隧通到“自我”,現(xiàn)實中只存在部分的隧通。
雖然理解過程描述起來有些復(fù)雜,但實踐起來卻可以很簡單。在對理解的度量方式上,使用相對度量、能夠進行比較就足夠了,因為做最終的判斷是需要額外的信息的。人類的理解機制是開放的,與外界是息息相關(guān)的。這種開放性就與圖靈機的機制顯著不同:圖靈機是一個封閉的環(huán)境,需要提供給定的各個條件或規(guī)則,而人類的理解則是不確定、不完整的,當外界因素(比如有待理解的對象)發(fā)生變化時,內(nèi)部(坎陷世界)也在改變。
雖然事物是客觀存在的,但我們不可能了解到物理世界的全部,或者說不可能開啟“上帝視角”,而一定是站在某種角度去理解世界。用“上帝視角”去思考人工智能的問題,甚至是主觀世界的問題,實際上會陷入瓶頸。我們真正要突破的是無限與有限之間的矛盾。
過去以為客觀世界是可以被反映的,但其實客觀世界是無窮的,是不可能被完美地反映的。對人而言,不完美的反映是可以接受的,只要抓住一個側(cè)面或者子集,捕獲某些特征就足夠人類與世界交互。一方面,不同事物的主要特征不斷變化,在不同時間、不同場景下,所體現(xiàn)的面向或所附著之處是不一樣的;另一方面,每個人的經(jīng)歷不同,認知水平不同,甚至是身體狀態(tài)不同,就算處在相同的時間和相同的場景下,對同一個事物的理解也可能不同。這些不同點放在機器學(xué)習(xí)中就起到了啟發(fā)作用。
對機器而言,在相同時間和場景下捕獲的特征理論上是完全一樣的,而主觀世界的形成則是多樣性的。理論上說,機器以后也會朝著多樣性的方向發(fā)展,當機器面對相同環(huán)境能夠捕獲出不同特征的時候,機器就有可能像人一樣思考與理解,形成自己的坎陷世界。(編者備注,回答了文章標題所含問題:機器何時會有自我意識?)
在模擬實驗中,完全隨機性代表的是智能為零的基準。當主體具有某種偏好或者信念(相當于具有Oracle),有可能是智能為正(更快地達到目的),但也有可能是智能為負(陷入死循環(huán)或者暗無限[18])。在反思“自我”的時候會盡量地包羅很多因素,認為“自我”就是這個無窮大的集合。但在具體的實際場景下,“自我”是很單純地附著在某些具體的面向上。在機器學(xué)習(xí)上,例如讓模型識別ImageNet,實際上是要求機器識別其中所有的內(nèi)容,包括再來一張新圖片,也期望機器按照ImageNet訓(xùn)練的方式去識別去分類。從這個意義上看,就是要求機器識別整全的、包羅萬象的內(nèi)容。但如果從主觀世界形成的角度來看,恰恰是不需要這樣,而是識別特點,對同一個坎陷建立不同的面向,根據(jù)場景不同來隧通,附著到相應(yīng)的面向上。
人們長久以來希望找到某個涵蓋一切的、完整不變的東西來指代人類意識與智能本質(zhì),但恰恰人類認知是不完整的才更合理,效率才更高,因為物理世界包含無窮的可能性,我們不可能全部習(xí)得,只能夠也只需要接觸到個體能夠捕獲的有限特征就足夠了。如果按照“丘奇-圖靈-多伊奇命題”的強計算主義觀點,所有的物理系統(tǒng)是圖靈等價的,那么智能將無從談起,也將無處著手。強調(diào)智能與意識、自我意識密切相關(guān),正是因為由認知坎陷將人的認知偏離客觀的物理系統(tǒng),才有智能,反之對物理世界的完整反映與存儲恰恰意味著沒有智能。計算機的主程序可以看作是一種微弱的“我”。以此為基礎(chǔ),人工智能就有可能取得突破性的進展。
“活潑性”(vivacity)概念是休謨?nèi)诵岳碚撝幸粋€重要概念,它既是感覺、記憶和知性的基礎(chǔ),又是判斷、情感等心靈(或心智、意識)活動的主要驅(qū)動力?;顫娦圆⒎莾H屬于客體或僅屬于主體的、與意識本身或意識對象割裂的個別的性質(zhì),而是意識對象所具有的特定性質(zhì)與意識本身的特定能力之間互動的結(jié)果。在休謨的心靈模型中,心靈所呈現(xiàn)出的性質(zhì)和所做的活動,既不是對自然的簡單記錄,也不僅僅是心靈主體結(jié)構(gòu)的直接呈現(xiàn),而是本身帶有一定性質(zhì)和能力的主體與自然互動、交融后形成的“第二自然”。[19]
休謨的心靈模型為我們模擬心智的工作模式提供了啟發(fā),為了模擬實現(xiàn)自如地隧通,模擬大腦中分布式的存儲和多元的刺激(比如有正向信號、抑制信號、信號疊加等等),可以設(shè)計出一套對多元化刺激的響應(yīng)機制,最后能夠得出可解釋的響應(yīng)結(jié)果。心智工作模型可以是一個分布式系統(tǒng),機器擁有很多節(jié)點,不同節(jié)點具有不同的專業(yè)特點,用于感知、捕獲特征,并以通證(Token)的形式從小范圍開始交互并達成共識。通證實際上對應(yīng)了人類意識世界的認知坎陷,也是休謨心靈模型中的“活潑性”,不同節(jié)點之間通過多元化的通證交換等方式來交互。由于不同節(jié)點的側(cè)重點不一樣,那么就有可能不同節(jié)點捕獲到不同特征,從機器整體來看,就會有不同的“念頭”先后冒出來。
五 、總結(jié)與討論
傳統(tǒng)的特征工程是預(yù)設(shè)一個絕對正確的理念引導(dǎo)機器去抓取特征,而認知坎陷的“附著”與“隧通”主張沒有恒定不變的本質(zhì),而是在動態(tài)演化的過程中抓取特征,特征附著在不同側(cè)面,與外界進行交互、相遇和沉淀,認知坎陷因此得以不斷進化。我們既不認為機器的意識與智能可以排除人的作用,也不認為機器無法模擬人或者達不到人類水平,而是從認知坎陷的“附著”與“隧通”來分析機器模擬出類人智能的可能路徑,這也意味著機器在這一框架下,有超越經(jīng)典圖靈機、達到人類水平的可能。
曾經(jīng)有研究團隊[20]在2015年訪問了很多AI領(lǐng)域?qū)<?#xff0c;去預(yù)測AI在圍棋領(lǐng)域戰(zhàn)勝人類的時間。當時大部分專家認為將發(fā)生在2035年左右。但實際上實現(xiàn)的時間是2016年;專家們還普遍認為對于AI最難的是做數(shù)學(xué)研究的證明,認為要到2060年實現(xiàn)這項技術(shù),然而Nature已經(jīng)發(fā)表了最新的研究成果[21],Google打造的拉馬努金機(Ramanujan Machine)已經(jīng)在很多數(shù)學(xué)問題能算出近似值,還能在數(shù)學(xué)計算中快速找出精確規(guī)律,例如π和e這樣的無限不循環(huán)常數(shù)。雖然在科學(xué)領(lǐng)域司空見慣,但是計算高精度近似值往往很難,以前只有拉馬努金這樣的“天才”才能做到,現(xiàn)在AI已經(jīng)在這個領(lǐng)域取得了一定成果。
很多人認為2040年左右,會有強人工智能的“奇點”來臨,這意味著那時AI將在大多數(shù)領(lǐng)域全面超越人類。但其實,強人工智能的定義并不清晰。有人將強人工智能定義為通用人工智能,但高級的智能和情感并無法以通用的方式去定義。例如,愛因斯坦的物理能力與莫扎特的音樂能力,這兩種能力各具專業(yè)性,是無法斷定誰的能力水平更勝一籌或智力水平更高一等。既然對人而言,智能是與專業(yè)領(lǐng)域相關(guān),不能以通用的方式來定義人的智能,那么我們也不宜追問機器什么時候全面超越人。如果仔細思考,會發(fā)現(xiàn)這個問題的本質(zhì)類似于“機器什么時候全知全能”,因為只有所謂的“全知全能者”是無所不知、無所不能的,是全面超越人類的。
如果,我們并不要求機器像“全知全能者”一樣,那么強人工智能已經(jīng)逐一實現(xiàn)之前人們對它大部分的設(shè)想。人與機器在進化速度上也有差異,兩千年來,科學(xué)技術(shù)進步較大,但人類在情感上沒有太大改變??墒?#xff0c;科學(xué)發(fā)展的速度和機器進化速度相比仍有很大差異。經(jīng)典摩爾定律描述了硬件發(fā)展每18個月芯片能力翻一倍,而AI的能力,例如類似AlphaGo系統(tǒng)按照時間來評估,其算力增速達到了每3.5個月翻一倍的速度,相當于每過一年,算力就增加了10倍[22],這種速度是人類無法追趕的。成人的大腦約有1000億個神經(jīng)元,每個神經(jīng)元與其他1萬個以上的神經(jīng)元有相互連接,就大概有1000萬億的參數(shù)量[23],目前GPT-3的參數(shù)量達到1700億,按照每年10倍的算力增長速度,機器超過人腦參數(shù)量也只需要不到4年。解構(gòu)機器對人的超越這一命題,起點就在于正確理解心智的工作模式,清楚回答人的主體性和超越性從何而來,本文即是一個開端。
(文章發(fā)表于《湖南大學(xué)學(xué)報·社會科學(xué)版》2021年第4期第122-128頁。)
[致? ? ? ?謝]
本文得益于與朱銳教授和王振博士的討論。
[參 考 文 獻]
[1] Julian Schrittwieser, Ioannis Antonoglou, Thomas Hubert, et al. Mastering Atari, Go, Chess and Shogi by Planning with a Learned Model [J]. Nature,2020 (588): 604–609.
[2] Ewen Callaway. “It will change everything”: DeepMind’s AI makes gigantic leap in solving protein structures [J]. Nature, 2020 (588): 203–204.
[3] Geoffrey Hinton. How to represent part-whole hierarchies in a neural network [EB/OL].? https://export.arxiv.org/pdf/2102.12627. 2021–02–25.
[4] 李德毅.人工智能為什么還沒有意識[J] .檢察風(fēng)云,2020(5):82–83.
[5] 張鈸,朱軍,蘇航.邁向第三代人工智能[J] .中國科學(xué):信息科學(xué),2020,50(9):1281–1302.
[6] Bernard J. Baars and Stan Franklin. An architectural model of conscious and unconscious brain functions: Global Workspace Theory and IDA [J]. Neural Networks Special Issue, 2007, 20(9): 955–961.
[7] Manuel Blum and Lenore Blum. A theoretical computer science perspective on consciousness [J]. Journal of Artificial Intelligence and Consciousness, 2021, 8(1): 1–42.
[8] Yuxi Li. Deep reinforcement learning: an overview [EB/OL]. https://arxiv.org/abs/1701.07274. 2017-01-31.
[9] Alonzo Church. A note on the Entscheidungsproblem [J]. Journal of Symbolic Logic, 1936, 1(1):40–41.
[10] David Deutsch. Quantum Theory, the Church-Turing Principle and the Universal Quantum Computer [C]. Proceedings of the Royal Society A: Mathematical, 1985: 97–117.
[11] Alan M. Turing. Systems of logic based on ordinals [C]. Proc. Lond. Math. Soc. series 2 vol. 45 (1939), pp. 161–228.?
[12] 蔡恒進.認知坎陷作為無執(zhí)的存有[J].求索,2017(2):63–67.
[13] 蔡恒進.觸覺大腦假說、原意識和認知膜[J].科學(xué)技術(shù)哲學(xué)研究,2017(6):48–52.
[14]蔡恒進.行為主義、聯(lián)結(jié)主義和符號主義的貫通[J].上海師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2020(4):87–96.
[15] B. Sch?lkopf et al. Toward causal representation learning [C], in Proceedings of the IEEE, vol. 109, no. 5, pp. 612-634, May 2021, doi: 10.1109/JPROC.2021.3058954.?
[16] Deleuze. Différence et Répétition [M]. Presses Universitaires de France, Paris, 1968.
[17] Miller, G. A. The Magical Number Seven, Plus or Minus Two: Some Limits on our Capacity for Processing Information [J]. Psychological Review, 1956(63): 81–97.
[18] 蔡恒進.超級智能不可承受之重——暗無限及其風(fēng)險規(guī)避[J].山東科技大學(xué)學(xué)報,2018(2):9–15.
[19] 黃昉.休謨“活潑性”概念的新闡釋[J].清華西方哲學(xué)研究,2020(1):27–41.
[20] Katja Grace, et al. When will AI exceed human performance? Evidence from AI experts [EB/OL]. http://arxiv.org/abs/1705.08807v3. 2017–05–30.
[21] Davide Castelvecchi. AI maths whiz creates tough new problems for humans to solve [EB/OL]. https://www.nature.com/articles/d41586-021-00304-8. 2021–02–03.?
[22] OpenAI. AI and compute [EB/OL]. https://openai.com/blog/ai-and-compute/. 2018–05–16.
[23] The Human Memory. Brain neurons and synapses [EB/OL]. https://human-memory.net/brain-neurons-synapses. 2020–11–24.
感謝您看到這里,編者回顧一下提煉的17條總結(jié):
1、圖靈命題可以描述為:功能強大的計算機將會體現(xiàn)出智能;哥德爾認為人具有超越圖靈機的東西,機器無法超越人類。
2、圖靈曾經(jīng)提出,人與機器的差別在于人會犯錯;“錯”就是一種“神諭”(Oracle)。
3、認知坎陷是:在認知主體之間可用來交流、能夠達成共識的一個結(jié)構(gòu)體。
4、觸覺大腦假說:敏感觸覺使得認知主體可以將世界清晰地剖分并封裝成“自我”與“外界”。
5、由人類設(shè)計制造的機器僅具備由人類賦予的各種意識片段,尚缺少統(tǒng)攝性的、強烈的關(guān)于“自我”的意識,也不具備對宇宙的整全意識。這是目前人類智能與人工智能之間的本質(zhì)差異所在。
6、“自我”作為最原初、最重要的認知坎陷,它所指代的含義既可以是無窮多的,在某一個場景下又可以是有限的
7、無窮多的內(nèi)容先附著在具象上,然后通過這個具象又可以隧通到背后相關(guān)聯(lián)的多個面向,彼此可達。
8、可以將“理解”定義為主體能夠?qū)⒛骋粋€對象“隧通”到“自我”。理解的過程可以看作是主體的“自我”與對象的相遇。這種相遇并不是簡單的降射,而是通過相遇可能產(chǎn)生新的內(nèi)容。
9、過去以為客觀世界是可以被反映的,但其實客觀世界是無窮的,是不可能被完美地反映的。對人而言,不完美的反映是可以接受的,只要抓住一個側(cè)面或者子集,捕獲某些特征就足夠人類與世界交互。
10、我們并不要求機器像“全知全能者”一樣,那么強人工智能已經(jīng)逐一實現(xiàn)之前人們對它大部分的設(shè)想。
11、人們長久以來希望找到某個涵蓋一切的、完整不變的東西來指代人類意識與智能本質(zhì),但恰恰人類認知是不完整的才更合理,效率才更高,因為物理世界包含無窮的可能性。
12、計算機的主程序可以看作是一種微弱的“我”。
13、心智工作模型可以是一個分布式系統(tǒng),機器擁有很多節(jié)點,不同節(jié)點具有不同的專業(yè)特點,用于感知、捕獲特征,并以通證(Token)的形式從小范圍開始交互并達成共識。
14、機器在這一框架下,有超越經(jīng)典圖靈機、達到人類水平的可能
15、對人而言,智能是與專業(yè)領(lǐng)域相關(guān),不能以通用的方式來定義人的智能,那么我們也不宜追問機器什么時候全面超越人。
16、如果,我們并不要求機器像“全知全能者”一樣,那么強人工智能已經(jīng)逐一實現(xiàn)之前人們對它大部分的設(shè)想。
17、按照每年10倍的算力增長速度,機器超過人腦參數(shù)量也只需要不到4年。
視頻:《蔡恒進:AI會欺負我們嗎》
在騰訊視頻或嗶哩嗶哩上都能搜索到蔡恒進教授的更多演講視頻。
如果您認可本篇論文的部分內(nèi)容,歡迎轉(zhuǎn)發(fā)。
總結(jié)
以上是生活随笔為你收集整理的奇文|意识如何演化?机器何时有自我意识?《附着与隧通-心智的工作模式》的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: html5九宫格布局,CSS实现自适应九
- 下一篇: 鱼眼校正c语言算法,一种鱼眼图像逆向经纬