现在电脑连接了我们所有人现在电脑连接了我们所有人的热点
本文是在筆記本電腦上編寫、編輯和設計的,這種可折疊、可移動的設備會讓幾十年前的計算機科學家們大吃一驚,簡直就像魔術一樣。這種機器包含數十億個微小的計算單元,運行著由全球無數人共同編寫的數百萬行軟件指令。無論點擊、移動、打字或說話,結果都會無縫地顯示在屏幕上。
計算機曾經大到塞滿了整個房間,現在它們卻無處不在,無處不見,如嵌入式手表、汽車引擎、相機、電視和玩具中,同時它們也管理著電網,分析科學數據,預測天氣。可以這么說,如果沒有計算機,現代世界的生活就不可能實現。現在科學家的目標是使計算機運行速度更快,程序更智能,而他們的努力建立在一個多世紀的創新之上。
計算機的歷史
1833年,英國數學家查爾斯·巴貝奇設想了一種可編程機器,這種機器預見到了今天的計算結構,具有存儲數字的“存儲器”、操作數字的“處理器”、指令閱讀器和打印機。這臺可編程機器還有一些邏輯功能比如判斷,“如果是X,那么是Y”。巴貝奇只構造了這個機器的一小部分,但通過巴貝奇的描述,他的朋友阿達·洛芙萊斯發現,洛芙萊斯是一位伯爵夫人而且還是詩人拜倫的女兒,她發現這種可編程機器操縱的數字可以代表任何東西。“一種新的、廣泛的、強大的語言被開發出來,”她寫道,洛夫萊斯成了這臺機器操作的專家,在1842年她編寫了人類史上第一個計算機程序,也經常被稱為“第一個程序員”。
1936年,英國數學家艾倫·圖靈提出了一種可以“重寫它自己的指令”的計算機想法,即計算機可以不斷地為自己自動更新程序,這使得計算機可以無限地編程,就像是計算機的套娃。艾倫·圖靈的想法是,使用少量的操作詞匯就可以模擬任何復雜的機器,因此這種機器被稱為“通用圖靈機”。
1943年,第一臺可以真正意義上的電子數字計算機“巨像”(Colossus)問世,它的誕生是為了第二次世界大戰期間用于英國破譯戰時密碼。它使用了一種由英國物理學家弗萊明在1904年發明的真空電子管,這是一種控制電子流動的裝置,用于替代可移動的機械部件。這使得“巨像”的運算速度很快,但工程師們每次想要執行新任務時,都必須手動重新接線。
也許是受到圖靈關于更容易重新編程的計算機概念啟發,創造了美國第一臺電子數字計算機ENIAC的研究團隊,準備為ENIAC的繼任者EDVAC起草一個新的架構。作為20世紀最重要的數學家之一的馮·諾伊曼,在1945年最終確定了EDVAC的架構,他描述了一種將程序指令存儲器和數據存儲器合并在一起的存儲器結構系統,這種設置現在被稱為馮·諾伊曼架構,又稱為普林斯頓架構,直到今天幾乎所有的計算機都遵循這種模式。
1947年,貝爾電話實驗室的肖克利、巴丁和布拉頓組成的研究小組發明了晶體管,這是一種通過施加電壓或電流來控制兩點之間電子流動的電路,它取代了速度慢、效率低的真空管。
1958年和1959年,德州儀器公司(TI)和仙童半導體公司(Fairchild Semiconductor)的基爾比和諾依斯各自獨立發明了集成電路,在集成電路中,晶體管和它們的連接電路在一個芯片上加工完成。
很長一段時間,只有專家才能給計算機編程,在1957年,IBM發布了FORTRAN編程語言,這是一種更容易理解的編程語言,直到今天還在使用。1981年,該公司推出了IBM個人電腦,而微軟則推出了名為MS-DOS的操作系統,這兩家公司一起將電腦擴展到了家庭和辦公室。
蘋果在1982年推出了Lisa的操作系統,并緊接著1984年推出了Macintosh的操作系統,進一步實現了電腦的個性化。微軟也不甘示弱,在1985年推出Windows 1.0版本操作系統一直更新至今。這兩種系統都支持圖形用戶界面,為用戶提供鼠標光標而不是命令行,這大大方便了普通人對計算機的應用。
“巨像”是世界上第一臺可靠的可編程電子計算機,在第二次世界大戰中幫助英國情報部隊破譯密碼。
與此同時,研究人員一直在努力改變人們之間的交流方式。1948年,美國數學家克勞德·香農發表了《通信的數學理論》,使“比特(二進制) ”一詞得到普及,奠定了現在信息論的基礎。他的想法塑造了新的計算方法,特別是通過電線和無線電波共享數據。1969年,美國高級研究計劃局創建了一個名為阿帕網(ARPANET)的計算機網絡,后來與其他網絡合并形成了互聯網(Internet)。1990年,位于日內瓦附近的歐洲核子研究中心(CERN)的研究人員制定了數據傳輸規則,這些局部網絡后來成為萬維網(WWW)的基礎。
這些計算機技術進步使人們工作、娛樂和交流的方式有可能繼續以令人眼花繚亂的速度變化。但是處理器能有多好呢?算法能變得多智能?隨著技術這些年的進步,我們應該看到哪些好處和危險?加州大學伯克利分校的計算機科學家斯圖爾特?拉塞爾與人合寫了一本很受歡迎的人工智能教科書,他認為計算機在“拓展藝術創造力、促進科學發展、充當個人助理、駕駛汽車等方面具有巨大潛力。”
追求速度
在很大程度上計算機說的是“比特語言”,它們以1和0組成的字符串存儲信息,無論是文檔、音樂、應用程序還是密碼。同時它們還以二進制的方式處理信息,使晶體管在“開”和“關”狀態之間切換。通常來說計算機中的晶體管越多,它處理比特的速度就越快。從更逼真的視頻游戲到更安全的空中交通管制,讓一切都有可能實現。
晶體管的組合構成電路的組成部分之一,稱為邏輯門。例如,如果兩個輸入都為“開”,則邏輯門為“開”;如果至少有一個輸入打開,則邏輯門為“開”。邏輯門一起組成了一個復雜的電子交通系統,這是計算機的物理實質,通常來說一個計算機芯片可以包含數百萬個邏輯門。
邏輯門越多,晶體管越多,那么計算機就越強大。1965年,仙童半導體的聯合創始人、后來的英特爾(Intel)的戈登·摩爾(Gordon Moore)寫了一篇關于芯片未來的論文,題目為《將更多的組件塞進集成電路》(Cramming More Components to Integrated circuit)。他指出,從1959年到1965年,集成電路或者叫做芯片的晶體管數量每年翻倍,他預計這一趨勢將繼續下去。
在1975年的一次演講中,摩爾指出了這種指數增長背后的三個重要因素:更小的晶體管、更大的芯片以及“設備和電路的智慧”,例如更少的空間浪費,他預計每兩年翻一番。事實上他做到了,并且這一趨勢持續了幾十年,這就是芯片領域赫赫有名的“摩爾定律”。
摩爾定律是經濟學上的考量,因為總是會有讓計算機更快、更便宜的動機。但在某個時刻,物理定律就會起到干擾作用,例如量子隧穿效應。芯片的發展不可能永遠跟上摩爾定律,因為要使晶體管更小變得越來越困難。根據摩爾第二定律,芯片制造工廠的成本每隔幾年就會翻一番。據報道,半導體公司臺積電(TSMC)正在考慮建造一座耗資250億美元的工廠。
如今,摩爾定律不再成立,晶體管數量翻倍的速度逐漸減緩。盡管我們繼續在每一代芯片上添加更多的晶體管,但添加晶體管的速度卻越來越低。英特爾晶體管設計負責人那塔金說:“我們相信,我們已經從目前被稱為FinFET的晶體管結構中,擠出了所有你能擠出的東西”。在接下來的幾年里,芯片制造商將開始生產新的晶體管結構,使設備速度更快,消耗的能源和空間更少。即使那塔金是對的,晶體管已經接近其最小尺寸的極限,但計算機仍然有很多需要改進的地方。通過摩爾的“設備和電路的智慧”,今天的電子設備可以包含許多種加速器,這些是為了特殊目的如人工智能、圖形或通信等定制化設計的芯片,可以比通用處理單元更快、更有效地執行任務。
從1985年到2015年的計算機性能
直到大約2004年,晶體管的縮小伴隨著計算機性能的提高(下面黑色表示行業基準)和時鐘頻率,即每秒運行的周期數(綠色),時鐘頻率越高,計算機性能越好。但2005年后,這種規律就不再適用,縮小的晶體管不再產生同樣的好處。
未來某些類型的加速器可能有一天會使用量子計算,它利用了量子領域的兩個特征。第一種是疊加,在疊加狀態中,粒子不僅可以以一種或另一種狀態存在,而是可以以某種狀態的組合存在,直到這種狀態被明確地測量出來。因此,量子系統不是以比特的形式來表示信息,而是以量子單元的形式來表示信息,量子單元在測量時可以保留為0或1的可能性。第二個是糾纏,即遙遠的兩個單元之間的相互依賴。這兩個特征加在一起,意味著一個量子計算系統可以以指數方式表示比量子單元更多的可能性,包含所有1和0的同時組合。
量子計算可以有多種形式,但最普遍的一種形式是采用超導導線。這些導線必須保持在絕對零度以上幾分之一的溫度,即零下273攝氏度左右,以防止熱的、抖動的原子干擾量子單元微妙的疊加和糾纏。
量子計算機有幾個潛在的應用,例如機器學習,優化諸如火車調度,模擬真實世界的量子力學等。但它不太可能成為普通人的通用電腦,事實上我們不清楚如何使用它來運行文字處理器。
新芯片的概念
除了專業加速器外,還有許多新方法可以大幅提高通用芯片的速度。亞特蘭大喬治亞理工學院的計算機科學家湯姆·孔特是IEEE重啟計算倡議(IEEE Rebooting ComputingInitiative)的負責人,他指出了兩種模式。第一種是超導,讓芯片在足夠低的溫度下運行以消除電阻。
第二種模式是可逆計算,在這種模式中,比特被重復使用,而不是作為熱量排出。1961年,IBM的物理學家羅爾夫·蘭道爾將信息論和熱力學結合起來,他注意到當一個邏輯門接收兩個比特并輸出一個比特時,它就會破壞一個比特,并以熱量的形式將其以熵或其它隨機性的形式排出。當數十億個晶體管以每秒數十億次的周期運行時,浪費的熱量就會累積起來,這時機器就需要更多的電力來計算和冷卻。阿爾伯克桑迪亞國家實驗室(Sandia National Laboratories)從事可逆計算研究的計算機科學家邁克爾·弗蘭克在2017年寫道:“傳統計算機本質上是一個昂貴的電加熱器,它的一個副作用是恰好執行少量的計算。”
但在可逆計算中,邏輯門的輸出和輸入一樣多。這意味著如果你反向運行邏輯門,你可以使用,比如說三個輸出比特來獲得三個輸入比特。一些研究人員設想了一種可逆邏輯電路,它不僅可以節省那些多余的比特,還可以將它們循環用于其他計算。物理學家理查德·費曼得出的結論是,除了數據傳輸過程中的能量損失外,計算效率在理論上是沒有限制的。
把可逆計算和超導計算結合起來,孔特說,“你會收到雙重收益。”高效的計算機允許您在同一芯片上運行更多的操作,而無需擔心電力使用或熱量產生問題。最終其中一種或兩種方法可能會成為超大規模計算的主干”。
軟件改進
研究人員繼續致力于晶體管、其他計算元件、芯片設計等硬件相關的新技術,如光子學、生物分子、碳納米管。但是,僅僅通過優化軟件代碼,現在的計算機仍然可以從當前的硬件架構中獲得更多改進。
例如,在《科學》雜志2020年的一篇論文中,研究人員研究了兩個矩陣相乘的簡單問題,數學和機器學習中使用的數字網格。當團隊選擇了一種高效的編程語言并為底層硬件優化了代碼時,計算的速度比Python語言的標準代碼快了6萬多倍,而Python語言目前被認為是用戶友好且容易學習的。
麻省理工學院(MIT)的研究科學家尼爾?湯普森是《科學》(Science)雜志上這篇論文的合著者,他最近與人合作撰寫了一篇論文,探討算法的歷史改進。算法是一組指令,根據人類設定的規則做出決策,用于排序數據等任務。“對于為數不多的算法來說,”他說,“它們的進展和摩爾定律一樣快,甚至更快。”
幾十年來,包括摩爾在內的人們一直預測摩爾定律的終結。進步可能放緩了,但人類的創新使技術保持快速發展。
追求智慧
從計算機科學的早期開始,研究人員就致力于讓計算機復制人類的思維。艾倫·圖靈在1950年發表了一篇題為《計算機器與智能》的論文,他在開篇寫道:“我提議設想這樣一個問題,‘機器能思考嗎?’”他接著概述了一個測試,并稱之為“模仿游戲”(現在稱為圖靈測試),在這個測試中,一個被測試者通過書寫提問的方式同時與計算機和一個人交流,在這種交流過程中被測試者無法看見自己交流的對象是計算機還是人類,他必須通過書寫的問題和相應回復來判斷哪一個是人哪一個是計算機。如果這個被測試者無法判斷差別,那么認為這臺計算機是可以思考的。
“人工智能”一詞最早出現在1955年達特茅斯學院(Dartmouth College) 夏季峰會的一項提案中。這個提案提出,“我們將進行一次嘗試,尋找如何讓機器使用語言、形成抽象和概念,解決目前留給人類的各種問題,并提高機器自身。” 峰會的組織者預計,在兩個多月的時間里10個峰會的與會者將取得重大進展。
60多年過去了,現在還不清楚這些進展是否達到了當時夏季峰會上的預期。現在人工智能以各種方式圍繞著我們:隱形的(例如過濾垃圾郵件)、值得關注的(例如自動駕駛汽車、在象棋或者圍棋上打敗人類),以及介于兩者之間的(例如用智能手機聊天)。這些都是狹義的人工智能,能很好地完成一到兩個任務,但是圖靈的想法是一種“通用型人工智能”,根據需求可以完成大部分人類所做的工作。
世界國際象棋冠軍加里·卡斯帕羅夫在1996年的一場比賽中擊敗了IBM的超級計算機“深藍”。但在1997年的重賽中,電腦贏了
“我們可能永遠無法實現通用型人工智能,但這條道路將引領許多有用的創新。”蒙特利爾麥吉爾大學(McGillUniversity)計算機科學家、人工智能公司DeepMind蒙特利爾研究團隊負責人多伊娜?普萊普表示:“我認為我們已經取得了很大進展,但現在仍然缺乏的是對人類智力基本原理的理解。”
人工智能在過去十年中取得了巨大的進展,這在很大程度上歸功于機器學習。此前計算機更多地依賴于符號化的人工智能,它使用基于人類設定規則的算法,然后機器學習程序通過處理數據來找到符合自己的模式。其中一種典型的模式是使用“人工神經網絡”,人工神經網絡是一種由簡單計算元素組成的軟件,可以模仿生物大腦的某些原理。具有幾個或更多層次的神經網絡共同構成了一種被稱為“深度學習”的機器學習類型,這是目前很流行的一種機器學習模式。
深度學習系統現在可以比最優秀的象棋和圍棋人類棋手玩得更好,它們可能比你更能從照片上辨認出狗的品種,他們可以把文本從一種語言翻譯成另一種語言。它們可以控制機器人,作曲,預測蛋白質折疊的方式。但同時,他們也缺乏常識范疇內的許多東西,它們不了解世界運行的基本原理,無論是生理上還是社會上。例如,你我可能沒有注意到的圖像細微變化,可能會極大地影響計算機的識別能力。研究人員發現,在停車標志上粘貼一些無害的貼紙,會導致人工智能軟件將該標志解讀為限速標志,這對自動駕駛汽車來說是一個明顯的問題。
即使有貼紙顯示,人類也會認出這是一個停止標志,但經過測試自動駕駛汽車算法卻沒有認出
AI的前進方向
人工智能如何改進?計算機科學家正在利用多種形式的機器學習,不管這種學習是否“有深度”。
一種常見的形式是監督學習(supervised learning),在這種學習中,機器學習系統或模型會被提供標有標簽的數據,比如狗的圖像和它們的品種名稱,但這需要大量的人類努力來給它們貼上標簽。另一種方法是無監督學習,在這種學習中,計算機不依賴外部標簽進行學習,就像我們在椅子周圍走動時,從不同角度預測它會是什么樣子一樣。
另一種類型的機器學習是強化學習,即模型與環境相互作用,探索一系列行動以實現目標。強化學習使人工智能成為圍棋等棋類游戲和《星際爭霸2》等電子游戲的專家。
為了有效地學習,機器需要進行歸納,并可以從經驗中得出抽象的原則。新墨西哥州圣達菲研究所(Santa Fe Institute)的計算機科學家梅勒妮·米切爾說:“智力的很大一部分,是能夠將一個人的知識應用于不同的情況。”2019年,谷歌的人工智能研究人員弗朗索瓦·肖萊為機器創建了一種名為:“抽象和推理語料庫”(簡稱ARC)的智商測試,在該測試中,計算機必須根據示例模式中演示的原則完成視覺模式。這些謎題對人類來說很簡單,但到目前為止,對機器來說卻很有挑戰性。
諷刺的是,我們的許多抽象思維可能是基于我們的身體經驗。我們使用概念隱喻,比如“重要=大”。GPT-3是研究實驗室OpenAI于2020年發布的一種訓練有素的語言模型,它表明,脫離實體的語言可能還不夠。有了提示,它可以寫出像人一樣的新聞文章、短篇故事和詩歌。但在一個演示中,它寫道:“需要兩道彩虹才能從夏威夷跳躍到17歲。”“我玩了很多次,”米切爾說。“它能做不可思議的事情。但它也會犯一些非常愚蠢的錯誤。”
通用型人工智能可能還需要我們動物天性的其他方面,比如情感,尤其是當人類希望以自然的方式與機器互動時。情緒不僅僅是非理性的反應。我們已經進化了它們來指導我們的驅動力和行為。OpenAI的聯合創始人兼首席科學家伊利亞·蘇茨克弗表示,它們“給了我們這種額外的智慧活力”。即使AI沒有和我們一樣的意識感受,它也可能有近似于恐懼或憤怒的代碼,事實上強化學習已經包含了類似于好奇心的探索元素。
仿人機器人iCub已經成為世界各國實驗室研究人類認知和人工智能的研究工具
人類不是空白的石板。我們生來就具有識別人臉、學習語言和探索其它物體的特定傾向。機器學習系統也需要正確的固有結構來快速學習某些東西。采用什么樣的結構是一個激烈爭論的問題。蘇茨克弗說,“我們想要最好的白板。”
人工智能的自我思考
人工智能本身可能會幫助我們發現新的人工智能形式。有一套稱為AutoML的技術,其中的算法有助于優化神經網絡架構或人工智能模型的其他方面。人工智能還幫助芯片架構師設計出更好的集成電路。去年,谷歌的研究人員在《自然》雜志上報道說,在他們設計的加速器芯片的某些方面,強化學習比他們的內部團隊表現得更好。
通用型人工智能的到來可能還要幾十年。“我們不了解我們自己的智力,”米切爾說,因為它的大部分是無意識的。“因此,我們不知道對人工智能來說什么是容易的,什么是困難的。”看似困難的事情往往容易,反之亦然——這一現象被稱為“莫拉維克悖論”(Moravec's paradox),由機器人專家漢斯·莫拉維克提出。1988年,莫拉維克寫道:“讓計算機在解決智力測試問題或下棋方面表現出成人水平的表現相對容易,而讓它們在感知和移動方面達到1歲兒童的水平則很難或不可能。”嬰兒其實很聰明。普萊科普說,為了實現通用型人工智能的目標,“我們也對人類智力和一般智力有了更多的了解。”
圖靈區分了一般智力和類人智力。在他1950年關于模仿游戲的論文中,他寫道:“難道機器不會執行一些應該被描述為思考但與人類截然不同的事情嗎?”他的觀點是:你不需要像一個人一樣思考就能擁有真正的智慧。
道德困境
在1942年的短篇小說《逃避》(Runaround)中,艾薩克·阿西莫夫(Isaac Asimov)筆下的一個角色列舉了著名的“機器人三原則”:第一條:機器人不得傷害人類,或看到人類受到傷害而袖手旁觀;第二條:機器人必須服從人類的命令,除非這條命令與第一條相矛盾;第三條: 機器人必須保護自己,除非這種保護與以上兩條相矛盾。
我們可能會想象阿西莫夫的“正電子大腦”在對人類的傷害方面做出自主的決定,例如不再是類人機器人殺人。但這實際上不是電腦每天如何影響我們的表現,事實上人工智能是指“我們有了管理新聞推送的算法”類似的影響。隨著計算機進一步滲透到我們的生活中,我們需要更加努力地思考要構建什么樣的系統,以及如何部署它們這樣的問題。
這是倫理學的領域,它似乎與數學、科學和工程的所謂客觀性相距甚遠。但是,決定對這個世界提出什么樣的問題,建造什么樣的工具,始終取決于我們的理想和顧慮。例如,研究像原子內部這樣深奧的課題,對能源和武器都有明顯的影響。哈佛大學的計算機科學家芭芭拉說:“有一個基本的事實,計算機系統不是價值中性的,當你設計它們的時候,你會把一些價值帶入設計中。”
一個受到科學家和倫理學家大量關注的話題是公平和偏見。算法越來越多地為招聘、大學錄取、貸款和假釋等決策提供信息,甚至是發號施令。即使他們對某些群體的歧視比普通人要少,但他們仍然可能不公平地對待某些群體,不是故意的,而是經常因為他們接受的是有偏見的數據訓練。例如,它們可以根據一個人之前的被捕情況來預測他未來的犯罪行為,即使不同群體因特定數量的犯罪而被捕的幾率不同。
另一個問題是隱私和監控,因為電腦現在可以以一種以前無法想象的方式收集和分類信息。我們網絡行為的數據可以幫助預測我們私人生活的各個方面,比如性行為。面部識別還可以在現實世界中跟隨我們,幫助警察或威權政府。新興的神經技術領域已經在測試將大腦直接連接到計算機的方法。與隱私相關的是安全——黑客可以訪問被鎖起來的數據,或者干擾心臟起搏器和自動駕駛汽車。
計算機也能使欺騙成為可能。人工智能可以生成看起來真實的內容。語言模型可能被用來為極端組織提供虛假新聞和招募材料。生成式對抗網絡是一種深度學習,可以生成逼真的內容,可以幫助藝術家或創建深度偽造、圖像或視頻,顯示人們在做他們從未做過的事情
在社交媒體上,我們也需要擔心人們的社會、政治等觀點的兩極分化。一般來說,推薦算法優化用戶參與度(平臺通過廣告盈利),而不是民間話語。算法還可以以其他方式操縱我們。機器人顧問——提供金融建議或客戶支持的聊天機器人——可能會了解我們真正需要什么,或者按下我們的按鈕,向我們推銷無關的產品。
多個國家正在開發自主武器,機器人手中的槍支或導彈引發了科幻小說中終結者試圖消滅人類的幽靈。他們甚至可能沒有惡意,錯誤地認為他們正在通過消滅人類癌癥來幫助人類。在更短的時間內,現實世界中的自動化系統已經造成了股市的閃電崩盤,例如量化交易。如果AI被要求做出生死攸關的決定,他們就會面臨著名的電車問題,即在不是每個人都能獲勝的情況下,決定犧牲誰或什么。
由于致命自主武器的存在,比如土耳其制造的STM無人機,專家們呼吁禁止那些可以在無需人工干預的情況下發動襲擊的設備
還有關于如何在社會中管理技術的社會、政治和法律問題。當人工智能系統造成傷害時,誰應該承擔責任?(例如,自動駕駛汽車已經導致了人員死亡。)我們如何才能確保更平等地獲得人工智能工具及其好處,并確保它們不會歧視群體或個人?持續的工作自動化將如何影響就業?我們能管理數據中心對環境的影響嗎?這些數據中心使用大量的電力。我們是否應該優先使用可解釋的算法,而不是許多神經網絡的黑盒以獲得更大的信任和可調試性,即使這會使算法在預測方面更差?
我們能做些什么
賓夕法尼亞大學計算機科學家、2019年《道德算法》(the Ethical Algorithm)一書的合著者邁克爾·卡恩斯將這些問題置于可管理性的范圍內。一方面是所謂的差異隱私,即向醫療記錄數據集添加噪音的能力,這樣它就可以與研究人員有效地共享,而無需透露太多的個人記錄。我們現在可以用數學來保證個人數據應該如何保存。
介于兩者之間的是機器學習的公平性。研究人員已經開發出一些方法,通過刪除或改變有偏見的訓練數據來增加公平性,或者最大化某些類型的平等——例如貸款——同時最小化利潤的減少。然而,某些類型的公平將永遠處于相互沖突之中,數學無法告訴我們哪些是我們想要的。
另一端是可解釋性。與公平性相反,公平性可以用多種數學方法進行分析,而解釋的質量很難用數學術語來描述。“我覺得我還沒有看到一個好的定義,”卡恩斯說。“你可以說,‘這是一個算法,它將使用一個訓練有素的神經網絡,試圖解釋它為什么拒絕你的貸款,’但(感覺不太有原則。”最終,如果受眾不理解它,這就不是一個好的解釋,衡量它的成功——無論你如何定義成功——都需要用戶研究。
像阿西莫夫的三定律這樣的東西不會把我們從試圖幫助我們去傷害我們的機器人手中拯救出來。而且,即使這一列表擴大到一百萬條法律,法律的文字與它的精神也不相同。一種可能的解決方案是所謂的反向強化學習,在這種學習中,計算機可能會根據我們的行為來解讀我們真正看重的東西。
本文參考science news.文章,“Now that computers connect us all, for better and worse, what’s next?”,如有興趣還可查閱原文。
如有侵犯版權還請告知,我們將在24小時內刪除
總結
以上是生活随笔為你收集整理的现在电脑连接了我们所有人现在电脑连接了我们所有人的热点的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 工商银行上半年财报发布 利润爆表引市场关
- 下一篇: 象棋与软件的恩怨情仇中国象棋恩怨