游戏大师谈AI “终结者”式未来绝非空想
圖1:人工智能(AI)題材互動電影游戲《底特律:成為人類》中面部動畫表情栩栩如生
網(wǎng)易智能訊3月24日消息,法國Quantic Dream游戲工作室開發(fā)的人工智能(AI)題材互動電影游戲《底特律:成為人類》(Detroit: Become Human),講述了一個虛構(gòu)的未來故事。在這個世界上,無數(shù)栩栩如生的機器人為人類提供各類服務(wù)。它向我們展示了這樣的未來:人類失業(yè)率居高不下,許多人為此對機器人產(chǎn)生了反感。有知覺的機器人開始反抗自己的仆役地位,它們?yōu)榇税l(fā)動了起義。
這聽起來可能與《終結(jié)者》(The Terminator)的故事情節(jié)類似,但Quantic Dream的游戲總監(jiān)大衛(wèi)·凱奇(David Cage)對未來學家雷·庫茲韋爾(Ray Kurzweil)的開創(chuàng)性著作《奇點臨近》(The Singularity is Near)一書做了大量研究。他試圖將自己的研究嵌入到游戲世界中,并使場景描述變得盡可能的可信。
凱奇從獨特的視角來看待這個挑戰(zhàn),他提出了一個問題:如果人類是邪惡勢力,而機器人卻是正義一方,結(jié)果會怎樣?在巴塞羅那舉行的Gamelab大會上,凱奇接受采訪時談過這個問題,并闡述了他們在游戲中講故事的方法。
圖2:Quantic Dream游戲工作室的游戲總監(jiān)大衛(wèi)·凱奇(David Cage),他是《暴雨& 超凡雙生》(Heavy Rain, Beyond: Two Souls)、《底特律:成為人類》的創(chuàng)作者
以下為采訪摘要:
問:我對AI很感興趣,因此我想知道你們是如何認真研究《底特律:成為人類》的背景故事的。你對未來幾十年AI的發(fā)展心存憂慮嗎?
凱奇:我對這個話題做了很多研究,因為我個人很感興趣。它始于雷·庫茲韋爾的《奇點臨近》這本書。這對我很重要,因為它讓我意識到,在未來的某個時刻,會有比我們更聰明的機器出現(xiàn)。很難說這一切何時會到來,但它最終會發(fā)生卻是毫無疑問的。對我來說,那就是《底特律:成為人類》這款游戲的起點。
到那時會發(fā)生什么?有兩種理論:首先,它們只是機器。僅僅因為它們有更多的能力,但這并不意味著它們會發(fā)展出意識,因為意識不是智力的一部分。第二種理論認為,我們?nèi)祟愔皇巧餀C器,意識來自我們大腦的力量。如果這是真的,那就意味著機器也會有意識。當另一個物種有智慧、意識和情感時,人類會有什么反應(yīng)?如果將來發(fā)生這種情況,我們需要采取何種立場?這是我研究的出發(fā)點。
但除此之外,我做了很多關(guān)于AI的研究,以確切地了解它是如何工作的。我參觀了許多利用AI進行音樂創(chuàng)作的科學實驗室,我看到的一個演示給我留下了深刻的印象。他們把爵士鋼琴家演奏的、長達數(shù)小時的音樂放入算法中。算法分析了音樂的風格,然后他們得到了這首以真人鋼琴家開始的配樂,但在曲目的某一時刻,它轉(zhuǎn)向了算法創(chuàng)作的音樂。這太可怕了,因為你看不出其中的區(qū)別。算法準確地分析了人類的演奏風格,并能以同樣的方式進行演奏。
我們花了很多時間探索,將來AI會寫書嗎?它們會講故事嗎?它們會創(chuàng)作音樂以及繪畫嗎?我們在游戲中加入了許多這樣的想法。
問:我總是對AI研究人員的說法很感興趣,他們正在做些有趣的事情,比如為AI構(gòu)建倫理小組。他們不是以那種方式開始的。微軟取消了著名的AI項目,因為他們已經(jīng)知道,他們需要以某種方式管理或控制AI。但他們似乎確實在取笑有關(guān)AI的小說,比如《終結(jié)者》。每個人都說我們在建造“天網(wǎng)”,但這與現(xiàn)實相去甚遠。我不知道他們是否認為AI真的存在威脅,需要認真對待,亦或只是想以科學的名義追求它。
圖3:這些是人類警察,他們遠遠不夠完美
凱奇:有個關(guān)于AI的故事我非常喜歡。它基于真實的事實,但有少許改變。兩個AI創(chuàng)造了它們自己的語言,并開始用一種人類無法理解的方式交談,因為這是它們自己創(chuàng)造的。與真實情況相比,這個故事有些添油加醋,但我覺得有趣的是,我們可以創(chuàng)造些東西,這些東西會自己學習,甚至學習我們無法理解的東西。當你擁有能夠自主學習和發(fā)展技能的機器時,你就會開始失去控制。
那么,總體上說,我是否擔心這種技術(shù)?是的。不過,比起機器,我更擔心人類。在《底特律:成為人類》中,我們選擇好人是機器人,壞人是人類,這并非巧合。
問:人類總是試圖超越彼此,他們會進行競爭,直到超越自己應(yīng)該做某些事情的程度。
凱奇:關(guān)于AI的好消息是,它通常以理性的方式行事,而人類卻不是這樣。我更關(guān)心我們與技術(shù)的關(guān)系,這也是我們在《底特律:成為人類》中發(fā)展的主題之一。我們對科技到底有多依賴?我們對手機有多么上癮?你有時可以在像餐館這樣的地方看到,幾乎每個家人都在查看他們的電子郵件和信息。他們在和不在場的人交談,而不是和坐在桌旁的人對話。這正是我所擔心的事。
我還認為,科技正在改變我們大腦的工作方式。我們需要越來越多的刺激。我們需要更多信息,并總是期待著手機上的回應(yīng):“哦,有個信息我需要查看,請稍等。”我們完全依賴技術(shù)。我們開始為技術(shù)服務(wù),而不是技術(shù)為我們服務(wù)。
問:我也讀過丹·布朗(Dan Brown)的小說《起源》(Origin)。這本書很有趣,因為故事也發(fā)生在巴塞羅那。但我認為他有一個有趣的理論,那就是人類正在導致氣候變化,并促使地球走向毀滅,如果AI能夠接管并限制人類的發(fā)展,這實際上可能有助于拯救地球。他預(yù)測AI將成長為占主導地位的物種。這可能是未來主義的想法,但在某些方面似乎是合理的。
凱奇:這絕對是有道理的。《底特律:成為人類》中有個角色曾說過:“機器人也是人類,但很完美。”我不知道是否真能這么說,畢竟它只是科幻小說。但與此同時,你會明白機器實際上變得非常實用,非常了解需要做什么,懂得做出妥協(xié),變得理性,而人類則是由激情和情感驅(qū)動的。這就是我們管理這個星球的原因,但與此同時,這也是我們可能會導致其毀滅的原因,因為我們無法對某些事情保持理性和務(wù)實。
也許一個國家最完美的總統(tǒng)應(yīng)該是個機器人,因為它們不容易腐敗。它們會努力工作,會為大多數(shù)人做出最好的決定。它他們不會只是想著再次當選,不會為了得到那份工作而說謊。仔細想想,它們可能是最稱職的總統(tǒng)。
問:你認為AI的出現(xiàn)會導致30%到40%的人失業(yè)這種說法合理嗎?
凱奇:這也是我在開發(fā)《底特律:成為人類》時研究的問題,即科技對社會的影響。在我的研究中,我發(fā)現(xiàn)當?shù)谝慌_蒸汽機出現(xiàn)時,同樣的討論也發(fā)生過。每個人都說:“很快,工人們就會失業(yè),這將是一場災(zāi)難。”但我們現(xiàn)在知道,事實并非如此,因為我們需要更多的人來設(shè)計機器、維護機器和制造其他機器。那些以前做低薪工作的人換了別的工作,但是沒有大規(guī)模的失業(yè)現(xiàn)象出現(xiàn)。
我傾向于認為,這種情況也不會發(fā)生在AI崛起上。我們將看到更多新的工作領(lǐng)域。它們會有所不同,但機器將取代我們從事最普通的工作,而人類我們再也不需要做這些工作了。
問:在這種情況下,你所相信的可能與游戲中所發(fā)生的有所不同。
凱奇:在游戲中,我很有興趣提出這一點。我想:“我們來試試這個想法。”老實說,這也是一個合理的設(shè)想。沒人能肯定。但我想象了相反的情況,即會有人失業(yè),我感興趣的是其帶來的社會影響,富人會有工作,但也有機器人為他們服務(wù),而窮人會失去工作,買不起機器人。技術(shù)將創(chuàng)造兩類人——受益于技術(shù)的人和因技術(shù)而受苦的人。這是另一個場景。
問:我認為整個游戲最終都很好地表達了人們應(yīng)該思考的AI問題。
凱奇:希望如此。我想讓游戲成為我思考的素材,我對這些問題也沒有任何答案。它們非常復雜,人們正花費一生的時間來研究和預(yù)測將要發(fā)生的事情。我不會假裝能給出答案,但我?guī)Я藥讉€問題。這很有趣。有些人看到了,但大多數(shù)人沒有。大多數(shù)人只是看了一個關(guān)于機器人的故事,但是有些人在游戲中看到了有趣的問題。
問:我很感興趣的是,有人可以創(chuàng)造一個不僅僅是終結(jié)者的AI故事,對吧?真正的科學家和研究人員更有可能對此不屑一顧,認為這是不可信的。像這樣的事情,你必須考慮其隱含意義。
凱奇:說實話,對我來說,《底特律:成為人類》更多的是一個關(guān)于我們自己的故事,關(guān)于人類的故事,而不是關(guān)于機器的故事。它提出了許多問題,關(guān)于我們對技術(shù)的依賴,以及我們?nèi)绾慰创覀兊奈磥恚覀兿牒瓦@個社會一起走向何方。不僅僅是AI的未來。但這很有趣,因為AI激發(fā)了關(guān)于我們自己的問題。
總結(jié)
以上是生活随笔為你收集整理的游戏大师谈AI “终结者”式未来绝非空想的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 小米集团拟发行80亿元人民币疫情防控熊猫
- 下一篇: 文石BOOX发布7.8英寸手写电纸书No