当人与AI共生,谁为意外负责?
人機若“合二為一”,我們該如何究責,如何改善?
文/狼顧
來源:神經(jīng)現(xiàn)實(ID:neureality)
科技大佬馬斯克曾口出“狂言”,表露他創(chuàng)建腦機接口(BCI)公司 Neuralink 的野心是“讓人與 AI 共生,達到超級智能”。這看起來像是《攻殼機動隊》和《黑客帝國》里才會出現(xiàn)的場景,但是 BCI 發(fā)展迅速,植入式設備現(xiàn)已能讓癱瘓人士控制義肢,非植入式的意念鼠標、耳機也初具商業(yè)雛形。智能手機的出現(xiàn)也不過短短二十幾年,誰都不能保證現(xiàn)在的 90 后、00 后就不會在有生之年看到人與 AI“喜結(jié)連理”。在這之前,通過 BCI,讓 AI 輔助人類生產(chǎn)生活,就好像結(jié)婚前的戀愛一樣,是必經(jīng)的磨合階段。使用 BCI 與 AI 相連,你只需發(fā)出少量的指令,即可完成駕駛、工業(yè)操作等復雜任務,這可能是未來人的日常。
—Illustrationby Alex Castro / Th
但是,AI 能否成為“賢內(nèi)助”,還要先面臨拷問:假如在人類使用 BCI 與 AI 合作中出現(xiàn)了事故,責任到底是該人類,還是 AI(或其開發(fā)者)來負呢?
現(xiàn)有的人機交互界面中,人、機是物理上分離的,使用者和 AI 進行的指令操作可以通過空間、時間的間隔進行切割,因此區(qū)分人類、AI 的失誤,歸責相對容易;但當引入了 BCI 這個第三者,貴圈就亂了。這一切還得從 BCI 的性質(zhì)說起。
BCI 是腦與外部設備的橋梁,大腦可以通過電極等裝置與機器、計算機中的 AI 交流。外部設備除了接受大腦信號以外,也可以反向?qū)Υ竽X進行一定刺激。這可能會導致使用者模糊人機之間的界限,分不清通過 BCI 做出的行動究竟是源自自身意志,還是 AI 的影響。在一項 2016 年的研究中,一名接受深度腦刺激(DBS)治療抑郁癥的患者就曾報告說他懷疑自己的行為方式受到了裝置刺激的影響,而非完全出自個人意志。未來隨著人機之間信號傳輸率上升、延遲性減少、控制和反饋的復雜性增加,這樣的影響可能會加深。
在人類使用 BCI 與 AI 協(xié)同操作機器時,機器接收的指令可能來自于雙方。當它執(zhí)行了導致事故的錯誤行動時,不同于傳統(tǒng)的人機交互,由于人機間的緊密聯(lián)系,就可能難以區(qū)分導致該行動的指令來源。就算能追蹤每一條信號的來源,問題仍然存在:使用 BCI 的方式本身就可能影響人類的大腦,不妨理解為在做決定的過程中,AI 一直在給你吹枕邊風。如果無法分離二者的主動性和行動,又該如何區(qū)分責任呢?這可能就需要借助哲學上的能動性(Agency)概念了。
主要/次要行動者理論
想象一下,你開著新款智能車過年回家,如果選擇手動駕駛,掌握方向盤的你此時就是一名行動者(Agent)。你根據(jù)肉眼所見的道路狀況,在腦中計劃出接下來的行動,通過轉(zhuǎn)動方向盤的方式使車輛朝目的地行駛,就是哲學上能動性的體現(xiàn)。
能動性是指某一實體對外界或內(nèi)部刺激做出的反應。不同于簡單做出行為,行動者的能動性表現(xiàn)出目的性和計劃性。同理,假如你開車途中,突然很想跟家人在線視個頻——道路千萬條,安全第一條,此時就要選擇無人駕駛模式,將對車輛的操控權交給 AI。AI 根據(jù)攝像頭反饋的道路狀況進行路線規(guī)劃后,操縱車輛按目標路線行駛,也是其能動性的體現(xiàn)。
然而在使用 BCI 輔助駕駛時,能動性很難在二者之間界定。這是因為人和 AI 對車輛進行共同控制,無法通過直接觀察車輛的動作,回溯二者發(fā)出的行動指令,并對其簡單分離。假如在這種情況下出現(xiàn)交通事故,將很難進行責任界定。
為解決這一難題,慕尼黑大學醫(yī)史研究所的研究員安德烈亞斯·沃肯斯坦(Andreas Wolkenstein)提出,不用由下至上追蹤每一條指令的路徑,而是由上至下,從“能做出的行動”入手,區(qū)分主要和次要行動者(primary and secondary agents)。兩者均不要求具有自由意志,其區(qū)別僅在于具有不同程度的能力:(1)有能力起始、同意和終止行動;(2)在行動過程中,能夠獨立接管和調(diào)整復雜的行動步驟。主要行動者的行動自由度更大,有能力根據(jù)計劃和感知到的環(huán)境因素做出判斷,調(diào)整選擇;而次要行動者只能在前者允許的范圍內(nèi)采取行動。
假設你駕駛著智能車去接女神下班,通過 BCI 授權車載 AI 按路線行駛。在你啟動汽車后,由于 AI 只能按照你所想的路線,讓汽車執(zhí)行有限的轉(zhuǎn)向、直行等動作,此時你是主要行動者,而 AI 是次要行動者。
現(xiàn)在你從后視鏡發(fā)現(xiàn)情敵追上來了,怎么能讓他超過你?于是你把車輛切換到手動駕駛,正想化身秋名山車神時,卻被 AI 強行阻止了。原來它的系統(tǒng)里設置有安全限速程序,并且監(jiān)測到了你想超速的危險想法。由于你只能做出 AI 允許的安全駕駛操作,任何超速的舉動都會被 AI 禁止,此刻,AI 升級為主要行動者,行動受限的你只能退居次要了。
考慮能動性可以幫助我們更好地分解行動。當一項最終的行動釀成事故時,就可以根據(jù)發(fā)生時刻的主要/次要行動者關系——包括這項行動的發(fā)起者是誰,誰又應當“考核”這個行動——來確定因果關系。這有助于將行動及其造成的后果與責任聯(lián)系起來。
確定行動-行動后果后,就可以前進至后果-責任追究了。法律上要求追究責任的對象需要具有主體資格,同時還需要具有主觀過錯,包括故意和過失。雖然 AI 已經(jīng)越來越多地展現(xiàn)出智能行為,但目前法律上仍未賦予其主體資格;同時其也還未達到具有自由意志的程度,故也不存在主觀過錯。
既然如此,當行動后果歸于 AI 時,其最終產(chǎn)生的責任就只能由背后的自然人或法人來承擔。那么,使用者從開發(fā)者處購買 BCI 裝置,通過 BCI 與 AI 協(xié)作完成任務,使用中出現(xiàn)事故時,責任就將根據(jù)行動者-能動性-行動-直接后果-責任的對應,在消費者、BCI 和 AI 的開發(fā)者中進行分配。
問題展望
但即使我們能夠?qū)⑿袆优c后果一一對應起來,事情的復雜程度仍在其之上。除了故意造成的外,責任還包括過失責任,即應當預見危害卻沒有預見,或是已預見但相信會避免。
那么,對于科技公司為代表的開發(fā)者來說,這種“應當預見”的危害包括哪些呢?同時還有使用者與 AI 之間的授權關系,例如使用者授權 AI 自動駕駛出了交通事故,使用者作為授權者,是否具有一定的監(jiān)督責任?還是應當推定其對 AI 具有百分百的信任,從而可以減少責任?未來實際案例的復雜程度可能遠超我們的想象。
即使上述問題都可以順利解決,隨著科技的發(fā)展,另一個問題不可避免:是否賦予強 AI 一定的主體資格,讓它自身也能承擔一部分責任?例如,2016 年谷歌無人駕駛汽車與一輛大巴發(fā)生擦碰事故時,美國高速公路安全管理局(NHTSA)就認為控制汽車的 AI 可以被視為“司機”。現(xiàn)在進一步考慮何種智能程度的 AI 可以獲得主體資格,又能獲得什么程度的主體資格——唯可嘆路漫漫其修遠兮。
法律的發(fā)展固然有其滯后性,尤其是科技迅猛發(fā)展的今天;但盡可預見之力對科技風險提前做出的思量,大概就是人類向前方斬開荊棘之路時,那把達摩克里斯之劍的劍鞘吧。
參考文獻
【1】WolkensteinA. Brain-Computer Interfaces: Agency and the Transition from Ethics to Politics[C]//International Conference on Human-Computer Interaction. Springer, Cham, 2017: 103-118.
【2】Klein E, Goering S, Gagne J, et al. Brain-computer interface-based control of closed-loop brain stimulation: attitudes and ethical considerations[J]. Brain-Computer Interfaces, 2016, 3(3): 140-148.
【3】YusteR, Goering S, Bi G, et al. Four ethical priorities forneurotechnologiesand AI[J]. Nature News, 2017, 551(7679): 159.
總結(jié)
以上是生活随笔為你收集整理的当人与AI共生,谁为意外负责?的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 求一个4个字的游戏名字霸气
- 下一篇: 这个作者骗过了盗版小说网站,狠狠地薅了一