通向AGI的规划和展望 - Sam Altman ,the CEO of OpenAI
我們OpenAI的使命是確保AGI(通用人工智能) - 一種智能程度普遍高于人類的AI系統(tǒng)可以造福于全人類。如果我們成功創(chuàng)建了AGI,這項技術(shù)可以豐富我們的生活、推動全球經(jīng)濟發(fā)展,幫助我們發(fā)現(xiàn)能改變?nèi)祟惸壳八芟薜男录夹g(shù),提升全人類的幸福。
AGI有很大的潛力,可以賦予每個人令人難以置信的新能力;我們可以想象一個世界,在這個世界中,我們所有人都可以從AGI那里獲得任何你想做的任務(wù)的幫助,包括現(xiàn)在人工智能不太行的認知任務(wù)(現(xiàn)在的人工智能在感知任務(wù)上的表現(xiàn)更為出色),減少我們很多的工作量,為人類的聰明才智和創(chuàng)造力提供更廣闊的空間。
另一方面,不得不承認,伴隨AGI而來的,會存在嚴(yán)重的濫用AGI、AGI造成錯誤事故,以及造成一些社會層面恐慌混亂的風(fēng)險。雖然AGI的優(yōu)勢如此之大,相對的風(fēng)險也如此大,但我們不認為社會會因?qū)ζ淠芰Φ目謶侄柚顾陌l(fā)展,相反,社會和AGI的開發(fā)者應(yīng)該想辦法把AGI做得更好。雖然我們無法預(yù)測將來具體會發(fā)生什么,而且我們目前的項目進展也會遇到一些障礙,但我們只需要關(guān)注一些關(guān)鍵問題,我們將最關(guān)心的三個AGI原則總結(jié)如下:
1.我們希望借助AGI的能力,使人類在所生存的這個宇宙中實現(xiàn)最大化的繁榮發(fā)展。我們不指望未來是一個毫無保留全部托出的烏托邦,但我們想要最大限度地利用AGI的優(yōu)勢,降低它的負面影響,并使AGI成為人類發(fā)展的助推器;
2.我們希望AGI的益處、利用和治理能夠被廣泛而公正地分享;
3.我們希望成功地應(yīng)對AGI帶來巨大的風(fēng)險。在面對這些風(fēng)險時,我們承認理論上看似正確的事情在實踐中可能會出現(xiàn)一些奇怪的狀況。但我們相信,我們必須通過部署不那么強大的技術(shù)版本來不斷學(xué)習(xí)和適應(yīng),以便將“一次性成功”的風(fēng)險降到最低。
為了更充分的應(yīng)對AGI的到來而做好準(zhǔn)備,我們認為現(xiàn)在有幾件事情非常值得去做。
首先,隨著我們創(chuàng)建的系統(tǒng)越來越強大,我們希望能夠部署它們,并在現(xiàn)實世界中實踐如何更好使用它們,積累相關(guān)使用經(jīng)驗。我們認為這是謹慎地引導(dǎo)AGI的最佳方式,逐漸過渡到擁有AGI的世界比突然進入這樣的世界更好。強大的人工智能將使世界進步的速度大大加快,逐步適應(yīng)這種變化也是更好的選擇。
這種逐步過渡的方式可以給人們、政策制定者和機構(gòu)足夠的時間去了解正在發(fā)生的事情和變化,親身體驗這些AI系統(tǒng)的好處和弊端,以適應(yīng)我們的經(jīng)濟社會發(fā)展,并制定相應(yīng)的監(jiān)管措施。這也允許社會和人工智能共同進化,讓人們在風(fēng)險相對較低的情況下,對于未來真正所想要的,所追求的,有更清晰的思考和規(guī)劃。
在應(yīng)對AI系統(tǒng)部署所面臨的各種挑戰(zhàn)時,最佳方式無疑是通過快速學(xué)習(xí)和謹慎迭代,來構(gòu)建一個緊密的反饋循環(huán)。社會將面臨這些AI系統(tǒng)部署應(yīng)用的問題,例如,哪些是人工智能系統(tǒng)所允許的行為,如何解決AI系統(tǒng)偏見問題,如何處理人類的就業(yè)崗位流失問題等。最優(yōu)決策將取決于技術(shù)的發(fā)展路徑,像任何新興領(lǐng)域一樣,大多數(shù)專家的預(yù)測到目前為止都是錯誤的。這使得在我們在提前對項目做出詳細規(guī)劃變得非常困難,因為不得不考慮未來外部變量的變化,會影響我們一開始的設(shè)想。
一般來說,我們認為在世界范圍內(nèi)更廣泛的使用人工智能將會帶來巨大益處,并希望推廣和促進它的使用(通過將模型放入我們的API、開放源代碼等)。我們相信民主化的訪問也將產(chǎn)生更多更棒的研究,更分散的權(quán)力(沒有將算法權(quán)利集中在少數(shù)人中),更多的AI應(yīng)用帶來的增益,以及讓更多的人貢獻自己對此的新想法。
隨著我們的系統(tǒng)越來越接近通用人工智能,我們對模型的創(chuàng)建和部署會變得越來越謹慎。我們的決策將需要比往常的新技術(shù)應(yīng)用部署有更高的謹慎,也會比許多用戶希望的更謹慎。雖然也有AI領(lǐng)域的觀點認為AGI(包括后繼系統(tǒng))的風(fēng)險是虛假的,如果他們最終是正確的,我們會對此感到高興,但我們?nèi)匀粫曪L(fēng)險存在去運作AI系統(tǒng)。
在某個時候,AI系統(tǒng)部署利弊之間的平衡(例如賦予惡意行為者權(quán)力,造成社會和經(jīng)濟混亂,加速不安全的競賽等)可能會發(fā)生變化,在這種情況下,我們將圍繞持續(xù)性迭代優(yōu)化改進部署目標(biāo),修正和改變我們之前的計劃。
其次,我們正在努力創(chuàng)建越來越和現(xiàn)實對齊,更為可控的模型。我們從第一版GPT-3模型轉(zhuǎn)向InstructGPT和ChatGPT模型就是一個踐行此目標(biāo)的例子。
我們尤其認為社會必須就AI的使用范圍達成廣泛共識,在這個范圍內(nèi),個體用戶應(yīng)具有很大的自主權(quán)。我們最終的希望是,全球機構(gòu)將就這些界限達成共識;在短期內(nèi),我們計劃進行外部輸入的實驗,不斷完善我們的AI使用界限規(guī)則。同時世界機構(gòu)也需要增強這方面的額外能力和經(jīng)驗,以便為AGI 的復(fù)雜決策的部署應(yīng)用做好相關(guān)的準(zhǔn)備。
雖然我們產(chǎn)品內(nèi)置的“默認設(shè)置”可能會一定范圍內(nèi)限制用戶使用發(fā)揮的空間,但我們計劃讓用戶更輕松地更改他們正在使用的AI的行為。我們相信這樣是對的,賦予每個人做出自己的決定的權(quán)力,尊重和鞏固多樣性的力量。
隨著我們的模型變得更加強大,我們需要開發(fā)新的對齊技術(shù)(以及測試來了解我們當(dāng)前的技術(shù)何時失效)。我們的短期計劃是使用AI幫助人類評估更復(fù)雜模型的輸出并監(jiān)控復(fù)雜系統(tǒng),并在長期內(nèi)使用AI幫助我們想出更好的技術(shù)對齊方案。
更重要的是,我們經(jīng)常認為需要同時取得AI在安全性和應(yīng)用性能上的協(xié)同發(fā)展。單獨談?wù)撍鼈兤渲兄豢赡苁且环N錯誤的二元論,它們在許多方面是彼此相關(guān)的。我們目前做得最好的安全工作,就是與我們最強的AI模型一起完成的。所以,調(diào)高安全進步與模型能力進步的比率也很重要。
最后,我們希望進行全球?qū)υ?#xff0c;探討三個關(guān)鍵問題:如何治理這些系統(tǒng),如何公平分配它們產(chǎn)生的利益以及如何公平的進行共享接入。
除了上述這三個問題,我們嘗試以一種使我們的激勵與正向結(jié)果相一致方式,來建立我們的公司治理結(jié)構(gòu)。我們在公司章程中有一條條款是關(guān)于協(xié)助其他組織推進安全性,而不是在后期階段的AGI開發(fā)與他們進行激烈競爭。我們設(shè)有一個股東回報上限,這樣我們就不會被激勵去追求無盡的利潤,從而冒險部署可能造成災(zāi)難性危險的AI系統(tǒng)(當(dāng)然這也是為了與社會進行分享利益的一種方式)。我們有一個非營利組織來管理我們,讓我們始終以人類的利益為導(dǎo)向而運營(并且可以置于任何營利利益之上),為了人類的安全需要,我們甚至可以做像取消股東的股權(quán)義務(wù)這樣的行為,我們當(dāng)然還會去贊助全球最廣泛的UBI(普遍基本收入)試驗。
同時我們也認為,向我們這樣的AI機構(gòu)在發(fā)布新系統(tǒng)之前接受獨立審計很重要,我們將在今年晚些時候詳細討論這個問題。在某個時候,在新的AI系統(tǒng)進行訓(xùn)練之前,很有必要進行獨立審查,對于目前最先進的AI系統(tǒng),我們也同意限制其用于創(chuàng)建新模型的計算資源增長率。我們認為,關(guān)于AGI的相關(guān)安全使用,包括應(yīng)該何時停止訓(xùn)練運行、決定釋放安全模型或從生產(chǎn)中撤回模型的這些決策,需要在公共標(biāo)準(zhǔn)的制定中進行體現(xiàn)。最后,我們認為政府的介入?yún)⑴c也很重要,世界上的一些主要政府應(yīng)該主動監(jiān)督關(guān)注,超過一定規(guī)模的大模型的訓(xùn)練運行可能產(chǎn)生的問題,對此需要培養(yǎng)并具備對此的風(fēng)險洞察力。
關(guān)于更遠的規(guī)劃,我們認為,人類的未來應(yīng)該由人類決定,并且分享我們的工作進展信息對于公眾來說是很重要的。所有嘗試構(gòu)建AGI的工作都應(yīng)該受到嚴(yán)格審查,并對重大決策進行公眾咨詢。
第一個實現(xiàn)的AGI將成為智能持續(xù)演進的起點。我們認為,從這個起點開始會持續(xù)的向前進步,并在相當(dāng)長的一段時間內(nèi)保持過去十年的發(fā)展速度。如果這個真的實現(xiàn),世界可能會變得非常不同,風(fēng)險也會變得很高。一個錯位的超級智能AGI可能會給世界帶來嚴(yán)重的傷害,一個擁有決定性超級智能領(lǐng)先地位的專制政權(quán)也同樣如此。
另外,能夠加速科學(xué)進展的人工智能是特別值得考慮的,因為這可能比其他一切都更具影響力。足以加速自身進展的AGI可能會引起重大變革的出現(xiàn),這可能發(fā)生得非常迅速(即使過渡開始比較緩慢,我們也預(yù)計在最后階段會變得非常迅速)。我們認為,一個更緩慢的啟動方式更容易保障安全,所以AGI的工作在關(guān)鍵時刻通過人類協(xié)調(diào)介入,使之減速就變得非常重要(即使在不需要介入?yún)f(xié)調(diào)問題的情況下,減速也可能很重要,因為要給社會足夠的時間來適應(yīng)這種變化)。
成功地過渡到具有超級智能的世界,可能是人類歷史上最重要、最令人充滿希望,也最令人恐懼的項目。這種成功還遠未得到保證,而其間的利害關(guān)系(無限的下行和無限的上行)卻可能將我們所有人團結(jié)起來。
我們可以想象人類能到達這樣一個世界,這個世界的繁榮可能對于我們中的任何人來說都無法完全想象。我們希望為世界做出貢獻,創(chuàng)造一個與創(chuàng)造這種繁榮相一致的AGI。
總結(jié)
以上是生活随笔為你收集整理的通向AGI的规划和展望 - Sam Altman ,the CEO of OpenAI的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 浙江省政务服务网云平台建设 (转)
- 下一篇: android 平台 apk提取神器