清華新聞網(wǎng)5月22日電 人工智能正在飛速進(jìn)步,全球業(yè)界正大力投入生成式人工智能,讓系統(tǒng)能夠自主行動(dòng)以實(shí)現(xiàn)目標(biāo)。隨著能力及自主性的提升,人工智能的威力可能突飛猛進(jìn),也帶來(lái)包括危害社會(huì)、惡意濫用、超脫人類(lèi)管控等種種危機(jī)。雖然學(xué)者們已發(fā)聲提出警告,但他們對(duì)于該如何管控危機(jī)仍缺乏共識(shí)。
5月20日,由三位圖靈獎(jiǎng)得主約書(shū)亞·本吉奧(Yoshua Bengio)、杰佛瑞·辛頓(Geoffrey Hinton)、姚期智(Andrew Yao)領(lǐng)銜,連同多位專(zhuān)家,包括經(jīng)濟(jì)學(xué)諾獎(jiǎng)得主丹尼爾·卡內(nèi)曼 (Daniel Kahneman) 以及清華大學(xué)教授張亞勤、薛瀾等共同著作的文章“人工智能飛速進(jìn)步時(shí)代的風(fēng)險(xiǎn)管理”(Managing extreme AI risks amid rapid progress)發(fā)表于美國(guó)《科學(xué)》(Science)雜志。
文章概述了一個(gè)整體的規(guī)劃:從加強(qiáng)科技研發(fā)與主動(dòng)靈活的治理機(jī)制雙管齊下,并借鑒從其他苛求安全的科技中汲取到的經(jīng)驗(yàn),力求做出充足的準(zhǔn)備。
文章指出,人類(lèi)正在投入大量資源來(lái)使人工智能系統(tǒng)變得更強(qiáng)大,但在安全性和減輕危害方面卻投入得遠(yuǎn)遠(yuǎn)不夠。雖然當(dāng)前人工智能系統(tǒng)的自主性仍然有限,但重大突破可能隨時(shí)發(fā)生,將令人措手不及。為了讓人工智能成為一種福祉,應(yīng)該重新定向:要能預(yù)見(jiàn)到新興風(fēng)險(xiǎn)的擴(kuò)大,并在巨大風(fēng)險(xiǎn)發(fā)生前就做好準(zhǔn)備,包括在技術(shù)研發(fā)與監(jiān)控治理兩方面。
文中提出管控人工智能安全的一些新思路及措施。首先,慣常的“無(wú)害假設(shè)”需要及時(shí)調(diào)整。對(duì)極高端新系統(tǒng)的風(fēng)險(xiǎn)評(píng)估,不能等到系統(tǒng)發(fā)布前夕,必須在研發(fā)過(guò)程中同步進(jìn)行(白盒子而非黑盒子)。文章作者認(rèn)為,可以借鑒醫(yī)藥、航天、核電、金融等領(lǐng)域的管控經(jīng)驗(yàn),為人工智能設(shè)立風(fēng)險(xiǎn)管理的最佳實(shí)踐(best practice)指南。人工智能系統(tǒng)開(kāi)發(fā)者在研發(fā)過(guò)程中,當(dāng)按照管理指南定時(shí)進(jìn)行自我評(píng)估,詳細(xì)記錄相關(guān)風(fēng)險(xiǎn)分析,并同意接受現(xiàn)場(chǎng)審核。
治理機(jī)制需要與系統(tǒng)風(fēng)險(xiǎn)大小相匹配。應(yīng)該保護(hù)低風(fēng)險(xiǎn)應(yīng)用和學(xué)術(shù)研究,無(wú)需設(shè)置過(guò)度的官僚障礙。最緊迫的審查應(yīng)關(guān)注前沿人工智能系統(tǒng)。少數(shù)最強(qiáng)大的人工智能系統(tǒng)——在價(jià)值數(shù)十億美元的超級(jí)計(jì)算機(jī)上訓(xùn)練出的——可能最具危險(xiǎn)性且不可預(yù)測(cè),甚至規(guī)避人類(lèi)控制的能力。
文章還指出,許多監(jiān)管及立法工作,需要政府連同專(zhuān)家們立即展開(kāi)。在法規(guī)出臺(tái)之前,可先要求人工智能企業(yè)做出詳細(xì)承諾(if-then commitments),自行設(shè)下紅線(xiàn)以及危機(jī)處理辦法。本文通訊作者為劍橋大學(xué)博士候選人揚(yáng)·布勞納(Jan Brauner)。
論文鏈接:
https://www.science.org/doi/10.1126/science.adn0117
供稿:交叉信息研究院
編輯:李華山
審核:郭玲