訂閱
糾錯(cuò)
加入自媒體

是否有可能,為AI加上安全鎖?

二、檢察官

無論是歧視還是錯(cuò)誤的機(jī)器直覺,在本質(zhì)上都可歸因于深度學(xué)習(xí)的黑箱性。那么是不是有方法可以去透視黑箱,讓人類研發(fā)者找到問題AI的出錯(cuò)點(diǎn),從而去修正而不是魯莽地中斷它呢?

事實(shí)上,解決黑箱才是AI安全領(lǐng)域與應(yīng)用場(chǎng)景的主要努力方向。我們今天已經(jīng)可以看到越來越多的黑箱解釋工具出現(xiàn)在科研甚至產(chǎn)業(yè)領(lǐng)域。

今天解釋黑箱的主要方式有兩種,一種是用AI來檢索AI,比如利用注意力機(jī)制,訓(xùn)練一個(gè)神經(jīng)網(wǎng)絡(luò)模型專門去復(fù)制追蹤其他AI模型的運(yùn)行軌跡,從而找出錯(cuò)誤訓(xùn)練結(jié)果的訓(xùn)練來源,幫助研發(fā)者進(jìn)行修正。

另一個(gè)思路是通過一些工具,達(dá)成深度學(xué)習(xí)模型的結(jié)構(gòu)可視化,也就是說讓黑箱變成玻璃箱。從而當(dāng)AI出錯(cuò),研發(fā)人員可以相對(duì)簡(jiǎn)單的自行查詢每一層的訓(xùn)練過程,找到問題所在。

然而無論是AI檢察官,還是人類檢察官,今天這些黑箱可解釋性技術(shù)普遍都只能應(yīng)對(duì)不那么復(fù)雜的深度學(xué)習(xí)模型。而且普遍需要大量人工來參與其中,又把人工智能變成了“人工+智能”,而且所耗費(fèi)的人力必須具備相當(dāng)?shù)募夹g(shù)水準(zhǔn)。

、道德家

無論從何種方向上看,阻止AI作惡在今天都不僅僅是一個(gè)技術(shù)問題。比如訓(xùn)練數(shù)據(jù)的三觀夠不夠正,很多程度取決于開發(fā)者的三觀;再比如能否克制對(duì)開發(fā)AI武器、AI監(jiān)視工具的渴望,應(yīng)該是一個(gè)社會(huì)與國(guó)際責(zé)任的問題;而很多AI歧視問題,出自于背后開發(fā)者希望提高商業(yè)效率的目的,這也是個(gè)道德問題。

為了預(yù)防這些問題泛濫,AI的安全鎖顯然不僅應(yīng)該是一把技術(shù)之鎖,而應(yīng)該引入廣泛的社會(huì)機(jī)制。今年2月,OpenAI、牛津大學(xué)、劍橋大學(xué)等14家機(jī)構(gòu)和高校發(fā)布了一份名為《人工智能惡意使用》的研究報(bào)告。報(bào)告指出,應(yīng)該承認(rèn)今天人工智能的研究成果是一把雙刃劍。而為了控制人工智能帶來的風(fēng)險(xiǎn),政策制定者應(yīng)該與技術(shù)人員密切合作,調(diào)查、預(yù)防和緩解人工智能可能的惡意使用方式。并且應(yīng)該在人工智能領(lǐng)域優(yōu)先形成規(guī)范和道德框架;討論這些人工智能挑戰(zhàn)時(shí)所涵蓋的利益相關(guān)者和專家范圍應(yīng)該擴(kuò)大。

防止AI的惡意問題,應(yīng)該從技術(shù)、法律、道德、研究習(xí)慣等領(lǐng)域進(jìn)行綜合防治,這已經(jīng)成為了一個(gè)國(guó)際社會(huì)共識(shí)。但是顯然這把鎖看上去最簡(jiǎn)單,實(shí)際鑄造起來的難度高到無法想象。

無論是“斷電”、大檢查還是社會(huì)共同監(jiān)督,這些AI安全鎖的背后,都隱藏著在AI倫理問題面前,今天人類共有的彷徨:人性的本質(zhì)是矛盾的,但我們卻想要模仿人類的AI具備統(tǒng)一規(guī)則。

可是,誰來?yè)?dān)保安全鎖的清白?

無論任何AI安全保護(hù)措施,歸根結(jié)底就是一句話:希望AI能明辨善惡,善則從之,惡則止矣。

而這談何容易?在AI需要越來越多人類社會(huì)產(chǎn)出的訓(xùn)練數(shù)據(jù)時(shí),人類的種種價(jià)值判斷也映射其中。一些人類社會(huì)中的倫理障礙也不免裹挾進(jìn)了AI的世界。

比如說,我們已經(jīng)開始探索,能不能讓AI系統(tǒng)在其他AI犯錯(cuò)時(shí)終止它的行為。但這就涉及什么才是錯(cuò)誤AI行為的定義邊界問題。誰來標(biāo)注錯(cuò)誤行為呢?

我們都知道,谷歌AI曾經(jīng)把黑人識(shí)別成猩猩,這顯然是一種歧視行為。但如果AI判斷應(yīng)該在某個(gè)治安不好的街區(qū)加強(qiáng)警力部署,那這是不是也是一種歧視,應(yīng)該被終端呢?這個(gè)問題確實(shí)已經(jīng)在洛杉磯警察局所使用的系統(tǒng)中展現(xiàn)了出來,在加州當(dāng)?shù)匾l(fā)了激烈爭(zhēng)論。

更進(jìn)一步,國(guó)家間的AI規(guī)則是否應(yīng)該一致?今天越來越多的AI公司與國(guó)際產(chǎn)業(yè)組織,甚至政府組織開始呼吁重視AI的倫理道德問題,制定國(guó)際統(tǒng)一的AI道德規(guī)范。但統(tǒng)一的AI規(guī)范會(huì)不會(huì)侵犯某些國(guó)家的風(fēng)俗與習(xí)慣?是不是會(huì)對(duì)一些國(guó)家地區(qū)的AI研究造成阻礙?比如說歐盟的AI研究隱私保護(hù)政策真的適合全世界嗎?

這些AI倫理層面近乎悖論的問題,是一切AI安全鎖技術(shù)與產(chǎn)業(yè)行為面對(duì)的最深處敵人。甚至向更長(zhǎng)遠(yuǎn)的未來看去,人類的行為判斷真的就比AI好嗎?某些時(shí)候,用技術(shù)來中斷不可預(yù)測(cè)的機(jī)器學(xué)習(xí)行為,是否其實(shí)展露著人類的無知?或者終止了用技術(shù)創(chuàng)造技術(shù)的全新可能?

好吧,這些問題在今天都沒有什么真正的答案。這也意味著,今天想要給AI戴上一把嚴(yán)格意義上的安全鎖,還是一個(gè)不可能的任務(wù)。然而破解AI黑箱性和AI自我監(jiān)督的技術(shù)進(jìn)展,確實(shí)正在讓AI應(yīng)用的安全指數(shù)快速提升。很多今天浮現(xiàn)在媒體中的AI安全問題,應(yīng)該都可以被快速解決掉。

問題和解決方案,永遠(yuǎn)是交替往復(fù)的狀態(tài)向前奔跑。

最后讓我們“科幻”一下來結(jié)束這個(gè)話題。

文 / 腦極體

<上一頁(yè)  1  2  
聲明: 本文系OFweek根據(jù)授權(quán)轉(zhuǎn)載自其它媒體或授權(quán)刊載,目的在于信息傳遞,并不代表本站贊同其觀點(diǎn)和對(duì)其真實(shí)性負(fù)責(zé),如有新聞稿件和圖片作品的內(nèi)容、版權(quán)以及其它問題的,請(qǐng)聯(lián)系我們。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評(píng)論

暫無評(píng)論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號(hào)
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯(cuò)
x
*文字標(biāo)題:
*糾錯(cuò)內(nèi)容:
聯(lián)系郵箱:
*驗(yàn) 證 碼:

粵公網(wǎng)安備 44030502002758號(hào)