是否有可能,為AI加上安全鎖?
二、檢察官
無論是歧視還是錯(cuò)誤的機(jī)器直覺,在本質(zhì)上都可歸因于深度學(xué)習(xí)的黑箱性。那么是不是有方法可以去透視黑箱,讓人類研發(fā)者找到問題AI的出錯(cuò)點(diǎn),從而去修正而不是魯莽地中斷它呢?
事實(shí)上,解決黑箱才是AI安全領(lǐng)域與應(yīng)用場(chǎng)景的主要努力方向。我們今天已經(jīng)可以看到越來越多的黑箱解釋工具出現(xiàn)在科研甚至產(chǎn)業(yè)領(lǐng)域。
今天解釋黑箱的主要方式有兩種,一種是用AI來檢索AI,比如利用注意力機(jī)制,訓(xùn)練一個(gè)神經(jīng)網(wǎng)絡(luò)模型專門去復(fù)制追蹤其他AI模型的運(yùn)行軌跡,從而找出錯(cuò)誤訓(xùn)練結(jié)果的訓(xùn)練來源,幫助研發(fā)者進(jìn)行修正。
另一個(gè)思路是通過一些工具,達(dá)成深度學(xué)習(xí)模型的結(jié)構(gòu)可視化,也就是說讓黑箱變成玻璃箱。從而當(dāng)AI出錯(cuò),研發(fā)人員可以相對(duì)簡(jiǎn)單的自行查詢每一層的訓(xùn)練過程,找到問題所在。
然而無論是AI檢察官,還是人類檢察官,今天這些黑箱可解釋性技術(shù)普遍都只能應(yīng)對(duì)不那么復(fù)雜的深度學(xué)習(xí)模型。而且普遍需要大量人工來參與其中,又把人工智能變成了“人工+智能”,而且所耗費(fèi)的人力必須具備相當(dāng)?shù)募夹g(shù)水準(zhǔn)。
三、道德家
無論從何種方向上看,阻止AI作惡在今天都不僅僅是一個(gè)技術(shù)問題。比如訓(xùn)練數(shù)據(jù)的三觀夠不夠正,很多程度取決于開發(fā)者的三觀;再比如能否克制對(duì)開發(fā)AI武器、AI監(jiān)視工具的渴望,應(yīng)該是一個(gè)社會(huì)與國(guó)際責(zé)任的問題;而很多AI歧視問題,出自于背后開發(fā)者希望提高商業(yè)效率的目的,這也是個(gè)道德問題。
為了預(yù)防這些問題泛濫,AI的安全鎖顯然不僅應(yīng)該是一把技術(shù)之鎖,而應(yīng)該引入廣泛的社會(huì)機(jī)制。今年2月,OpenAI、牛津大學(xué)、劍橋大學(xué)等14家機(jī)構(gòu)和高校發(fā)布了一份名為《人工智能惡意使用》的研究報(bào)告。報(bào)告指出,應(yīng)該承認(rèn)今天人工智能的研究成果是一把雙刃劍。而為了控制人工智能帶來的風(fēng)險(xiǎn),政策制定者應(yīng)該與技術(shù)人員密切合作,調(diào)查、預(yù)防和緩解人工智能可能的惡意使用方式。并且應(yīng)該在人工智能領(lǐng)域優(yōu)先形成規(guī)范和道德框架;討論這些人工智能挑戰(zhàn)時(shí)所涵蓋的利益相關(guān)者和專家范圍應(yīng)該擴(kuò)大。
防止AI的惡意問題,應(yīng)該從技術(shù)、法律、道德、研究習(xí)慣等領(lǐng)域進(jìn)行綜合防治,這已經(jīng)成為了一個(gè)國(guó)際社會(huì)共識(shí)。但是顯然這把鎖看上去最簡(jiǎn)單,實(shí)際鑄造起來的難度高到無法想象。
無論是“斷電”、大檢查還是社會(huì)共同監(jiān)督,這些AI安全鎖的背后,都隱藏著在AI倫理問題面前,今天人類共有的彷徨:人性的本質(zhì)是矛盾的,但我們卻想要模仿人類的AI具備統(tǒng)一規(guī)則。
可是,誰來?yè)?dān)保安全鎖的清白?
無論任何AI安全保護(hù)措施,歸根結(jié)底就是一句話:希望AI能明辨善惡,善則從之,惡則止矣。
而這談何容易?在AI需要越來越多人類社會(huì)產(chǎn)出的訓(xùn)練數(shù)據(jù)時(shí),人類的種種價(jià)值判斷也映射其中。一些人類社會(huì)中的倫理障礙也不免裹挾進(jìn)了AI的世界。
比如說,我們已經(jīng)開始探索,能不能讓AI系統(tǒng)在其他AI犯錯(cuò)時(shí)終止它的行為。但這就涉及什么才是錯(cuò)誤AI行為的定義邊界問題。誰來標(biāo)注錯(cuò)誤行為呢?
我們都知道,谷歌AI曾經(jīng)把黑人識(shí)別成猩猩,這顯然是一種歧視行為。但如果AI判斷應(yīng)該在某個(gè)治安不好的街區(qū)加強(qiáng)警力部署,那這是不是也是一種歧視,應(yīng)該被終端呢?這個(gè)問題確實(shí)已經(jīng)在洛杉磯警察局所使用的系統(tǒng)中展現(xiàn)了出來,在加州當(dāng)?shù)匾l(fā)了激烈爭(zhēng)論。
更進(jìn)一步,國(guó)家間的AI規(guī)則是否應(yīng)該一致?今天越來越多的AI公司與國(guó)際產(chǎn)業(yè)組織,甚至政府組織開始呼吁重視AI的倫理道德問題,制定國(guó)際統(tǒng)一的AI道德規(guī)范。但統(tǒng)一的AI規(guī)范會(huì)不會(huì)侵犯某些國(guó)家的風(fēng)俗與習(xí)慣?是不是會(huì)對(duì)一些國(guó)家地區(qū)的AI研究造成阻礙?比如說歐盟的AI研究隱私保護(hù)政策真的適合全世界嗎?
這些AI倫理層面近乎悖論的問題,是一切AI安全鎖技術(shù)與產(chǎn)業(yè)行為面對(duì)的最深處敵人。甚至向更長(zhǎng)遠(yuǎn)的未來看去,人類的行為判斷真的就比AI好嗎?某些時(shí)候,用技術(shù)來中斷不可預(yù)測(cè)的機(jī)器學(xué)習(xí)行為,是否其實(shí)展露著人類的無知?或者終止了用技術(shù)創(chuàng)造技術(shù)的全新可能?
好吧,這些問題在今天都沒有什么真正的答案。這也意味著,今天想要給AI戴上一把嚴(yán)格意義上的安全鎖,還是一個(gè)不可能的任務(wù)。然而破解AI黑箱性和AI自我監(jiān)督的技術(shù)進(jìn)展,確實(shí)正在讓AI應(yīng)用的安全指數(shù)快速提升。很多今天浮現(xiàn)在媒體中的AI安全問題,應(yīng)該都可以被快速解決掉。
問題和解決方案,永遠(yuǎn)是交替往復(fù)的狀態(tài)向前奔跑。
最后讓我們“科幻”一下來結(jié)束這個(gè)話題。
文 / 腦極體
發(fā)表評(píng)論
請(qǐng)輸入評(píng)論內(nèi)容...
請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字
最新活動(dòng)更多
-
即日-10.29立即報(bào)名>> 2024德州儀器嵌入式技術(shù)創(chuàng)新發(fā)展研討會(huì)
-
10月31日立即下載>> 【限時(shí)免費(fèi)下載】TE暖通空調(diào)系統(tǒng)高效可靠的組件解決方案
-
即日-11.13立即報(bào)名>>> 【在線會(huì)議】多物理場(chǎng)仿真助跑新能源汽車
-
11月14日立即報(bào)名>> 2024工程師系列—工業(yè)電子技術(shù)在線會(huì)議
-
12月19日立即報(bào)名>> 【線下會(huì)議】OFweek 2024(第九屆)物聯(lián)網(wǎng)產(chǎn)業(yè)大會(huì)
-
即日-12.26火熱報(bào)名中>> OFweek2024中國(guó)智造CIO在線峰會(huì)
推薦專題
-
10 百度搜索,正在被平替
- 1 Intel宣布40年來最重大轉(zhuǎn)型:年底前裁員15000人、拋掉2/3房產(chǎn)
- 2 因美封殺TikTok,字節(jié)股價(jià)骨折!估值僅Meta1/5
- 3 宏山激光重磅發(fā)布行業(yè)解決方案,助力智能制造產(chǎn)業(yè)新飛躍
- 4 國(guó)產(chǎn)AI芯片公司破產(chǎn)!白菜價(jià)拍賣
- 5 具身智能火了,但規(guī)模落地還需時(shí)間
- 6 三次錯(cuò)失風(fēng)口!OpenAI前員工殺回AI編程賽道,老東家捧金相助
- 7 國(guó)產(chǎn)英偉達(dá)們,抓緊沖刺A股
- 8 英特爾賦能智慧醫(yī)療,共創(chuàng)數(shù)字化未來
- 9 英偉達(dá)的麻煩在后頭?
- 10 將“網(wǎng)紅”變成“商品”,AI“爆改”實(shí)力拉滿
- 高級(jí)軟件工程師 廣東省/深圳市
- 自動(dòng)化高級(jí)工程師 廣東省/深圳市
- 光器件研發(fā)工程師 福建省/福州市
- 銷售總監(jiān)(光器件) 北京市/海淀區(qū)
- 激光器高級(jí)銷售經(jīng)理 上海市/虹口區(qū)
- 光器件物理工程師 北京市/海淀區(qū)
- 激光研發(fā)工程師 北京市/昌平區(qū)
- 技術(shù)專家 廣東省/江門市
- 封裝工程師 北京市/海淀區(qū)
- 結(jié)構(gòu)工程師 廣東省/深圳市