訂閱
糾錯(cuò)
加入自媒體

如何重塑智能化世界的信任、隱私和道德邊界?

當(dāng)各個(gè)行業(yè)部署人工智能技術(shù)時(shí),首先需要處理一些技術(shù)、倫理、可靠性和法規(guī)相關(guān)的挑戰(zhàn)。例如,在交通和汽車領(lǐng)域?qū)嵤?span id="8mcsqiq" class='hrefStyle'>人工智能時(shí),安全和保障是主要挑戰(zhàn)之一。本期文章將探討人工智能在道德倫理方面需克服的難題,目前,除了解決相關(guān)技術(shù)、算法問題,政府和監(jiān)管機(jī)構(gòu)也需預(yù)見關(guān)鍵的倫理和社會(huì)挑戰(zhàn),并開始制定新政策予以應(yīng)對(duì)。

本文編譯自國際電工委員會(huì)(IEC)于2019年3月發(fā)布的報(bào)告《人工智能將賦能哪些行業(yè)》,報(bào)告描述了人工智能當(dāng)前使用的主要系統(tǒng)、技術(shù)和算法,并指出了它們有助于解決哪些類型的問題以及面臨的主要挑戰(zhàn)。本文節(jié)選自第六章:人工智能的挑戰(zhàn)。

國際電工委員會(huì)(International Electrotechnical Commission)是世界上成立最早的國際性電工標(biāo)準(zhǔn)化機(jī)構(gòu),目前IEC的工作領(lǐng)域已由單純研究電氣設(shè)備等問題擴(kuò)展到通訊、視聽、機(jī)器人、信息技術(shù)、新型醫(yī)療器械和儀表等各個(gè)方面。

【算力觀點(diǎn)】

機(jī)器學(xué)習(xí)的自動(dòng)化決策依賴于合作伙伴間的信賴和數(shù)據(jù)質(zhì)量的保障。糟糕的數(shù)據(jù)質(zhì)量、甚至惡意的操作,都可能導(dǎo)致毫無價(jià)值的結(jié)果,甚至對(duì)算法的用戶產(chǎn)生負(fù)面影響。

人工智能的一大倫理挑戰(zhàn)是,當(dāng)面臨道德困境時(shí)如何進(jìn)行決策。一個(gè)可以被廣泛接受的倫理框架需要人類進(jìn)一步研究,以便對(duì)人工智能系統(tǒng)在推理和決策時(shí)進(jìn)行指導(dǎo)。

人工智能的數(shù)據(jù)共享系統(tǒng)引發(fā)信任挑戰(zhàn)

人們普遍認(rèn)為,人工智能是一個(gè)涉及許多不同利益相關(guān)者的主題。例如,在制造業(yè)的預(yù)測(cè)維修領(lǐng)域,為了給人工智能算法提供足夠的支持,制造商和用戶都必須共享數(shù)據(jù),提供專業(yè)知識(shí)。為了促進(jìn)這種合作,需要處理一些問題,例如可信度問題。

利益相關(guān)者之間的信任至關(guān)重要,解決數(shù)據(jù)源可靠性問題的方案將可能由認(rèn)證技術(shù)提供。利用有公信力且數(shù)據(jù)密封的機(jī)構(gòu)所頒發(fā)的信用電子證書,是在各方之間建立信任的一個(gè)選項(xiàng)。

然而,這個(gè)解決方案的目標(biāo)僅僅是在合作伙伴之間建立信任,并沒有解決數(shù)據(jù)質(zhì)量問題。為此目的,可以收集可信的數(shù)據(jù)池或評(píng)估算法來避免錯(cuò)誤的數(shù)據(jù)庫。然后,元算法可以幫助人工智能系統(tǒng)在一段時(shí)間內(nèi)保持可靠和透明,提供關(guān)于源數(shù)據(jù)的起源和分布信息。

統(tǒng)一協(xié)調(diào)的人工智能監(jiān)管機(jī)構(gòu)尚未誕生

許多人工智能領(lǐng)域仍然缺乏適當(dāng)?shù)谋O(jiān)管。為人工智能發(fā)展找到一種平衡的監(jiān)管方法,同時(shí)保證消費(fèi)者保護(hù)、社會(huì)保障以及權(quán)利和自由的保護(hù),是世界各地許多政府的一項(xiàng)重要優(yōu)先事項(xiàng)。雖然在無人駕駛汽車和無人機(jī)等領(lǐng)域已經(jīng)采取了一些早期立法措施,但世界上還沒有專門針對(duì)人工智能的監(jiān)管機(jī)構(gòu),而且也缺乏對(duì)人工智能的法律研究。

百度無人駕駛汽車

例如,在歐洲,機(jī)器人和人工智能方面由國家和各級(jí)不同監(jiān)管機(jī)構(gòu)負(fù)責(zé),沒有任何中心機(jī)構(gòu)為這些領(lǐng)域的發(fā)展提供技術(shù)、倫理和管理方面的專門知識(shí)和監(jiān)督。這種缺乏協(xié)調(diào)的情況,不利于對(duì)技術(shù)發(fā)展所帶來的機(jī)會(huì)和挑戰(zhàn)作出及時(shí)和充分的反應(yīng)。

如何令人工智能受到人類道德的約束和保護(hù)?

盡管關(guān)于倫理問題的嚴(yán)重影響將出現(xiàn)在未來更先進(jìn)的人工智能系統(tǒng)中,但主動(dòng)盡早解決這些問題不僅是一種謹(jǐn)慎的做法,而且還可能避免未來昂貴的改造成本。

更直接的擔(dān)憂是人工智能系統(tǒng)(如自動(dòng)駕駛汽車)在決策過程中需要作出道德選擇,例如,假設(shè)在無人駕駛汽車無法及時(shí)剎車且前方人行道上有三個(gè)行人時(shí),系統(tǒng)應(yīng)該選擇撞向這三個(gè)行人,還是轉(zhuǎn)向道路另一邊的行人?

這個(gè)例子說明了人工智能安全不僅是一個(gè)技術(shù)問題,而且是一個(gè)政策和倫理問題,需要跨學(xué)科的方法來保護(hù)這些技術(shù)的用戶、中立的旁觀者和開發(fā)這些技術(shù)的公司(后者可能面臨重要的法律挑戰(zhàn))。雖然研究組織和公司已開始處理這些問題,但需要在國際層面上加強(qiáng)各方之間的合作。

自動(dòng)駕駛的道德困境

圖片來源:MIT Technology Review

存在于人類日常生活中的人工智能應(yīng)用處于倫理挑戰(zhàn)的核心,如果人工智能系統(tǒng)的設(shè)計(jì)不符合倫理和社會(huì)約束,這些系統(tǒng)可能會(huì)按照與人類不同的邏輯運(yùn)行,并可能導(dǎo)致巨大后果。

此外,在賦予機(jī)器決策權(quán)之后,人們將面臨一個(gè)新的倫理問題:機(jī)器是否有資格做出這樣的決策?隨著智能系統(tǒng)獲取特定領(lǐng)域的知識(shí),其決策能力將可能超過人類,這意味著人們會(huì)在越來越多的領(lǐng)域依賴于機(jī)器主導(dǎo)的決策。在未來的人工智能發(fā)展中,這類倫理挑戰(zhàn)將迫切需要特別關(guān)注。

聲明: 本文由入駐維科號(hào)的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場(chǎng)。如有侵權(quán)或其他問題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長度6~500個(gè)字

您提交的評(píng)論過于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評(píng)論

暫無評(píng)論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號(hào)
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯(cuò)
x
*文字標(biāo)題:
*糾錯(cuò)內(nèi)容:
聯(lián)系郵箱:
*驗(yàn) 證 碼:

粵公網(wǎng)安備 44030502002758號(hào)