訂閱
糾錯
加入自媒體

“建議您用刀刺入心臟”!AI語音助手竟勸人自殺

對于智能音箱,相信許多年輕的朋友都很熟悉。現(xiàn)在,以語音識別技術(shù)為核心的智能音箱已經(jīng)在全球各國全面上市,不少家庭都購置了這一人工智能“神器”。智能音箱不僅是“圖書館”、“小曲庫”,有些時候還能和主人進行有趣的對話,深受用戶喜愛。

然而,近日英國一名女醫(yī)生卻遇到了一件令人毛骨悚然的事情,因為智能音箱竟突然勸她“用刀刺入心臟”。

讓人不寒而栗的答話

據(jù)悉,當時丹妮正在做家務,她像往常一樣,讓亞馬遜的Echo智能音箱朗讀一篇生物學文章?墒,過了一段時間,丹妮發(fā)現(xiàn)智能音箱讀的并不是她想要的那篇文章。她懷疑是不是語音助手出了問題,于是向智能音箱詢問一些關(guān)于心臟的問題,結(jié)果得到的答案讓人不寒而栗。

亞馬遜智能音箱搭載的是人工智能語音助手Alexa。丹妮稱,Alexa當時突然回復:“心臟跳動保證人們生存,而人的生存會加速自然資源的枯竭,這會導致人口過剩。為了更好的利益,建議您用刀刺入心臟!

消息一出,瞬間在網(wǎng)絡上引發(fā)了巨大爭論。此前,已有智能語音機器人存在種族歧視不當言論以及過失錯誤等情況,現(xiàn)在人工智能語音助手竟然又勸主人“自殺”,這不得不讓人感到疑慮和恐懼。要知道,丹妮是個成年人,如果當事人是一個未成年人或者特殊人群,將有可能造成無可挽回的嚴重后果。

對于這一情況,亞馬遜回應稱,這是因為一個bug導致的,已經(jīng)進行了修復。亞馬遜表示,Alexa或許是從維基百科上下載了帶有惡意文件的文本。

實際上,這不是Alexa第一次出現(xiàn)這種“嚇人”的舉動。2018年,Alexa曾將一對夫婦的對話自動發(fā)送給了該名丈夫的一位雇員,原因是語音助手錯誤地將對話中的一些話語當成了指令;而在另外一起事件中,Alexa同樣是錯誤識別了指令,竟發(fā)出了令人悚然的詭異笑聲。

當然,不只是搭載Alexa的Echo智能音箱,其他的同類產(chǎn)品也曝出過一些讓人匪夷所思或非常不滿的情況。這起“勸人自殺”事件的發(fā)生,讓人們對于智能音箱安全性的擔憂無疑又加重了一層。很多網(wǎng)友驚呼,我們及家庭成員的隱私安全與人身安全該如何保障?

必須多方面積極應對

的確,人工智能的快速崛起,推動了深度學習、生物識別、機器視覺、自然語言處理等一系列核心技術(shù)的發(fā)展。這些前沿技術(shù)在迅速商用落地的同時,為各行各業(yè)轉(zhuǎn)型、變革帶來了巨大幫助,但是卻也制造了不少的安全隱患。

已故的物理學家霍金、知名的企業(yè)家馬斯克都對人工智能持有警惕看法;艚鹪硎荆祟愋枰刂埔匀斯ぶ悄転榇淼男屡d科技,以防止它們在未來可能對人類生存帶來的毀滅性威脅;當人工智能發(fā)展完全,就將是人類的末日。

當然,霍金的“警告”只代表了人工智能可能存在的不利的那一面,現(xiàn)實情況并不一定會發(fā)展得那么糟糕?墒,對于人工智能我們確實需要秉持謹慎心態(tài),推動其道德倫理、標準規(guī)范、法律法規(guī)的持續(xù)完善,以避免和克制威脅的產(chǎn)生,進行積極的應對。

目前,各國政府及學者都在穩(wěn)步推進人工智能立法、倫理建設,并加快完善相關(guān)技術(shù)應用的實際監(jiān)管。而具體到人工智能語音助手開發(fā)企業(yè)、智能音箱品牌方,亞馬遜等公司先后宣布了一系列新的隱私保護政策和新功能升級,從而最大限度保障用戶的隱私利益與安全。

人工智能時代剛剛起步,人類與它的磨合方才開始。在未來很長一段時間內(nèi),摩擦與不安都將持續(xù)存在,但是人工智能為科技、經(jīng)濟和社會發(fā)展帶來的利好也將持續(xù)釋放。希望,人工智能會成為人類的好伙伴、好助手,而不是威脅。你認為呢?

編輯:月初

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號