訂閱
糾錯
加入自媒體

AI審核不靠譜?微軟Bing被曝顯示兒童色情內(nèi)容

微軟在2019年年初就遭遇了不少的危機,今天,據(jù)外媒報道,微軟的Bing搜索中有一些相關的關鍵字,正在為戀童癖者提供大量的兒童色情內(nèi)容,微軟回復正在努力修復中。

安全公司的調研中發(fā)現(xiàn),微軟必應搜索不僅僅會在搜索結果中返回裸體兒童照片,如果用戶點擊這些圖片,必應也會在類似圖片功能中展示更多非法虐待兒童圖像,他們還會向用戶推薦其他類似搜索關鍵詞,從而跳轉出更多的兒童色情內(nèi)容。

然而,谷歌的類似搜索卻沒有像必應這樣出現(xiàn)明顯的非法圖像以及內(nèi)容。對此,微軟必應和人工智能產(chǎn)品副總裁喬迪·里伯斯(Jordi Ribas)表示,“研究人員發(fā)現(xiàn)的搜索結果確實違反了網(wǎng)站規(guī)則,公司正在努力防止此類事故的發(fā)生!

此前,微軟宣布正在通過他們的AI研究成果讓必應搜索變得更加智能。去年,他們還通過使用專門的人工智能計算硬件BrainWave,使機器學習模型的性能提高10倍以上,增強了微軟必應搜索引擎的功能。

而在兒童色情內(nèi)容上,微軟還開創(chuàng)了PhotoDNA技術,實現(xiàn)兒童性虐圖片檢測的自動化,讓此類非法圖片可以由電腦程序而非工程師自動識別。

據(jù)了解,PhotoDNA可以將圖片轉化為常見的黑白格式,還能將圖片尺寸調整至指定大小。然后該技術會把圖片分成一個個正方形,同時給每一個正方形內(nèi)存在的特有底紋分配一個數(shù)值。這些數(shù)值結合在一起以后,就代表一個圖像文件的“PhotoDNA簽名”。這種獨一無二的簽名可以被用于與其他在線圖片進行比對。

早些時候,微軟已經(jīng)將PhotoDNA技術應用在必應上,用來識別兒童性虐圖片,阻止這些照片在網(wǎng)上進一步傳播。

現(xiàn)在,必應卻被曝出這種負面事件,可以看到這項AI技術似乎并沒有預料中的有效,技術并沒有過濾掉那些非法色情的內(nèi)容。

當然,不僅僅是搜索引擎會遇到這種問題,社交平臺、內(nèi)容分發(fā)平臺也經(jīng)常被曝出各種性虐色情內(nèi)容傳播,其實這也在某種程度上反映了整個科技行業(yè)的現(xiàn)狀,當科技公司過于追求營收的增長以及效率,就會忽視對公眾利益的保護,比如如何在機器審核和人工審核之間的達到平衡。

聲明: 本文系OFweek根據(jù)授權轉載自其它媒體或授權刊載,目的在于信息傳遞,并不代表本站贊同其觀點和對其真實性負責,如有新聞稿件和圖片作品的內(nèi)容、版權以及其它問題的,請聯(lián)系我們。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號