訂閱
糾錯(cuò)
加入自媒體

【Maker玩AI】使用Google Colaboratory免費(fèi)資源學(xué)AI

建構(gòu)數(shù)據(jù)集

為了練習(xí)「建構(gòu)數(shù)據(jù)集」這個(gè)題目,我們首先必須要有數(shù)據(jù)集,但實(shí)在不容易在短時(shí)間內(nèi)收集到數(shù)千張的影像,好在知名人工智能比賽平臺(tái)Kaggle上有一個(gè)「Dogs and Cats」的影像分類比賽,它提供了大量的貓狗影像,以供測試「深度學(xué)習(xí)」算法(模型)的正確性。

Google為方便大家測試Colab,再將其減量到訓(xùn)練用影像貓狗各1000張,驗(yàn)證用影像貓狗各500張,其數(shù)據(jù)集樣本大致上如下圖所示。影像沒并沒有特定尺寸,貓狗在影像中占的面積比例、種類、色彩、數(shù)量、位置、明暗、遮蔽、背景復(fù)雜度也都沒有限制。

Kaggle提供的「Dogs and Cats」數(shù)據(jù)集樣本

卷積神經(jīng)網(wǎng)絡(luò)模型

這個(gè)范例中,主要利用TensorFlow及Keras建構(gòu)出一個(gè)小型的卷積神經(jīng)網(wǎng)絡(luò)(Convolution Neural Network, CNN),共有三層卷積層(包含ReLu及Max Pooling),每個(gè)卷積層皆用3×3的濾波器進(jìn)行卷積動(dòng)作,三層分別提取16, 32及64組濾波器。接著展開成獨(dú)立節(jié)點(diǎn)后,再加入二層全連結(jié)層,分別為512及1個(gè)節(jié)點(diǎn),而最后得到的那一個(gè)節(jié)點(diǎn)加上Sigmodid函數(shù)即為最終輸出的結(jié)果,合計(jì)共有9,494,561個(gè)參數(shù)待訓(xùn)練。

輸出的結(jié)果值會(huì)介于0.0 ~ 1.0,當(dāng)值越接近1.0時(shí)圖片為狗的機(jī)率越高,反之輸出值越接近0.0時(shí)圖片判定是貓的機(jī)率越高。雖然這個(gè)模型雖然不大,但可適用各種圖像的二元分類問題,大家可試著導(dǎo)入自己準(zhǔn)備的圖像進(jìn)行測試。完整模型架構(gòu)可參考下圖。

卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)

訓(xùn)練及驗(yàn)證

下方圖左為正確率,圖右為損失率,橫軸代表迭代次數(shù),縱軸代表正確(或損失)率;藍(lán)線代表訓(xùn)練集結(jié)果,而綠線代表驗(yàn)證集結(jié)果。從圖中可看出藍(lán)線在第十次正確率就已超過0.97(97%),而損失率已趨近0,但綠色的線正確率卻沒有繼續(xù)變高,數(shù)值約接近0.7(70%),損失率反而逐漸增高。這表示訓(xùn)練過程已造成過擬合(over fitting)的狀況,需要加入更多不同樣態(tài)及更多數(shù)量的數(shù)據(jù)集再重新訓(xùn)練才能改善。

左:訓(xùn)練及驗(yàn)證準(zhǔn)確性,右:訓(xùn)練及驗(yàn)證損失

推論結(jié)果

接著就可利用前面訓(xùn)練好的模型(model)來加以推論(或稱為預(yù)測)。首先提供一張圖片,并將圖像數(shù)據(jù)正規(guī)化(150x150x3, Float32),接著進(jìn)行推論,最后會(huì)得到圖像分類結(jié)果分?jǐn)?shù),而分?jǐn)?shù)越接近1.0則表示是狗的機(jī)率越高,反之越接近0.0則越可能是貓。我們可以另設(shè)幾個(gè)自定義門坎值來區(qū)隔分類結(jié)果,比方說「這是狗」、「這可能是狗」、「這可能是貓」、「這是貓」等不同結(jié)果描述。

為了讓大家更了解深度學(xué)習(xí)模型運(yùn)作方式,將各層運(yùn)作結(jié)果輸出到特征圖中,再逐一秀出。如下圖,最上面為原始輸入影像正規(guī)化后的結(jié)果圖,再來才是真正導(dǎo)入輸入層的信息,尺寸為150×150共有3組(RGB三通道)。

第一卷積層共產(chǎn)生16個(gè)特征圖,conv2d_1尺寸為148×148,max_pooling2d_1尺寸為74×74;第二卷積層共產(chǎn)生32個(gè)特征圖,conv2d_2尺寸為72×72,max_pooling_2為36×36;第三卷積層共產(chǎn)生64個(gè)特征圖,conv2d_3尺寸為34×34,max_pooling_3為17×17;最后的全連結(jié)層(dense)則為單一節(jié)點(diǎn)信息,不易以圖形方式表示,故忽略不處理。

從各層特征圖中可看出,隨著影像尺寸縮小其被激活的像素越來越少,甚至完全不輸出(全黑),表示其特征已被某些卷積(濾波器)給凸顯出來。對(duì)于我們所需的圖像分類(辨識(shí))能力也逐漸增強(qiáng)了。

推論結(jié)果可視化

結(jié)論

Google Colaboratory這項(xiàng)免費(fèi)的云端GPU資源實(shí)在很方便剛?cè)腴T的伙伴進(jìn)行「深度學(xué)習(xí)」(一語雙關(guān)),它不會(huì)因?yàn)閭(gè)人計(jì)算機(jī)(筆電)的配備等級(jí)不同,而影響模型訓(xùn)練及推論的效能。同時(shí),可輕易的分享代碼給其它想學(xué)的人,對(duì)開源社群更是一大助力。希望不久的將來有更多伙伴能一起加入研究及分享,讓更多人工智能的應(yīng)用能加速落地。

完整代碼及說明,請參閱Github.

作者:許哲豪

<上一頁  1  2  
聲明: 本文由入駐維科號(hào)的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請輸入評(píng)論內(nèi)容...

請輸入評(píng)論/評(píng)論長度6~500個(gè)字

您提交的評(píng)論過于頻繁,請輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評(píng)論

暫無評(píng)論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號(hào)
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯(cuò)
x
*文字標(biāo)題:
*糾錯(cuò)內(nèi)容:
聯(lián)系郵箱:
*驗(yàn) 證 碼:

粵公網(wǎng)安備 44030502002758號(hào)