訂閱
糾錯(cuò)
加入自媒體

2020年計(jì)算機(jī)視覺技術(shù)最新學(xué)習(xí)路線總結(jié) (含時(shí)間分配建議)


建議時(shí)間:每周4-5小時(shí)

學(xué)習(xí)Keras:Keras文檔https://keras.io/使用Keras構(gòu)建神經(jīng)網(wǎng)絡(luò)https://www.a(chǎn)nalyticsvidhya.com/blog/2016/10/tutorial-optimizing-neural-networks-using-keras-with-image-recognition-case-study/神經(jīng)網(wǎng)絡(luò)簡介:從零開始的神經(jīng)網(wǎng)絡(luò)https://www.a(chǎn)nalyticsvidhya.com/blog/2017/05/neural-network-from-scratch-in-python-and-r/斯坦福大學(xué)神經(jīng)網(wǎng)絡(luò)簡介https://youtu.be/d14TUNcbn1k3Blue1Brown的神經(jīng)網(wǎng)絡(luò):https://youtu.be/aircAruvnKk項(xiàng)目:識(shí)別服裝https://datahack.a(chǎn)nalyticsvidhya.com/contest/practice-problem-identify-the-apparels/第4個(gè)月 – 了解卷積神經(jīng)網(wǎng)絡(luò)(CNN),遷移學(xué)習(xí)和參加比賽目標(biāo):我想將其稱為計(jì)算機(jī)視覺之旅中的“進(jìn)階”月份。隨著卷積神經(jīng)網(wǎng)絡(luò)(CNNs)的引入,學(xué)習(xí)也更上一層樓,這些cnn是我們最近看到的許多計(jì)算機(jī)視覺應(yīng)用的幕后推手,包括目標(biāo)檢測。在你的旅程中,你也應(yīng)該通過參加比賽來鍛煉自己。

建議時(shí)間:每周6-7小時(shí)

卷積神經(jīng)網(wǎng)絡(luò)(CNN)簡介:卷積神經(jīng)網(wǎng)絡(luò)(CNN)簡化https://www.a(chǎn)nalyticsvidhya.com/blog/2017/06/architecture-of-convolutional-neural-networks-simplified-demystified斯坦福大學(xué)的卷積神經(jīng)網(wǎng)絡(luò):https://youtu.be/bNb2fEVKeEo遷移學(xué)習(xí)簡介:掌握遷移學(xué)習(xí)https://www.a(chǎn)nalyticsvidhya.com/blog/2017/06/transfer-learning-the-art-of-fine-tuning-a-pre-trained-model斯坦福大學(xué)實(shí)踐中的ConvNets:https://youtu.be/dUTzeP_HTZg項(xiàng)目:識(shí)別數(shù)字:https://datahack.a(chǎn)nalyticsvidhya.com/contest/practice-problem-identify-the-digits參加比賽:DataHackhttps://datahack.a(chǎn)nalyticsvidhya.com/contest/allKagglehttps://www.kaggle.com/competitions第5個(gè)月 – 解決對(duì)象檢測問題目標(biāo):對(duì)象檢測是一種廣泛使用的計(jì)算機(jī)視覺技術(shù)(也許是使用最廣泛的技術(shù))。這是吸引我使用計(jì)算機(jī)視覺的原因!這個(gè)月就是要熟悉不同的對(duì)象檢測算法。另外,我強(qiáng)烈建議你撰寫到目前為止所學(xué)概念的文章。

建議時(shí)間:每周6-7小時(shí)

解決對(duì)象檢測問題:目標(biāo)檢測技術(shù)的分步介紹https://www.a(chǎn)nalyticsvidhya.com/blog/2018/10/a-step-by-step-introduction-to-the-basic-object-detection-algorithms-part-1實(shí)現(xiàn)faster RCNN用于目標(biāo)檢測https://www.a(chǎn)nalyticsvidhya.com/blog/2018/11/implementation-faster-r-cnn-python-object-detection使用YOLO進(jìn)行物體檢測https://www.a(chǎn)nalyticsvidhya.com/blog/2018/12/practical-guide-object-detection-yolo-framewor-python斯坦福大學(xué)的物體檢測:https://youtu.be/nDPWywWRIRoYOLO論文https://arxiv.org/pdf/1506.02640.pdfYOLO預(yù)訓(xùn)練模型https://pjreddie.com/darknet/yolo/項(xiàng)目:數(shù)臉挑戰(zhàn)https://datahack.a(chǎn)nalyticsvidhya.com/contest/vista-codefest-computer-vision-1COCO物體檢測挑戰(zhàn)http://cocodataset.org/#download開始撰寫文章,與社區(qū)互動(dòng)吧!第6個(gè)月 – 了解圖像分割和注意力模型目標(biāo):六月,你將學(xué)習(xí)如何解決圖像分割問題,同時(shí)你還將了解什么是注意力模型(無論在理論上還是在實(shí)踐上)。在這里,你對(duì)計(jì)算機(jī)視覺的深入了解才真正開始獲得回報(bào)。

<上一頁  1  2  3  4  下一頁>  
聲明: 本文由入駐維科號(hào)的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長度6~500個(gè)字

您提交的評(píng)論過于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評(píng)論

暫無評(píng)論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號(hào)
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯(cuò)
x
*文字標(biāo)題:
*糾錯(cuò)內(nèi)容:
聯(lián)系郵箱:
*驗(yàn) 證 碼:

粵公網(wǎng)安備 44030502002758號(hào)