Skymind|人工智慧基礎設施提供商
上節課我們講到神經網絡的「兩個傳播」,前向傳播及反向傳播,在有監督的機器學習算法中,我們希望在學習過程中最小化每個訓練樣例的誤差。這是使用梯度下降等一些優化策略完成的。而這個誤差來自損失函數。
我們知道反向傳播是傳播實際值跟預測值之間的誤差,那麼傳播誤差是怎麼計算得來的呢?那就是這節課的內容了。快跟著凈智繼續深入學習深度神經網絡吧!
機器學習中所有的算法都需要最大化或最小化一個函數,這個函數被稱為「目標函數」。其中,我們一般把最小化的一類函數,稱為「損失函數」。它能根據預測結果,衡量出模型預測能力的好壞。
在實際應用中,選取損失函數會受到諸多因素的制約,比如是否有異常值、機器學習算法的選擇、梯度下降的時間複雜度、求導的難易程度以及預測值的置信度等等。因此,不存在一種損失函數適用於處理所有類型的數據。
那麼,什麼是損失函數,你如何理解它們的意義?
假設你在山頂,需要下山。你如何決定走哪個方向?
我要做的事情如下:
環顧四周,看看所有可能的路徑。
拒絕那些上升的路徑。這是因為這些路徑實際上會消耗更多的體力並使下山任務變得更加艱難。
最後,走我認為的坡度最大的路徑。
關於我判斷我的決策是否好壞的直覺,這正是損失函數能夠提供的功能。
損失函數將決策映射到其相關成本。
決定走上坡的路徑將耗費我們的體力和時間。決定走下坡的路徑將使我們受益。因此,下坡的成本是更小的。
損失函數大致可分為兩類:分類問題的損失函數和回歸問題的損失函數。
分類損失函數和回顧損失函數的區別。
它們並不難理解,反而可以增強你對機器學習算法的理解。
在本節課中,凈智老師給我們講解了損失函數以及它們如何在機器學習算法中工作,並解釋每種函數的使用方法。
我們這節課節課主要講分類損失函數「Classification」中的交叉熵「Cross Entropy」 和二值交叉熵「 Binary Cross Entropy」
和歸類損失函數「Regression」中的均方誤差「Mean Square Error(MSE),詳細內容請觀看本視頻。
(視頻課程中「向前傳播」和「歸類損失函數」為馬來西亞翻譯,「歸類損失函數」為「分類損失函數」「向前傳播」即「前向傳播」的意思)
本期課程:深入探索神經網絡 向前傳播(二)
Skymind
智者見「智」AI科普系統課程上線
課程亮點
科普課程共四期,由淺至深的解密人工智慧與深度學習,以最淺白的方式介紹人工智慧和深度學習,以及深度學習的運作方式。每期可分為2-3個主題視頻,一周更新一個主題,視頻內容簡明扼要,獨具匠心,利用「時間碎片化」便可分享AI前沿技術,感受到AI的無限魅力。
並且可以快速提升用戶在認知與實踐上的知識和技能,使其在學習和實戰過程中深度挖掘並解決目前部署過程中遇到的難題。
更新時間:
每周五AM10:00
主辦單位:
墨子沙龍&Skymind
課程摘要:
01
解密人工智慧與深度學習
解密人工智慧與深度學習
深度的運作方式
機器學習及學習任務
02
深入探索神經網絡
利用前饋神經網絡介紹神經網絡運作及學習方法
向前傳播(一)
向前傳播(二)
反向傳播(一)
反向傳播(二)
03
深度學習讓計算機看得見
介紹卷積神經網絡結構 (CNN)
深度學習在機器視覺的應用
04
如何給深度學習裝上記憶機制
了解循環神經網絡
介紹長短時記憶網絡 (LSTM)
長短時記憶網絡的應用
講師介紹:
羅凈智
高級講師
馬來西亞理科大學碩士
Skymind 高級深度學習工程師
Skymind 深度學習商業培訓課程高級講師
其研究方向為機器視覺及感應器的信號處理,他在機器視覺及傳感器領域內開發基於深度學習的應用程式,設計及利用機器視覺技術進行自動化的產品質量檢查,曾開發過針對不同商業領域的應用。
驚喜福利
凡有關課程的問題都可以微信後台留言提問或者進群交流,第五期會做專期答疑解惑,小夥伴們好好學習,天天向上!
凡有關於深度學習就業與授課經驗的小夥伴可以一起加入我們的講師隊伍,凡參與競聘皆可送《深度學習基礎與實踐》一本,並有豐厚報酬等著您(詳情可進群諮詢工作人員)。
Skymind
想要和更多志同道合的人一同探索深度學習的知識,獲得與大牛共同交流AI行業知識的貼心服務,及時獲取AI行業最新技術更新嗎?
關於「墨子沙龍」
墨子沙龍是由中國科學技術大學上海研究院主辦、上海市浦東新區科學技術協會及中國科大新創校友基金會協辦的公益性大型科普論壇。沙龍的科普對象為對科學有濃厚興趣、熱愛科普的普通民眾,力圖打造具有中學生學力便可以了解當下全球最尖端科學資訊的科普講壇。