注冊(cè) | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當(dāng)前位置: 首頁(yè)出版圖書科學(xué)技術(shù)計(jì)算機(jī)/網(wǎng)絡(luò)人工智能深入淺出神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)

深入淺出神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)

深入淺出神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)

定 價(jià):¥89.00

作 者: 邁克爾·尼爾森(Michael Nielsen) 著,朱小虎 譯
出版社: 人民郵電出版社
叢編項(xiàng): 圖靈程序設(shè)計(jì)叢書
標(biāo) 簽: 暫缺

購(gòu)買這本書可以去


ISBN: 9787115542090 出版時(shí)間: 2020-08-01 包裝: 平裝
開本: 16開 頁(yè)數(shù): 227 字?jǐn)?shù):  

內(nèi)容簡(jiǎn)介

  本書深入講解神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)技術(shù),側(cè)重于闡釋深度學(xué)習(xí)的核心概念。作者以技術(shù)原理為導(dǎo)向,輔以貫穿全書的MNIST手寫數(shù)字識(shí)別項(xiàng)目示例,介紹神經(jīng)網(wǎng)絡(luò)架構(gòu)、反向傳播算法、過(guò)擬合解決方案、卷積神經(jīng)網(wǎng)絡(luò)等內(nèi)容,以及如何利用這些知識(shí)改進(jìn)深度學(xué)習(xí)項(xiàng)目。學(xué)完本書后,讀者將能夠通過(guò)編寫Python代碼來(lái)解決復(fù)雜的模式識(shí)別問(wèn)題。

作者簡(jiǎn)介

  【作者簡(jiǎn)介】邁克爾.尼爾森(Michael Nielsen)計(jì)算機(jī)科學(xué)家、量子物理學(xué)家、科普作家,Y Combinator Research的研究Fellow,曾受邀在哈佛大學(xué)、斯坦福大學(xué)、麻省理工學(xué)院、劍橋大學(xué)、牛津大學(xué)等高校以及谷歌和微軟等公司做主題演講,另著有高分作品《重塑發(fā)現(xiàn)》和《量子計(jì)算和量子信息》?!咀g者簡(jiǎn)介】朱小虎University AI創(chuàng)始人兼首席科學(xué)家、Center for Safe AGI創(chuàng)始人、谷歌開發(fā)者機(jī)器學(xué)習(xí)專家、百度深度學(xué)習(xí)布道者。和團(tuán)隊(duì)核心成員一起創(chuàng)建了TASA、DL Center(深度學(xué)習(xí)知識(shí)中心全球價(jià)值網(wǎng)絡(luò))和AI Growth(行業(yè)智庫(kù)培訓(xùn))等。舉辦過(guò)多場(chǎng)國(guó)際性人工智能峰會(huì)和活動(dòng)。在多個(gè)技術(shù)平臺(tái)寫下了近百萬(wàn)字的人工智能精品技術(shù)內(nèi)容。曾受邀為多所國(guó)內(nèi)高校制定人工智能學(xué)習(xí)規(guī)劃和教授人工智能前沿課程,也曾為多家世界500強(qiáng)企業(yè)提供人工智能方面的戰(zhàn)略布局建議及落地實(shí)施等方面的咨詢建議。

圖書目錄

前言
第 1章 使用神經(jīng)網(wǎng)絡(luò)識(shí)別手寫數(shù)字 1
1.1 感知機(jī) 2
1.2 sigmoid神經(jīng)元 7
1.3 神經(jīng)網(wǎng)絡(luò)的架構(gòu) 11
1.4 一個(gè)簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò):分類手寫數(shù)字 13
1.5 利用梯度下降算法進(jìn)行學(xué)習(xí) 17
1.6 實(shí)現(xiàn)分類數(shù)字的神經(jīng)網(wǎng)絡(luò) 25
1.7 邁向深度學(xué)習(xí) 37
第 2章 反向傳播算法工作原理 41
2.1 熱身:使用矩陣快速計(jì)算輸出 41
2.2 關(guān)于代價(jià)函數(shù)的兩個(gè)假設(shè) 43
2.3 阿達(dá)馬積s⊙t 45
2.4 反向傳播的4個(gè)基本方程 45
2.5 基本方程的證明(選學(xué)) 50
2.6 反向傳播算法 51
2.7 反向傳播代碼 53
2.8 就何而言,反向傳播算快 55
2.9 反向傳播:全局觀 56
第3章 改進(jìn)神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)方法 60
3.1 交叉熵代價(jià)函數(shù) 60
3.1.1 引入交叉熵代價(jià)函數(shù) 64
3.1.2 使用交叉熵來(lái)對(duì)MNIST數(shù)字進(jìn)行分類 71
3.1.3 交叉熵的含義與起源 72
3.1.4 softmax 74
3.2 過(guò)擬合和正則化 78
3.2.1 正則化 84
3.2.2 為何正則化有助于減輕過(guò)擬合 89
3.2.3 其他正則化技術(shù) 93
3.3 權(quán)重初始化 102
3.4 復(fù)探手寫識(shí)別問(wèn)題:代碼 106
3.5 如何選擇神經(jīng)網(wǎng)絡(luò)的超參數(shù) 116
3.6 其他技術(shù) 126
3.6.1 隨機(jī)梯度下降算法的變化形式 126
3.6.2 其他人工神經(jīng)元模型 129
3.6.3 有關(guān)神經(jīng)網(wǎng)絡(luò)的故事 132
第4章 神經(jīng)網(wǎng)絡(luò)可以計(jì)算任何函數(shù)的可視化證明 134
4.1 兩個(gè)預(yù)先聲明 136
4.2 一個(gè)輸入和一個(gè)輸出的普遍性 137
4.3 多個(gè)輸入變量 146
4.4 不止sigmoid神經(jīng)元 154
4.5 修補(bǔ)階躍函數(shù) 156
4.6 小結(jié) 159
第5章 為何深度神經(jīng)網(wǎng)絡(luò)很難訓(xùn)練 160
5.1 梯度消失問(wèn)題 163
5.2 梯度消失的原因 168
5.2.1 為何出現(xiàn)梯度消失 170
5.2.2 梯度爆炸問(wèn)題 171
5.2.3 梯度不穩(wěn)定問(wèn)題 172
5.2.4 梯度消失問(wèn)題普遍存在 172
5.3 復(fù)雜神經(jīng)網(wǎng)絡(luò)中的梯度不穩(wěn)定 173
5.4 深度學(xué)習(xí)的其他障礙 174
第6章 深度學(xué)習(xí) 175
6.1 卷積神經(jīng)網(wǎng)絡(luò)入門 176
6.1.1 局部感受野 178
6.1.2 共享權(quán)重和偏置 180
6.1.3 池化層 182
6.2 卷積神經(jīng)網(wǎng)絡(luò)的實(shí)際應(yīng)用 184
6.2.1 使用修正線性單元 188
6.2.2 擴(kuò)展訓(xùn)練數(shù)據(jù) 189
6.2.3 插入額外的全連接層 191
6.2.4 集成神經(jīng)網(wǎng)絡(luò) 192
6.3 卷積神經(jīng)網(wǎng)絡(luò)的代碼 195
6.4 圖像識(shí)別領(lǐng)域近期的進(jìn)展 208
6.4.1 2012年的LRMD論文 208
6.4.2 2012年的KSH論文 209
6.4.3 2014年的ILSVRC競(jìng)賽 211
6.4.4 其他活動(dòng) 212
6.5 其他深度學(xué)習(xí)模型 214
6.5.1 循環(huán)神經(jīng)網(wǎng)絡(luò) 214
6.5.2 長(zhǎng)短期記憶單元 216
6.5.3 深度信念網(wǎng)絡(luò)、生成模型和玻爾茲曼機(jī) 216
6.5.4 其他想法 217
6.6 神經(jīng)網(wǎng)絡(luò)的未來(lái) 217
6.6.1 意圖驅(qū)動(dòng)的用戶界面 217
6.6.2 機(jī)器學(xué)習(xí)、數(shù)據(jù)科學(xué)和創(chuàng)新的循環(huán) 218
6.6.3 神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)的作用 218
6.6.4 神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)將主導(dǎo)人工智能 219
附錄 是否存在關(guān)于智能的簡(jiǎn)單算法 222
版權(quán)聲明

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) www.autoforsalebyowners.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號(hào) 鄂公網(wǎng)安備 42010302001612號(hào)