注冊(cè) | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當(dāng)前位置: 首頁(yè)出版圖書科學(xué)技術(shù)計(jì)算機(jī)/網(wǎng)絡(luò)網(wǎng)絡(luò)與數(shù)據(jù)通信網(wǎng)絡(luò)服務(wù)深度學(xué)習(xí)與圖像識(shí)別:原理與實(shí)踐

深度學(xué)習(xí)與圖像識(shí)別:原理與實(shí)踐

深度學(xué)習(xí)與圖像識(shí)別:原理與實(shí)踐

定 價(jià):¥129.00

作 者: 魏溪含,涂銘,張修鵬
出版社: 機(jī)械工業(yè)出版社
叢編項(xiàng):
標(biāo) 簽: 暫缺

購(gòu)買這本書可以去


ISBN: 9787111630036 出版時(shí)間: 2019-07-01 包裝:
開本: 頁(yè)數(shù): 字?jǐn)?shù):  

內(nèi)容簡(jiǎn)介

  本書是一本有關(guān)人工智能圖像識(shí)別應(yīng)用開發(fā)與實(shí)踐指導(dǎo)類的教材,主要介紹圖像處理應(yīng)用項(xiàng)目開發(fā)的基本流程、圖像識(shí)別處理應(yīng)用項(xiàng)目關(guān)鍵技術(shù)。本書直擊當(dāng)今研究熱點(diǎn),選擇有代表性的專題項(xiàng)目而且盡量避免復(fù)雜的數(shù)學(xué)推導(dǎo),易于讀者理解,專注于實(shí)戰(zhàn)。詳細(xì)介紹了numpy,knn,線性回歸,邏輯回歸,神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別上的應(yīng)用,并為后一部分的深度學(xué)習(xí)做好鋪墊。同時(shí),針對(duì)每一個(gè)項(xiàng)目介紹項(xiàng)目的應(yīng)用及意義,該項(xiàng)目的數(shù)據(jù)特征分析、識(shí)別系統(tǒng)設(shè)計(jì)、圖像預(yù)處理技術(shù)、特征提取技術(shù),以及識(shí)別方法等。書中實(shí)例程序的框架結(jié)構(gòu)簡(jiǎn)單,代碼簡(jiǎn)潔,讀者可在數(shù)字圖像處理技術(shù)的基礎(chǔ)上進(jìn)一步深化學(xué)習(xí)內(nèi)容,提高實(shí)踐應(yīng)用能力和項(xiàng)目開發(fā)能力。

作者簡(jiǎn)介

暫缺《深度學(xué)習(xí)與圖像識(shí)別:原理與實(shí)踐》作者簡(jiǎn)介

圖書目錄

前言 \n
第1章 機(jī)器視覺在行業(yè)中的應(yīng)用1 \n
1.1 機(jī)器視覺的發(fā)展背景1 \n
1.1.1 人工智能1 \n
1.1.2 機(jī)器視覺2 \n
1.2 機(jī)器視覺的主要應(yīng)用場(chǎng)景3 \n
1.2.1 人臉識(shí)別3 \n
1.2.2 視頻監(jiān)控分析4 \n
1.2.3 工業(yè)瑕疵檢測(cè)5 \n
1.2.4 圖片識(shí)別分析6 \n
1.2.5 自動(dòng)駕駛/駕駛輔助7 \n
1.2.6 三維圖像視覺8 \n
1.2.7 醫(yī)療影像診斷8 \n
1.2.8 文字識(shí)別9 \n
1.2.9 圖像/視頻的生成及設(shè)計(jì)9 \n
1.3 本章小結(jié)10 \n
第2章 圖像識(shí)別前置技術(shù)11 \n
2.1 深度學(xué)習(xí)框架11 \n
2.1.1 Theano11 \n
2.1.2 Tensorflow12 \n
2.1.3 MXNet13 \n
2.1.4 Keras13 \n
2.1.5 PyTorch14 \n
2.1.6 Caffe14 \n
2.2 搭建圖像識(shí)別開發(fā)環(huán)境15 \n
2.2.1 Anaconda15 \n
2.2.2 conda18 \n
2.2.3 Pytorch的下載與安裝19 \n
2.3 Numpy使用詳解20 \n
2.3.1 創(chuàng)建數(shù)組20 \n
2.3.2 創(chuàng)建Numpy數(shù)組22 \n
2.3.3 獲取Numpy屬性24 \n
2.3.4 Numpy數(shù)組索引25 \n
2.3.5 切片25 \n
2.3.6 Numpy中的矩陣運(yùn)算26 \n
2.3.7 數(shù)據(jù)類型轉(zhuǎn)換27 \n
2.3.8 Numpy的統(tǒng)計(jì)計(jì)算方法28 \n
2.3.9 Numpy中的arg運(yùn)算29 \n
2.3.10 FancyIndexing29 \n
2.3.11 Numpy數(shù)組比較30 \n
2.4 本章小結(jié)31 \n
第3章 圖像分類之KNN算法32 \n
3.1 KNN的理論基礎(chǔ)與實(shí)現(xiàn)32 \n
3.1.1 理論知識(shí)32 \n
3.1.2 KNN的算法實(shí)現(xiàn)33 \n
3.2 圖像分類識(shí)別預(yù)備知識(shí)35 \n
3.2.1 圖像分類35 \n
3.2.2 圖像預(yù)處理36 \n
3.3 KNN實(shí)戰(zhàn)36 \n
3.3.1 KNN實(shí)現(xiàn)MNIST數(shù)據(jù)分類36 \n
3.3.2 KNN實(shí)現(xiàn)Cifar10數(shù)據(jù)分類41 \n
3.4 模型參數(shù)調(diào)優(yōu)44 \n
3.5 本章小結(jié)48 \n
第4章 機(jī)器學(xué)習(xí)基礎(chǔ)49 \n
4.1 線性回歸模型49 \n
4.1.1 一元線性回歸50 \n
4.1.2 多元線性回歸56 \n
4.2 邏輯回歸模型57 \n
4.2.1 Sigmoid函數(shù)58 \n
4.2.2 梯度下降法59 \n
4.2.3 學(xué)習(xí)率的分析61 \n
4.2.4 邏輯回歸的損失函數(shù)63 \n
4.2.5 Python實(shí)現(xiàn)邏輯回歸66 \n
4.3 本章小結(jié)68 \n
第5章 神經(jīng)網(wǎng)絡(luò)基礎(chǔ)69 \n
5.1 神經(jīng)網(wǎng)絡(luò)69 \n
5.1.1 神經(jīng)元70 \n
5.1.2 激活函數(shù)72 \n
5.1.3 前向傳播76 \n
5.2 輸出層80 \n
5.2.1 Softmax80 \n
5.2.2 one-hotencoding82 \n
5.2.3 輸出層的神經(jīng)元個(gè)數(shù)83 \n
5.2.4 MNIST數(shù)據(jù)集的前向傳播83 \n
5.3 批處理85 \n
5.4 廣播原則87 \n
5.5 損失函數(shù)88 \n
5.5.1 均方誤差88 \n
5.5.2 交叉熵誤差89 \n
5.5.3 Mini-batch90 \n
5.6 最優(yōu)化91 \n
5.6.1 隨機(jī)初始化91 \n
5.6.2 跟隨梯度(數(shù)值微分)92 \n
5.7 基于數(shù)值微分的反向傳播98 \n
5.8 基于測(cè)試集的評(píng)價(jià)101 \n
5.9 本章小結(jié)104 \n
第6章 誤差反向傳播105 \n
6.1 激活函數(shù)層的實(shí)現(xiàn)105 \n
6.1.1 ReLU反向傳播實(shí)現(xiàn)106 \n
6.1.2 Sigmoid反向傳播實(shí)現(xiàn)106 \n
6.2 Affine層的實(shí)現(xiàn)107 \n
6.3 Softmaxwithloss層的實(shí)現(xiàn)108 \n
6.4 基于數(shù)值微分和誤差反向傳播的比較109 \n
6.5 通過(guò)反向傳播實(shí)現(xiàn)MNIST識(shí)別111 \n
6.6 正則化懲罰114 \n
6.7 本章小結(jié)115 \n
第7章 PyTorch實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)圖像分類116 \n
7.1 PyTorch的使用116 \n
7.1.1 Tensor116 \n
7.1.2 Variable117 \n
7.1.3 激活函數(shù)118 \n
7.1.4 損失函數(shù)120 \n
7.2 PyTorch實(shí)戰(zhàn)122 \n
7.2.1 PyTorch實(shí)戰(zhàn)之MNIST分類122 \n
7.2.2 PyTorch實(shí)戰(zhàn)之Cifar10分類125 \n
7.3 本章小結(jié)128 \n
第8章 卷積神經(jīng)網(wǎng)絡(luò)129 \n
8.1 卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ)129 \n
8.1.1 全連接層129 \n
8.1.2 卷積層130 \n
8.1.3 池化層134 \n
8.1.4 批規(guī)范化層135 \n
8.2 常見卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)135 \n
8.2.1 AlexNet136 \n
8.2.2 VGGNet138 \n
8.2.3 GoogLeNet140 \n
8.2.4 ResNet142 \n
8.2.5 其他網(wǎng)絡(luò)結(jié)構(gòu)144 \n
8.3 VGG16實(shí)現(xiàn)Cifar10分類145 \n
8.3.1 訓(xùn)練146 \n
8.3.2 預(yù)測(cè)及評(píng)估149 \n
8.4 本章小結(jié)152 \n
8.5 參考文獻(xiàn)152 \n
第9章 目標(biāo)檢測(cè)153 \n
9.1 定位+分類153 \n
9.2 目標(biāo)檢測(cè)155 \n
9.2.1 R-CNN156 \n
9.2.2 Fast R-CNN160 \n
9.2.3 Faster R-CNN162 \n
9.2.4 YOLO165 \n
9.2.5 SSD166 \n
9.3 SSD實(shí)現(xiàn)VOC目標(biāo)檢測(cè)167 \n
9.3.1 PASCAL VOC數(shù)據(jù)集167 \n
9.3.2 數(shù)據(jù)準(zhǔn)備170 \n
9.3.3 構(gòu)建模型175 \n
9.3.4 定義Loss178 \n
9.3.5 SSD訓(xùn)練細(xì)節(jié)181 \n
9.3.6 訓(xùn)練186 \n
9.3.7 測(cè)試189 \n
9.4 本章小結(jié)190 \n
9.5 參考文獻(xiàn)191 \n
第10章 分割192 \n
10.1 語(yǔ)義分割193 \n
10.1.1 FCN193 \n
10.1.2 UNet實(shí)現(xiàn)裂紋分割196 \n
10.1.3 SegNet209 \n
10.1.4 PSPNet210 \n
10.2 實(shí)例分割211 \n
10.2.1 層疊式212 \n
10.2.2 扁平式212 \n
10.3 本章小結(jié)213 \n
10.4 參考文獻(xiàn)214 \n
第11章 產(chǎn)生式模型215 \n
11.1 自編碼器215 \n
11.2 對(duì)抗生成網(wǎng)絡(luò)215 \n
11.3 DCGAN及實(shí)戰(zhàn)217 \n
11.3.1 數(shù)據(jù)集218 \n
11.3.2 網(wǎng)絡(luò)設(shè)置220 \n
11.3.3 構(gòu)建產(chǎn)生網(wǎng)絡(luò)221 \n
11.3.4 構(gòu)建判別網(wǎng)絡(luò)223 \n
11.3.5 定義損失函數(shù)224 \n
11.3.6 訓(xùn)練過(guò)程224 \n
11.3.7 測(cè)試227 \n
11.4 其他GAN230 \n
11.5 本章小結(jié)235 \n
11.6 參考文獻(xiàn)235 \n
第12章 神經(jīng)網(wǎng)絡(luò)可視化236 \n
12.1 卷積核236 \n
12.2 特征層237 \n
12.2.1 直接觀測(cè)237 \n
12.2.2 通過(guò)重構(gòu)觀測(cè)239 \n
12.2.3 末端特征激活情況243 \n
12.2.4 特征層的作用244 \n
12.3 圖片風(fēng)格化245 \n
12.3.1 理論介紹245 \n
12.3.2 代碼實(shí)現(xiàn)247 \n
12.4 本章小結(jié)255 \n
12.5 參考文獻(xiàn)255 \n
第13章 圖像識(shí)別算法的部署模式257 \n
13.1 圖像算法部署模式介紹257 \n
13.2 實(shí)際應(yīng)用場(chǎng)景和部署模式的匹配262 \n
13.3 案例介紹264 \n
13.4 本章小結(jié)265

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) www.autoforsalebyowners.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號(hào) 鄂公網(wǎng)安備 42010302001612號(hào)