注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當前位置: 首頁出版圖書科學技術(shù)計算機/網(wǎng)絡(luò)人工智能機器學習

機器學習

機器學習

定 價:¥113.90

作 者: 王貝倫 編著
出版社: 東南大學出版社
叢編項:
標 簽: 暫缺

購買這本書可以去


ISBN: 9787564197834 出版時間: 2021-11-01 包裝:
開本: 16開 頁數(shù): 字數(shù):  

內(nèi)容簡介

  本書按照機器學習十年來的教學經(jīng)驗將主要教學內(nèi)容分為五大板塊:“數(shù)學基礎(chǔ)”“回歸問題”“分類問題”“無監(jiān)督問題”以及“概率圖模型”。既注重學習內(nèi)容由淺入深和教學的先后順序,又兼顧了內(nèi)容的全面性,給予授課老師充分的授課自由。本書內(nèi)容新穎,結(jié)構(gòu)化層次化地介紹了機器學習的重要內(nèi)容,語言嚴謹詳細,配圖全面直白。而課后配套的習題、實驗、網(wǎng)課與書本內(nèi)容相對應,讓學生能夠快速入門機器學習,既可更深入更全面地掌握書本內(nèi)容,課后鞏固知識點充分理解理論知識,又可鍛煉其面對實際人工智能問題的編程能力。

作者簡介

  王貝倫,中國國籍,男,本科畢業(yè)于南京大學數(shù)學系,博士畢業(yè)于美國弗吉尼亞大學計算機科學系,現(xiàn)任東南大學計算機科學與工程學院、軟件學院、人工智能學院副教授、校學生處副處長。研究方向主要為機器學習,成果主要呈現(xiàn)在高斯圖模型優(yōu)化理論、神經(jīng)網(wǎng)絡(luò)可解釋性等方面,在國際頂級會議論文和期刊發(fā)表論文多篇論文,獲評江蘇省雙創(chuàng)計劃雙創(chuàng)博士、東南大學至善青年學者A類等稱號。

圖書目錄


1 緒論
1.1 引言
1.2 基礎(chǔ)概念
1.3 發(fā)展歷程
1.4 機器學習全流程介紹
1.5 機器學習研究方向介紹
1.5.1 監(jiān)督學習
1.5.2 無監(jiān)督學習
1.5.3 深度學習
1.5.4 強化學習
1.5.5 結(jié)構(gòu)學習——以概率圖模型為例
2 數(shù)學基礎(chǔ)
2.1 線性代數(shù)
2.1.1 基本概念
2.1.2 基本運算
2.1.3 線性相關(guān)性及矩陣的秩
2.1.4 特征值及特征向量
2.1.5 矩陣求導
2.1.6 奇異值分解
2.2 概率論與數(shù)理統(tǒng)計
2.2.1 概率論與機器學習
2.2.2 事件與事件空間
2.2.3 樣本空間與事件空間
2.2.4 常用結(jié)論
2.2.5 隨機變量
2.2.6 聯(lián)合概率分布、條件概率分布和邊緣分布
2.2.7 獨立性
2.2.8 極限定理
2.2.9 極大似然估計
2.3 凸優(yōu)化
2.3.1 優(yōu)化問題
2.3.2 基本概念
2.3.3 凸優(yōu)化問題
2.3.4 對偶性
2.3.5 無約束優(yōu)化問題
3 回歸模型
3.1 簡介
3.2 線性回歸
3.2.1 線性回歸模型
3.2.2 正規(guī)方程法
3.2.3 梯度下降法
3.2.4 隨機梯度下降法
3.2.5 小批量梯度下降法
3.2.6 牛頓法
3.2.7 基于梯度的其他算法
3.2.8 線性回歸的概率論解釋
3.3 非線性回歸
3.3.1 多項式回歸
3.3.2 徑向基回歸
3.4 正則化線性回歸
3.4.1 嶺回歸
3.4.2 套索回歸
3.4.3 彈性網(wǎng)絡(luò)
3.4.4 收縮估計器
3.4.5 參數(shù)選擇
3.4.6 回歸模型總結(jié)
4 分類模型
4.1 判別模型與生成模型
4.1.1 非概率判別模型
4.1.2 概率判別模型
4.1.3 生成模型
4.1.4 判別模型vs生成模型
4.2 K最近鄰算法
4.2.1 距離度量
4.2.2 超參數(shù)K的選擇
4.2.3 分類決策機制
4.2.4 算法步驟及復雜度分析
4.2.5 K最近鄰算法在回歸問題中的應用
4.3 貝葉斯分類器
4.3.1 生成貝葉斯分類器
4.3.2 樸素貝葉斯分類器
4.3.3 樸素貝葉斯分類器在文本分類中的應用
4.4 高斯貝葉斯分類器
4.4.1 高斯樸素貝葉斯分類器
4.4.2 線性判別分析
4.4.3 二次判別分析
4.5 邏輯回歸
4.5.1 概率與邏輯函數(shù)
4.5.2 二分類問題中的邏輯回歸
4.5.3 多類邏輯回歸
4.5.4 邏輯回歸的求解
4.6 感知機
4.7 支持向量機
4.7.1 間隔與支持向量
4.7.2 硬間隔支持向量機
4.7.3 軟間隔支持向量機
4.7.4 支持向量在對偶形式中的作用
4.7.5 支持向量機的核方法
4.8 深度學習
4.8.1 神經(jīng)元
4.8.2 神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)
4.8.3 損失函數(shù)
4.8.4 神經(jīng)網(wǎng)絡(luò)的優(yōu)化
4.8.5 神經(jīng)網(wǎng)絡(luò)的實現(xiàn)
4.8.6 卷積神經(jīng)網(wǎng)絡(luò)
4.8.7 循環(huán)神經(jīng)網(wǎng)絡(luò)
4.8.8 元學習
4.8.9 生成對抗網(wǎng)絡(luò)
4.8.10 深度學習模型的健壯性
4.9 決策樹與隨機森林
4.9.1 決策樹與可解釋性
4.9.2 基于信息論的目標函數(shù)
4.9.3 決策樹的構(gòu)建
4.9.4 隨機森林
4.10 集成學習
4.10.1 聚合算法
4.10.2 提升算法
4.10.3 堆疊算法
5 無監(jiān)督學習
5.1 聚類算法
5.1.1 層次聚類
5.1.2 K均值算法
5.1.3 高斯混合模型
5.2 主成分分析
5.2.1 主成分分析優(yōu)化問題
5.2.2 主成分分析求解
5.2.3 主成分分析總結(jié)
6 學習理論
6.1 簡介
6.2 特征選擇
6.2.1 過濾法
6.2.2 包裹法
6.2.3 嵌入法
6.2.4 降維
6.3 模型選擇
6.3.1 欠擬合與過擬合
6.3.2 訓練-測試法
6.3.3 交叉驗證法
6.3.4 模型選擇與特征選擇
6.4 偏差-方差權(quán)衡
6.4.1 預測誤差期望
6.4.2 偏差-方差分解
6.4.3 偏差-方差權(quán)衡與模型選擇
7 概率圖模型
7.1 結(jié)構(gòu)化概率表示
7.1.1 聯(lián)合概率表示
7.1.2 變量獨立性的結(jié)構(gòu)化表示
7.2 概率圖模型的表示
7.2.1 貝葉斯網(wǎng)絡(luò)
7.2.2 馬爾可夫網(wǎng)絡(luò)
7.3 概率圖模型的概率推斷
7.3.1 精確推斷
7.3.2 近似推斷
7.4 概率圖模型的結(jié)構(gòu)學習
7.4.1 有向圖模型的結(jié)構(gòu)學習
7.4.2 無向圖模型的結(jié)構(gòu)學習
后記

本目錄推薦

掃描二維碼
Copyright ? 讀書網(wǎng) www.autoforsalebyowners.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號