神經計算原理

神經計算原理

《神經計算原理》是2007年5月機械工業出版社出版發行的圖書,作者是哈姆。本書比較系統全面地介紹了人工神經網路的理論和實際套用,特別在神經網路模型和工程套用方面有極為深入的分析和講解。

基本介紹

  • 書名:神經計算原理
  • 作者:(美)哈姆,科斯塔尼克
  • 譯者:葉世偉,王海娟
  • ISBN: 9787111206378
  • 頁數:491
  • 定價:59.00
  • 出版社機械工業出版社
  • 出版時間: 2007-5-1
  • 裝幀: 平裝
內容簡介,作者簡介,圖書目錄,

內容簡介

全書不僅深入分析神經網路的基本概念,而且詳細介紹神經網路套用方面的最新發展趨勢和主要研究方向。該書理論和實際套用緊密結合,為神經網路的相關理論知識在具體問題中的套用打下了堅實的基礎。該書適合作為高等院校計算機專業高年級本科生或研究生的教材,也可供人工智慧及神經網路方面的研究人員和專業技術人員參考。
《神經計算原理》比較系統全面地介紹了人工神經網路的理論和實際套用,特別在神經網路模型和工程套用方面有極為深入的分析和講解。全書不僅深入分析神經網路的基本概念,而且詳細介紹神經網路套用方面的最新發展趨勢和主要研究方向。《神經計算原理》理論和實際套用緊密結合,為神經網路的相關理論知識在具體問題中的套用打下了堅實的基礎。

作者簡介

Fredric M.Ham 博士現任佛羅里達理工學院的Harris教授,佛羅里達理工學院信息處理實驗室的主任。他於1980年在愛荷州立大學獲得電氣工程博士學位。他在信號處理、生物醫學工程、神經網路和控制系統領域發表了許多論文,是電氣與電子工程師協會(IEEE)的高級會員,還是Eta Kappa Nu、Tau Beta Pi、Phi Kappa Phi 和Sigma Xi的會員。

圖書目錄

出版者的話
專家指導委員會
譯者序
前言
致謝
重要符號和算符
重要縮寫詞
第一部分 神經計算的基本概念和部分神經網路體系結構及其學習規則
第1章 神經計算概述
1.1 神經計算是什麼
1.2 神經計算的發展歷史
1.3 神經計算和神經科學
1.4 神經網路的分類
1.5 本書指南
參考文獻
第2章 神經計算的基本概念
2.1 概述
2.2 人工神經元的基本模型
2.3 基本激活函式
2.4 人工神經元的霍普菲爾德模型
2.5 自適應線性單元和多重自適應線性單元
2.5.1 簡單自適應線性組合器和LMS算法
2.5.2 自適應線性單元
2.5.3 多重自適應線性單元
2.6 簡單感知器
2.6.1 Mays感知器學習規則
2.6.2 具有s形激活函式的簡單感知器
2.7 前饋多層感知器
2.8 單個神經元基本學習規則概述
2.8.1 廣義的LMS學習規則
2.8.2 Hebb學習
2.8.3 Oja學習規則
2.8.4 位勢學習規則
2.8.5 相關學習規則
2.8.6 標準感知器學習規則
2.8.7 廣義感知器學習規則
2.9 數據預處理
2.9.1 規整
2.9.2 變換
2.9.3 傅立葉變換
2.9.4 主成分分析
2.9.5 部分最小二乘回歸
2.9.6 小波和小波變換
習題
參考文獻
第3章 映射網路
3.1 概述
3.2 聯想記憶網路
3.2.1 一般的線性分散式聯想記憶
3.2.2 相關矩陣記憶
3.2.3 相關矩陣記憶的誤差修正方法
3.3 反向傳播學習算法
3.3.1 前饋多層感知器的基本反向傳播算法
3.3.2 使用標準反向傳播中的一些實際問題
3.3.3 具有動量更新的反向傳播學習算法
3.3.4 批量更新
3.3.5 搜尋然後收斂方法
3.3.6 可變學習率的批量更新
3.3.7 反向傳播算法的向量矩陣形式
3.4 加速學習反向傳播算法
3.4.1 前饋多層感知器的共軛梯度反向傳播
3.4.2 基於最小二乘的遞歸反向傳播算法
3.4.3 具有自適應激活函式斜度的反向傳播
3.4.4 Levenberg—Marquardt算法
3.5 對傳
3.6 徑向基函式神經網路
3.6.1 訓練具有固定中心的RBFNN
3.6.2 用隨機梯度方法訓練RBFNN
3.6.3 正交最小二乘
習題
參考文獻
第4章 自組織網路
4.1 概述
4.2 Kohonen自組織映射
4.3 學習向量的量化
4.4 自適應共振理論(ART)神經網路
4.4.1 ART1
4.4.2 模糊ART和模糊ARTMAP
習題
參考文獻
第5章 遞歸網路和時間前饋網路
5.1 概述
5.2 遞歸神經網路概述
5.3 霍普菲爾德聯想記憶
5.4 模擬退火
5.5 玻爾茲曼機
5.6 時間前饋網路概述
5.7 簡單遞歸網路
5.8 時延神經網路
5.9 分散式時滯前饋神經網路
習題
參考文獻
第二部分 神經計算的套用
第6章 用神經網路解決最最佳化問題
6.1 概述
6.2 解決線性規劃問題的神經網路
6.2.1 解決LP問題標準形式的神經網路
6.2.2 解決LP問題非標準形式的神經網路
6.3 解決二次規劃問題的神經網路
6.4 解決非線性連續約束最最佳化問題的神經網路
6.4.1 罰函式NP方法的神經網路
6.4.2 障礙函式NP方法的神經網路
6.4.3 普通拉格朗日乘子NP方法的神經網路
6.4.4 增廣拉格朗日乘子方法的神經網路
習題
參考文獻
第7章 用神經網路解決矩陣代數問題
7.1 概述
7.2 矩陣的逆和偽逆
7.3 LU分解
7.4 QR因子分解
7.5 舒爾分解
7.6 譜因子分解——特徵值分解(EVD)(對稱特徵值問題)
7.7 對稱特徵值問題的神經網路方法
7.8 奇異值分解
7.9 求解代數李雅普諾夫方程的神經計算方法
7.10 求解代數裡卡蒂方程的神經計算方法
習題
參考文獻
第8章 使用神經網路求解線性代數方程組
8.1 概述
8.2 聯立線性代數方程組
8.3 線性方程組的最小二乘解
8.4 求解線性方程組的最小二乘神經計算方法
8.5 求解線性方程組的共軛梯度學習規則
8.6 求解受噪聲侵擾的線性方程組的廣義魯棒方法
8.7 帶病態確定數值秩的不適定問題的正則化方法
8.8 求解線性方程組的離散時間疊代方法中的矩陣分裂
8.9 總體最小二乘問題
8.10 求解線性方程組的L範數(最小最大)神經網路
8.11 求解線性方程的L1範數(最小絕對偏差)神經網路
習題
參考文獻
第9章 使用神經網路的統計方法
9.1 概述
9.2 主成分分析
9.3 神經網路自適應主成分估計的學習算法
9.3.1 第一主成分估計——Oja的正規化Hebb學習規則
9.3.2 多個主成分估計——對稱子空間學習規則
9.3.3 多個主成分估計——廣義Hebb算法
9.3.4 多個主成分估計——隨機梯度上升算法
9.3.5 多個主成分估計——自適應主成分提取算法
9.3.6 非線性主成分分析(NLPCA)和魯棒PCA
9.4 主成分回歸
9.5 部分 最小二乘回歸
9.6 部分 最小二乘回歸的神經網路方法
9.7 魯棒PLSR:一種神經網路方法
習題
參考文獻
第10章 使用神經網路進行辨識、控制和估計
10.1 概述
10.2 線性系統的表示法
lO.3 自回歸滑動平均模型
10.4 用ARMA模型的線性系統辨識
10.5 套用PLSNET進行線性系統的參數系統辨識
10.6 非線性系統的表示法
10.6.1 非線性輸入一狀態一輸出表示法
10.6.2 非線性ARMA
10.7 非線性動態系統的辨識和控制
10.7.1 非線性系統的辨識
10.7.2 非線性控制
10.8 獨立成分分析:未知源信號的盲分離
10.8.1 獨立成分分析的概述
10.8.2 用神經網路進行獨立成分分析
10.8.3 用於ICA的快速固定點算法
10.9 可加噪聲中的正弦曲線的譜估計
10.9.1 問題描述
10.9.2 頻率估計問題的PLSR解
10.10 其他案例分析
10.10.1 從近紅外譜模擬數據估計葡萄糖濃度
10.10.2 使用次聲數據進行事件分類
習題
參考文獻
附錄A 神經計算的數學基礎
A.1 引言
A.2 線性代數
A.2.1 域和向量空間
A.2.2 矩陣的表示和運算
A.2.3 內積和外積
A.2.4 向量的線性無關
A.2.5 矩陣的秩和線性無關
A.2.6 矩陣的確定性
A.2.7 矩陣的逆和偽逆
A.2.8 正交矩陣、酉矩陣和共軛向量
A.2.9 特徵值和特徵向量
A.2.10 相似變換
A.2.11 若當標準形
A.2.12 動態系統的狀態空間描述
A.2.13 向量和矩陣的範數
A.2.14 奇異值分解
A.2.15 矩陣條件數
A.2.16 分塊矩陣運算
A.2.17 克羅內克積與和
A.2.18 實數和複數方陣的重要性質小結
A.2.19 模式化矩陣和特殊矩陣
A.3 多變數分析的原理
A.3.1 集合和函式
A.3.2 二次型
A.3.3 鏈式法則
A.3.4 矩陣微積分
A.3.5 黑塞矩陣
A.3.6 雅可比矩陣
A.3.7 泰勒級數展開式
A.4 李雅普諾夫直接法
A.5 無約束最最佳化方法
A.5.1 極值的充分必要條件
A.5.2 最速下降法
A.5.3 牛頓法
A.5.4 改進的牛頓法和擬牛頓法
A.5.5 共軛梯度法
A.6 約束非線性規劃
A.6.1 庫恩一塔克條件
A.6.2 拉格朗日乘子法
A.7 隨機變數和隨機過程
A.7.1 隨機變數
A.7.2 機率分布函式
A.7.3 機率密度函式
A.7.4 期望值、均值和矩
A.7.5 隨機過程
A.7.6 向量隨機過程
A.7.7 功率譜密度函式和功率譜密度矩陣
A.7.8 白噪聲驅動的線性系統和譜因子分解
A.8 模糊集合論
A.9 部分三角恆等式
參考文獻
主題索引

相關詞條

熱門詞條

聯絡我們