6
2.2.1卷积神经网络架构中的主要思想57
2.2.2“边缘爱好者”最小卷积神经网络61
2.2.3卷积神经网络架构的生物学起源64
2.2.4建立和理解卷积神经网络66
2.3用于序列数据的一维卷积神经网络72
2.3.1时序数据格式73
2.3.2有序数据有何特别之处74
2.3.3时间序列数据网络架构75
2.4小结77
第3章曲线拟合原理79
3.1曲线拟合中的“HelloWorld”81
3.2梯度下降法88
3.2.1具有一个模型自由参数的损失函数89
3.2.2具有两个模型自由参数的损失函数93
3.3深度学习中的特殊技巧98
3.3.1小批量梯度下降99
3.3.2使用随机梯度下降改进算法来加快学习速度100
3.3.3自动微分100
3.4深度学习框架中的反向传播101
3.4.1静态图框架102
3.4.2动态图框架112
3.5小结114
第Ⅱ部分概率深度学习模型的最大似然方法
第4章最大似然定义损失函数117
4.1损失函数之母——最大似然原则118
4.2分类问题损失函数推导124
4.2.1二元分类问题125
4.2.2两个以上类别分类问题133
4.2.3负对数似然、交叉熵和K-L散度之间的关系137
4.3回归问题损失函数推导140
4.3.1使用无隐藏层、单输出神经网络对输入与输出的线性关系进行建模140
4.3.2采用具有隐藏层的神经网络对输入与输出的非线性关系进行建模151
4.3.3采用两输出神经网络对异方差回归任务进行建模153
4.4小结159
第5章基于TensorFlow概率编程的概率深度学习模型161
5.1不同概率预测模型的评价和比较165
5.2TFP概率编程概述166
5.3基于TFP概率编程的连续数据建模171
5.3.1常量方差线性回归模型的拟合与评估172
5.3.2变方差线性回归模型的拟合与评估176
5.4基于TFP的计数数据建模182
5.4.1适用于计数数据的泊松分布187
5.4.2扩展泊松分布为零膨胀泊松(ZIP)分布193
5.5小结197
第6章“野外世界”中的概率深度学习模型198
6.1高级深度学习模型中的灵活概率分布200
6.1.1多项式分布作为一种灵活分布201
6.1.2理解离散逻辑混合204
6.2案例研究:巴伐利亚公路伤亡事故208
6.3与流同行:标准化流(NF)简介210
6.3.1标准化流的基本原理212
6.3.2概率变量变换215
6.3.3标准化流模型拟合222
6.3.4链接流以实现深度变换224
6.3.5高维空间变换*229
6.3.6流操作的网络实现232
6.3.7有趣的流模型:人脸图像采样239
6.4小结245
第Ⅲ部分概率深度学习模型的贝叶斯方法
第7章贝叶斯学习249
7.1非贝叶斯深度学习的弊端,以房间里的大象为例250
7.2初始贝叶斯方法255
7.2.1贝叶斯模型:黑客式255
7.2.2我们刚刚做了什么260
7.3贝叶斯概率模型261
7.3.1贝叶斯模型训练和预测263
7.3.2投掷硬币,贝叶斯模型的“HelloWorld”270
7.3.3贝叶斯线性回归模型回顾282
7.4小结288
第8章贝叶斯神经网络289
8.1贝叶斯神经网络概述291
8.2变分推理贝叶斯近似293
8.2.1深入了解变分推理*294
8.2.2变分推理简单应用*300
8.3变分推理TFP实现309
8.4蒙特卡罗dropout贝叶斯近似312
8.4.1经典dropout训练方法313
8.4.2在训练和测试过程中采用蒙特卡罗dropout317
8.5案例研究320
8.5.1回归中的外推问题320
8.5.2分类任务中新类别问题326
8.6小结336
术语和缩写词的词表337