本书作为神经网络与深度学习领域的入门级教材,系统地梳理了神经网络和深度学习的知识体系,阐述了神经网络和深度学习的基础知识,对主要模型进行了重点介绍,并通过案例进行详细说明,以使读者能在学习基础理论知识的同时,掌握神经网络和深度学习模型的开发方法,且具备使用人工神经网络和深度学习模型解决实际问题的能力。 全书共9章。内容包括绪论、机器学习、人工神经网络、多层感知机、卷积神经网络、深度卷积神经网络、循环神经网络、深度生成模型、注意力机制与Transformer。 本书可作为高校人工智能、计算机、大数据等专业的本科生教材,也可供相关领域工程技术人员参考。
1. 课程内容紧跟技术前沿。在基础知识的基础上,介绍主流的深度学习框架。
2. 注重实践能力的培养。设计配套的实验内容,对案例的学习进行巩固,并进一步提升实践能力。
3. 完备的教学内容和丰富的教学素材。包括教学PPT、实验指导、习题指导和知识点微课在内的教学素材,辅助答疑平台,兼顾课堂教学、课后实践和课外学习。
张杲峰,兰州大学,兰州大学信息科学与工程学院讲师,担任“计算思维课程群基层教学组织”团队成员,主要从事深度学习与人工智能、计算机建模领域研究。主持国家重点实验室开放基金项目1项,参与“计算机科学拔尖创新人才培养模式的构建与实践”等教改项目。
目 录
第 一章 绪论(15-20页)
1.1 人工智能
1.1.1 人工智能的起源
1.1.2 人工智能的发展与流派
1.1.3 人工智能的社会、伦理问题
1.2 机器学习
1.3 人工神经网络
1.3.1 人脑神经网络
1.3.2 人工神经网络的产生
1.3.3 人工神经网络的发展
1.4 深度学习
1.4.1 深度学习的产生和发展
1.4.2 深度学习主要开发框架
1.4.3 深度学习的应用现状
1.5 本书的知识结构
1.6 关键知识梳理
1.7 问题与实践
第二章 机器学习(20页)
2.1 基本概念
2.2 机器学习的类型和常见任务
2.2.1 机器学习的类型
2.2.2 机器学习的常见任务
2.3 机器学习任务的基本流程
2.4 模型评估与性能度量
2.4.1 误差
2.4.2 性能度量
2.4.3 模型评估
2.5 关键知识梳理
2.6 问题与实践
第三章 人工神经网络(20页)
3.1 大脑与人工神经网络
3.1.1 大脑
3.1.2 人工神经网络
3.2 感知机模型
3.2.1 可学习的感知机
3.2.2 利用感知机进行鸢尾花分类
3.3 关键知识梳理
3.4 问题与实践
第四章 多层感知机(MLP)(25页)
4.1 MLP的结构
4.1.1 输入层
4.1.2 输出层
4.1.3 隐含层
4.2 前馈算法
4.3 反向传播算法
4.3.1 梯度下降
4.3.2 链式求导
4.4 利用MLP进行手写字符识别
4.5 关键知识梳理
4.6 问题与实践
第五章 卷积神经网络(CNN)(20页)
5.1 全连接网络的弱点
5.2 感受野与卷积
5.2.1 感受野
5.2.2 平移不变性与卷积
5.2.3 尺度不变性与汇聚
5.3 CNN的结构
5.3.1 CNN的一般结构
5.3.2 LeNet-5网络
5.4 利用LeNet-5进行Cifar 10分类
5.5 关键知识梳理
5.6 问题与实践
第六章 CNN的不同变体及应用(30页)
6.1 VGG及其应用
6.1.1 VGG的结构与特点
6.1.2 VGG的应用案例
6.2 GoogleNet及其应用
6.2.1 Inception及GoogleNet的结构
6.2.2 GoogleNet的应用案例
6.3 ResNet及其应用
6.3.1 ResNet的结构
6.3.2 LResNet的应用案例
6.4 关键知识梳理
6.5 问题与实践
第七章 循环神经网络(20页)
7.1 序列数据与循环神经网络
7.2 长程依赖与长短期记忆网络(LSTM)
7.2.1 长程依赖
7.2.2 LSTM
7.3 LSTM应用案例
7.4 关键知识梳理
7.5 问题与实践
第八章 深度生成模型(30页)
8.1 生成模型
8.2 自编码器(AE)
8.3 变分自编码器(VAE)
8.3.1 VAE的结构与原理
8.3.2 VAE的应用案例
8.4 对抗生成网络(GAN)
8.4.1 GAN的结构与原理
8.4.2 GAN的应用案例——风格迁移
8.5 序列生成模型(seq2seq)及其应用案例
8.6 关键知识梳理
8.7 问题与实践
第九章 注意力机制与Transformer(20页)
9.1 注意力机制
9.2 Transformer
9.2.1 Transformer的原理
9.2.2 Transformer的应用案例
9.3 ViT
9.3.1 ViT的原理
9.3.2 ViT的应用案例
9.4 关键知识梳理
9.5 问题与实践