MATLAB深度学习技术与应用课程大纲
|
时间
|
课程
|
主要内容
|
Day 1
|
08:30 – 12:00
|
一、MATLAB编程基础复习
|
1. 复习MATLAB编程基础知识
2. 复习MATLAB程序调试技巧及经验等
3. 复习图像处理入门知识
4. 复习MATLAB基本绘图
5. MATLAB编程习惯与风格(Cell模式与Publish功能;Script与Live Script的区别)
6. MATLAB程序调试技巧(断点的添加与删除、进入与退出调试模式、循环体的调试)
7. MATLAB向量化编程与内存优化
|
|
13:30 – 17:00
|
二、人工神经网络
|
1. 人工智能的发展历史回顾
2. BP神经网络的基本原理(人工智能发展过程经历了哪些曲折?人工神经网络的分类有哪些?有导师学习和无导师学习的区别是什么?BP神经网络的拓扑结构和训练过程是怎样的?什么是梯度下降法?BP神经网络建模的本质是什么?)
3. BP神经网络的 MATLAB 实现(怎样划分训练集和测试集?为什么需要归一化?归一化是必须的吗?什么是梯度爆炸与梯度消失?)
4. BP神经网络参数的优化(隐含层神经元个数、学习率、初始权值和阈值等如何设置?什么是交叉验证?)
5. 值得研究的若干问题(欠拟合与过拟合、泛化性能评价指标的设计、样本不平衡问题等)
6. 案例演示一:近红外光谱汽油辛烷值预测(回归拟合)
7. 案例演示二:MNIST手写数字识别(分类识别)
8. 实操练习
9. 值得研究的若干问题
1)欠拟合与过拟合
2)模型泛化性能评价(回归拟合、分类识别)
3)样本不平衡
|
Day 2
|
08:30 – 09:00
|
三、深度学习简介
|
1. 深度学习的发展历史
2. 深度学习与传统机器学习的区别与联系
|
|
09:00 – 12:00
13:30 – 15:00
|
四、卷积神经网络
|
1. CNN的拓扑结构
2. CNN的卷积层、池化层、归一化层等
3. CNN的权值共享机制
4. CNN的信号前向传播过程
5. CNN的误差反向传播(核心训练算法)
6. CNN的进化史(LeNet、AlexNet、VggNet、GoogLeNet、ResNet等)
7. CNN的代码实现
1)利用预训练好的模型预测
2)利用CNN抽取指定层的抽象特征
3)自定义卷积神经网络拓扑结构
8. CNN模型的调参技巧与经验(ReLU、Normalization、Dropout等)
|
|
15:00 – 17:00
|
五、迁移学习
|
1. 迁移学习(Transfer Learning)的基本思想
2. 基于实例的迁移学习算法:TrAdaBoost
3. 基于模型的迁移学习算法
4. 案例实战
1)基于TrAdaBoost算法的模型移植
2)基于AlexNet模型的模型迁移
3)基于Deep Network Designer的模型迁移
|
Day 3
|
08:30 – 09:30
|
六、生成式对抗网络
|
1. 生成式对抗网络(GAN)的基本思想
2. 生成器(Generator)与判别器(Discriminator)的实现
3. 案例实战
1)基于GAN的图片生成
|
|
09:30 – 12:00
|
七、循环神经网络(RNN)与长短时记忆神经网络(LSTM)
|
1. 循环神经网络(RNN)的基本原理
2. 长短时记忆神经网络(LSTM)的基本原理
3. RNN与LSTM的区别与联系
4. 案例实战
1)时间序列预测
2)序列-序列分类
|
|
13:30 – 15:00
|
八、群优化算法
|
1. 群优化算法的前世今生
2. 遗传算法的基本原理
3. GAOT工具箱的安装与使用
4. 案例实战
1)连续优化问题:一元函数的极值点优化
2)离散优化问题:特征选择
3)深度神经网络模型的参数优化
|
|
15:00 – 16:00
|
九、变量降维与特征选择
|
1. 变量降维(Dimension reduction)与特征选择(Feature selection)在概念上的区别与联系
2. 主成分分析(PCA)的基本原理
3. 偏最小二乘法(PLS)的基本原理
4. PCA与PLS的代码实现
5. PCA的启发:训练集与测试集划分合理性的判断
6. 经典特征选择方法
1)前向选择法与后向选择法
2)无信息变量消除法
|
|
16:00 – 17:00
|
十、答疑与交流
|
1. 讨论与答疑
2. 建立微信群、资料拷贝与书籍推荐
3. Google Scholar、ResearchGate、GitHub、SciHub等工具的使用方法
|