├── 第01章 线性变换(1小时48分钟6节)/
│ ├── 01-01、课程介绍.mp4
│ ├── 01-02、课程特色.mp4
│ ├── 01-03、线性变换的学习.mp4
│ ├── 01-04、维度不变的线性变换.mp4
│ ├── 01-05、降维线性变换.mp4
│ └── 01-06、升维线性变换.mp4
├── 第02章 线性二分类问题(38分钟2节)/
│ ├── 02-01、线性二分类问题的引入.mp4
│ └── 02-02、线性二分类问题推导神经网络.mp4
├── 第03章 非线性分类问题(1小时18分钟5节)/
│ ├── 03-01、复杂的图像分割思路.mp4
│ ├── 03-02、神经网络解决复杂分割问题.mp4
│ ├── 03-03、激活函数的理解.mp4
│ ├── 03-04、求解深度神经网络.mp4
│ └── 03-05、万能近似定理.mp4
├── 第04章 2层深度网络(36分钟3节)/
│ ├── 04-01、单双层感知器效果差异.mp4
│ ├── 04-02、理解多层感知器的本质.mp4
│ └── 04-03、双层感知器的单层表达.mp4
├── 第05章 多层神经网络(35分钟4节)/
│ ├── 05-01、多层感知器的训练效果对比.mp4
│ ├── 05-02、多层感知器的优缺点.mp4
│ ├── 05-03、多层隐藏层的收敛速度.mp4
│ └── 05-04、多层感知器的参数效率.mp4
├── 第06章 FNN的角色 (13分钟 2节)/
│ ├── 06-01、全连接层的角色.mp4
│ └── 06-02、注意力机制中的全连接层.mp4
├── 第07章 CNN (4小时22分钟 14节)/
│ ├── 07-01、FNN识别局部特征的难点.mp4
│ ├── 07-02、卷积神经网络计算过程.mp4
│ ├── 07-03、pytorch实现卷积神经网络.mp4
│ ├── 07-04、复杂特征的卷积核大小设置.mp4
│ ├── 07-05、卷积和常用大小为什么是3X3.mp4
│ ├── 07-06、图像识别为什么无法精确.mp4
│ ├── 07-07、MNIST手写识别.mp4
│ ├── 07-08、CNN的发展历史.mp4
│ ├── 07-09、CNN的理论依据-LeNet-5.mp4
│ ├── 07-10、CNN的成功实践-AlexNet.mp4
│ ├── 07-11、CNN架构设计思路-VGG.mp4
│ ├── 07-12、堆叠的CNN更具判别能力.mp4
│ ├── 07-13、如何提升CNN的深度-ResNet.mp4
│ └── 07-14、CNN遇到Transformer的挑战.mp4
├── 第08章 模型效果衡量指标 (1小时33分钟 8节)/
│ ├── 08-01、深度学习中的困难点有什么.mp4
│ ├── 08-02、什么是性能指标.mp4
│ ├── 08-03、准确率指标适合场景.mp4
│ ├── 08-04、精确率能解决的问题场景.mp4
│ ├── 08-05、召回率的场景和F1指标.mp4
│ ├── 08-06、模型预测的阈值对召回率和精确率的影响.mp4
│ ├── 08-07、PR曲线的应用场景.mp4
│ └── 08-08、ROC曲线和模型性能.mp4
├── 第09章 损失函数 (2小时52分钟 17节)/
│ ├── 09-01、损失函数的定义.mp4
│ ├── 09-02、梯度下降法详解.mp4
│ ├── 09-03、损失函数选择的原则.mp4
│ ├── 09-04、交叉熵的设计原则.mp4
│ ├── 09-05、加权交叉熵解决的问题.mp4
│ ├── 09-06、带标签平滑的交叉熵损失.mp4
│ ├── 09-07、分类难易问题-焦点损失.mp4
│ ├── 09-08、回归任务的三大损失函数.mp4
│ ├── 09-09、存在上限和下限的损失.mp4
│ ├── 09-10、泊松分布能做什么.mp4
│ ├── 09-11、深度学习中的泊松损失.mp4
│ ├── 09-12、分位损失和Huber和LogCosh损失.mp4
│ ├── 09-13、极大似然估计-损失函数的母体.mp4
│ ├── 09-14、回归任务的母体函数-高斯分布.mp4
│ ├── 09-15、回归任务为什么使用高斯分布.mp4
│ ├── 09-16、分类任务的母体函数.mp4
│ └── 09-17、其他特定任务的损失函数.mp4
├── 第10章 正则化 (58分钟 6节)/
│ ├── 10-01、正则化现象是什么.mp4
│ ├── 10-02、L2正则化解决的问题.mp4
│ ├── 10-03、L1正则化解决了什么问题.mp4
│ ├── 10-04、过拟合问题如何定义.mp4
│ ├── 10-05、dropout解决的问题.mp4
│ └── 10-06、早停与批量归一化.mp4
├── 第11章 损失曲线中的挑战 (1小时4分钟 7节)/
│ ├── 11-01、损失曲线挑战是什么.mp4
│ ├── 11-02、Hession矩阵是什么.mp4
│ ├── 11-03、参数的梯度相互影响如何判断.mp4
│ ├── 11-04、Hession矩阵的使用思考.mp4
│ ├── 11-05、线性变换后Hession矩阵失效.mp4
│ ├── 11-06、Hession为什么要使用特征值.mp4
│ └── 11-07、应对挑战的各种方法.mp4
├── 第12章 标准化流模型 (1小时54分钟 12节)/
│ ├── 12-01、7大生成模型.mp4
│ ├── 12-02、图像的生成法则是什么.mp4
│ ├── 12-03、潜空间指的是什么.mp4
│ ├── 12-04、潜空间与概率分布.mp4
│ ├── 12-05、图片生成思路-可逆函数.mp4
│ ├── 12-06、图片生成难点-文字生成图片.mp4
│ ├── 12-07、潜空间为什么不可控.mp4
│ ├── 12-08、潜空间的平滑性连续性.mp4
│ ├── 12-09、什么样的潜空间是连续平滑的.mp4
│ ├── 12-10、高斯潜空间及其演示.mp4
│ ├── 12-11、模拟上帝掷骰子生成图片.mp4
│ └── 12-12、标准化流模型训练和总结.mp4
├── 第13章 流匹配模型 (1小时13分钟 7节)/
│ ├── 13-01、标准化流模型的缺点.mp4
│ ├── 13-02、流匹配模型的处理思路.mp4
│ ├── 13-03、流匹配模型的路径分解思路.mp4
│ ├── 13-04、能量场及其作用.mp4
│ ├── 13-05、流匹配模型的潜空间特点.mp4
│ ├── 13-06、潜空间使用高斯采样的好处.mp4
│ └── 13-07、概率分布视角理解流匹配模型.mp4
├── 第14章 扩散模型 (1小时36分钟 9节)/
│ ├── 14-01、扩散模型-流匹配模型前身.mp4
│ ├── 14-02、扩散模型训练的方式.mp4
│ ├── 14-03、从概率分布视角理解.mp4
│ ├── 14-04、加噪过程为什么要越来越强.mp4
│ ├── 14-05、加噪为什么是等差数列.mp4
│ ├── 14-06、训练为什么不需要逐步迭代.mp4
│ ├── 14-07、DDPM和DDIM的区别.mp4
│ ├── 14-08、扩散模型的平滑性如何保证.mp4
│ └── 14-09、扩散模型生成图片关键细节.mp4
├── 第15章 变分自编码器(VAE) (54分钟 6节)/
│ ├── 15-01、VAE的使用场景.mp4
│ ├── 15-02、VAE混合风格的本质.mp4
│ ├── 15-03、怎么理解图片的抗噪能力.mp4
│ ├── 15-04、VAE的训练算法.mp4
│ ├── 15-05、怎么解码出原始特征.mp4
│ └── 15-06、VAE是怎么做异常检测的.mp4
├── 第16章 能量模型 (3小时9分钟 14节)/
│ ├── 16-01、能量模型的特征.mp4
│ ├── 16-02、不好拟合的曲线.mp4
│ ├── 16-03、Lipschitz规则.mp4
│ ├── 16-04、使用Lipschitz判断技巧.mp4
│ ├── 16-05、能量函数的定义.mp4
│ ├── 16-06、玻尔兹曼与能量模型的损失.mp4
│ ├── 16-07、自定义模型与蒸馏模型.mp4
│ ├── 16-08、如何解配分函数Z及其原理.mp4
│ ├── 16-09、蒙1特1卡1罗1采样.mp4
│ ├── 16-10、MCMC蒙特卡洛马尔科夫采样.mp4
│ ├── 16-11、从采样角度理解逼近概率分布.mp4
│ ├── 16-12、模拟退火算法解决了什么问题.mp4
│ ├── 16-13、郎之万采样解决了什么问题.mp4
│ └── 16-14、吉布斯采样解决了什么.mp4
├── 第17章 生成对抗网络-GAN(更新中) (43分钟 5节)/
│ ├── 17-01、GAN与流匹配模型差异.mp4
│ ├── 17-03、为什么要分生成器和判别器.mp4
│ ├── 17-04、GAN容易坍塌的本质是什么.mp4
│ └── 17-05、保证连续性和多样性的策略.mp4
├── 第18章 自回归语言模型(更新中) (0 1节)/
├── 资料/
│ └── 深度学习算法.rar
本站所有资料均来源与网络以及用户发布,如对资源有争议请联系微信客服我们可以安排下架!
