└─ 【万门】人工智能特训营 ->
  ├─ 第 9 讲 Resnet残差网络 ->
    ├─ 9.9-如何实例化深度残差网络.mp4 - 114.69 MB
    ├─ 9.8-残差网络的维度变换.mp4 - 86.98 MB
    ├─ 9.7-在网络中引入残差层.mp4 - 85.37 MB
    ├─ 9.6-构建残差网络的每个子模块.mp4 - 108.81 MB
    ├─ 9.5-11卷积的含义和效果(二).mp4 - 973.6 KB
    ├─ 9.4-11卷积的含义和效果(一).mp4 - 2.74 MB
    ├─ 9.3-批标准化的效果展示.mp4 - 95.2 MB
    └─ 9.2-在pytorch中引入批量正则化.mp4 - 79.39 MB
  ├─ 第 8 讲 BatchNormalization ->
    ├─ 8.4-批量标准化的操作是怎么进行的.mp4 - 58.79 MB
    ├─ 8.3-阈值变换如何应对过拟合.mp4 - 53.49 MB
    ├─ 8.2-为什么批量标准化比标准化好.mp4 - 56.11 MB
    └─ 8.1-批量标准化怎么做.mp4 - 43.77 MB
  ├─ 第 7 讲 CNN进化 ->
    ├─ 7.5-残差网络的数学原理.mp4 - 96.44 MB
    ├─ 7.4-残差网络的定义.mp4 - 86.47 MB
    ├─ 7.3-深度网络中的梯度消失问题.mp4 - 109.37 MB
    ├─ 7.2-VGG19.mp4 - 64.15 MB
    └─ 7.1-AlexNet的技术细节.mp4 - 137.47 MB
  ├─ 第 6 讲 PyTorch(下) ->
    ├─ 6.9-CNN要调节的主要参数(二).mp4 - 42.54 MB
    ├─ 6.8-CNN要调节的主要参数(一).mp4 - 33.96 MB
    ├─ 6.7-PyTorch里的图像预处理与可视化.mp4 - 86.15 MB
    ├─ 6.6-PyTorch中的优化器选择.mp4 - 86.91 MB
    ├─ 6.5-Adam算法.mp4 - 55.35 MB
    ├─ 6.4-自适应的梯度下降及流平均改进法.mp4 - 105.26 MB
    ├─ 6.3-两个参数问题下的优化面临的问题.mp4 - 45.49 MB
    └─ 6.2-动量化梯度下降的原理和实现.mp4 - 90.82 MB
  ├─ 第 5 讲 PyTorch(上) ->
    ├─ 5.8-Drop out在神经网络中的应用和实现.mp4 - 115.03 MB
    ├─ 5.7-多层网络的模型构建流程、神经网络的参数初始化.mp4 - 123.73 MB
    ├─ 5.6-用类的方法实现逻辑斯蒂回归.mp4 - 75.66 MB
    ├─ 5.5-逻辑回归的问题介绍.mp4 - 59.9 MB
    ├─ 5.4-PyTorch中的优化器和损失函数.mp4 - 86.26 MB
    ├─ 5.3-网络视角下的线性模型、PyTorch对神经网络的支持包.mp4 - 105.6 MB
    ├─ 5.2-PyTorch中的反向求导.mp4 - 78.08 MB
    └─ 5.1-PyTorch中的基本概念—变量.mp4 - 111.07 MB

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。