唐宇迪《AI深度学习+Pytorch》

唐宇迪《AI深度学习+Pytorch》_封面图.jpg

是否感到深度学习与Pytorch的复杂性令人望而却步?本课程旨在突破学习壁垒,提供一条从零开始的AI技术掌握路径。通过详细拆解神经网络架构,深入解析模型更新方法和损失函数计算,本课程让复杂的AI原理变得简单易懂。通过本课程,您将掌握构建和训练高效AI模型的核心技能,为未来的技术挑战装备自己。

课程目录:

001、课程介绍

002、神经网络要完成的任务分析

003、模型更新方法解读

004、损失函数计算方法

005、前向传播流程解读

006、反向传播演示

007、神经网络整体架构详细拆解

008、神经网络效果可视化分析

009、神经元个数的作用

010、预处理与dropout的作用

011、卷积神经网络概述分析

012、卷积要完成的任务解读

013、卷积计算详细流程演示

014、层次结构的作用

015、参数共享的作用

016、池化层的作用与效果

017、整体网络结构架构分析

018、经典网络架构概述

019、RNN网络结构原理与问题

020、注意力结构历史故事介绍

021、self-attention要解决的问题

022、QKV的来源与作用

023、多头注意力机制的效果

024、位置编码与解码器

025、整体架构总结

026、BERT训练方式分析

027、PyTorch框架与其他框架区别分析

028、CPU与GPU版本安装方法解读

029、数据集与任务概述

030、基本模块应用测试

031、网络结构定义方法

032、数据源定义简介

033、损失与训练模块分析

034、训练一个基本的分类模型

035、参数对结果的影响

036、任务与数据集解读

037、参数初始化操作解读

038、训练流程实例

039、模型学习与预测

040、输入特征通道分析

041、卷积网络参数解读

042、卷积网络模型训练

043、任务分析与图像数据基本处理

044、数据增强模块

045、数据集与模型选择

046、迁移学习方法解读

047、输出层与梯度设置

048、输出类别个数修改

049、优化器与学习率衰减

050、模型训练方法

051、重新训练全部模型

052、测试结果演示分析

053、实用Dataloader加载数据并训练模型

054、Dataloader要完成的任务分析

055、图像数据与标签路径处理

056、Dataloader中需要实现的方法分析

057、数据集与任务目标分析

058、文本数据处理基本流程分析

059、命令行参数与DEBUG

060、训练模型所需基本配置参数分析

061、预料表与字符切分

062、字符预处理转换ID

063、LSTM网络结构基本定义

064、网络模型预测结果输出

065、模型训练任务与总结

066、基本结构与训练好的模型加载

067、服务端处理与预测函数

068、基于Flask测试模型预测结果

069、视觉transformer要完成的任务解读

070、项目源码准备

071、源码DEBUG演示

072、Embedding模块实现方法

073、分块要完成的任务

074、QKV计算方法

075、特征加权分配

076、完成前向传播

077、损失计算与训练

版权声明:

1、本资源转载于网络,版权归原作者所有!

2、本资源仅供个人学习研究参考,本站不承担任何技术及版权问题。

3、请下载后24小时内自觉删除,如果您喜欢该资料,请支持作者购买正版!

4、本资源若侵犯到您的版权利益,我们深感抱歉!请您点击【内容投诉】反馈,我们将尽快删除。

发表评论

您需要后才能发表评论

知识付费课程众筹服务

会员介绍 升级会员