OpenI 启智社区

启智社区,确实给力

当前位置:首页 > 学习 > 实训 >

Python 之 Pytorch

Python 之 Pytorch

  • 来源:国防科技大学
  • 章节:7 单元:7

  • 曹梦华
进入实训课程

课程简介:

\r
\r
PyTorch是2017年1月19日正式发布的基于 Python的深度学习框架,是 Torch 在 Python 上的衍生,主要的语言接口是Lua。\r
\r
PyTorch利用imperative language即命令式语言的设计思路编写。它是线性、直观且易于使用。而且PyTorch是一个动态的建图的工,PyTorch具有更好的灵活性。自发行以来,发展态势良好,应用前景广阔。\r
\r
本实训套件包含了一系列PyTorch实训项目,从最基本的操作对象到神经网络的创建和应用,由浅入深,循序渐进,以完成任务通过关卡获得金币的方式,带领您轻松愉快的学习和掌握Pytorch的基础知识和编程精髓。\r
\r

课程章节:

第1章 Tensor 初探

本实训的目标是学习 Pytorch 中最基本的操作对象——Tensor,掌握Tensor 的创建、索引、切片、数学运算、等等。

第2章 Pytorch 之autograd

autograd包是PyTorch中所有神经网络的核心。 torch.autograd提供了类和函数用来对任意标量函数进行自动求导。它是一个逐个运行的框架,意味着神经网络的backprop由代码运行定义,每一次迭代都可以不同。 一个Variable里面包含着三个属性,data,grad和creator,其中creator表示得到这个Variabel的操作,比如乘法或者加法等等,grad表示方向传播的梯度,data表示取出这个Variabel里面的数据

第3章 Pytorch 之torch.nn初探

现在你对`autograd`有了初步的了解,使用 `torch.nn `包可以进行神经网络的构建,nn`建立在`autograd`的基础上来进行模型的定义和微分。

第4章 Pytorch 之torch.nn进阶

进一步学习 torch.nn,掌握神经网络中的正则化、距离函数、损失函数等概念\r

第5章 Pytorch 之优化

优化

第6章 Pytorch 之线性回归

线性回归

第7章 Pytorch 之神经网络

Pytorch 实现神经网络\r 介绍使用 PyTorch 在 MNIST 数据集上训练 MLP 和 CNN