关于深度学习Pytorch
深度学习
- 机器语言的分支, 对数据进行特征学习, 人工神经网络为基础
机器学习和深度学习的区别
- 特征抽取:
- 人工的特征抽取的过程
- 深度学习:自动的进行特征抽取
- 数据量:
- 机器学习:数据少
- 深度学习:数据多
深度学习的应用场景
- 图像识别:物体识别场景识别人脸检测跟踪人脸身份认证自然语言处理技术
- 机器翻译:文本识别聊天对话语音技术
- 语音识别
神经网络
- 人工神经网络(英语:Artificial Neural Network,ANN),简称神经网络(Neural Network,NN)或类神经网络,是一种模仿生物神经网络(动物的中枢神经系统,特别是大脑)的结构和功能的数学模型,用于对函数进行估计或近似。
和其他机器学习方法一样, 神经网络已经被用于解决各种各样的问题, 例如机器视觉和语音识别. 这些问题都是很难被传统基于规则的编程所解决的. - 模拟生物的神经元,对函数进行评估或者近似。神经网络中的基础单元,相互连接,组成神经网络
t=f(W^TA+b)
一个神经元的功能是求得输入向量与权向量的内积后, 经一个非线性传递函数得到一个标量结果.
单项神经网络
- 最基本的神经元形式由有限个神经元构成, 所有神经元的输入向量都是同一个向量. 由于每一个神经元都会产生一个标量结果, 所以单层神经元的输出是一个向量, 向量的维数等于神经元的数目.
感知机
- 两层神经网络组成, 输出层输入层, 感知机由两层神经网络组成, 输入层接收外界输入信号后传递给输出层(输出+1正例, -1反例), 输出层是 M-P 神经元
- 作用: 把一个n维向量空间用一个超平面分割成两部分, 给定一个输入向量, 超平面可以判断出这个向量位于超平面的哪一边, 得到输入时正类或者是反类, 对应到2维空间就是一条直线把一个平面分为两个部分.
初步使用
Pytorch的入门使用
目标
- 知道张量和Pytorch中的张量
- 知道pytorch中如何创建张量
- 知道pytorch中tensor的常见方法
- 知道pytorch中tensor的数据类型
- 知道pytorch中如何实现tensor在cpu和cuda中转化
1. 张量Tensor
张量是一个统称, 其中包含很多类型:
- 0阶张量:标量、常数,0-D Tensor
- 1阶张量:向量,1-D Tensor
- 2阶张量:矩阵,2-D Tensor
- 3阶张量
- …
- N阶张量
2. Pytorch中创建张量
- 使用python中的列表或者序列创建tensor
1 | torch.tensor([[1., -1.], [1., -1.]]) |
- 使用numpy中的数组创建tensor
1 | torch.tensor(np.array([[1, 2, 3], [4, 5, 6]])) |
使用torch的api创建tensor
torch.empty(3, 4)
创建3行4列的空的tensor, 会用无用数据进行填充torch.ones([3,4])
创建3行4列的全为1的tensortorch.zeros([3, 4])
创建3行4列的全为0的tensortorch.rand([3,4])
创建3行4列的随机值的tensor, 随机值的区间是[0, 1)
1 |
1 | 2, 3) torch.rand( |
torch.randint(low=0,high=10,size=[3,4])
创建3行4列的随机整数的tensor, 随机值的区间是[low, high)
1 |
1 | 3, 10, (2, 2)) torch.randint( |
torch.randn([3,4])
创建3行4列的随机数的tensor, 随机值的分布式均值为0, 方差为1
3. Pytorch中tensor的常用方法
- 获取tensor中的数据(当tensor中只有一个元素可用):
tensor.item()
1 | In [10]: a = torch.tensor(np.arange(1)) |
- 转化为numpy数组
1 | In [55]: z.numpy() |
- 获取形状:
tensor.size()
1 | In [72]: x |
- 形状改变:
tensor.view((3,4))
。类似numpy中的reshape,是一种浅拷贝,仅仅是形状发生改变
1 | In [76]: x.view(2,3) |
- 获取阶数:
tensor.dim()
1 | In [77]: x.dim() |
- 获取最大值:
tensor.max()
1 | In [78]: x.max() |
- 转置:
tensor.t()
1 | In [79]: x.t() |
tensor[1,3]
获取tensor中第一行第三列的值tensor[1,3]=100
对tensor中第一行第三列的位置进行赋值100tensor的切片
1 | In [101]: x |
4. tensor的数据类型
tensor中的数据类型非常多, 常见类型如下:
上图中的Tensor types表示这种type的tensor是其实例
- 获取tensor的数据类型:
tensor.dtype
1 | In [80]: x.dtype |
- 创建数据的时候指定类型
1 | In [88]: torch.ones([2,3],dtype=torch.float32) |
- 类型的修改
1 | In [17]: a |
5. tensor的其他操作
- tensor和tensor相加
1 | In [94]: x = x.new_ones(5, 3, dtype=torch.float) |
注意: 带下划线的方法(比如: add_
)会对tensor进行就地修改
- tensor和数字操作
1 | In [97]: x +10 |
CUDA中的tensor
CUDA(Compute Unified Device Architecture), 是NVIDIA推出的运算平台. CUDA™是一种由NVIDIA推出的通用并行计算架构, 该架构使GPU能够解决复杂的计算问题.
torch.cuda
这个模块增加了对CUDA tensor的支持, 能够在cpu和gpu上使用相同的方法操作tensor
通过 .to
方法能够把一个tensor转移到另外一个设备(比如从CPU转到GPU)
1 | #device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu") |
通过前面的学习, 可以发现torch的各种操作几乎和numpy一样
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来自 Harry の 心 阁!
评论