PyTorch 激励函数 Sigmoid ReLU Tanh

PyTorch 激励函数 Sigmoid ReLU Tanh

一、Sigmoid ReLU Tanh 定义

1、Sigmoid。Sigmoid函数也叫Logistic函数,用于隐层神经元输出,取值范围为(0,1),它可以将一个实数映射到(0,1)的区间,可以用来做二分类。

import torch

import matplotlib

import matplotlib.pyplot as plt

import math

plt.figure(figsize=(15,8))

# 指定默认字体

matplotlib.

PyTorch empty rand zeros ones randn_like 张量 用法

PyTorch empty rand zeros ones randn_like 张量 用法

import torch

# 创建一个未初始化的5×3张量

print(‘1、创建一个未初始化的5×3张量’)

x = torch.empty(5, 3)

print(x)

# 创建一个随机初始化的5×3张量

print(‘2、创建一个随机初始化的5×3张量’)

y = torch.rand(5, 3)

print(y)

# 创建一个5×3的0张量,类型为long

print(‘3、创建一个5×3的0张量,类型为long’)

z = torch.

标量、向量、矩阵、张量之间的区别和联系

标量、向量、矩阵、张量之间的区别和联系

标量(Scalar)、向量(Vector)、矩阵(Matrix)、张量(Tensor)。

1、标量

标量(scalar):一个标量就是一个单独的数(整数或实数),不同于线性代数中研究的其他大部分对象(通常是多个数的数组)。

在Python中的定义为:

x = 1

2、向量

向量(vector):一个向量表示一组有序排列的数,通过次序中的索引我们能够找到每个单独的数。向量中的每个元素就是一个标量,向量中的第i个元素用表示。

在Python中的定义为:

imp

PyTorch with torch.no_grad 用法

PyTorch with torch.no_grad 用法

在PyTorch中,tensor有一个requires_grad参数,如果设置为True,则反向传播时,该tensor就会自动求导。

tensor的requires_grad的属性默认为False,若一个节点(叶子变量:自己创建的tensor)requires_grad被设置为True,那么所有依赖它的节点requires_grad都为True(即使其他相依赖的tensor的requires_grad = False)。

当requires_grad设置为False时,反向传播时就不会自

什么是梯度?

什么是梯度?

梯度

假设对于函数f(x),在其图象中有一点a,在a点的梯度是f(x)增长最快的方向,梯度本身是一种上升的趋势。

梯度下降

概念:对于f(x),在a点的梯度是f(x)增长最快的方向,那么它的相反方向则是该点下降最快的方向, 梯度下降算法是一种求局部最优解的方法。

原理:将函数比作一个山谷,如下图,我们站在山坡上的某处,往四周看,找出一个方向,使得沿着这个方向向下走一小步,能够下降的最快;刚开始走的步伐可能会大一些,随着越来越接近谷底,步伐也就越来越小,直到最终到达谷底c点。

Matplotlib plot bar 柱形图

Matplotlib plot bar 柱形图

x:浮点型数组,柱形图的 x 轴数据。

height:浮点型数组,柱形图的高度。

width:浮点型数组,柱形图的宽度。

bottom:浮点型数组,底座的 y 坐标,默认 0。

align:柱形图与 x 坐标的对齐方式,’center’ 以 x 位置为中心,这是默认值。 ‘edge’:将柱形图的左边缘与 x 位置对齐。要对齐右边缘的条形,可以传递负数的宽度值及 align=’edge’。

**kwargs:其他参数。

import matplotlib.pyplot

Matplotlib plot pie 饼图

Matplotlib plot pie 饼图

x:浮点型数组,表示每个扇形的面积。

explode:数组,表示各个扇形之间的间隔,默认值为0。

labels:列表,各个扇形的标签,默认值为 None。

colors:数组,表示各个扇形的颜色,默认值为 None。

autopct:设置饼图内各个扇形百分比显示格式,%d%% 整数百分比,%0.1f 一位小数, %0.1f%% 一位小数百分比, %0.2f%% 两位小数百分比。

labeldistance:标签标记的绘制位置,相对于半径的比例,默认值为 1.1,如 

Matplotlib plot scatter 散点图

Matplotlib plot scatter 散点图

x,y:长度相同的数组,也就是我们即将绘制散点图的数据点,输入数据。

s:点的大小,默认 20,也可以是个数组,数组每个参数为对应点的大小。

c:点的颜色,默认蓝色 ‘b’,也可以是个 RGB 或 RGBA 二维行数组。

marker:点的样式,默认小圆圈 ‘o’。

cmap:Colormap,默认 None,标量或者是一个 colormap 的名字,只有 c 是一个浮点数数组的时才使用。如果没有申明就是 image.cmap。

norm:Normalize,默认 None,

Gym CartPole 倒立摆 保存 gif 动画图像

Gym CartPole 倒立摆 保存 gif 动画图像

render_mode=”human” 显示画面

render_mode=”rgb_array” 不显示画面

frames 动画保存,需要rgb_array模式。因此采用cv2进行渲染,解决rgb_array模式下画面显示问题。

 

import gym

import matplotlib.pyplot as plt

from matplotlib import animation

import cv2

# 保存gif图像

def displa

Matplotlib plot hist 直方图

Matplotlib plot hist 直方图

import matplotlib.pyplot as plt

import numpy as np

“””

font:设置中文

unicode_minus:显示负号

“””

# 画图文字使用黑体字显示(显示中文,默认不支持中文)

plt.rcParams[‘font.sans-serif’] = [‘SimHei’]

plt.rcParams[‘axes.unicode_minus’] = False

# 正常显示负号

“””

随机数生成,自动

Sklearn PCA 降维算法

Sklearn PCA 降维算法

“维度灾难” 在机器学习中经常会碰到一些高维的数据集,而在高维数据情形下会出现数据样本稀疏,距离计算等困难,这类问题是所有机器学习方法共同面临的严重问题。 特征冗余在高维特征中容易出现特征之间的线性相关。

PCA(Principal Component Analysis),即主成分分析方法,是一种使用最广泛的数据降维算法。 PCA通过线性变换将原始数据变换为一组各维度线性无关的表示,提取数据的主要特征分量,常用于高维数据的降维。

import matplotlib.pyplot as p