numpy np.meshgrid 网格点坐标矩阵 用法

numpy np.meshgrid 网格点坐标矩阵 用法

A、B、C、D、E、F是6个网格点,坐标如图,如何用矩阵形式(坐标矩阵)来批量描述这些点的坐标呢?

语法:X,Y = numpy.meshgrid(x, y)

输入的x,y,就是网格点的横纵坐标列向量(非矩阵)。

输出的X,Y,就是坐标矩阵。

import numpy as np

import matplotlib.pyplot as plt

x = np.array([0, 1, 2])

y = np.array([0, 1])

X, Y = np.

c# Math 幂数 指数 对数

c# Math 幂数 指数 对数

double m, n;

m = Math.Exp(0.5); // 自然对数e的0.5次方

Console.WriteLine(“自然对数e的0.5次方:” + m);

n = Math.Exp(30); // 自然对数e的30次方

Console.WriteLine(“自然对数e的30次方:” + n);

n = Math.Log(3); // 以e为底,3的对数

Console.WriteLine(“以e为底,3的对数:” + n);

n = Math.L

numpy np.squeeze 用法

numpy np.squeeze 用法

numpy提供了numpy.squeeze(a, axis=None)函数,从数组的形状中删除单维条目。

其中a表示输入的数组。axis用于指定需要删除的维度,但是指定的维度必须为单维度,否则将会报错。

axis的取值可为None 或 int 或 tuple of ints,若axis为空时则删除所有单维度的条目。

import numpy as np

a = np.array([[[0], [1], [2]]])

b = np.squeeze(a)

c = np.squ

独热编码 One-Hot 编码

独热编码 One-Hot 编码

独热编码即 One-Hot 编码,又称一位有效编码,其方法是使用N位状态寄存器来对N个状态进行编码,每个状态都有它独立的寄存器位,并且在任意时候,其中只有一位有效。

import numpy as np

correct = np.array([0, 1, 2, 3, 4, 5,

6])

n_data = len(correct)

# — 将 周一至周日 转换为独热编码格式 —

correct_data = np.zeros((n_data, 7))

print(c

numpy np.pad 填充 用法

numpy np.pad 填充 用法

np.pad(array,pad_width,mode,**kwargs)  # 返回填充后的numpy数组

array:要填充的numpy数组【要对谁进行填充】

pad_width:每个轴要填充的数据的数目【每个维度前、后各要填充多少个数据】

mode:填充的方式【采用哪种方式填充】

import numpy as np

# 一维

a = np.array([1, 2, 3, 4, 5])

print(“a.shape”, a.shape)

b = np.

numpy np.random.shuffle(x)和np.random.permutation(x)数组打乱随机排列

numpy np.random.shuffle(x)和np.random.permutation(x)数组打乱随机排列

import numpy as np

#将数组打乱随机排列 两种方法:

#1 np.random.shuffle(x):在原数组上进行,改变自身序列,无返回值。

x = np.arange(5)

print(x)

np.random.shuffle(x)

print(x)

#2 np.random.permutation(x):不在原数组上进行,返回新的数组,不改变自身数组。

y = np.arange(5)

print(y)

z = np.random.

numpy np.dot 向量点积和矩阵乘法

numpy np.dot 向量点积和矩阵乘法

#1. np.dot(a, b), 其中a为一维的向量,b为一维的向量,当然这里a和b都是np.ndarray类型的, 此时因为是一维的所以是向量点积。

import numpy as np

a = np.array([0, 1, 2])

b = np.array([1, 2, 3])

# 0*1 + 1*2 + 2*3

print(np.dot(a, b))

# 8

#2. np.dot(a, b), 其中a为二维矩阵,b为一维向量,这时b会被当做一维矩阵进行计算。

神经网络 激励函数 Sigmoid ReLU SoftMax

神经网络 激励函数 Sigmoid ReLU SoftMax

神经网络中的每个节点接受输入值,并将输入值传递给下一层,输入节点会将输入属性值直接传递给下一层(隐藏层或输出层)。在神经网络中,隐层和输出层节点的输入和输出之间具有函数关系,这个函数称为激励函数(激活函数)。

1、Sigmoid函数

%matplotlib inline

import numpy as np

import matplotlib.pylab as plt

def sigmoid_function(x):

return 1/(1 + np.exp(-x))