numpy np.random.shuffle(x)和np.random.permutation(x)数组打乱随机排列

numpy np.random.shuffle(x)和np.random.permutation(x)数组打乱随机排列

import numpy as np

#将数组打乱随机排列 两种方法:

#1 np.random.shuffle(x):在原数组上进行,改变自身序列,无返回值。

x = np.arange(5)

print(x)

np.random.shuffle(x)

print(x)

#2 np.random.permutation(x):不在原数组上进行,返回新的数组,不改变自身数组。

y = np.arange(5)

print(y)

z = np.random.

numpy np.dot 向量点积和矩阵乘法

numpy np.dot 向量点积和矩阵乘法

#1. np.dot(a, b), 其中a为一维的向量,b为一维的向量,当然这里a和b都是np.ndarray类型的, 此时因为是一维的所以是向量点积。

import numpy as np

a = np.array([0, 1, 2])

b = np.array([1, 2, 3])

# 0*1 + 1*2 + 2*3

print(np.dot(a, b))

# 8

#2. np.dot(a, b), 其中a为二维矩阵,b为一维向量,这时b会被当做一维矩阵进行计算。

神经网络 激励函数 Sigmoid ReLU SoftMax

神经网络 激励函数 Sigmoid ReLU SoftMax

神经网络中的每个节点接受输入值,并将输入值传递给下一层,输入节点会将输入属性值直接传递给下一层(隐藏层或输出层)。在神经网络中,隐层和输出层节点的输入和输出之间具有函数关系,这个函数称为激励函数(激活函数)。

1、Sigmoid函数

%matplotlib inline

import numpy as np

import matplotlib.pylab as plt

def sigmoid_function(x):

return 1/(1 + np.exp(-x))

数据预处理 min-max标准化

数据预处理 min-max标准化

Min-Max normalization也称离差标准化法,是消除变量量纲和变异范围影响最简单的方法。对原始数据的线性变换,使结果落到[0,1]区间,转换函数如下:

import numpy as np

def normalize(x):

x_max = np.max(x)

x_min = np.min(x)

return (x – x_min) / (x_max

– x_min)

x = [14,6,7]

y = normalize(x)

print(

高斯分布的概率密度函数numpy.random.normal

高斯分布的概率密度函数numpy.random.normal

我们更经常会用到的np.random.randn(size)所谓标准正态分布(μ=0,σ=1),对应于numpy.random.normal(loc=0.0, scale=1.0, size=None)

loc:float 此概率分布的均值(对应着整个分布的中心centre)。

scale:float 此概率分布的标准差(对应于分布的宽度,scale越大越矮胖,scale越小,越瘦高)。

size:int or tuple of ints 输出的shape,默认为None,只输

Jupyter Notebook更改文件保存位置

Jupyter Notebook更改文件保存位置

一、查看原始存储位置

在安装完Jupyter Notebook之后,新建的Jupyter Notebook文件一般会默认保存在C盘的某个位置(例如C:\Users\jzh)。

具体可以通过在Jupyter Notebook输入以下代码,查看到文件储存位置:

import os

print(os.path.abspath(‘.’))

 

 

二、修改文件存储路径的方法

进入cmd命令,然后输入指令

jupyter notebook —

导数微分积分三者关系

导数微分积分三者关系

微积分的英语 “Calculus” 源自拉丁语,意思是 “小石头”,因为它是从分析小的部分来了解大的整体。

微分是把整体分拆为小部分来求它怎样改变。

积分是把小部分连接(积)在一起来求整体有多大。

1、导数是指 函数图像在某一点处的斜率,是纵坐标增量Δy和横坐标增量Δx在Δx>0时的比值。

2、微分是指 函数图像在某一点处的切线在横坐标取得增量Δx以后,纵坐标取得的增量,一般表示为dy。

3、积分是微分的逆运算,即知道了函数的导函数,反求原函数。

用SymPy库进行

初等函数的ln.lg.log对数函数

初等函数的ln.lg.log对数函数

这三种函数都是对数函数,对数函数的基本表示形式是:。式中a为对数的底数,y叫做真数。

如果a的x次方等于y(a>0,且a不等于1),那么数x叫做以a为底y的对数。

如果对数的底数为10,那么对数函数就可以写成“lg”,这种对数算法叫做“常用对数”。

如果对数的底数为e(自然常数),那么对数函数就可以写成“ln”,这种对数算法叫做“自然对数”。

Pandas安装

Pandas安装

Pandas 是一个开放源码、BSD 许可的库,提供高性能、易于使用的数据结构和数据分析工具。

Pandas 名字衍生自术语 “panel data”(面板数据)和 “Python data analysis”(Python 数据分析)。

Pandas 一个强大的分析结构化数据的工具集,基础是 Numpy(提供高性能的矩阵运算)。

Pandas 可以从各种文件格式比如 CSV、JSON、SQL、Microsoft Excel 导入数据。

Pandas 可以对各种数据进行运算操作,

深度学习框架PyTorch安装

深度学习框架PyTorch安装

深度学习框架PyTorch安装

1、访问 https://pytorch.org/get-started/locally/

2、选择版本、操作系统、安装的平台、语言、计算平台。

3、cmd中执行:

使用国外源:用时超过24小时

pip3 install torch torchvision torchaudio –extra-index-url https://download.pytorch.org/whl/cu116

使用国内源:用时10分钟左右

pip i

Sklearn 决策树 DecisionTree

Sklearn 决策树 DecisionTree

决策树是一类常见的机器学习方法。它把分类和回归问题归结为做出一系列子决策,通过一系列子决策组合得到的结果来做出最终决策。决策树表现为一种树形结构,其中每个内部节点表示一个属性上的测试,每个分支代表一个测试输出,每个叶节点代表一种类别。

import numpy as np

from sklearn import tree

x = np.array([[0, 0, 0], [0, 0, 1], [0, 1, 0], [0, 1, 1],

[1, 0, 0], [1, 0, 1

Sklearn 朴素贝叶斯 GaussianNB MultinomialNB BernoulliNB

贝叶斯定理 在概率论与统计学中,贝叶斯定理(或称贝叶斯法则、贝叶斯规则)描述了一个事件的可能性,这个可能性是基于预先对于一些与该事件相关的情况的知识。举例来说,如果癌症和年龄有关,那么知道了一个人的年龄的话,使用贝叶斯定理,相比于根本不了解关于此人的任何其他信息,就可以更准确地帮助评估这个人得癌症与否的概率。

贝叶斯定理所阐述的也就是后验概率的获得方法。

用数学公式来表述贝叶斯定理:

c表示的是随机事件发生的一种情况。x表示的就是证据(evidence),泛指与随机事件相关的因

Sklearn K近邻法 KNN

Sklearn K近邻法 KNN

K近邻法(k-nearest neighbors,KNN)是一种很基本的机器学习方法,在我们平常的生活中也会不自主的应用。比如,我们判断一个人的人品,只需要观察他来往最密切的几个人的人品好坏就可以得出了。这里就运用了KNN的思想。KNN方法既可以做分类,也可以做回归。

KNN做回归和分类的主要区别在于最后做预测时候的决策方式不同。KNN做分类预测时,一般是选择多数表决法,即训练集里和预测的样本特征最近的K个样本,预测为里面有最多类别数的类别。而KNN做回归时,一般是选择平均法,即最近的K个样