登录 |  注册 |  繁體中文

文章中心
2020-05-22 09:41:57
写点啥呢?
2020-05-19 22:19:44
在python里,图片以数组的形式保存,我们用例子说明,用数组创建图1,并且修改左下角像素的颜色,如图2 图1     图2   # -*- coding: UTF-8 -*- import cv2 import numpy as np #创建4行3列 12个像素的3通道彩色图, #第1维是行, 第2维是列,第3维的BGR值, # 以下img 第0行,第0列是
2020-05-17 13:33:55
AI学习
2020-05-17 13:07:55
欧氏距离是一个距离定义,指在m维空间中两个点之间的真实距离。在二维和三维空间中的欧氏距离就是两点之间的实际距离。 二维空间的公式 p为点 与点 之间的欧氏距离 三维空间的公式 n维空间的公式
2020-05-17 10:52:33
两种不同的缩放方式,目的都是缩小范围。 归一化(Normalization):将一列数据变化到某个固定区间(范围)中,通常,这个区间是[0, 1],广义的讲,可以是各种区间,比如图像中可能会映射到[0,255],主要是为了数据处理方便提出来的 标准化(Standardization):就是将训练集中某一列数值特征(假设是第i列)的值缩放成均值为0,方差为1的状态。具体操作是将数据按比例缩放,使之落入一个小的特定区间。
2020-05-17 10:35:52
一、在现实生活中,一个目标变量(y)可以认为是由多个特征变量(x)影响和控制的,那么这些特征变量的量纲和数值的量级就会不一样,比如x1 = 10000,x2 = 1,x3 = 0.5 可以很明显的看出特征x1和x2、x3存在量纲的差距;x1对目标变量的影响程度将会比x2、x3对目标变量的影响程度要大(可以这样认为目标变量由x1掌控,x2,x3影响较小,一旦x1的值出现问题,将直接的影响到目标变量的预测,把目标变量的预测值由x1独揽大权,
2020-05-17 08:17:25
1.主要功能如下: 1.classification分类 2.Regression回归 3.Clustering聚类 4.Dimensionality reduction降维 5.Model selection模型选择 6.Preprocessing预处理 2.主要模块分类: 1.sklearn.base: Base classes and utility functio
2020-05-16 17:04:34
  sklearn是python的重要机器学习库,其中封装了大量的机器学习算法,如:分类、回归、降维以及聚类;还包含了监督学习、非监督学习、数据变换三大模块。sklearn拥有完善的文档,使得它具有了上手容易的优势;并它内置了大量的数据集,节省了获取和整理数据集的时间。因而,使其成为了广泛应用的重要的机器学习库。下面简单介绍一下sklearn下的常用方法。 1. 监督学习 sklearn.neighbors #近邻算法
2020-05-16 12:51:21
  数加 数乘/积 互相加 互相乘/点积 数学向量 标量运算即为向量和数字间的运算。向量与数的运算就是向量内每一个元素与这一个数进行相应的运算。如下图的一个标量运算: 一个数乘以一个向量等于这个数同向量中的每个
2020-05-15 18:03:31
机器学习--- K均值(K-Means) 假定我们有如下8个点 A1(2, 10) A2(2, 5) A3(8, 4) A4(5, 8) A5(7, 5) A6(6, 4) A7(1, 2) A8(4, 9) 希望分成3个聚类 初始化选择 A1(2, 10), A4(5, 8) ,A7(1, 2)为聚类中心点,两点距离定义为ρ(a, b) = |x2 – x1| +
2020-05-15 14:56:10
支持向量机(support vector machines, SVM)     https://zhuanlan.zhihu.com/p/77750026
2020-05-15 09:51:00
利用梯度下降法求解梯度的过程:           一般情况下分为三步:           1-随机一个初始值,在多元线性回归中,我们随机一组w,带入到损失函数中,得到一个初始点.           2-让这个点按照负梯度的方向运动,就是
2页/总28页  共331条记录  首页 上一页 下一页 尾页

回到顶部