文章存档
文章中心
2020-05-10 18:43:27
前面已经讲过一元线性回归,参考机器学习--- 一元线性回归
1. 理论
现在讲讲多元线性回归, 我们之前开发的线性回归仅能处理单一的特征x,也就是房子的面积,而且我们仅仅依赖它来预测房子的价格。我们如果真的去预测一套房子的价格的话,单单依靠房子的面积肯定是不够的。因为影响房价的因素肯定不仅仅是面积。比如,有几个卧室呀,有几个卫生间呀,房龄多久了呀等等。
即:
2020-05-10 10:11:05
一元线性回归
1. 预测房价
房价是一个很火的话题,现在我们拿到一组数据,是房子的大小(平方英尺)和房价(美元)之间的对应关系,如下(csv数据文件):
No,square_feet,price
1,150,6450
2,200,7400
3,250,8450
4,300,9460
5,350,11400
6,400,15470
7,600,1
2020-05-09 09:29:33
决策数(Decision Tree)在机器学习中也是比较常见的一种算法,属于监督学习中的一种。看字面意思应该也比较容易理解,相比其他算法比如支持向量机(SVM)或神经网络,似乎决策树感觉“亲切”许多。
优点:计算复杂度不高,输出结果易于理解,对中间值的缺失值不敏感,可以处理不相关特征数据。
缺点:可能会产生过度匹配的问题。
使用数据类型:数值型和标称型。
2020-05-08 20:53:41
1 概述
贝叶斯分类算法是一大类分类算法的总称。贝叶斯分类算法以样本可能属于某类的概率来作为分类依据。朴素贝叶斯(Naive Bayes)分类算法是贝叶斯分类算法中最简单的一种。
注:朴素的意思是条件概率独立性
2 算法思想
朴素贝叶斯的思想是这样的:如果一个事物在一些属性条件发生的情况下,事物属于A的概率>属于B的概率,则判定事物属于A。
通俗来说,你在街上看到一个黑人
2020-05-08 09:32:57
python numpy 切片
对于一维数组来说,python原生的list和numpy的array的切片操作都是相同的。无非是记住一个规则arr_name[start: end: step],就可以了。
实例:
step默认为1,当为负数时,表示从右到左
当start缺省时,默认为0,即 a[:3]相当于 a[0:3]
当end缺
2020-05-07 21:13:52
K最近邻(k-Nearest Neighbor,KNN)分类算法,通过测量不同特征值之间的距离进行分类,其指导思想是“近朱者赤,近墨者黑”,如果一个样本在特征空间中的k个最相似的样本中的大多数属于某一个类别,则该样本也属于这个类别。K通常为不大于20的整数。
KNN算法中,所选择的邻居都是已经正确分类的对象。该方法在定类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。 如下图所示,要决定绿
2020-05-06 17:56:20
机器学习是一种能从数据中学习的计算机编程科学以及艺术,就像下面这句话说得一样。
机器学习是使计算机无需显式编程就能学习的研究领域。——阿瑟·塞缪尔,1959年
不过还有一个更好的定义:
“如果一个程序在使用既有的经验(E)执行某类任务(T)的过程中被认为是“具备学习能力的”,那么它一定需要展现出:利用现有的经验(E),不断改善其
2020-04-19 22:30:19
常用公式
若 a=(x1,y1),b=(x2,y2)
则 a.b = |a||b|cosθ = x1.x2 + y1.y2 其中 cosθ这向量a和向量b的夹角
向量 ,则
2020-04-19 17:26:17
线性代数 视频
https://v.qq.com/x/cover/m2yy9zdbadasop8/n1405swq0pa.html
2020-04-19 16:46:10
行列式的性质
https://haokan.baidu.com/v?vid=12793964309747656456&pd=bjh&fr=bjhauthor&type=video
Dt = D 转置后 数值不变
行列式标记为 |A| 或 det(a)
行列式的值是一个数字,表示向量所在空间的【元素】 大小。
2020-04-19 11:17:10
图像的二值化,就是将图像上的像素点的灰度值设置为0或255,也就是将整个图像呈现出明显的只有黑和白的视觉效果。
一幅图像包括目标物体、背景还有噪声,要想从多值的数字图像中直接提取出目标物体,常用的方法就是设定一个阈值T,用T将图像的数据分成两部分:大于T的像素群和小于T的像素群。这是研究灰度变换的最特殊的方法,称为图像的二值化(Binarization)。
1. 全局阈(yu)值:
Python-OpenCV中提
2020-04-18 17:17:10
loc是指location的意思,iloc中的i是指integer。二者都是行索引
这两者的区别如下:
loc:works on labels in the index.
iloc:works on the positions in the index (so it only takes integers).
也就是说loc是根据index来索引,比如下边的df定义了一个index,那么loc就根据这个i

