博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
监督学习——logistic进行二分类(python)
阅读量:7022 次
发布时间:2019-06-28

本文共 2017 字,大约阅读时间需要 6 分钟。

线性回归及sgd/bgd的介绍:

        

训练数据形式:          (第一列代表x1,第二列代表 x2,第三列代表 数据标签 用 0/1表示)

训练函数形式:            y = sigmod(w0+w1*x1+w2*x2)

       通过训练函数就能够得到参数列向量θ([θ0,θ1,…θn]^T),当输入样本列向量x([x0,x1,…,xn]),那么我们对样本x分类就可以通过上述公式计算出一个概率,如果这个概率大于0.5,我们就可以说样本是正样本,否则样本是负样本。

      利用训练函数进行分类: 输入如果(x1,x2),利用训练函数得到 y值,如果y>0.5 返回1 ,否则返回 0。

1. Sigmoid 函数

        为了将连续的数值转化为 二进制的0/1,机器学习中一般引入Sigmoid函数,该函数的形式如下:

       

       对应的函数图像:

      可以看出它的两个极值就是 0 /1 所以可以很好的将连续之映射为二分类。

      Sigmoid函数有一个很棒的特点是它的导数 f′(x) = f(x)(1−f(x))

 

那么如何通过训练数据得到目标sigmoid函数(训练函数计算过程原理)

2. sigmoid函数+logigstic 解决二分类问题

      通过上图中的数据源计算目标函数,并通过目标函数对未知数据进行二分类

数据加载:

def loadDataSet():    dataMat = []; labelMat = []    fr = open('testSet.txt')    for line in fr.readlines():        lineArr = line.strip().split()        dataMat.append([1.0, float(lineArr[0]), float(lineArr[1])])        labelMat.append(int(lineArr[2]))    return dataMat,labelMat

批梯度上升算法

 

def sigmoid(inX):    return 1.0/(1+exp(-inX))def gradAscent(dataMatIn, classLabels):    # 输入训练数据    dataMatrix = mat(dataMatIn)             #convert to NumPy matrix    # 输入训练数据的标签(0 / 1)    labelMat = mat(classLabels).transpose() #convert to NumPy matrix    m,n = shape(dataMatrix)    # 训练步长 (越大则收敛的速度)    alpha = 0.001    # 最大迭代次数    maxCycles = 500    # 训练函数的系数(为需要求解的结果)    weights = ones((n,1))    for k in range(maxCycles):              #heavy on matrix operations        h = sigmoid(dataMatrix*weights)     #matrix mult        error = (labelMat - h)              #vector subtraction        # 梯度上升算法的 迭代 算法
weights = weights + alpha * dataMatrix.transpose()* error
#matrix mult
return weights

 

随机梯度上升算法

由于批梯度算法每次迭代都需要将所有的训练数据进行计算,所以它的运行效率并不高。

而随机梯度上升算法每次迭代只是将一个训练数据进行迭代所以效率很高。

它们的数据源是一样的。

def stocGradAscent0(dataMatrix, classLabels):    m,n = shape(dataMatrix)    alpha = 0.01    weights = ones(n)   #initialize to all ones    for i in range(m):        #每次迭代只需要一个训练数据        h = sigmoid(sum(dataMatrix[i]*weights))        error = classLabels[i] - h
weights = weights + alpha * error * dataMatrix[i]
return weights

 

参考:

梯度上升算法解释:

《机器学习实战》

转载于:https://www.cnblogs.com/NeilZhang/p/9069461.html

你可能感兴趣的文章
[20161003]触发器与redo.txt
查看>>
HDOJ 2080 夹角有多大II
查看>>
经典算法题每日演练——第五题 字符串相似度
查看>>
[20161216]scp使用小技巧.txt
查看>>
android 向SD卡写入数据
查看>>
apache防盗链设置
查看>>
linux 系统获取网络ip, mask, gateway, dns信息小程序
查看>>
nginx开发(四)调用ffmpeg,搭建rtmp直播流。
查看>>
Kafka入门(一)
查看>>
Java多线程之Lock的使用
查看>>
Redis
查看>>
python函数
查看>>
死锁的产生与检测
查看>>
gcc中动态库和静态库的链接顺序
查看>>
SVN:服务器端设置提交时必须填写注释
查看>>
人生如牌
查看>>
Nodejs操作MongoDB数据库示例
查看>>
多了解一下Chrome开发者控制台
查看>>
加强BYOD安全措施 政府机构也不例外
查看>>
D3DFVF浅谈------ D3DFVF_XYZ 和 D3DFVF_XYZRHW 的区别
查看>>