博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
【Stanford Machine Learning Open Course】7. 分类问题 & logistic回归方法
阅读量:5115 次
发布时间:2019-06-13

本文共 921 字,大约阅读时间需要 3 分钟。

这里是斯坦福大学机器学习网络课程的学习笔记。课程地址是:

 

分类问题:比如性格分类问题、新闻话题分类问题等,需要预测出不同类别的问题。

  一般设定二分类问题预测值为0或1,下面以二分类为主介绍,后续会将多分类问题。

 

logistic回归模型解分类问题:

  我们已经了解了线性回归问题的预测函数是:h(a,X)= aTX,分类问题的预测函数跟这个不同。

  分类问题的一个预测函数是:h(a,X)= g( aTX ),且是y=1当h(a,X)>=0.5;  y=0当h(a,X)<0.5,

    其中g(z)=1/(1+e-z),满足 0< g(z) <1 ,g(z)被称作sigmoid函数或者logistic函数,

           基于logistic函数解分类问题的模型称作logistic回归模型。

    logistic(sigmoid) 函数图形如下:

           注:线性回归问题因为是预测出连续值,且对值取值范围没有限定,所以aTX是满足的,但对分类问题不合适。

 

  从sigmoid函数图形可知,当z>=0时,g(z)>=0.5,即y=1,而当z<0时,g(z)<0.5, 即y=0. 

  z=0, 称为Decusion Boundary,是分类问题的分界线。 z=0 等价于 aTX=0,所以求解出a,即可预测分类问题。

      但a并不总是可求的,所以还是要引入基于最小成本函数的数值解法。

 

梯度下降法求解logistic回归模型:

  成本函数定义为:cost(ha(x),y) = -log( ha(x) ), 若y=1

                                          = -log( 1- ha(x)), 若y=0

                     或者直接写为 cost(ha(x),y) = -y*log( ha(x) ) - (1-y)*log( 1- ha(x))

  梯度下降法:

    J=1/m*(-y'*log(sigmoid(X*a))-(1-y)'*log(1-sigmoid(X*a)));

    grad=1/m*((sigmoid(X*a)-y)'*X)';

 

 

转载于:https://www.cnblogs.com/liyuxia713/archive/2012/09/26/2699766.html

你可能感兴趣的文章
Azure 托管镜像和非托管镜像对比
查看>>
js window.open 参数设置
查看>>
032. asp.netWeb用户控件之一初识用户控件并为其自定义属性
查看>>
Ubuntu下安装MySQL及简单操作
查看>>
前端监控
查看>>
clipboard.js使用方法
查看>>
移动开发平台-应用之星app制作教程
查看>>
leetcode 459. 重复的子字符串(Repeated Substring Pattern)
查看>>
伪类与超链接
查看>>
centos 7 redis-4.0.11 主从
查看>>
博弈论 从懵逼到入门 详解
查看>>
永远的动漫,梦想在,就有远方
查看>>
springboot No Identifier specified for entity的解决办法
查看>>
慵懒中长大的人,只会挨生活留下的耳光
查看>>
"远程桌面连接--“发生身份验证错误。要求的函数不受支持
查看>>
【BZOJ1565】 植物大战僵尸
查看>>
VALSE2019总结(4)-主题报告
查看>>
浅谈 unix, linux, ios, android 区别和联系
查看>>
51nod 1428 活动安排问题 (贪心+优先队列)
查看>>
中国烧鹅系列:利用烧鹅自动执行SD卡上的自定义程序(含视频)
查看>>