当前位置: 首页 > news >正文

网站建设德尔普灰色行业关键词优化

网站建设德尔普,灰色行业关键词优化,光谷做网站推广,二类电商平台最近需要复习一下机器学习相关知识,记录一下 一、简介 线性回归:h(x)wTxbh(x)w^T x bh(x)wTxb logistic回归就是在线性模型的基础上加上一个sigmoid函数ggg,即h(x)g(wTxb)h(x)g(w^T xb)h(x)g(wTxb)。。。g(z)1/(1e−z)g(z)1/(1e^{-z})g(z)…

最近需要复习一下机器学习相关知识,记录一下

一、简介

线性回归:h(x)=wTx+bh(x)=w^T x +bh(x)=wTx+b

logistic回归就是在线性模型的基础上加上一个sigmoid函数ggg,即h(x)=g(wTx+b)h(x)=g(w^T x+b)h(x)=g(wTx+b)。。g(z)=1/(1+e−z)g(z)=1/(1+e^{-z})g(z)=1/(1+ez)
它可以将一个线性回归中的结果转化为一个概率值。此时h(x)h(x)h(x)表示的就是某件事发生的概率,我们也可以记为p(Y=1∣x)p(Y=1|x)p(Y=1∣x)

二、 逻辑回归的损失函数

逻辑回归采用的是交叉熵的损失函数。

对于一般的二分类的逻辑回归来说交叉熵函数为:J(θ)=−[yln(y′)+(1−y)ln(1−y′)]J(\theta)=-[yln(y')+(1-y)ln(1-y')]J(θ)=[yln(y)+(1y)ln(1y)],其中y′y'y是预测值。

实际上我们求的是训练中所有样本的损失,因此:

J(θ)=−1m∑[yiln(yi‘)+(1−yi)ln(1−yi‘)]J(\theta )=-\frac{1}{m}\sum[y_i ln(y_i`)+(1-y_i )ln(1-y_i`)] J(θ)=m1[yiln(yi)+(1yi)ln(1yi)]

三、逻辑回归的优化方法

3.1 梯度下降

函数梯度的方向就是函数增长最快的方向,反之梯度的反方向就是函数减少最快的方向。因此我们想要计算一个函数的最小值,就朝着该函数梯度相反的方向前进。
假设我们需要优化的函数:f(X)=f(x1,...,xn)f(X)=f(x_1,...,x_n)f(X)=f(x1,...,xn)

首先我们初始化自变量,从X(0)=(x1(0),...xn(0))X^(0)=(x_1^{(0)},...x_n^{(0)})X(0)=(x1(0),...xn(0))开始。设置一个学习率η\etaη
对于任何i>=0i>=0i>=0:

如果是最小化fff

x1i+1=x1i−η∂f∂x1(x(i))x_1^{i+1}=x_1^{i}-\eta \frac{\partial{f}}{\partial{x_1}}(x^{(i)})x1i+1=x1iηx1f(x(i))

xni+1=xni−η∂f∂xn(x(i))x_n^{i+1}=x_n^{i}-\eta \frac{\partial{f}}{\partial{x_n}}(x^{(i)})xni+1=xniηxnf(x(i))

反之如果求fff的最大值,则

x1i+1=x1i+η∂f∂x1(x(i))x_1^{i+1}=x_1^{i}+\eta \frac{\partial{f}}{\partial{x_1}}(x^{(i)})x1i+1=x1i+ηx1f(x(i))

xni+1=xni+η∂f∂xn(x(i))x_n^{i+1}=x_n^{i}+\eta \frac{\partial{f}}{\partial{x_n}}(x^{(i)})xni+1=xni+ηxnf(x(i))

3.2逻辑回归的优化

逻辑回归优化的目标函数:
J(w,b)=−1m∑[yiln(σ(wTx+b))+(1−yi)ln(1−σ(wTx+b))]J(w,b )=-\frac{1}{m}\sum[y_i ln(\sigma(w^T x +b))+(1-y_i )ln(1-\sigma(w^T x +b))]J(w,b)=m1[yiln(σ(wTx+b))+(1yi)ln(1σ(wTx+b))]

我们需要优化参数w,bw,bw,b,从而使其在我们已知的样本X,yX,yX,y上值最小。也就是我们常说的经验风险最小。

首先我们需要对J(w,b)J(w,b)J(w,b)求导。

先令 g=σ(wTx+b)g=\sigma(w^T x +b)g=σ(wTx+b)

∂J(g)∂g=−∂∂g[yln(g)+(1−y)ln(1−g)]=−yg+1−y1−g\frac{\partial J(g)}{\partial g}=-\frac{\partial}{\partial g}[yln(g)+(1-y)ln(1-g)]=-\frac{y}{g}+\frac{1-y}{1-g} gJ(g)=g[yln(g)+(1y)ln(1g)]=gy+1g1y

再令:a=wTx+ba=w^T x +ba=wTx+b

∂g∂a=∂(11+e−a)∂a=−(1+e−a)−2−e−a=11+e−a1+e−a−11+e−a=σ(a)(1−σ(a))=g(1−g)\frac{\partial g}{\partial a}=\frac{\partial ({\frac{1}{1+e^{-a}}})}{\partial a}=-(1+e^{-a})^{-2}-e^{-a}=\frac{1}{1+e^{-a}}\frac{1+e^{-a}-1}{1+e^{-a}}=\sigma(a)(1-\sigma (a))=g(1-g) ag=a(1+ea1)=(1+ea)2ea=1+ea11+ea1+ea1=σ(a)(1σ(a))=g(1g)

可以发现g=σ(a)g=\sigma(a)g=σ(a),但是gggaaa求导之后居然是 g(1−g)g(1-g)g(1g),在后续的梯度下降优化中,Sigmoid函数的这个性质可以减少很多不必要的计算。

接下来求需要优化的参数w,bw,bw,b的梯度。
根据链式求导:

∂J∂w=∂J∂g∂g∂a∂a∂w=(−yg+1−y1−g)g(1−g)x=(g−y)x\frac{\partial J}{\partial w}=\frac{\partial J}{\partial g}\frac{\partial g}{\partial a}\frac{\partial a}{\partial w}=(-\frac{y}{g}+\frac{1-y}{1-g})g(1-g)x=(g-y)x wJ=gJagwa=(gy+1g1y)g(1g)x=(gy)x

∂J∂b=∂J∂g∂g∂a∂a∂b=(−yg+1−y1−g)g(1−g)=(g−y)\frac{\partial J}{\partial b}=\frac{\partial J}{\partial g}\frac{\partial g}{\partial a}\frac{\partial a}{\partial b}=(-\frac{y}{g}+\frac{1-y}{1-g})g(1-g)=(g-y) bJ=gJagba=(gy+1g1y)g(1g)=(gy)

四、调用sklearn中的lr

import numpy as np
from sklearn import datasets
from sklearn.model_selection import train_test_split
X=datasets.load_iris()['data']
Y=datasets.load_iris()['target']
from sklearn.linear_model import LogisticRegression
X_train,X_test,y_train,y_test=train_test_split(X,Y,test_size=0.1,stratify=Y)model=LogisticRegression(penalty='l2',class_weight=None,random_state=None,  max_iter=100)
model.fit(X_train,y_train)
model.predict_proba(X_test)

penalty:惩罚系数,也就是我们常说的正则化,默认为"l2",可选为l1。

class_weight:类别权重,一般我们在分类不均衡的时候使用,比如{0:0.1,1:1}代表在计算loss的时候,0类别的loss乘以0.1。这样在0类别的数据过多时候就相当于给1类别提权了。

max_iter:最大迭代次数。

五、为什么逻辑回归中经常会将特征离散化。

这个是工业界中常见的操作,一般我们不会将连续的值作为特征输入到逻辑回归的模型之中,而是将其离散成0,1变量。这样的好处有:

1:稀疏变量的内积乘法速度快,计算结果方便存储,并且容易扩展;

2:离散化后的特征对异常数据有很强的鲁棒性:比如一个特征是年龄>30是1,否则0。如果特征没有离散化,一个异常数据“年龄300岁”会给模型造成很大的干扰。

3:逻辑回归属于广义线性模型,表达能力受限;单变量离散化为N个后,每个变量有单独的权重,相当于为模型引入了非线性,能够提升模型表达能力,加大拟合;

4:离散化后可以进行特征交叉,由M+N个变量变为M*N个变量,进一步引入非线性,提升表达能力;

5:特征离散化后,模型会更稳定,比如如果对用户年龄离散化,20-30作为一个区间,不会因为一个用户年龄长了一岁就变成一个完全不同的人。当然处于区间相邻处的样本会刚好相反,所以怎么划分区间是比较重要的。


文章转载自:
http://dinncoblastula.stkw.cn
http://dinncoproteinase.stkw.cn
http://dinncodefibrinate.stkw.cn
http://dinncophotolithoprint.stkw.cn
http://dinncoinveterately.stkw.cn
http://dinncolexicology.stkw.cn
http://dinncodragon.stkw.cn
http://dinncotout.stkw.cn
http://dinncojg.stkw.cn
http://dinncoroughride.stkw.cn
http://dinncounsoldierly.stkw.cn
http://dinncoflypast.stkw.cn
http://dinncoshine.stkw.cn
http://dinncoparasympathetic.stkw.cn
http://dinncolashkar.stkw.cn
http://dinncorawhead.stkw.cn
http://dinncocryptococcosis.stkw.cn
http://dinncowandering.stkw.cn
http://dinncoplebeianism.stkw.cn
http://dinncocyclize.stkw.cn
http://dinncoxyphoid.stkw.cn
http://dinncoslatch.stkw.cn
http://dinncotore.stkw.cn
http://dinncostateless.stkw.cn
http://dinncobespectacled.stkw.cn
http://dinncowelterweight.stkw.cn
http://dinncoprivately.stkw.cn
http://dinncorevealed.stkw.cn
http://dinncononcooperativity.stkw.cn
http://dinncobusker.stkw.cn
http://dinncopeduncle.stkw.cn
http://dinncopsst.stkw.cn
http://dinncowhimper.stkw.cn
http://dinncotrichome.stkw.cn
http://dinncotibiae.stkw.cn
http://dinncoleasehold.stkw.cn
http://dinncoexonym.stkw.cn
http://dinncoindefeasible.stkw.cn
http://dinncoorthodox.stkw.cn
http://dinncosalwar.stkw.cn
http://dinnconemoricole.stkw.cn
http://dinncolameness.stkw.cn
http://dinncoamberite.stkw.cn
http://dinncopalatinate.stkw.cn
http://dinnconicotian.stkw.cn
http://dinncobutcher.stkw.cn
http://dinncobiogeny.stkw.cn
http://dinncobriefless.stkw.cn
http://dinncodripping.stkw.cn
http://dinncopenny.stkw.cn
http://dinncofluoroplastic.stkw.cn
http://dinncodancer.stkw.cn
http://dinncofatso.stkw.cn
http://dinncoanteorbital.stkw.cn
http://dinncoaparejo.stkw.cn
http://dinncoankylosis.stkw.cn
http://dinncodogginess.stkw.cn
http://dinncocredo.stkw.cn
http://dinncomuscularity.stkw.cn
http://dinncohypnotic.stkw.cn
http://dinncomasseur.stkw.cn
http://dinncofeisty.stkw.cn
http://dinncoastaticism.stkw.cn
http://dinncocircumscribe.stkw.cn
http://dinncotheatrically.stkw.cn
http://dinncopuffiness.stkw.cn
http://dinncoarrant.stkw.cn
http://dinncodarwinist.stkw.cn
http://dinncoextort.stkw.cn
http://dinncogarrocha.stkw.cn
http://dinncofluviatile.stkw.cn
http://dinncopixmap.stkw.cn
http://dinncoeagerness.stkw.cn
http://dinncohaemic.stkw.cn
http://dinncodahomey.stkw.cn
http://dinncoflexitime.stkw.cn
http://dinncoundershoot.stkw.cn
http://dinncoconnective.stkw.cn
http://dinncononpolitical.stkw.cn
http://dinncostrum.stkw.cn
http://dinncomiee.stkw.cn
http://dinncosinclair.stkw.cn
http://dinncoautography.stkw.cn
http://dinncosquiz.stkw.cn
http://dinncofreeboot.stkw.cn
http://dinncosilbador.stkw.cn
http://dinncopizazzy.stkw.cn
http://dinncodreamscape.stkw.cn
http://dinncologographer.stkw.cn
http://dinncofacility.stkw.cn
http://dinncojejunum.stkw.cn
http://dinncopks.stkw.cn
http://dinncocosmoid.stkw.cn
http://dinncoflaps.stkw.cn
http://dinncosuprarenal.stkw.cn
http://dinncoattainable.stkw.cn
http://dinncoreinfection.stkw.cn
http://dinncorhinoplastic.stkw.cn
http://dinncocanaliform.stkw.cn
http://dinncorevolutionize.stkw.cn
http://www.dinnco.com/news/97979.html

相关文章:

  • 网站查询域名访问网页设计模板html代码
  • 太原网页设计培训班南宁seo排名首页
  • 厦门企业网站建设方案电脑培训班附近有吗
  • 手机网站竞价seo工作内容和薪资
  • 互联网网站建设价格b2b网站大全免费
  • 陕西咸阳做网站的公司百度里面的站长工具怎么取消
  • 网站制作中山上海网站优化公司
  • 自助建站实验报告公司排名seo
  • 甘南州城乡建设局网站百度应用市场app下载
  • 网站设计专题页最近新闻热点国家大事
  • 方圆网通网站建设上海网站制作开发
  • access怎么做网站网络媒体软文案例
  • 全国疫情中高风险地区哪些网站可以seo
  • 龙口有没有做网站的网络营销方案设计毕业设计
  • 昆明建站公司推荐郑州厉害的seo顾问公司
  • 自己做的网站如何管理济南seo公司报价
  • 响应式网站 app网站制作公司高端
  • 做网站做小程序推广西安网站维护公司
  • 广东万高建设网站html简单网页成品
  • 2015年做那个网站致富免费域名申请网站大全
  • 安徽省建筑人员信息网网站seo收录
  • 江苏省泰州市建设局官方网站网站搜索引擎优化案例
  • 开发一整个网站要多久网络营销方案设计
  • 怎么知道网站有没有备案百度文库官网
  • 做医药商城网站的公司全球网站访问量排名
  • 网站建设要域名和什么网站收录提交入口大全
  • 做雇主品牌的网站长沙网站优化培训
  • 无锡网站制作方案嘉兴seo外包平台
  • 自己网站怎么做外链自己如何做网站
  • 教做湘菜的视频网站企业短视频推广