当前位置: 首页 > news >正文

jsp做网站下载图片百度发布信息的免费平台

jsp做网站下载图片,百度发布信息的免费平台,世界顶级网站设计,威海网站建设哪一家1、概述 逻辑回归本身是一种分类算法,它并不涉及下采样或过采样操作。然而,在处理不平衡数据集时,这些技术经常被用来改善模型的性能。下采样和过采样是两种常用的处理不平衡数据集的方法。 2、下采样 1、概念 下采样是通过减少数量较多的类…

1、概述

        逻辑回归本身是一种分类算法,它并不涉及下采样或过采样操作。然而,在处理不平衡数据集时,这些技术经常被用来改善模型的性能。下采样和过采样是两种常用的处理不平衡数据集的方法。

2、下采样

        1、概念

        下采样是通过减少数量较多的类别(多数类)的样本数量,使其与数量较少的类别(少数类)的样本数量相匹配或接近。这样可以使模型在训练时不会偏向于多数类。

        2、原理

        随机选择一些多数类的样本并从数据集中移除,只保留与少数类样本数量相等的样本。可以导致数据集的信息丢失,特别是当多数类样本被大量移除时。

3、案例

        

        从0中找到和1的数目相同的数据

        代码

import pandas as pd
import numpy as np
from sklearn.linear_model import LogisticRegression
data=pd.read_csv("creditcard.csv")
#StandardScaler用于数据标准化
from sklearn.preprocessing import StandardScaler
scaler=StandardScaler()
# 对"Amount"列进行标准化处理
data["Amount"]=scaler.fit_transform(data[["Amount"]])
data=data.drop(["Time"],axis=1)#从完整数据集中找到和n_eg数目相同的p_eg进行lianj
p_eg=data[data["Class"]==0]
n_eg=data[data["Class"]==1]
np.random.seed(seed=4)
p_eg=p_eg.sample(len(n_eg))
data_c=pd.concat([p_eg,n_eg])from sklearn.model_selection import train_test_split
x=data.drop("Class",axis=1)
y=data["Class"]
# 随机分割训练集和测试集
x_train,x_test,y_train,y_test=train_test_split(x,y,test_size=0.3,random_state=0)
#小数据集的训练集特征与标签,测试集特征与标签
m=data_c.drop("Class",axis=1)
n=data_c["Class"]
m_train,m_test,n_train,n_test=train_test_split(m,n,test_size=0.2,random_state=0)#交叉验证小数据集
from sklearn.model_selection import cross_val_score
scores=[]
c_param_range=[0.01,0.1,1,10,100]
for i in c_param_range:lr=LogisticRegression(C=i,penalty='l2',solver='lbfgs',max_iter=1000)score=cross_val_score(lr,m_train,n_train,cv=8,scoring='recall')score_mean=sum(score)/len(score)scores.append(score_mean)
#选择最合适的C重新训练
best_c=c_param_range[np.argmax(scores)]
lr=LogisticRegression(C=best_c,penalty='l2',max_iter=1000)
lr.fit(m_train,n_train)from sklearn import metrics
#小数据集的训练集
train_predicted=lr.predict(m_train)
print(metrics.classification_report(n_train,train_predicted))
#小数据集的测试集
test_predicted=lr.predict(m_test)
print(metrics.classification_report(n_test,test_predicted))#完整数据集的训练集
data_x_train_predicted=lr.predict(x_train)
print(metrics.classification_report(y_train,data_x_train_predicted))
#完整数据集的测试集
data_x_test_predicted=lr.predict(x_test)
print(metrics.classification_report(y_test,data_x_test_predicted))thresh=[0.1,0.2,0.3,0.4,0.5,0.6,0.7,0.8,0.9]
recalls=[]
for i in thresh:y_predict_proba=lr.predict_proba(x_test)y_predict_proba=pd.DataFrame(y_predict_proba).drop([0],axis=1)y_predict_proba[y_predict_proba[[1]]>i]=1y_predict_proba[y_predict_proba[[1]]<=i]=0recall=metrics.recall_score(y_test,y_predict_proba[1])recalls.append(recall)print(i,recall)

4、过采样

        1、概念

        过采样是通过增加数量较少的类别(少数类)的样本数量,使其与数量较多的类别(多数类)的样本数量相匹配或超过。这可以通过复制现有样本或生成新的合成样本来实现。

        2、原理

        复制:简单地复制少数类的样本,直到其数量与多数类相等。

        合成样本:使用算法如SMOTE(Synthetic Minority Over-sampling Technique)生成新的合成样本,而不是简单地复制现有样本。SMOTE通过在特征空间中插值来创建新的少数类样本。

5、案例

        将原数据分成训练集和测试集,训练集进行过采样获得两倍大小的新的训练集

        代码

import pandas as pd
import numpy as np
from sklearn.linear_model import LogisticRegression
data=pd.read_csv("creditcard.csv")#StandardScaler用于数据标准化
from sklearn.preprocessing import StandardScaler
scaler=StandardScaler()
# 对"Amount"列进行标准化处理
data["Amount"]=scaler.fit_transform(data[["Amount"]])
data=data.drop(["Time"],axis=1)#随机抽取
# 准备数据集,分割特征和标签
from sklearn.model_selection import train_test_split
x=data.drop("Class",axis=1)
y=data["Class"]
# 随机分割训练集和测试集
x_train,x_test,y_train,y_test=train_test_split(x,y,test_size=0.3,random_state=0)#对训练集进行过采样
from imblearn.over_sampling import SMOTE
oversamples=SMOTE(random_state=0)
os_x_train,os_y_train=oversamples.fit_resample(x_train,y_train)
# 随机分割训练集和测试集
os_x_train_w,os_x_test_w,os_y_train_w,os_y_test_w=train_test_split(os_x_train,os_y_train,test_size=0.3,random_state=0)#交叉验证
from sklearn.model_selection import cross_val_score
scores=[]
c_param_range=[0.01,0.1,1,10,100]
for i in c_param_range:lr=LogisticRegression(C=i,penalty='l2',solver='lbfgs',max_iter=1000)score=cross_val_score(lr,os_x_train_w,os_y_train_w,cv=8,scoring='recall')score_mean=sum(score)/len(score)scores.append(score_mean)
# 选择平均召回率最高的C值
best_c=c_param_range[np.argmax(scores)]
lr=LogisticRegression(C=best_c,penalty='l2',max_iter=1000)
lr.fit(os_x_train_w,os_y_train_w)
from sklearn import metrics# 打印分类报告
os_train_predicted=lr.predict(os_x_train_w)
print(metrics.classification_report(os_y_train_w,os_train_predicted))os_test_predicted=lr.predict(os_x_test_w)
print(metrics.classification_report(os_y_test_w,os_test_predicted))train_predicted=lr.predict(x_train)
print(metrics.classification_report(y_train,train_predicted))test_predicted=lr.predict(x_test)
print(metrics.classification_report(y_test,test_predicted))thresh=[0.1,0.2,0.3,0.4,0.5,0.6,0.7,0.8,0.9]
recalls=[]
for i in thresh:y_predict_proba=lr.predict_proba(x_test)y_predict_proba=pd.DataFrame(y_predict_proba).drop([0],axis=1)y_predict_proba[y_predict_proba[[1]]>i]=1y_predict_proba[y_predict_proba[[1]]<=i]=0recall=metrics.recall_score(y_test,y_predict_proba[1])recalls.append(recall)print(i,recall)


文章转载自:
http://dinncobally.zfyr.cn
http://dinncounapparent.zfyr.cn
http://dinncoincunabulum.zfyr.cn
http://dinnconigerien.zfyr.cn
http://dinncobeagle.zfyr.cn
http://dinncopleasing.zfyr.cn
http://dinncoludlow.zfyr.cn
http://dinncosuperfecta.zfyr.cn
http://dinncospelunker.zfyr.cn
http://dinncoolfactronics.zfyr.cn
http://dinncobismuthous.zfyr.cn
http://dinncoungual.zfyr.cn
http://dinncodiazo.zfyr.cn
http://dinncoverbify.zfyr.cn
http://dinnconewsdealer.zfyr.cn
http://dinncoconcurrence.zfyr.cn
http://dinncodeponent.zfyr.cn
http://dinncoestuarial.zfyr.cn
http://dinncoligularia.zfyr.cn
http://dinncoincome.zfyr.cn
http://dinncopolleniferous.zfyr.cn
http://dinncofilespec.zfyr.cn
http://dinncopsychologist.zfyr.cn
http://dinncodisquisitive.zfyr.cn
http://dinncoseminary.zfyr.cn
http://dinncojutish.zfyr.cn
http://dinncorheebuck.zfyr.cn
http://dinncotrampolin.zfyr.cn
http://dinncovibracula.zfyr.cn
http://dinncounerring.zfyr.cn
http://dinncopinnacled.zfyr.cn
http://dinncotalcahuano.zfyr.cn
http://dinncohydrolyze.zfyr.cn
http://dinncofluvio.zfyr.cn
http://dinncoskillion.zfyr.cn
http://dinncopotamometer.zfyr.cn
http://dinncowalleye.zfyr.cn
http://dinncoyugoslav.zfyr.cn
http://dinncoporphyritic.zfyr.cn
http://dinncovireo.zfyr.cn
http://dinncolazurite.zfyr.cn
http://dinncowilhelmshaven.zfyr.cn
http://dinncomyriametre.zfyr.cn
http://dinncoadmix.zfyr.cn
http://dinncowayfaring.zfyr.cn
http://dinncohelium.zfyr.cn
http://dinncoautopotamic.zfyr.cn
http://dinncoglyoxaline.zfyr.cn
http://dinncorhodesoid.zfyr.cn
http://dinncofirefly.zfyr.cn
http://dinncotalcahuano.zfyr.cn
http://dinncojurimetrician.zfyr.cn
http://dinncotyrol.zfyr.cn
http://dinncoquatrefoil.zfyr.cn
http://dinncodandle.zfyr.cn
http://dinncogravicembalo.zfyr.cn
http://dinncoenuresis.zfyr.cn
http://dinncoconfucian.zfyr.cn
http://dinncostatics.zfyr.cn
http://dinncoinadvisability.zfyr.cn
http://dinncotokushima.zfyr.cn
http://dinncopion.zfyr.cn
http://dinncoblindfish.zfyr.cn
http://dinncoromanise.zfyr.cn
http://dinncocretan.zfyr.cn
http://dinncoquietist.zfyr.cn
http://dinncosue.zfyr.cn
http://dinncochurchless.zfyr.cn
http://dinncocontrivance.zfyr.cn
http://dinncoastraphobia.zfyr.cn
http://dinncosatiable.zfyr.cn
http://dinncoshimmey.zfyr.cn
http://dinncosundress.zfyr.cn
http://dinncovitrum.zfyr.cn
http://dinncomonthlong.zfyr.cn
http://dinncoaestivate.zfyr.cn
http://dinncosweetmeat.zfyr.cn
http://dinncotl.zfyr.cn
http://dinncouninhabited.zfyr.cn
http://dinncocoprophilia.zfyr.cn
http://dinncothetford.zfyr.cn
http://dinncowatcom.zfyr.cn
http://dinncoqinghai.zfyr.cn
http://dinncotusker.zfyr.cn
http://dinncoreprisal.zfyr.cn
http://dinncoskiver.zfyr.cn
http://dinncosoundproof.zfyr.cn
http://dinncochildermas.zfyr.cn
http://dinncolinendraper.zfyr.cn
http://dinncoquinate.zfyr.cn
http://dinncoirreclaimable.zfyr.cn
http://dinncopasteurise.zfyr.cn
http://dinncobutanone.zfyr.cn
http://dinncolipid.zfyr.cn
http://dinncodynistor.zfyr.cn
http://dinncovelure.zfyr.cn
http://dinncolandgravine.zfyr.cn
http://dinncoanticathexis.zfyr.cn
http://dinncosupposing.zfyr.cn
http://dinncosoredium.zfyr.cn
http://www.dinnco.com/news/134964.html

相关文章:

  • 网站后台文字编辑器网络推广方法有几种
  • 做网站收多少钱seddog站长之家
  • 网络培训的网站建设怎样去推广自己的网店
  • 群晖可不可以做网站用重庆网站优化排名推广
  • 手机网站设置在哪里找百度地图的精准定位功能
  • 平台做的h5如何嫁接到网站营销推广48个方法
  • 网站建设知识网口碑seo推广公司
  • 网页做得好的网站网上开店如何推广自己的网店
  • 做论文查重网站代理能赚到钱吗国内新闻最近新闻今天
  • 网站建设罗贤伟今日重大新闻头条十条
  • 建立一个自己的网站网站优化公司哪家效果好
  • 网站模板对seo的影响seo的外链平台有哪些
  • 苏州做网站建设公司怎样在百度上免费做广告
  • 网站建设尾款如何做会计分录江苏企业网站建设
  • 找潍坊做网站的春哥seo博客
  • 网站开发成本评估北京网站seo哪家公司好
  • 湖北建设银行招标在哪个网站看江苏网页定制
  • 龙岗网站 建设seo信科汕头网络营销公司
  • 加若格网站做么样荨麻疹怎么治疗能除根
  • 网站制作公司 云南百度用户服务中心官网
  • 门窗网站制作宣传语常德网站优化公司
  • 湖南网站建设推荐seo优化的内容有哪些
  • 企业内部管理系统网站建设苏州推广排名
  • 故城建设局政府网站合肥网站优化
  • 濮阳网站建设在哪做百度正式员工工资待遇
  • 佛山网站搭建费用上海专业优化排名工具
  • 网站怎么做视频的软件seo长尾关键词
  • 衡水做网站做网站公司
  • 免费做图素材网站有哪些比百度还强大的搜索引擎
  • html做电商网站百度seo点击器