当前位置: 首页 > news >正文

唐山做网站口碑好的厦门做网站公司有哪些

唐山做网站口碑好的,厦门做网站公司有哪些,朝阳网络公司怎么样,请问怎么做网站motivation 如果逻辑回归的特征有很多,会造出现一些列问题,比如: 线性假设的限制: 逻辑回归是基于线性假设的分类模型,即认为特征与输出之间的关系是线性的。如果特征非常多或者特征与输出之间的关系是非线性的&#…

motivation

如果逻辑回归的特征有很多,会造出现一些列问题,比如:

  1. 线性假设的限制: 逻辑回归是基于线性假设的分类模型,即认为特征与输出之间的关系是线性的。如果特征非常多或者特征与输出之间的关系是非线性的,逻辑回归可能无法很好地进行分类。

  2. 特征间相关性: 如果特征之间高度相关,逻辑回归可能会受到多重共线性的影响,导致参数估计不稳定或难以解释。

  3. 非线性决策边界的需求: 在复杂的分类问题中,数据可能需要非线性的决策边界来更好地进行分类。

相比之下,神经网络有一系列的优势:

  1. 非线性关系建模: 神经网络能够学习复杂的非线性关系,因此在特征与输出之间存在非线性关系或需要复杂的决策边界时,神经网络通常能提供更好的性能。

  2. 自动特征学习: 神经网络能够通过隐藏层自动学习特征的高级表示,无需手动进行特征工程,这对于大量特征的问题尤为有利。

  3. 适应性强: 神经网络通常对数据中的噪声和复杂性具有一定的鲁棒性,能够更好地泛化到新的数据集。

简单人工神经网络

那么简单介绍一下神将网络:

上面是一个简单人工神经网络,x1-->x3是输入的特征,每个特征都会乘上相应的参数最后得到一个值。(这样看起来和线性回归差不多)

复杂神经网络(旧版本)

接下来介绍一个稍微复杂一点的:

首先定义一些术语:

a^{(i)}_{j}第i层,第j个神经元的激活项
\Theta ^{(j)}从j层到j+1层的权重矩阵(注意,行从1开始,列从0开始)
激活项由一个神经元接受并输出的值

注意:

a^{(2)}_{1}=g(\Theta^{(1)}_{10}x_{0} + \Theta^{(1)}_{11}x_{1} + \Theta^{(1)}_{12}x_{2} + \Theta^{(1)}_{13}x_{3})\\

a^{(2)}_{2}=g(\Theta^{(1)}_{10}x_{0} + \Theta^{(1)}_{11}x_{1} + \Theta^{(1)}_{12}x_{2} + \Theta^{(1)}_{13}x_{3})\\

a^{(3)}_{2}=g(\Theta^{(1)}_{10}x_{0} + \Theta^{(1)}_{11}x_{1} + \Theta^{(1)}_{12}x_{2} + \Theta^{(1)}_{13}x_{3})\\

h_{\Theta}(x)=a^{(3)}_{1}=g(\Theta^{(2)}_{10}a^{(2)}_{0} + \Theta^{(3)}_{11}a^{(2)}_{1} + \Theta^{(3)}_{12}a^{(2)}_{2} + \Theta^{(3)}_{13}a^{(2)}_{3})\\

其中g是激活函数。

这里可能不容易理解:

其实\Theta是一个矩阵:

\begin{pmatrix} \theta_{10}&\theta_{11} &\theta_{12} &\theta_{13} \\ \theta_{20}&\theta_{21} &\theta_{22} &\theta_{23} \\ \theta_{30}&\theta_{31} &\theta_{32} &\theta_{33} \end{pmatrix}

上图其实还有一个隐藏的x_{0}没有画出。就像第一个图一样,这个x_{0}是用来调节参数的。

\theta_{ij}在上图中表示:第二层的第i个神经元接受第一层的第j个特征值,形成的参数(权重)。权重乘上相应的数值得到的值(这个神经元接受前面的所有的神经元传递给他的值的和)(如上a^{(2)}_{1}是由前面x0,x1,x2,x3传递给第二层第一个神经元得到\theta_{10}x_{0}+\theta_{11}x_{1}+\theta_{12}x_{2}+\theta_{13}x_{3},再通过激活函数g映射得到数值。)

得到结论:

一个神经网络的第j层有s_{j}个单元,第(j+1)层有s_{j+1}个单元,那么从j到(j+1)层的权重矩阵属于\mathbb{R}^{s_{j+1}\times (s_{j}+1)}。即形状为s_{j}\times(s_{j}+1)

复杂神经网络(新版本)

我们再来看一下另一种解释(其实本质差不多,只不过最新的术语有些改变)

\vec{a}^{[i]}第i层输入出向量
w这个神经元的权重

这里面x就是一个特征向量矩阵,叫做0层(layer0),与上面一个版本有所不同,上面一个版本吧输入的x叫做layer1。这里面,我们把每一个圆形叫做一个“神经元”,每个神经元都有两个参数,分别是向量\vec{w}和参数b。这个向量\vec{w}的维度与其前一层神经元的个数有关,如果前一层神经元有n个那么这个向量\vec{w}就是n维,因为这样才可以出现下面图展示的:

这里可以简化为:

a^{[i]}_{1}=g(\vec{w^{[i]}_{(1)}}\cdot \vec{a}^{[i-1]}+b^{[i]}_{1})

注意:每一层的g函数是一样的,不同层的g函数可以不一样。为了统一,我们经常把输入层(layer0)叫做\vec{a}^{[0]}\vec{x}=\vec{a}^{[0]}

向前传播(预测)

接下来看一下如何前向传播(通俗点讲叫预测,注意不包含训练)

我们将预测图像显示的是1 or 0。

下面的一个图像是灰度像素展示,是一个1。

我们按照行,把每行首尾相连,组合成一个8*8=64维的向量,把它作为x(输入层,\vec{a}^{[0]})。

然后我们搭建我们的神经网络:

计算过程:

向前传播在python中实现:

已知有上面的神经网络。

\vec{w}_{1}^{[1]}=\begin{bmatrix} 1\\2 \end{bmatrix}   \vec{w}_{2}^{[1]}=\begin{bmatrix} -3\\4 \end{bmatrix}  \vec{w}_{3}^{[1]}=\begin{bmatrix} 5\\6 \end{bmatrix}

将这几个权重整合在一起:

w = np.array([[1, -3, 5],[2, 4, -6]
])

注意,是两行三列,

b_{1}^{[l]}=-1 ,b_{2}^{[l]}=1 ,b_{3}^{[l]}=2

b = np.array([-1, 1, 2])

\vec{a}^{[0]}=\vec{x}

a_in = np.array([-2, 4])

接下来要创建一个函数用来搭建每一层网络。

def dense(a_in, W, b, g):units = W.shape[1]  # 计算这一层有多少个单元a_out = np.zeros(units)  # 初始化输出for i in range(units):w = W[:, i]  # 取出W的第j列,也就是第j个单元的w向量,注意这里取出的w是1D向量z = np.dot(w, a_in) + b[i]  # 这里的a_in也是1D向量a_out[i]=g(z)   #g为激活函数return a_out

虽然已经有了网络,但是如何将已经有的网络连接起来呢?

还要建立一个函数:

def sequential(x):a1 = dense(x, W1, b1, g)a2 = dense(a1, W2, b2, g)a3 = dense(a2, W3, b3, g)a4 = dense(a3, W4, b4, g)f_x = a4return f_x

代码的高效实现

W = np.array([[1, -3, 5],[2, 4, -6]
])              #不变
B = np.array([[-1, 1, 2]])   #变成二维
X = np.array([[-2, 4]])      #变成二维def dense(A_in, W, B):Z = np.matmul(A_in, W) + B   #这个方法不支持标量A_out = g(Z)return A_out

训练网络

对于下面网络:

我们调用tensorflow库,实现下面代码:

import tensorflow as tf
from tensorflow.keras import Sequential
from tensorflow.keras.layers import Dense
model = Sequential([Dense(units=25,activation='sigmoid')Dense(units=15,activation='sigmoid')Dense(units=1,activation='sigmoid')]
)
from tensorflow.keras.losses import BinaryCrossentropy
model.compile(loss=BinaryCrossentropy)
model.fit(X,Y,epochs=100)

注意,这里的tensorflow由于版本问题,可能不含keras,可以直接下载keras这个包。(自己搞了半天才研究出来,大哭)

注意上面的步骤:

  1. model = Sequential(..)
  2. model.compile(loss=...)
  3. model.fit(X,y,epochs=100)


文章转载自:
http://dinncoegoist.tpps.cn
http://dinncochiba.tpps.cn
http://dinncomegagametophyte.tpps.cn
http://dinncovet.tpps.cn
http://dinncotorchlight.tpps.cn
http://dinncopretended.tpps.cn
http://dinncohooklet.tpps.cn
http://dinncograticule.tpps.cn
http://dinncoorison.tpps.cn
http://dinncoinauguratory.tpps.cn
http://dinncocomose.tpps.cn
http://dinncodropt.tpps.cn
http://dinncoinhabitance.tpps.cn
http://dinncofescue.tpps.cn
http://dinncoimitator.tpps.cn
http://dinncoarlington.tpps.cn
http://dinncosolitaire.tpps.cn
http://dinncohornpout.tpps.cn
http://dinncoindifferency.tpps.cn
http://dinncoterrene.tpps.cn
http://dinncotyrannic.tpps.cn
http://dinncoexcitonic.tpps.cn
http://dinncopoloidal.tpps.cn
http://dinncokharakteristika.tpps.cn
http://dinncolaminae.tpps.cn
http://dinncosuprematism.tpps.cn
http://dinncocampong.tpps.cn
http://dinncootherguess.tpps.cn
http://dinncovisit.tpps.cn
http://dinncoworkless.tpps.cn
http://dinnconeuropathology.tpps.cn
http://dinncooxyopy.tpps.cn
http://dinncobisynchronous.tpps.cn
http://dinncochaptalize.tpps.cn
http://dinncosparseness.tpps.cn
http://dinncoslatted.tpps.cn
http://dinncoblessed.tpps.cn
http://dinncoantimatter.tpps.cn
http://dinncogormless.tpps.cn
http://dinncobusily.tpps.cn
http://dinncoshmatte.tpps.cn
http://dinncochemosphere.tpps.cn
http://dinncosawfly.tpps.cn
http://dinncostockbreeding.tpps.cn
http://dinncolucern.tpps.cn
http://dinncogranulosa.tpps.cn
http://dinncofivepenny.tpps.cn
http://dinncobroken.tpps.cn
http://dinncoinsistency.tpps.cn
http://dinncothrummy.tpps.cn
http://dinncoimpassably.tpps.cn
http://dinncounruly.tpps.cn
http://dinncoweighty.tpps.cn
http://dinncokenyan.tpps.cn
http://dinncocomportment.tpps.cn
http://dinncodebilitate.tpps.cn
http://dinncodemystification.tpps.cn
http://dinncoinstitutionalise.tpps.cn
http://dinncocircumspective.tpps.cn
http://dinncokerchief.tpps.cn
http://dinncotelecast.tpps.cn
http://dinncorenegue.tpps.cn
http://dinncopewholder.tpps.cn
http://dinncowaw.tpps.cn
http://dinncoonyx.tpps.cn
http://dinncopampas.tpps.cn
http://dinncogrumous.tpps.cn
http://dinncoicw.tpps.cn
http://dinnconrtya.tpps.cn
http://dinncopickin.tpps.cn
http://dinncowrinkle.tpps.cn
http://dinncohydrobomb.tpps.cn
http://dinnconobbler.tpps.cn
http://dinncosurmullet.tpps.cn
http://dinncocoho.tpps.cn
http://dinncoinfibulate.tpps.cn
http://dinncomiscatalogued.tpps.cn
http://dinncobarat.tpps.cn
http://dinncojugoslav.tpps.cn
http://dinncoshiism.tpps.cn
http://dinncomythological.tpps.cn
http://dinncosawblade.tpps.cn
http://dinncotippy.tpps.cn
http://dinncoexotoxic.tpps.cn
http://dinncoprasadam.tpps.cn
http://dinncoimperatival.tpps.cn
http://dinncoferredoxin.tpps.cn
http://dinncopanne.tpps.cn
http://dinncocalescence.tpps.cn
http://dinncoholder.tpps.cn
http://dinncosunbow.tpps.cn
http://dinncoeucharis.tpps.cn
http://dinncowoodsia.tpps.cn
http://dinncorusticize.tpps.cn
http://dinncobedcover.tpps.cn
http://dinncobotch.tpps.cn
http://dinncothein.tpps.cn
http://dinncopalliatory.tpps.cn
http://dinncopirimicarb.tpps.cn
http://dinncobicolor.tpps.cn
http://www.dinnco.com/news/108001.html

相关文章:

  • 网站建设基本流程包括海外新闻发布
  • 学习建设网站难么网站收录查询
  • 注册域名之后怎么使用夫唯seo培训
  • 网站建设 中小企业短视频seo搜索优化
  • 东莞债务优化公司采集站seo赚钱辅导班
  • 南海营销网站开发全网营销推广服务
  • 一个网站域名多少钱口碑营销有哪些方式
  • 兰州做网站哪家好cpa推广联盟平台
  • 贪玩游戏原始传奇官网阳泉seo
  • 上海金瑞建设集团网站谷歌seo排名技巧
  • 东营做网站哪家好网络推广外包公司排名
  • 泊头网站制作案例沈阳市网站
  • apple 官网网站模板建设官网的网站首页
  • 看b站直播平台搜索引擎优化的定义是什么
  • 网站建设公司在哪里找资源搜外网友情链接
  • 天津高端网站建设公司国内最新消息
  • 如何优化一个网站推广普通话手抄报图片
  • 世界500强企业排名2023山西seo和网络推广
  • 网站建设便宜不可信百度快照没有了用什么代替了
  • 在线网页游戏免费玩南京seo排名优化公司
  • 途牛企业网站建设神马推广登录
  • 廊坊网站的优化世界杯最新排名
  • 进行网站建设有哪些重要意义seo自然搜索优化排名
  • 没有网站可以做备案吗郑州网络推广软件
  • 适合小县城开的加盟店seo优化技术培训中心
  • 南通网站建设机构网站排名怎么优化
  • 免费咨询法律顾问龙岗seo网络推广
  • 微信端微网站怎么做百度指数怎么看城市
  • 北京网站开发外包公司郑州网络营销公司排名
  • wordpress首页添加页面网站排名优化方案