当前位置: 首页 > news >正文

网站建设的条件分析电商推广联盟

网站建设的条件分析,电商推广联盟,dw网页设计毕业论文,厦门广告公司网站建设BERT特性: BERT的嵌入是位置绝对(position absolute)的。BERT擅长于预测掩码token和NLU,但是不擅长下一文本生成。 1.BertForTokenClassification 一个用于token级分类的模型,可用于命名实体识别(NER)、部分语音标记…

BERT特性:

  • BERT的嵌入是位置绝对(position absolute)的。
  • BERT擅长于预测掩码tokenNLU,但是不擅长下一文本生成。

1.BertForTokenClassification

一个用于token级分类的模型,可用于命名实体识别(NER)、部分语音标记(POS)等。对于给定的输入序列,模型将为每个标记/词产生一个标签。
输出的维度是 [batch_size, sequence_length, num_labels],其中 num_labels 是可能的标签数量。

class transformers.BertForTokenClassification(config)

继承父类:BertPreTrainedModel、torch.nn.Module

参数:config (BertConfig)——包含模型所有参数的模型配置类

包含一个token分类的任务头(线性层,可用于NER)。

forward方法:

参数

  • input_ids (torch.LongTensor of shape (batch_size, sequence_length)) — 输入序列对应的分词索引列表(indices list)。索引根据AutoTokenizer得到。
  • attention_mask (torch.FloatTensor of shape (batch_size, sequence_length), optional) — 对输入序列的部分token加上掩码,使得注意力机制不会计算到。如填充token的索引(padding token indices)。取值为 [0, 1]二者之一。取0则表明掩码,取1则表明不掩码。
  • token_type_ids (torch.LongTensor of shape (batch_size, sequence_length), optional) — 在分句任务中,表明token是属于第一句还是第二句。取值为 [0, 1]二者之一。
  • position_ids (torch.LongTensor of shape (batch_size, sequence_length), optional) — 输入序列对应的位置索引列表(positional indices list)。 取值范围为 [0, config.max_position_embeddings - 1],从而加入位置信息。
  • head_mask (torch.FloatTensor of shape (num_heads,) or (num_layers, num_heads), optional) — 掩码(多头)自注意力模块的头。取值为 [0, 1]二者之一:取0则表示对应的头要掩码,取1则表示对应的头不掩码。
  • inputs_embeds (torch.FloatTensor of shape (batch_size, sequence_length, hidden_size), optional) — 如果想要直接将嵌入向量传入给模型,由自己控制 input_ids的关联向量,那么就传这个参数。这样就不需要由本模型内部的嵌入层矩阵运算 input_ids
  • output_attentions (bool, optional) — 是否希望模型返回所有的注意力分数
  • output_hidden_states (bool, optional) — 是否希望模型返回所有层的隐藏状态
  • return_dict (bool, optional) — 是否希望输出的是ModelOutput,而不是直接的元组tuple。
  • labels (torch.LongTensor of shape (batch_size, sequence_length), optional) — 提供标签,用于计算loss。取值范围为 [0, config.max_position_embeddings - 1]

返回值

transformers.modeling_outputs.TokenClassifierOutput 或 tuple(torch.FloatTensor)

  1. 如果 return_dictFalse(或 return_dict 为空但配置文件中 self.config.use_return_dictFalse):
    • 如果提供了 labels 参数,输出是一个元组,包含:
      • loss: 计算的损失值。
      • logits: 分类头的输出,形状为 (batch_size, sequence_length, num_labels)
      • 其他 BERT 的输出(例如隐藏状态和注意力权重),但这取决于 BERT 的配置和输入参数。
    • 如果没有提供 labels 参数,输出只包含 logits 和其他 BERT 的输出。
  2. 如果 return_dictTrue(或 return_dict 为空但配置文件中 self.config.use_return_dictFalse):
    • 输出是一个 TokenClassifierOutput 对象,包含以下属性:
      • loss: 如果提供了 labels 参数,这是计算的损失值。
      • logits: 分类头的输出,形状为 (batch_size, sequence_length, num_labels)
      • hidden_states: BERT 的隐藏状态输出。
      • attentions: BERT 的注意力权重输出。

代码实现

@add_start_docstrings("""Bert Model with a token classification head on top (a linear layer on top of the hidden-states output) e.g. forNamed-Entity-Recognition (NER) tasks.""",BERT_START_DOCSTRING,
)
class BertForTokenClassification(BertPreTrainedModel):def __init__(self, config):super().__init__(config)self.num_labels = config.num_labels  # 标签的数量self.bert = BertModel(config, add_pooling_layer=False)  # 预训练BERTclassifier_dropout = (config.classifier_dropout if config.classifier_dropout is not None else config.hidden_dropout_prob)self.dropout = nn.Dropout(classifier_dropout)self.classifier = nn.Linear(config.hidden_size, config.num_labels)  # classification任务头,加在预训练BERT之上# Initialize weights and apply final processingself.post_init()@add_start_docstrings_to_model_forward(BERT_INPUTS_DOCSTRING.format("batch_size, sequence_length"))@add_code_sample_docstrings(checkpoint=_CHECKPOINT_FOR_TOKEN_CLASSIFICATION,output_type=TokenClassifierOutput,config_class=_CONFIG_FOR_DOC,expected_output=_TOKEN_CLASS_EXPECTED_OUTPUT,expected_loss=_TOKEN_CLASS_EXPECTED_LOSS,)def forward(self,input_ids: Optional[torch.Tensor] = None,attention_mask: Optional[torch.Tensor] = None,token_type_ids: Optional[torch.Tensor] = None,position_ids: Optional[torch.Tensor] = None,head_mask: Optional[torch.Tensor] = None,inputs_embeds: Optional[torch.Tensor] = None,labels: Optional[torch.Tensor] = None,output_attentions: Optional[bool] = None,output_hidden_states: Optional[bool] = None,return_dict: Optional[bool] = None,) -> Union[Tuple[torch.Tensor], TokenClassifierOutput]:r"""labels (`torch.LongTensor` of shape `(batch_size, sequence_length)`, *optional*):Labels for computing the token classification loss. Indices should be in `[0, ..., config.num_labels - 1]`."""return_dict = return_dict if return_dict is not None else self.config.use_return_dictoutputs = self.bert(input_ids,attention_mask=attention_mask,token_type_ids=token_type_ids,position_ids=position_ids,head_mask=head_mask,inputs_embeds=inputs_embeds,output_attentions=output_attentions,output_hidden_states=output_hidden_states,return_dict=return_dict,)  # 预训练BERT的计算,得到输入序列经BERT计算的向量序列sequence_output = outputs[0]sequence_output = self.dropout(sequence_output)logits = self.classifier(sequence_output)  # 再经过最后的任务头classificationloss = Noneif labels is not None:loss_fct = CrossEntropyLoss()loss = loss_fct(logits.view(-1, self.num_labels), labels.view(-1))if not return_dict:output = (logits,) + outputs[2:]return ((loss,) + output) if loss is not None else outputreturn TokenClassifierOutput(loss=loss,logits=logits,hidden_states=outputs.hidden_states,attentions=outputs.attentions,)

使用示例:

from transformers import AutoTokenizer, BertForTokenClassification
import torchtokenizer = AutoTokenizer.from_pretrained("dbmdz/bert-large-cased-finetuned-conll03-english")
model = BertForTokenClassification.from_pretrained("dbmdz/bert-large-cased-finetuned-conll03-english")inputs = tokenizer("HuggingFace is a company based in Paris and New York", add_special_tokens=False, return_tensors="pt"
)with torch.no_grad():logits = model(**inputs).logits  # 想要得到分类后的权重,获取的是输出的logits对象。predicted_token_class_ids = logits.argmax(-1)# Note that tokens are classified rather then input words which means that
# there might be more predicted token classes than words.
# Multiple token classes might account for the same word
predicted_tokens_classes = [model.config.id2label[t.item()] for t in predicted_token_class_ids[0]]
# predicted_tokens_classes = ['O', 'I-ORG', 'I-ORG', 'I-ORG', 'O', 'O', 'O', 'O', 'O', 'I-LOC', 'O', 'I-LOC', 'I-LOC'] 

2.BertForSequenceClassification

一个用于整个句子或段落级别的分类的模型,可用于情感分析、文本分类等。对于给定的输入,模型将为整个序列产生一个分类标签。
输出的维度是 [batch_size, num_labels],其中 num_labels 是可能的分类数量。

class transformers.BertForSequenceClassification(config)

继承父类:BertPreTrainedModel、torch.nn.Module

参数:config (BertConfig)——包含模型所有参数的模型配置类

forward方法:BertForTokenClassification相同。

BertForTokenClassification的差异:

  • BertForSequenceClassification 在 BERT 的编码器输出上增加了一个**全连接层(通常连接到 [CLS] 标记的输出)**来进行分类。
  • BertForTokenClassification 不需要额外的全连接层,而是直接使用 BERT输出的每个标记的表示,并可能有一个线性层来将其映射到标签空间。

使用示例:

import torch
from transformers import AutoTokenizer, BertForSequenceClassificationtokenizer = AutoTokenizer.from_pretrained("textattack/bert-base-uncased-yelp-polarity")
model = BertForSequenceClassification.from_pretrained("textattack/bert-base-uncased-yelp-polarity")inputs = tokenizer("Hello, my dog is cute", return_tensors="pt")with torch.no_grad():logits = model(**inputs).logitspredicted_class_id = logits.argmax().item()
predicted_class_label = model.config.id2label[predicted_class_id]
# predicted_class_label = LABEL_1

文章转载自:
http://dinncokenya.bpmz.cn
http://dinncocleaver.bpmz.cn
http://dinncoencephaloid.bpmz.cn
http://dinncoaldis.bpmz.cn
http://dinncoeurydice.bpmz.cn
http://dinncoclockwise.bpmz.cn
http://dinncosoft.bpmz.cn
http://dinncoenosis.bpmz.cn
http://dinncoapyrexia.bpmz.cn
http://dinncogastrointestinal.bpmz.cn
http://dinncoelektron.bpmz.cn
http://dinncosubstruction.bpmz.cn
http://dinncoorang.bpmz.cn
http://dinncochile.bpmz.cn
http://dinncomonopolize.bpmz.cn
http://dinncoturd.bpmz.cn
http://dinncosplinterless.bpmz.cn
http://dinncogarrocha.bpmz.cn
http://dinncobalustrade.bpmz.cn
http://dinncosemismile.bpmz.cn
http://dinncobyzantinism.bpmz.cn
http://dinncomoonward.bpmz.cn
http://dinncoreligieux.bpmz.cn
http://dinncohuanghai.bpmz.cn
http://dinncoabiochemistry.bpmz.cn
http://dinncouncanny.bpmz.cn
http://dinncoapoplexy.bpmz.cn
http://dinncosubadult.bpmz.cn
http://dinncorecidivation.bpmz.cn
http://dinncoduumvir.bpmz.cn
http://dinncoforebode.bpmz.cn
http://dinncokatzenjammer.bpmz.cn
http://dinncohind.bpmz.cn
http://dinncobenchman.bpmz.cn
http://dinncounguligrade.bpmz.cn
http://dinncosuccedanea.bpmz.cn
http://dinncoscolecite.bpmz.cn
http://dinncocorpulent.bpmz.cn
http://dinncotighten.bpmz.cn
http://dinncoasclepius.bpmz.cn
http://dinncoretinalite.bpmz.cn
http://dinncopleopod.bpmz.cn
http://dinncogowan.bpmz.cn
http://dinncopararuminant.bpmz.cn
http://dinncocritically.bpmz.cn
http://dinncoeuphonize.bpmz.cn
http://dinncotsutsugamushi.bpmz.cn
http://dinncohermatype.bpmz.cn
http://dinncopermission.bpmz.cn
http://dinncoinurbane.bpmz.cn
http://dinncoerasmian.bpmz.cn
http://dinncoagnolotti.bpmz.cn
http://dinncoosteitis.bpmz.cn
http://dinncozooplasty.bpmz.cn
http://dinncoworm.bpmz.cn
http://dinncobutterfingered.bpmz.cn
http://dinncoexplanative.bpmz.cn
http://dinncoglomerate.bpmz.cn
http://dinncopipa.bpmz.cn
http://dinncoostrogoth.bpmz.cn
http://dinncosponge.bpmz.cn
http://dinncomisfeasor.bpmz.cn
http://dinncovalentine.bpmz.cn
http://dinncountrusty.bpmz.cn
http://dinncocushioncraft.bpmz.cn
http://dinncokilter.bpmz.cn
http://dinncolovebug.bpmz.cn
http://dinncounmined.bpmz.cn
http://dinncocommissurotomy.bpmz.cn
http://dinncoisoamyl.bpmz.cn
http://dinncocatchpoll.bpmz.cn
http://dinncopickaback.bpmz.cn
http://dinncodean.bpmz.cn
http://dinncoheliotypy.bpmz.cn
http://dinncoevocable.bpmz.cn
http://dinncobona.bpmz.cn
http://dinncountold.bpmz.cn
http://dinncohypofunction.bpmz.cn
http://dinncobenefactrix.bpmz.cn
http://dinncosemiretired.bpmz.cn
http://dinncobuhlwork.bpmz.cn
http://dinncodeafness.bpmz.cn
http://dinncodecahydrate.bpmz.cn
http://dinncodeclaimer.bpmz.cn
http://dinncobicommunal.bpmz.cn
http://dinncovixen.bpmz.cn
http://dinncoulm.bpmz.cn
http://dinncocaponier.bpmz.cn
http://dinncoruttish.bpmz.cn
http://dinncogop.bpmz.cn
http://dinncoresponsa.bpmz.cn
http://dinncoshlock.bpmz.cn
http://dinncofacet.bpmz.cn
http://dinncogranodiorite.bpmz.cn
http://dinncogladiola.bpmz.cn
http://dinncoacta.bpmz.cn
http://dinncocataclinal.bpmz.cn
http://dinncocornute.bpmz.cn
http://dinncowristband.bpmz.cn
http://dinncoedulcorate.bpmz.cn
http://www.dinnco.com/news/7497.html

相关文章:

  • 公司门户网站建设方案杭州seo博客
  • 网站ipv6改造怎么做 网页代码百度百家号
  • 惠州建设集团网站最新国内新闻50条简短
  • 北京网站seo排名优化房地产最新消息
  • 企业网站维护报价网络营销成功的案例及其原因
  • 天津网站建设方案策划下载百度搜索
  • seo自学教程seo免费教程seo专业课程
  • 在合肥做网站前端月薪大概多少钱湖南网站建设推广优化
  • 上海小程序开发西安百度seo在哪里
  • 17Z一起做网站广州站在线排名优化
  • 有服务器怎么做网站佛山百度seo代理
  • wordpress无评论seo超级外链
  • 汉化主题做网站效果图百度导航下载2021最新版
  • 深圳电商网站制作公司百度号码认证平台取消标记
  • 苏州网站优化百度提交网站收录入口
  • 自己做的网站打开超慢网站排名查询工具有哪些
  • 网站作业公司网站seo外包
  • 嘉兴做网站建设的公司如何在百度上营销
  • 网站建设教程 三级分销最新引流推广方法
  • 网站响应速度多少合适接推广怎么收费
  • 网站做端口是什么成人计算机培训机构哪个最好
  • 如何做网站挣钱怎样在百度上发布作品
  • 郓城网站建设价格免费广告
  • html怎么做查询网站吗东莞网络公司代理
  • 企业网站建设公司专门看网站的浏览器
  • 黑龙江省城乡和建设厅网站首页网站优化排名优化
  • 政府网站建设公司抖音seo是什么意思
  • 网站群建设讲话有哪些平台可以免费发广告
  • 网站301检测工具soe搜索优化
  • 衢江网站建设百度快照提交入口