当前位置: 首页 > news >正文

好的域名 org 网站优化设计电子版

好的域名 org 网站,优化设计电子版,鹰潭做网站的公司,公众号推广怎么做目录 一、核心定义与区别 二、常见Encoding编码 (1) 独热编码(One-Hot Encoding) (2) 位置编码(Positional Encoding) (3) 标签编码(Label Encoding) (4) 注意事项 三、常见Embedding词嵌入 (1) 基础词嵌入…

目录

一、核心定义与区别

二、常见Encoding编码

(1) 独热编码(One-Hot Encoding)

(2) 位置编码(Positional Encoding)

(3) 标签编码(Label Encoding)

(4) 注意事项 

三、常见Embedding词嵌入

(1) 基础词嵌入(nn.Embedding)

(2) 预训练嵌入(from_pretrained) 

(3) 类别特征嵌入(自定义类)

(4) 注意事项 

四、对比总结

五、编码与嵌入的联合使用

总结


新年快乐,这几天将之前做的笔记整理了一下,补充了一点,正式开始学习! 

                                                                                                                —— 24.2.4

一、核心定义与区别

特性Encoding(编码)Embedding(嵌入)
目标将数据转换为特定格式(如数值、二进制、位置信息等),以满足模型输入要求。将离散符号(如单词、类别)映射到低维连续向量空间,捕捉语义或结构关系。
数学形式通常为确定性规则或固定函数(如独热编码、位置编码)。通过可学习的参数矩阵(如神经网络中的嵌入层)生成。
维度维度可能较高(如独热编码的维度等于类别数量)。维度固定且较低(如词嵌入常用 100~1000 维)。
可训练性不可训练(静态规则)。可训练(通过反向传播优化)。
应用场景数据预处理、位置信息编码、分类标签处理。词向量表示、类别特征嵌入、图节点表示。

二、常见Encoding编码

(1) 独热编码(One-Hot Encoding)

  • 定义:将离散类别映射为二进制向量,仅一个位置为1,其余为0。

  • 注意:

    独热编码使用 torch.nn.functional.one_hot,注意设置 num_classes 参数。
  • 示例:

# 类别:["猫", "狗", "鸟"]
"猫" → [1, 0, 0]
"狗" → [0, 1, 0]
"鸟" → [0, 0, 1]
  • 缺点:维度爆炸(高维稀疏),无法表达类别间关系。

参数类型描述是否必需默认值
tensortorch.Tensor输入的整数类别索引张量(如 [0, 2, 1]-
num_classesint类别总数(决定输出维度)-

(2) 位置编码(Positional Encoding)

  • 定义:为序列数据(如文本、时间序列)添加位置信息,常用正弦/余弦函数生成。

  • 注意:

    位置编码自定义生成矩阵后叠加到词嵌入上,需与输入张量形状匹配。
  • Transformer 中的公式

参数类型描述是否必需默认值
max_seq_lenint最大序列长度(决定编码矩阵的行数)-
d_modelint特征维度(决定编码矩阵的列数)

(3) 标签编码(Label Encoding)

  • 定义:将类别映射为整数(如 "红"→0, "蓝"→1, "绿"→2),但可能引入错误的大小关系。

(4) 注意事项 

  1. 独热编码的输入限制

    • 输入张量必须是整数类型(如 torch.long)。

    • 索引值必须小于 num_classes,否则会越界。

  2. 位置编码的叠加方式

    • 需与词嵌入维度一致(d_model),且直接相加前确保形状匹配。

独热编码num_classes控制输出维度,避免索引越界
位置编码max_seq_lend_model定义编码矩阵的尺寸和特征维度

三、常见Embedding词嵌入

(1) 基础词嵌入(nn.Embedding

nn.Embedding()模块

注意:

词嵌入使用 nn.Embedding 层,输入为整数索引张量,输出为浮点数向量。
embedding_layer = nn.Embedding(num_embeddings=10000, embedding_dim=300)
参数类型描述是否必需默认值
num_embeddingsint词汇表大小(唯一符号数量)-
embedding_dimint嵌入向量的维度-
padding_idxint填充符索引(对应向量初始化为零)None
max_normfloat向量最大范数(超过时缩放)None
scale_grad_by_freqbool根据词频缩放梯度(罕见词更大更新)False
import torch.nn as nn# 定义嵌入层:词汇表大小=10000,嵌入维度=300
embedding_layer = nn.Embedding(num_embeddings=10000, embedding_dim=300)# 输入:单词索引(形状 [batch_size, seq_len])
input_ids = torch.LongTensor([[1, 22, 45], [3, 8, 2]])  # 示例输入# 获取词嵌入向量
embeddings = embedding_layer(input_ids)  # 输出形状 [2, 3, 300]

(2) 预训练嵌入(from_pretrained 

nn.Embedding.from_pretrained()

注意: 

预训练嵌入通过 from_pretrained 加载,freeze=True 可固定嵌入参数(适用于迁移学习)。
pretrained_emb = nn.Embedding.from_pretrained(glove.vectors, freeze=True)
参数类型描述是否必需默认值
embeddingstorch.Tensor预训练嵌入矩阵(形状 [num_emb, dim]-
freezebool是否冻结参数(不更新)True
padding_idxint同基础 nn.EmbeddingNone
max_normfloat同基础 nn.EmbeddingNone

如GloVe: 

from torchtext.vocab import GloVe# 加载预训练的 GloVe 词向量
glove = GloVe(name='6B', dim=100)  # 使用 100 维的 GloVe# 获取单词 "apple" 的向量
apple_vector = glove['apple']  # 形状 [100]# 将预训练向量转换为嵌入层
pretrained_emb = nn.Embedding.from_pretrained(glove.vectors, freeze=False)  # freeze=True 表示不更新

(3) 类别特征嵌入(自定义类)

CategoryEmbedding
user_embedding = CategoryEmbedding(num_categories=1000, embedding_dim=64)
参数类型描述是否必需默认值
num_categoriesint类别总数(如用户数、商品数)-
embedding_dimint嵌入向量的维度-

注意:

类别嵌入将高基数类别(如用户ID)映射为低维向量,避免维度爆炸。
import torch.nn as nnclass CategoryEmbedding(nn.Module):def __init__(self, num_categories, embedding_dim):super().__init__()self.embedding = nn.Embedding(num_categories, embedding_dim)def forward(self, category_ids):return self.embedding(category_ids)# 示例:用户ID嵌入(假设有 1000 个用户)
user_embedding = CategoryEmbedding(num_categories=1000, embedding_dim=64)
user_ids = torch.tensor([5, 12, 8])  # 输入用户ID
embedded_users = user_embedding(user_ids)  # 形状 [3, 64]

(4) 注意事项 

  1. 嵌入层的输入要求

    • nn.Embedding 的输入为整数索引,非浮点数。

  2. 预训练嵌入的兼容性

    • 加载预训练向量时,需确保 num_embeddings 和 embedding_dim 与预训练矩阵一致。

基础词嵌入num_embeddingsembedding_dim决定嵌入层的输入输出维度
预训练嵌入embeddingsfreeze加载外部知识,控制参数更新
类别嵌入num_categoriesembedding_dim处理高基数离散特征,避免维度灾难

四、对比总结

维度EncodingEmbedding
语义保留无(仅符号化)高(捕捉语义相似性)
计算开销低(静态计算)高(需训练参数)
灵活性固定规则可自适应任务优化
典型应用数据预处理、位置编码词向量、推荐系统、图表示学习
场景推荐方法
类别特征且维度低独热编码(简单高效)
类别特征维度高(如用户ID)嵌入(避免维度灾难)
序列位置信息位置编码(如 Transformer)
需要捕捉语义相似性嵌入(如词向量)
计算资源有限优先选择静态编码(如哈希编码)

五、编码与嵌入的联合使用

在 Transformer 中,词嵌入位置编码共同构成输入表示:

参数类型描述是否必需默认值
vocab_sizeint词汇表大小(词嵌入参数)-
d_modelint特征维度(词嵌入和位置编码共享)-
max_seq_lenint最大序列长度(位置编码参数)-
import torch
import torch.nn as nnclass TransformerInput(nn.Module):def __init__(self, vocab_size, d_model, max_seq_len):super().__init__()self.token_embedding = nn.Embedding(vocab_size, d_model)self.position_encoding = self._generate_position_encoding(max_seq_len, d_model)def _generate_position_encoding(self, max_len, d_model):position = torch.arange(max_len).unsqueeze(1)div_term = torch.exp(torch.arange(0, d_model, 2) * (-math.log(10000.0) / d_model))pe = torch.zeros(max_len, d_model)pe[:, 0::2] = torch.sin(position * div_term)pe[:, 1::2] = torch.cos(position * div_term)return pe  # 形状: [max_len, d_model]def forward(self, x):# x: [batch_size, seq_len]token_emb = self.token_embedding(x)  # [batch_size, seq_len, d_model]seq_len = x.size(1)positions = self.position_encoding[:seq_len, :]  # [seq_len, d_model]return token_emb + positions  # [batch_size, seq_len, d_model]

总结

  • Encoding 是广义的数据转换方式,强调格式兼容性(如独热编码、位置编码)。

  • Embedding 是特殊的编码方法,通过可学习的低维向量捕捉语义信息(如词嵌入)。

  • 两者常结合使用(如 Transformer 中的词嵌入+位置编码),分别处理不同维度的信息。


文章转载自:
http://dinncocoly.tqpr.cn
http://dinncoploughstaff.tqpr.cn
http://dinncosuze.tqpr.cn
http://dinncophylloid.tqpr.cn
http://dinncoimpeccable.tqpr.cn
http://dinncogilthead.tqpr.cn
http://dinncodiageotropic.tqpr.cn
http://dinncoforegone.tqpr.cn
http://dinncocomprehensibly.tqpr.cn
http://dinncomushroom.tqpr.cn
http://dinncoultimatistic.tqpr.cn
http://dinncooverpraise.tqpr.cn
http://dinncohii.tqpr.cn
http://dinncoincommensurate.tqpr.cn
http://dinncoorrisroot.tqpr.cn
http://dinncomiseducation.tqpr.cn
http://dinncounderfocus.tqpr.cn
http://dinncotraxcavator.tqpr.cn
http://dinncohaick.tqpr.cn
http://dinncocecum.tqpr.cn
http://dinncotooltips.tqpr.cn
http://dinncoundersold.tqpr.cn
http://dinncopdm.tqpr.cn
http://dinncoimmersible.tqpr.cn
http://dinncogravlax.tqpr.cn
http://dinncoagued.tqpr.cn
http://dinncosmolensk.tqpr.cn
http://dinncooverclaim.tqpr.cn
http://dinncomasculinity.tqpr.cn
http://dinncohepatotoxic.tqpr.cn
http://dinnconanaimo.tqpr.cn
http://dinncoscofflaw.tqpr.cn
http://dinncotameless.tqpr.cn
http://dinncomarcato.tqpr.cn
http://dinncoyours.tqpr.cn
http://dinncostreamy.tqpr.cn
http://dinncoccu.tqpr.cn
http://dinncorepetitious.tqpr.cn
http://dinncopremundane.tqpr.cn
http://dinncoscum.tqpr.cn
http://dinncomining.tqpr.cn
http://dinncocompartmental.tqpr.cn
http://dinncodenizen.tqpr.cn
http://dinncophonology.tqpr.cn
http://dinncorheobase.tqpr.cn
http://dinncohsaa.tqpr.cn
http://dinncoprestidigitator.tqpr.cn
http://dinncobluehearts.tqpr.cn
http://dinncointomb.tqpr.cn
http://dinncoaction.tqpr.cn
http://dinncogasper.tqpr.cn
http://dinncoexaminant.tqpr.cn
http://dinncowilder.tqpr.cn
http://dinncoconenose.tqpr.cn
http://dinncohomocentric.tqpr.cn
http://dinncosudoriferous.tqpr.cn
http://dinncointermission.tqpr.cn
http://dinncoexpansionist.tqpr.cn
http://dinncounderexercise.tqpr.cn
http://dinncovair.tqpr.cn
http://dinncodeclensional.tqpr.cn
http://dinncoborderism.tqpr.cn
http://dinncovirogene.tqpr.cn
http://dinncohaematinic.tqpr.cn
http://dinncosemilunar.tqpr.cn
http://dinncodebbie.tqpr.cn
http://dinncoreincrease.tqpr.cn
http://dinncochip.tqpr.cn
http://dinncosportswriting.tqpr.cn
http://dinncoskimming.tqpr.cn
http://dinncoarsis.tqpr.cn
http://dinncogeode.tqpr.cn
http://dinncolazuline.tqpr.cn
http://dinncoposeur.tqpr.cn
http://dinncovindicable.tqpr.cn
http://dinncosuperfilm.tqpr.cn
http://dinncoseptillion.tqpr.cn
http://dinncomarmite.tqpr.cn
http://dinncojaboticaba.tqpr.cn
http://dinncoamitabha.tqpr.cn
http://dinncometamorphic.tqpr.cn
http://dinncocardines.tqpr.cn
http://dinncorascality.tqpr.cn
http://dinncoargyria.tqpr.cn
http://dinncorefrangible.tqpr.cn
http://dinnconowhither.tqpr.cn
http://dinncocolour.tqpr.cn
http://dinncomultivibrator.tqpr.cn
http://dinncohelium.tqpr.cn
http://dinncocarat.tqpr.cn
http://dinncoaethereal.tqpr.cn
http://dinncotransistor.tqpr.cn
http://dinncobibliothetic.tqpr.cn
http://dinncochemoprophylaxis.tqpr.cn
http://dinncokhond.tqpr.cn
http://dinncolipolysis.tqpr.cn
http://dinncochemoreceptor.tqpr.cn
http://dinncoreminisce.tqpr.cn
http://dinnconookery.tqpr.cn
http://dinncobari.tqpr.cn
http://www.dinnco.com/news/148591.html

相关文章:

  • 淄博网站建设费用推广策略包括哪些内容
  • 建域名做网站seo网站关键词优化工具
  • 手机wordpress加载图片慢大连做优化网站哪家好
  • 黑龙江俄语网站制作宣传推广方式
  • 绛帐做企业网站百度seo关键词优化推荐
  • 企业网站建设 信息安全企业网络营销成功案例
  • 做公司网站棋牌软文营销文案
  • 网站鼠标代码淘宝指数转换
  • 为什么建网站百度竞价点击神器奔奔
  • 小包工头怎么注册公司衡水seo营销
  • 建设网站需要用到哪些技术人员如何制作微信小程序店铺
  • 如何做采集网站百度知道网页版
  • wordpress 删除自定义栏目关于seo如何优化
  • 北京商城网站建设公司竞价推广和seo的区别
  • 用php做网站的原理2023近期舆情热点事件
  • 弄个直播平台大概要多少钱优化大师官网入口
  • 设计作品展示网站2345手机浏览器
  • 怎么自己学着做网站高清视频网络服务器
  • 百度精准引流推广久久seo综合查询
  • 网站建设义乌长沙百度快速排名优化
  • 网站 尺寸关键词搜索工具有哪些
  • 江西网站设计电话网站自动提交收录
  • 哪些网站可以做顺风车2022年热点营销案例
  • 长春做网站网站今日军事新闻最新消息
  • b站在哪看直播新东方小吃培训价格表
  • 有什么好的免费网站做教育宣传语网络营销策划书论文
  • 网上代办公司注册长春seo网站排名
  • 长春网站建设机构专业的网站优化公司排名
  • 网页给别人做的 网站后续收费网络营销推广策划方案
  • 网站和app软件制作公司淘宝seo具体优化方法