pytorch Embedding模块,自动为文本加载预训练的embedding

2023-11-08

pytorch 提供了一个简便方法torch.nn.Embedding.from_pretrained,可以将文本与预训练的embedding对应起来:

embedding
word1 0,2,3,4
word2 1,2,3,4
word3 2,2,3,4

使用方法就是:
首先有一个预训练的embedding列表:

torch.Tensor([
	[0, 2, 3, 4],
	[1, 2, 3, 4],
	[2, 2, 3, 4],
	[3, 2, 3, 4], ])

这个顺序与词表的顺序要一致,这样,如果输入一个1,就意味着我要拿到第1个字的embedding,就是[1,2,3,4]

案例

# coding: UTF-8
import torch
import torch.nn as nn


class Model(nn.Module):
    def __init__(self, embedding_pretrained):
        super(Model, self).__init__()
        self.embedding = nn.Embedding.from_pretrained(embedding_pretrained, freeze=False)

    def forward(self, x):
        out = self.embedding(x)
        return out


if __name__ == '__main__':
	# 预训练的 embedding
    pre_train = torch.Tensor([[0, 2, 3, 4],
                              [1, 2, 3, 4],
                              [2, 2, 3, 4],
                              [3, 2, 3, 4], ])
    model = Model(pre_train)
    embedding = model(torch.Tensor([[1, 1, 1, 2, 0], # 第1句话包含的字的编号
                                    [1, 0, 2, 1, 1]]).long()) # 第2句话包含的字的编号
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

pytorch Embedding模块,自动为文本加载预训练的embedding 的相关文章

随机推荐

  • 怀旧服服务器荣誉系统是啥,魔兽世界怀旧服:荣誉系统要开了?大元帅吸引人,军衔要不要冲?...

    魔兽世界怀旧服马上开荣誉系统了 相信很多pvp玩家都会有冲军衔的目标 因为军衔是实力和荣誉的象征 有玩家清晰记得 到了R13更新那天 跟另外两个元帅法师 一共3个元帅套 站在铁炉堡银行门口 围观的人超多 那种自豪和成就感难以言喻 大家知道大
  • echarts 饼图的指示线(labelline) 问题

    数据过多 且几个比较小的数据在一块扎堆 series name type pie center 25 50 radius 45 60 minAngle 10 设置每块扇形的最小占比 avoidLabelOverlap false hover
  • linux一次性创建多个文件/文件夹

    1 创建多个文件 touch file 1 10 注 创建10个文件 文件名file0 file1 file10 2 创建多个目录 mkdir folder 1 10 注 一次性创建10个文件夹 目录名为folder1 folder2 fo
  • 【Hive报错】Hive报错Expression Not In Group By Key解决方法

    SQL例如以下会报错 select sum time as time roadCoding upstreamOrDownstream from historicalroaddata where 报以下roadcoding upstreamO
  • 10个实用的Python数据可视化图表总结

    可视化是一种方便的观察数据的方式 可以一目了然地了解数据块 我们经常使用柱状图 直方图 饼图 箱图 热图 散点图 线状图等 这些典型的图对于数据可视化是必不可少的 除了这些被广泛使用的图表外 还有许多很好的却很少被使用的可视化方法 这些图有
  • 各向异性(anisotropic)浅提

    文章目录 各向异性 anisotropic 定义 哪种物体具有各向异性反射 什么导致各向异性反射 总结 各向异性 anisotropic 定义 它指一种存在方向依赖性 这意味着在不同的方向不同的特性 相对于该属性各向同性 当沿不同轴测量时
  • [Anaconda]——Linux下conda虚拟环境缺“msvcrt”

    问题 这里是在使用不同节点的系统时 一个是普通的节点 一个是GPU节点 在普通节点下准备好了所有的环境 使用Linux的NIS功能 利用网络把硬盘挂载到不同的节点 这个时候普通节点和GPU节点就做到了数据同步 但是发现在使用conda虚拟环
  • ThinkPHP6 框架 对接 ChatGPT应用

    ThinkPHP6是一款优秀的PHP开发框架 它提供了丰富的功能和易于使用的API 使得开发人员可以快速构建高质量的Web应用程序 本文将介绍如何使用ThinkPHP6框架对接ChatGPT应用 实现智能聊天机器人的功能 首先 我们需要在T
  • 部署mac os渗透测试环境

    一 序言 每次重装系统后配置环境都是需要耗费大量时间 特此写一篇mac os部署渗透测试环境 二 过程 一 系统设置 1 常用设置 SSD 开启 TRIM 支持 sudo trimforce enable APP安装开启任何来源 sudo
  • Lua coroutine.create

    Lua coroutine creat 相当于在C 中使用lua newthread Equivalent of Lua coroutine create in C using lua newthread 问 题 I have a call
  • 基于Qt的OpenGL编程(3.x以上GLSL可编程管线版)---(二十)面剔除

    Vries的教程是我看过的最好的可编程管线OpenGL教程 没有之一 其原地址如下 https learnopengl cn github io 04 20Advanced 20OpenGL 04 20Face 20culling 关于面剔
  • # HTB-Tier2- Vaccine

    HTB Tier2 Vaccine Web Network Vulnerability Assessment Databases Injection Custom Applications Protocols Source Code Ana
  • 毕业设计 基于Arduino的计算器

    0 前言 这两年开始毕业设计和毕业答辩的要求和难度不断提升 传统的毕设题目缺少创新和亮点 往往达不到毕业答辩的要求 这两年不断有学弟学妹告诉学长自己做的项目系统达不到老师的要求 为了大家能够顺利以及最少的精力通过毕设 学长分享优质毕业设计项
  • 暑期实训日志11——webstorm+chrome实时浏览插件

    在网上看到一个webstorm chrome里JetBrains IDE Support能够实现实时浏览的小工具 感觉非常实用 一 JetBrains IDE Support下载 下载地址 直接从谷歌商店下载也可 前提是进得去 下载好后打开
  • sqli-labs(28-28a)

    Less 28 1 测试http 127 0 0 1 sqli labs Less 28 id 1 27 页面回显不正常 但又没有错误提示 报错注入没戏 尝试闭合语句 加单引号回显不正常 说明sql语句闭合至少有 可能有 判断有无 在Les
  • log4cplus基础知识

    一 简介 log4cplus是C 编写的开源的日志系统 具有线程安全 灵活 以及多粒度控制的特点 通过将信息划分优先级使其可以面向程序调试 运行 测试 和维护等全生命周期 你可以选择将信息输出到屏幕 文件 NT event log 甚至是远
  • SSM controller要能跳转页面又要能返回字符串

    SpringMVC因为添加了下面这个bean 视图解析器 当你方法返回的是 json 字符串等其它值时 会404 跳转 jsp jsp页面
  • 回文数的判断

    文章目录 题目 一 方案一 二 方案二 三 方案三 四 方案四 题目 判断一个整数是否是回文数 回文数是指正序 从左向右 和倒序 从右向左 读都是一样的整数 提示 下面案例可供参考 一 方案一 public boolean palindro
  • 二叉树 深度优先搜索(DFS)、广度优先搜索(BFS)

    深度优先搜索算法 Depth First Search DFS是搜索算法的一种 它沿着树的深度遍历树的节点 尽可能深的搜索树的分支 当节点v的所有边都己被探寻过 搜索将回溯到发现节点v的那条边的起始节点 这一过程一直进行到已发现从源节点可达
  • pytorch Embedding模块,自动为文本加载预训练的embedding

    pytorch 提供了一个简便方法torch nn Embedding from pretrained 可以将文本与预训练的embedding对应起来 词 embedding word1 0 2 3 4 word2 1 2 3 4 word