Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
如何在 bertopic 建模中获取每个主题的所有文档
我有一个数据集并尝试使用 berTopic 建模将其转换为主题 但问题是 我无法获取主题的所有文档 berTopic 每个主题仅返回 3 个文档 topic model BERTopic verbose True embedding mod
NLP
textclassification
bertlanguagemodel
topicmodeling
BertForSequenceClassification 如何在 CLS 向量上进行分类?
背景 跟着这个question https stackoverflow com questions 60876394 does bertforsequenceclassification classify on the cls vector
python
transformermodel
huggingfacetransformers
bertlanguagemodel
BERT 获取句子嵌入
我正在复制代码这一页 https colab research google com drive 1yFphU6PW9Uo6lmDly ud9a6c4RCYlwdX 我已将 BERT 模型下载到本地系统并获取句子嵌入 我有大约 500 00
BertModel 转换器输出字符串而不是张量
我正在跟进this https curiousily com posts sentiment analysis with bert and hugging face using pytorch and python 使用 BERT 和以下代
bertlanguagemodel
huggingfacetransformers
huggingfacetokenizers
如何使用Bert进行长文本分类?
我们知道 BERT 有 token 的最大长度限制 512 因此如果一篇文章的长度远大于 512 例如文本中有 10000 个 token 如何使用 BERT 您基本上有三个选择 您可以剪掉较长的文本并仅使用前 512 个令牌 最初的 BE
NLP
textclassification
bertlanguagemodel
来自 Transformer 的 BERT 句子嵌入
我正在尝试从 BERT 模型中的隐藏状态获取句子向量 查看huggingface BertModel 说明here https huggingface co bert base multilingual cased text This 20
bertlanguagemodel
huggingfacetransformers
BertForSequenceClassification 是否在 CLS 向量上进行分类?
我正在使用抱脸变压器 https huggingface co transformers index html使用 PyTorch 打包和 BERT 我正在尝试进行 4 向情感分类并正在使用BertFor序列分类 https hugging
保存具有自定义前向功能的 Bert 模型并将其置于 Huggingface 上
我创建了自己的 BertClassifier 模型 从预训练开始 然后添加由不同层组成的我自己的分类头 微调后 我想使用 model save pretrained 保存模型 但是当我打印它并从预训练上传时 我看不到我的分类器头 代码如下
python
NLP
Pytorch
huggingfacetransformers
bertlanguagemodel
BERT 输出不确定
BERT 输出是不确定的 当我输入相同的输入时 我希望输出值是确定性的 但我的 bert 模型的值正在变化 听起来很尴尬 同一个值返回两次 一次 也就是说 一旦出现另一个值 就会出现相同的值并重复 如何使输出具有确定性 让我展示我的代码片段
deeplearning
NLP
transformermodel
bertlanguagemodel
ValueError:TextEncodeInput 必须是 Union[TextInputSequence,Tuple[InputSequence,InputSequence]] - 标记 BERT / Distilbert 错误
def split data path df pd read csv path return train test split df test size 0 1 random state 100 train test split data
在非单一维度 1 处,张量 a (2) 的大小必须与张量 b (39) 的大小匹配
这是我第一次从事文本分类工作 我正在使用 CamemBert 进行二进制文本分类 使用 fast bert 库 该库主要受到 fastai 的启发 当我运行下面的代码时 from fast bert data cls import Bert
NLP
Pytorch
bertlanguagemodel
huggingfacetransformers
fastai
Huggingface Bert TPU 微调适用于 Colab,但不适用于 GCP
我正在尝试在 TPU 上微调 Huggingface Transformers BERT 模型 它在 Colab 中工作 但当我切换到 GCP 上的付费 TPU 时失败 Jupyter笔记本代码如下 1 model transformers
如何在keras中使用Bert作为长文本分类中的段落编码器来实现网络?
我正在做一个长文本分类任务 文档中有超过 10000 个单词 我计划使用 Bert 作为段落编码器 然后将段落的嵌入逐步输入 BiLSTM 网络如下 输入 batch size max paragraph len max tokens pe
python
Keras
NLP
bertlanguagemodel
BERT 问答中长文本的滑动窗口
我读过解释滑动窗口如何工作的帖子 但我找不到有关其实际实现方式的任何信息 据我了解 如果输入太长 可以使用滑动窗口来处理文本 如果我错了 请纠正我 说我有一条短信 2017 年 6 月 Kaggle 宣布注册用户突破 100 万 给定一些s
max_length、填充和截断参数在 HuggingFace 的 BertTokenizerFast.from_pretrained('bert-base-uncased') 中如何工作?
我正在处理文本分类问题 我想使用 BERT 模型作为基础 然后使用密集层 我想知道这 3 个参数是如何工作的 例如 如果我有 3 个句子 My name is slim shade and I am an aspiring AI Engin
python
deeplearning
Pytorch
bertlanguagemodel
huggingfacetokenizers
“您必须指定 input_ids 或 input_embeds”,但我确实指定了 input_ids
我训练了一个基于 BERT 的编码器解码器模型 EncoderDecoderModel named ed model使用 HuggingFace 的变压器模块 我用的是BertTokenizer命名为input tokenizer 我用以下
bertlanguagemodel
huggingfacetransformers
PipelineException:在输入中找不到 mask_token ([MASK])
我收到此错误 PipelineException 在输入中找不到 mask token MASK 当我运行这条线时 fill mask 汽车 我在 Colab 上运行它 我的代码 from transformers import BertT
python
NLP
Pytorch
bertlanguagemodel
huggingfacetransformers
为什么 Bert Transformer 使用 [CLS] 令牌进行分类而不是对所有令牌进行平均?
我正在对 bert 架构进行实验 发现大多数微调任务都将最终的隐藏层作为文本表示 然后将其传递给其他模型以进行进一步的下游任务 Bert 的最后一层如下所示 我们获取每个句子的 CLS 标记 图片来源 https jalammar gith
tensorflow
machinelearning
Keras
deeplearning
bertlanguagemodel
BERT 分词器和模型下载
我是初学者 我正在和伯特一起工作 但出于公司网络的安全考虑 下面的代码并没有直接接收bert模型 tokenizer BertTokenizer from pretrained bert base multilingual cased do
python
GitHub
Pytorch
huggingfacetransformers
bertlanguagemodel
基于 BERT 的 NER 模型在反序列化时给出不一致的预测
我正在尝试在 Colab 云 GPU 上使用 HuggingFace 变压器库训练 NER 模型 对其进行 pickle 并将模型加载到我自己的 CPU 上以进行预测 Code 模型如下 from transformers import B
python
Pytorch
bertlanguagemodel
huggingfacetransformers
1
2
»