Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
在 Keras 中使用有状态 LSTM 训练多变量多级数回归问题
我有时间序列P过程 每个过程的长度各不相同 但都有 5 个变量 维度 我试图预测测试过程的估计寿命 我正在用有状态的方法来解决这个问题LSTM在喀拉斯 但我不确定我的训练过程是否正确 我将每个序列分成长度的批次30 所以每个序列都是这样的形
python
machinelearning
Keras
LSTM
recurrentneuralnetwork
PyTorch LSTM 中的“隐藏”和“输出”有什么区别?
我无法理解 PyTorch 的 LSTM 模块 以及类似的 RNN 和 GRU 的文档 关于输出 它说 输出 输出 h n c n 输出 seq len batch hidden size num directions 包含RNN最后一层的
deeplearning
Pytorch
LSTM
recurrentneuralnetwork
tensor
LSTM - 一段时间后预测相同的常数值
我有一个变量 我想预测未来 30 年的情况 不幸的是我没有很多样品 df pd DataFrame FISCAL YEAR 1979 1980 1981 1982 1983 1984 1985 1986 1987 1988 1989 199
python
tensorflow
Keras
LSTM
验证 Transformer 中多头注意力的实现
我已经实施了MultiAttention head in Transformers 周围有太多的实现 所以很混乱 有人可以验证我的实施是否正确 DotProductAttention 引用自 https www tensorflow org
tensorflow
Keras
deeplearning
NLP
LSTM
CNTK 抱怨 LSTM 中的动态轴
我正在尝试在 CNTK 中实现 LSTM 使用 Python 来对序列进行分类 Input 特征是固定长度的数字序列 时间序列 标签是 one hot 值的向量 Network input input variable input dim
python
LSTM
cntk
将 Dropout 与 Keras 和 LSTM/GRU 单元结合使用
在 Keras 中 您可以像这样指定 dropout 层 model add Dropout 0 5 但对于 GRU 单元 您可以将 dropout 指定为构造函数中的参数 model add GRU units 512 return se
Keras
LSTM
dropout
将 Pytorch LSTM 的状态参数转换为 Keras LSTM
我试图将现有的经过训练的 PyTorch 模型移植到 Keras 中 在移植过程中 我陷入了LSTM层 LSTM 网络的 Keras 实现似乎具有三种状态类型的状态矩阵 而 Pytorch 实现则具有四种状态矩阵 例如 对于hidden l
Keras
LSTM
Pytorch
为什么不使用均方误差来解决分类问题?
我正在尝试使用 LSTM 解决一个简单的二元分类问题 我正在尝试找出网络的正确损失函数 问题是 当我使用二元交叉熵作为损失函数时 与使用均方误差 MSE 函数相比 训练和测试的损失值相对较高 经过研究 我发现二元交叉熵应该用于分类问题 MS
python
Keras
LSTM
crossentropy
meansquareerror
Caffe 的 LSTM 模块
有谁知道 Caffe 是否有一个不错的 LSTM 模块 我从 russel91 的 github 帐户中找到了一个 但显然包含示例和解释的网页消失了 以前是http apollo deepmatter io http apollo deep
neuralnetwork
deeplearning
caffe
LSTM
recurrentneuralnetwork
LSTM 批次与时间步
我按照 TensorFlow RNN 教程创建了 LSTM 模型 然而 在这个过程中 我对 批次 和 时间步长 之间的差异 如果有的话 感到困惑 并且我希望得到帮助来澄清这个问题 教程代码 见下文 本质上是根据指定数量的步骤创建 批次 wi
machinelearning
tensorflow
LSTM
在 Tensorflow 2.0 中的简单 LSTM 层之上添加 Attention
我有一个由一个 LSTM 和两个 Dense 层组成的简单网络 如下所示 model tf keras Sequential model add layers LSTM 20 input shape train X shape 1 trai
python
tensorflow
Keras
LSTM
attentionmodel
Keras LSTM 密集层多维输入
我正在尝试创建一个 keras LSTM 来预测时间序列 我的 x train 形状像 3000 15 10 示例 时间步长 特征 y train 形状像 3000 15 1 我正在尝试构建一个多对多模型 每个序列 10 个输入特征产生 1
python
multidimensionalarray
Keras
LSTM
Tensorflow 的 LSTM 输入
I m trying to create an LSTM network in Tensorflow and I m lost in terminology basics I have n time series examples so X
python
machinelearning
tensorflow
LSTM
为什么 Keras 的 train_on_batch 在第二个 epoch 产生零损失和准确率?
我正在使用一个大数据集 所以我尝试使用 train on batch 或适合 epoch 1 model Sequential model add LSTM size input shape input shape return seque
python
batchprocessing
trainingdata
Keras
LSTM
如何设置 1dCNN+LSTM 网络(Keras)的输入形状?
我有以下想法要实施 Input gt CNN gt LSTM gt Dense gt Output 输入有 100 个时间步长 每个步长有一个 64 维特征向量 A Conv1D层将在每个时间步提取特征 CNN 层包含 64 个滤波器 每个
python
tensorflow
Keras
LSTM
张量流:简单 LSTM 网络的共享变量错误
我正在尝试构建一个最简单的 LSTM 网络 只是想让它预测序列中的下一个值np input data import tensorflow as tf from tensorflow python ops import rnn cell im
python
tensorflow
neuralnetwork
LSTM
PyTorch LSTM:运行时错误:无效参数 0:张量的大小必须匹配,维度 0 除外。维度 1 为 1219 和 440
我有一个基本的 PyTorch LSTM import torch nn as nn import torch nn functional as F class BaselineLSTM nn Module def init self su
python
Pytorch
LSTM
Keras:嵌入 LSTM
在 LSTM 的 keras 示例中 用于对 IMDB 序列数据进行建模 https github com fchollet keras blob master examples imdb lstm py https github com
Keras
LSTM
Embedding
张量流 LSTM 模型中的 NaN 损失
以下网络代码应该是经典的简单 LSTM 语言模型 一段时间后开始输出 nan 损失 在我的训练集上 这需要几个小时 而且我无法在较小的数据集上轻松复制它 但在认真的训练中 这种情况总是会发生 Sparse softmax with cros
python
tensorflow
LSTM
尝试理解 Pytorch 的 LSTM 实现
我有一个包含 1000 个示例的数据集 其中每个示例都有5特征 a b c d e 我想喂7LSTM 的示例 以便它预测第 8 天的特征 a 阅读 nn LSTM 的 Pytorchs 文档 我得出以下结论 input size 5 hid
machinelearning
deeplearning
LSTM
Pytorch
recurrentneuralnetwork
1
2
3
4
5
6
...19
»