Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
Pytorch 中是否有一种方法可以以可反向传播的方式计算唯一值的数量?
给定以下张量 这是网络的结果 注意 grad fn tensor 121 241 125 1 108 238 125 121 13 117 121 229 161 13 0 202 161 121 121 0 121 121 242 125
Pytorch
Counting
backpropagation
使用反向传播算法实现感知器
我正在尝试实现一个具有反向传播的两层感知器来解决奇偶校验问题 该网络有 4 个二进制输入 第一层有 4 个隐藏单元 第二层有 1 个输出 我在用this http page mi fu berlin de rojas neural chap
backpropagation
neuralnetwork
我可以在反向传播期间(有选择地)反转 Theano 梯度吗?
我热衷于利用最近论文中提出的架构 通过反向传播进行无监督域适应 http arxiv org pdf 1409 7495 pdf 在 Lasagne Theano 框架中 这篇论文的有点不同寻常之处在于它包含了一个 梯度反转层 invert
neuralnetwork
Theano
backpropagation
Lasagne
Pytorch ValueError:优化器得到一个空参数列表
当尝试创建神经网络并使用 Pytorch 对其进行优化时 我得到了 ValueError 优化器得到一个空参数列表 这是代码 import torch nn as nn import torch nn functional as F fro
python
machinelearning
Pytorch
reinforcementlearning
backpropagation
输入数据集如何输入神经网络?
如果我的数据集中有 1000 个观测值 其中包含 15 个特征和 1 个标签 那么输入神经元中的数据如何用于前向传播和反向传播 是逐行馈送 1000 个观测值 一次一个 并根据每个观测值馈送更新权重 还是以输入矩阵形式给出完整数据 然后根据
neuralnetwork
backpropagation
supervisedlearning
张量流在梯度计算过程中如何处理不可微节点?
我理解自动微分的概念 但找不到任何解释张量流如何计算不可微函数的误差梯度 例如tf where在我的损失函数中或tf cond在我的图表中 它工作得很好 但我想了解张量流如何通过这些节点反向传播误差 因为没有公式可以计算它们的梯度 如果是t
python
tensorflow
backpropagation
automaticdifferentiation
计算两个模型的梯度
假设我们正在构建一个基本的 CNN 来识别猫和狗的图片 二元分类器 此类 CNN 的示例如下 model Sequential Conv2D 32 3 3 input shape Activation relu MaxPooling2D p
python
tensorflow
tensorflow20
backpropagation
神经网络需要多少个纪元来学习平方? (包括测试结果)
好吧 首先我要说的是 我很清楚这取决于很多因素 我正在向有经验的人寻求一些一般准则 我的目标是not制作一个可以为我计算数字平方的神经网络 但我认为这将是一个很好的实验 看看我是否正确实现了反向传播算法 这看起来是个好主意吗 无论如何 我担
Java
Algorithm
artificialintelligence
neuralnetwork
backpropagation
PyTorch 中的截断反向传播(代码检查)
我正在尝试在 PyTorch 中实现随时间截断的反向传播 对于以下简单情况K1 K2 我下面有一个实现可以产生合理的输出 但我只是想确保它是正确的 当我在网上查找 TBTT 的 PyTorch 示例时 它们在分离隐藏状态 将梯度归零以及这些
Pytorch
backpropagation
Tensorflow 中的反向传播(随时间)代码
在哪里可以找到 Tensorflow python API 中的反向传播 通过时间 代码 或者使用其他算法 例如 当我创建 LSTM 网络时 TensorFlow 中的所有反向传播都是通过自动区分网络前向传递中的操作 并添加显式操作来计算网
python
tensorflow
backpropagation
通过嵌套 tf.map_fn 反向传播梯度
我想在每个向量上映射一个 TensorFlow 函数 该向量对应于具有维度的矩阵中每个像素的深度通道 批量大小 H W n 通道 换句话说 对于每个尺寸的图像H x W我在批次中拥有 我提取一些特征图F k 其数量为n channels 具
tensorflow
nested
gradient
backpropagation
mapfunction
反向传播中的梯度检查
我正在尝试对具有 2 个单位输入层 2 个单位隐藏层和 1 个单位输出层的简单前馈神经网络实现梯度检查 我所做的如下 取所有层之间网络权重的每个权重 w 并使用 w EPSILON 然后使用 w EPSILON 执行前向传播 使用两个前馈传
neuralnetwork
backpropagation
多层神经网络不会预测负值
我已经实现了一个多层感知器来预测输入向量的正弦 这些向量由随机选择的四个 1 0 1 组成 偏差设置为 1 网络应该预测向量内容之和的 sin 例如 输入 输出 Sin 0 1 1 0 1 我遇到的问题是网络永远不会预测负值 并且许多向量的
perl
neuralnetwork
Classification
backpropagation
有状态 RNN 中随时间的反向传播
如果我在 Keras 中使用有状态 RNN 来处理长度为 N 的序列 分为 N 个部分 每个时间步骤单独处理 反向传播是如何处理的 它只影响最后一个时间步 还是反向传播整个序列 如果它不能传播到整个序列 有没有办法做到这一点 反向传播范围仅
neuralnetwork
Keras
backpropagation
recurrentneuralnetwork
偏差在神经网络中的作用是什么? [关闭]
Closed 这个问题不符合堆栈溢出指南 help closed questions 目前不接受答案 我知道梯度下降和反向传播算法 我不明白的是 什么时候使用偏差很重要以及如何使用它 例如 当映射AND函数 当我使用两个输入和一个输出时 它
machinelearning
neuralnetwork
artificialintelligence
backpropagation
训练神经网络时出现极小或 NaN 值
我正在尝试在 Haskell 中实现神经网络架构 并在 MNIST 上使用它 我正在使用hmatrix线性代数包 我的训练框架是使用pipes包裹 我的代码可以编译并且不会崩溃 但问题是 层大小 例如 1000 小批量大小和学习率的某些组合
Algorithm
Haskell
neuralnetwork
backpropagation
如何在 Tensorflow 2.0 中应用 Guided BackProp?
我从Tensorflow 2 0并尝试实现 Guided BackProp 来显示显着性图 我首先计算之间的损失y pred and y true图像的梯度 然后找到由于这种损失而导致的所有层的梯度 with tf GradientTape
python
tensorflow
Keras
backpropagation
tensorflow20
反向传播算法:误差计算
我目前正在编写反向传播脚本 我不确定如何更新我的体重值 这是一张图片 只是为了让事情变得简单 我的问题 如何计算和应用误差 我确实知道 k1 和 k2 会产生错误值 我知道 k1 和 k2 产生单独的误差值 目标 输出 但我不知道是否要使用
MATLAB
artificialintelligence
backpropagation
在神经网络反向传播算法中循环训练数据
在一个训练周期中我使用训练数据样本多少次 假设我有 60 个训练数据 我遍历第一行并进行前向传递 并使用后向传递的结果调整权重 使用 sigmoidal 函数如下 Forward pass Si sum of Wi Uj Ui f Si 1
artificialintelligence
neuralnetwork
backpropagation
神经网络不适合异或
我创建了一个 Octave 脚本 用于使用反向传播训练具有 1 个隐藏层的神经网络 但它似乎不适合 XOR 函数 x输入 4x2 矩阵 0 0 0 1 1 0 1 1 y输出4x1矩阵 0 1 1 0 theta隐藏 输出层权重 z加权总和
MATLAB
machinelearning
neuralnetwork
Octave
backpropagation
1
2
»