Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
Keras 卷积层维数不匹配
我正在尝试使用 Keras 来构建我的第一个神经网络 我的经验为零 我似乎无法弄清楚为什么我的维度不正确 我无法从他们的文档中弄清楚这个错误在抱怨什么 甚至是哪个层导致了它 我的模型接受 32 字节的数字数组 并应该在另一侧给出一个布尔值
python
machinelearning
neuralnetwork
Keras
Convolution
R 神经网络包对于数百万条记录来说太慢
我正在尝试使用 R 包神经网络训练用于流失预测的神经网络 这是代码 data lt read csv C PredictChurn csv maxs lt apply data 2 max mins lt apply data 2 min
r
parallelprocessing
neuralnetwork
Keras 中损失函数的导数
我想在 keras 中创建以下损失函数 Loss mse double derivative y pred x train 我无法合并衍生术语 我努力了K gradients K gradients y pred x train x tra
python
machinelearning
neuralnetwork
Keras
lossfunction
如何在 Keras 中创建自定义回调?
我有兴趣在拟合我的 keras 模型时创建回调 更详细地说 我希望每次纪元结束时都会收到来自机器人电报的带有 val acc 的消息 我知道你可以添加一个callback list作为参数classifier fit 但许多回调是由 ker
python
tensorflow
Keras
neuralnetwork
Callback
在 R 编程神经网络中为 nnet 指定“初始权重”
在 R 编程中 我试图了解如何使用 nnet 让用户指定初始权重而不是默认值来运行神经网络算法 R 文档提到了以下参数 有如何使用权重的例子吗 nnet formula data weights subset na action contr
r
neuralnetwork
networkx 的运行时错误:运行神经气体脚本时迭代期间字典发生变化
我正在尝试使用较旧的脚本运行神经气体网络 该脚本不适用于 networkx 2 因此我修改了一些内容 但是我收到错误 字典在迭代期间更改了大小 并且我不知道如何解决此问题 因为 networkx 不是我的专长 有什么帮助吗 现在导致问题的代
python
neuralnetwork
networkx
训练神经网络时的 Epoch 与 Iteration [关闭]
Closed 这个问题不符合堆栈溢出指南 目前不接受答案 有什么区别epoch and 迭代当训练多层感知器时 在神经网络术语中 one epoch 一次前向传播和一次反向传播all训练示例 批量大小 一次前向 后向传递中的训练示例数 批量
在 DNN 训练和输入的偏导数结束时返回逆 Hessian 矩阵
使用 Keras 和 Tensorflow 作为后端 我构建了一个 DNN 它以恒星光谱作为输入 7213 个数据点 并输出三个恒星参数 温度 重力和金属丰度 该网络在我的测试集上训练良好并预测良好 但为了使结果在科学上有用 我需要能够估计
python
scipy
neuralnetwork
Keras
hessianmatrix
三元组损失的softmax版本的梯度计算
我一直在尝试在Caffe中实现softmax版本的三元组损失 描述于 霍弗和艾隆 使用三元组网络进行深度度量学习 ICLR 2015 我已经尝试过这个 但我发现很难计算梯度 因为指数中的 L2 不是平方的 有人可以帮我吗 使用现有的 caf
neuralnetwork
deeplearning
caffe
gradientdescent
Softmax
训练神经网络时资源耗尽 - keras
我有一个包含 65668 个文件的数据集 我使用 Keras 作为 CNN 这些是我的层 embedding layer Embedding len word index 1 EMBEDDING DIM weights embedding
tensorflow
machinelearning
neuralnetwork
deeplearning
Keras
神经网络不接受灰度图像
我按照这个教程进行操作 https www pyimagesearch com 2017 09 11 object detection with deep learning and opencv 我更改了这部分 在将图像输入插入神经网络之前
python
opencv
machinelearning
neuralnetwork
deeplearning
在tensorflow中使用tf.nn.conv2d_transpose获取反卷积层的输出形状
根据这个paper 输出形状为N H 1 N是输入的高度或宽度 H是内核高度或宽度 这显然是卷积的逆过程 这tutorial给出计算卷积输出形状的公式 即 W F 2P S 1 W 输入大小 F 过滤器尺寸 P 填充尺寸 S 迈步 但在张量
neuralnetwork
tensorflow
deeplearning
convneuralnetwork
使用 Tensorflow 将学习率添加到 fit_generator 的历史对象
我想检查我的优化器如何改变我的学习率 我使用的是张量流1 15 我用 fit generator 运行我的模型 hist model fit generator dat args onthefly 0 args batch args epo
tensorflow
neuralnetwork
使用自定义渐变的自定义激活不起作用
我正在尝试编写一个简单的神经网络训练代码 目标是定义一个自定义激活函数 我让 Keras 使用自定义梯度函数进行自定义激活 而不是让 Keras 自动对其求导以进行反向传播 import numpy as np import tensorf
python
Keras
neuralnetwork
autoencoder
咖啡 | solver.prototxt值设置策略
在 Caffe 上 我正在尝试实现一个用于语义分割的全卷积网络 我想知道是否有一个具体的策略来设置你的 solver prototxt 以下超参数的值 测试迭代器 测试间隔 迭代大小 max iter 这是否取决于您的训练集的图像数量 如果
machinelearning
neuralnetwork
deeplearning
caffe
convneuralnetwork
cPickle非常大量的数据
我有大约 80 万张 256x256 RGB 图像 总计超过 7GB 我想将它们用作卷积神经网络中的训练数据 并希望将它们及其标签放入 cPickle 文件中 现在 这占用了大量内存 以至于需要与我的硬盘内存进行交换 并且几乎耗尽了所有内存
python
neuralnetwork
Convolution
pickle
tf.nn.conv2d 在张量流中做什么?
我正在查看有关张量流的文档tf nn conv2d here 但我无法理解它的作用或它想要实现的目标 它在文档上说 1 将滤波器展平为具有形状的二维矩阵 filter height filter width in channels outp
neuralnetwork
tensorflow
求卷积后矩阵大小的公式
如果我的输入大小为 5x5 步长为 1x1 滤波器大小为 3x3 那么我可以在纸上计算出卷积矩阵的最终大小将为 3x3 但是 当输入大小更改为 28x28 或 50x50 时 我如何计算纸上卷积矩阵的大小 有什么公式或技巧可以做到这一点吗
ValueError:lstm 层的输入 0 与该层不兼容:预期 ndim=3,发现 ndim=2。收到完整形状:[无,18]
我是 Keras 新手 我正在尝试构建一个供个人使用 未来学习的模型 我刚刚开始使用 python 并想出了这段代码 在视频和教程的帮助下 我有 16324 个实例的数据 每个实例由 18 个特征和 1 个因变量组成 import pand
python
tensorflow
Keras
neuralnetwork
LSTM
tf.keras 损失变为 NaN
我正在 tf keras 中编写一个 3 层的神经网络 我的数据集是 MNIST 数据集 我减少了数据集中的示例数量 因此运行时间较短 这是我的代码 import tensorflow as tf from tensorflow keras
python
machinelearning
neuralnetwork
MNIST
tfkeras
«
1 ...
19
20
21
22
23
24
25
...28
»