Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
Tensorflow v1.10:将图像存储为字节字符串或每个通道?
Context 据了解 目前 TF 的 Record 文档还有一些不足之处 我的问题是关于什么是最佳存储 一个序列 它的每个元素类别概率 以及 一些 上下文 信息 例如序列的名称 作为 TF 记录 也就是说 这个问题考虑将序列和类概率存储为
Tensorflow Lite,图像大小零误差
其实我的问题很简单 我想在tensorflow lite模型中使用我自己的数据 所以 我写了这行代码 root path r C Users 90531 Desktop dataset b image path os path join o
python
tensorflow
tensorflow20
TensorFlowLite
tf.constant 和 tf.placeholder 的行为不同
我想将 tf metrics 包装在 Sonnet 模块中以测量每个批次的性能 以下是我所做的工作 import tensorflow as tf import sonnet as snt class Metrics snt Abstrac
python
tensorflow
sonnet
张量流相当于 torch.gather
我有一个形状张量 16 4096 3 我有另一个形状索引张量 16 32768 3 我正在尝试收集价值观dim 1 这最初是在 pytorch 中使用聚集功能如下所示 a shape 16L 4096L 3L idx shape 16L 3
python
tensorflow
Pytorch
训练神经网络时资源耗尽 - keras
我有一个包含 65668 个文件的数据集 我使用 Keras 作为 CNN 这些是我的层 embedding layer Embedding len word index 1 EMBEDDING DIM weights embedding
tensorflow
machinelearning
neuralnetwork
deeplearning
Keras
如何使用AWS Lambda部署大型Python包?
我需要一些建议 我使用 Tensorflow 训练了一个图像分类器 并希望使用它将其部署到 AWS Lambda无服务器 该目录包括模型 一些Python模块 包括tensorflow和numpy 以及Python代码 解压前完整文件夹的大
python
amazonwebservices
tensorflow
awslambda
serverlessframework
在 Tensorflow 中重用 LSTM 的重用变量
我正在努力使RNN using LSTM 我做了LSTM模型 后面有两个DNN网络和一个回归输出层 我训练了我的数据 最终的训练损失约为0 009 然而 当我将模型应用于测试数据时 损失变为大约0 5 第 1 轮训练损失约为0 5 所以 我
tensorflow
recurrentneuralnetwork
LSTM
Tensorflow,恢复特定设备中的变量
也许我的问题有点天真 但我确实在张量流文档中没有找到任何内容 我有一个训练有素的张量流模型 它的变量被放置在 GPU 中 现在我想恢复这个模型并使用CPU进行测试 如果我通过 tf train Saver restore 执行此操作 如示例
tensorflow
Tensorflow 中的 Triplet、Siamese 和 Softmax
我想比较以下类型的 CNN 对于两个不同的大型图像数据集的性能 目标是测量两个图像之间的相似度 这两个图像在训练期间都没有见过 我可以使用 2 个 GPU 和 16 个 CPU 核心 Triplet CNN 输入 三张图像 标签 编码到位
python
machinelearning
tensorflow
Tensorflow,如何访问 RNN 的所有中间状态,而不仅仅是最后一个状态
我的理解是tf nn dynamic rnn返回 RNN 单元 例如 LSTM 在每个时间步的输出以及最终状态 如何访问所有时间步骤中的细胞状态 而不仅仅是最后一个时间步骤 例如 我希望能够对所有隐藏状态进行平均 然后在后续层中使用它 以下
python
tensorflow
如何在每次迭代时仅从一个类中对批次进行采样
我想在一个 ImageNet 数据集 每个类有 1000 个类 每个类大约有 1300 张图像 上训练一个分类器 由于某种原因 我需要每个批次包含来自同一类别的 64 个图像 以及来自不同类别的连续批次 使用最新的 TensorFlow 是
python
tensorflow
TypeError: __array__() 采用 1 个位置参数,但给出了 2 个(图像分类 Keras)
如何解决这个问题 我尝试过设置dtype None in the image img to array method import tensorflow as tf from tensorflow import keras from ten
python
NumPy
tensorflow
Keras
pythonimaginglibrary
Tensorflow - GPU 专用内存与共享内存
Tensorflow 只使用专用 GPU 内存还是也可以使用共享内存 我还运行了这个 从tensorflow python client导入device lib device lib list local devices 名称 设备 CPU
python
memory
tensorflow
GPU
在tensorflow中使用tf.nn.conv2d_transpose获取反卷积层的输出形状
根据这个paper 输出形状为N H 1 N是输入的高度或宽度 H是内核高度或宽度 这显然是卷积的逆过程 这tutorial给出计算卷积输出形状的公式 即 W F 2P S 1 W 输入大小 F 过滤器尺寸 P 填充尺寸 S 迈步 但在张量
neuralnetwork
tensorflow
deeplearning
convneuralnetwork
如何修复 OSX 上的 tensorflow protobuf 编译错误?
在查看存储库后 我正在尝试编译 TensorFlow 我已经陷入了 google protobuf 错误的地步 INFO From Compiling tensorflow core kernels histogram op gpu cu
MacOS
python27
tensorflow
protocolbuffers
bazel
无法在 Jupyter Notebook 中导入 Tensorflow
我尝试在 conda 环境中的 Jupyter 笔记本中导入 Tensorflow 模块 但出现以下错误 AttributeError type object h5py h5 H5PYConfig has no attribute redu
python
tensorflow
jupyternotebook
Tensorflow 安装错误:__ 在此平台上不支持轮子
我正在尝试在我的电脑上安装tensorflow 但我不断收到错误 我在网上看到了很多关于tensorflow安装错误的帖子 但我找到的只是解决方案 说python的版本不兼容 但是 我使用的是 python 3 8 并且使用的是tensor
python
python3x
tensorflow
pip
为什么 Google Colab TPU 和我的电脑一样慢?
由于我有一个很大的数据集 而且我的电脑功率不大 所以我认为在 Google Colab 上使用 TPU 是个好主意 所以 这是我的 TPU 配置 try tpu tf distribute cluster resolver TPUClust
tensorflow
machinelearning
googlecolaboratory
TPU
googlecloudtpu
Tensorflow 中的向量移位(滚动)
假设我们确实想使用 Keras TensorFlow 处理图像 或 ndim 向量 为了进行奇特的正则化 我们希望将每个输入向左移动随机数量的位置 溢出的部分重新出现在右侧 如何查看和解决 1 TensorFlow 的 numpy roll
tensorflow
Theano
Keras
具有自定义训练循环的 Tensorboard Graph 不包括我的模型
我已经创建了自己的循环 如 TF 2 迁移指南中所示here 我目前只能看到图表 VISIBLE 下面的代码部分 我如何制作我的模型 在 NOT VISIBLE 部分 在张量板上可见 如果我没有使用自定义训练循环 我可能会选择记录在案 mo
python
tensorflow
tensorflow20
tensorboard
«
1 ...
90
91
92
93
94
95
96
...100
»