Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
如何设置Tensorflow Lite C++的输入
我正在尝试使用 TensorflowLite 模型测试简单的tensorflow lite c 代码 它获取两个浮点数并进行异或 但是 当我更改输入时 输出不会改变 我猜这条线interpreter gt typed tensor
TensorFlowLite
在 Tensorflow-lite Android 中将位图转换为 ByteBuffer(浮点)
在用于图像分类的tensorflow lite android演示代码中 图像首先转换为ByteBuffer格式以获得更好的性能 这种从位图到浮点格式的转换以及随后到字节缓冲区的转换似乎是一个昂贵的操作 循环 按位运算符 float mem
Java
Android
opencv
TensorFlowLite
mappedbytebuffer
为 TFliteconverter 创建代表性数据集的正确方法是什么?
我正在尝试推断tinyYOLO V2 with INT8权重和激活 我可以使用 TFliteConverter 将权重转换为 INT8 为了INT8激活 我必须提供代表性数据集来估计缩放因子 我创建此类数据集的方法似乎是错误的 正确的程序是
tensorflow
Dataset
TensorFlowLite
可视化 TFLite 图并获取特定节点的中间值?
我想知道是否有办法知道 tflite 中特定节点的输入和输出列表 我知道我可以获得输入 输出详细信息 但这不允许我重建发生在Interpreter 所以我要做的是 interpreter tf lite Interpreter model
python
tensorflow
Keras
tensorflow20
TensorFlowLite
Tensorflow lite 目标检测示例中相机的屏幕尺寸 [水平屏幕]
在tensorflow lite示例对象检测中 相机不会拍摄整个屏幕 而只会拍摄一部分 我试图在 CameraActivity CameraConnectionFragment 和 Size 类中找到一些常量 但没有结果 所以我只是想要一种
Android
tensorflow
Camera
size
TensorFlowLite
使用 TFLite 量化模型的参数进行计算操作
我正在尝试使用量化的 Mobilenetv2 模型在硬件中实现图像分类here https www tensorflow org lite guide hosted models 为此 我首先需要从头到尾重现推理过程 以确保我理解对数据执行
tensorflow
mobileNet
TensorFlowLite
将预训练模型从 tfhub 转换为 tflite
我正在尝试转换openimages v4 ssd mobilenet v2 https tfhub dev google openimages v4 ssd mobilenet v2 1到 tflite 使用 pip3 install te
tensorflow
TensorFlowLite
如何仅从源代码构建 TensorFlow lite 而不是所有 TensorFlow?
我正在尝试使用 Edgetpu USB 加速器与 Intel ATOM 单板计算机和 C API 进行实时推理 Edgetpu 的 C API 基于 TensorFlow lite C API 我需要包含来自tensorflow lite目
c
tensorflow
TensorFlowLite
TensorFlow Lite 量化无法改善推理延迟
TensorFlow 网站声称量化可将移动设备上的延迟降低多达 3 倍 https www tensorflow org lite performance post training quantization https www tenso
tensorflow
TensorFlowLite
quantization
Tensorflow js VS Tensorflow Lite
这是一个开放式的问题 只是很好奇 如果我想在浏览器上部署机器学习 对象检测 模型 也许首先在网络应用程序上 在手机上查看 那么当前的区别是什么 据我所知 tensorflowjs和tensorflowlite都兼容这种部署 我听说 tens
tensorflow
TensorFlowLite
tensorflowjs
OSError:SavedModel 文件不存在于:C:\Users\Munib\New 文件夹/{saved_model.pbtxt|saved_model.pb}
我想在 android studio 中使用我的 keras 训练模型 我在互联网上获得了这段代码 将我的代码从 keras 转换为tensorflow lite 但是当我尝试代码时我收到了这个错误 OSError SavedModel f
python
tensorflow
Keras
TensorFlowLite
TF-lite 模型测试失败并出现运行时错误
我已经为 MNIST 分类创建了一个 TF lite 模型 我使用 TF 1 12 0 并在 Google Colab 上运行它 我想使用 TensorFlow Lite Python 解释器对其进行测试 如 https github co
TensorFlowLite
如何使用 GPU 使用 tf.lite.Interpreter(在 python 中)运行 tflite 模型 (*.tflite)?
我已根据以下说明将张量流推理图转换为 tflite 模型文件 tflite https www tensorflow org lite convert https www tensorflow org lite convert 我在我的 G
python
tensorflow
interpreter
TensorFlowLite
节点号 X (RESHAPE) 准备失败。使用 tflite v2.2 调整张量大小
这是重现错误的简单代码 import os os environ CUDA VISIBLE DEVICES 1 import numpy as np from keras models import Sequential from kera
tensorflow
Keras
tensorflow20
TensorFlowLite
将 Facenet 模型 .pb 文件转换为 TFLITE 格式时出错
我正在尝试根据我从 Inception ResNet 获得的预训练冻结 pb大卫 桑德伯格的 Github https github com davidsandberg facenet使用以下命令在 Ubuntu 上使用 Tensorflo
python
tensorflow
facerecognition
TensorFlowLite
toco
java.lang.IllegalArgumentException:无法在形状为 [2] 的 TensorFlowLite 张量和形状为 [1, 2] 的 Java 对象之间复制
我已经在 keras 中训练了自己的图像分类模型 并将其转换为 tflite 然后我想通过 tensorflow lite 在 android 中使用该模型 为此 我使用了一个 github 项目来直接获取该项目的应用程序链接 如下 htt
Android
tensorflow
machinelearning
TensorFlowLite
将 save_model.pb 转换为 model.tflite
张量流版本 2 2 0 操作系统 Windows 10 我正在尝试将 saving model pb 转换为 tflite 文件 这是我正在运行的代码 import tensorflow as tf Convert converter tf
python
tensorflow
tensorflow20
TensorFlowLite
创建填充元数据的 Tflite 模型时出现问题(用于对象检测)
我正在尝试在 Android 上运行 tflite 模型来进行对象检测 对于相同的 我已经用我的图像集成功训练了模型 如下所示 一 培训 python3 object detection model main py pipeline con
python
Android
tensorflow
metadata
TensorFlowLite
如何将 .pb 转换为 TFLite 格式?
我下载了一个retrained graph pb and retrained labels txt我在 Azure 认知服务中训练的模型的文件 现在我想使用该模型制作一个 Android 应用程序 为此我必须将其转换为 TFLite 格式
tensorflow
TensorFlowLite
为什么 tflite 模型的精度与 keras 模型的精度相差如此之大?
我制作了一个模型来预测图像上的字符 以进行车牌识别 它在我的电脑上运行得很好 但我需要把这个工作放到 Android 应用程序中 所以我开发了一个小应用程序并将我的 keras 模型转换为 tflite 现在它总是预测同一个角色 我使用以下
python
tensorflow
TensorFlowLite
1
2
3
»