Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
PyOpenCL 中的时间测量
我正在 FPGA 和 GPU 中使用 PyOpenCL 运行内核 为了测量执行所需的时间 我使用 t1 time event mykernel queue c width c height block size block size d c
time
opencl
GPU
FPGA
pyopencl
没有 GPU 的系统上的 CUDA [重复]
这个问题在这里已经有答案了 我的系统中没有安装 GPU 卡 我想知道是否有任何方法可以在我的无 GPU 笔记本电脑上使用 CUDA 进行编码并访问 CUDA 库 是的 您可以使用 CUDA 模拟器 例如 https code google
CUDA
GPU
NVIDIA
如何在 Windows 上配置 theano?
我已经在 Windows 机器上安装了 Theano 并按照配置进行操作指示 http deeplearning net software theano library config html 我将以下 theanorc txt 文件放置在
python
GPU
Theano
如何GPU加速CSS变换?
我知道有时浏览器会使用 GPU 加速 CSS 转换 但这种情况什么时候发生 有没有办法强制 GPU 加速以获得流畅的动画 本文 http blog teamtreehouse com increase your sites performa
css
Animation
transform
GPU
在 Python 中访问 GPU 硬件规格?
我想使用 Numba 或类似的 Python CUDA 包访问各种 NVidia GPU 规范 可用设备内存 二级缓存大小 内存时钟频率等信息 来自阅读这个问题 https stackoverflow com questions 48654
python
CUDA
GPU
NVIDIA
numba
使用 CUDA 进行行列式计算 [关闭]
Closed 这个问题正在寻求书籍 工具 软件库等的推荐 不满足堆栈溢出指南 help closed questions 目前不接受答案 是否有任何库或免费可用的代码可以计算a的行列式small 6x6 双精度矩阵完全在 GPU 上 这是计
CUDA
GPU
linearalgebra
GPGPU
NVIDIA
如何找出访问者的 RAM 和 GPU 信息?
我想知道我的访问者有多少 RAM 以及有关他们的 GPU 的所有可用信息 有没有办法通过 JavaScript 或者 ActionScript Flash 来实现这一点 Use navigator deviceMemory 查找设备 RAM
javascript
Browser
GPU
RAM
在多 GPU 系统中,如何将 OpenCL 设备与给定 PCI 供应商、设备和总线 ID 的特定 GPU 相匹配?
我希望能够在由 PCI ID 标识的多 GPU 系统上将 OpenCL 设备与系统中的 GPU 进行匹配 例如 如果我的系统具有多个 GPU 可能来自不同的供应商 我可以通过枚举 PCI 总线来列出设备 这为我提供了 PCI 供应商 设备和
opencl
GPU
PCI
使用 PyTorch 直接将数据加载到 GPU 中
在训练循环中 我将一批数据加载到 CPU 中 然后将其传输到 GPU import torch utils as utils train loader utils data DataLoader train dataset batch si
python3x
deeplearning
Pytorch
GPU
DataLoader
为什么设置初始化值会阻止在 TensorFlow 中将变量放置在 GPU 上?
当我尝试运行以下非常简单的 TensorFlow 代码时出现异常 尽管我实际上是从文档中复制了它 import tensorflow as tf with tf device gpu 0 x tf Variable 0 name x ses
initialization
tensorflow
GPU
使用 NVIDIA GPU 计算 SDK 4.0 和 microsoft VC++ 2010 Express 无需 GPU 硬件即可执行简单的 CUDA 程序
我是 GPU 计算新手 但我在某处读到 可以使用模拟器 仿真器在没有 GPU 卡的情况下执行 CUDA 程序 我在 Windows Vista 上安装了 NVIDIA 的 GPU 计算 SDK 4 0 和 Visual C 2010 Exp
CUDA
GPGPU
GPU
如何限制tensorflow GPU内存使用?
我在 Ubuntu 18 04 中使用了tensorflow gpu 1 13 1 并在 Nvidia GeForce RTX 2070 上使用了 CUDA 10 0 驱动程序版本 415 27 下面的代码用于管理张量流内存使用情况 我有大
python
tensorflow
GPU
在 PyTorch 中使用 module.to() 移动成员张量
我正在 PyTorch 中构建变分自动编码器 VAE 但在编写与设备无关的代码时遇到问题 自动编码器是nn Module具有编码器和解码器网络 它们也是 网络的所有权重都可以通过调用从一台设备移动到另一台设备net to device 我遇
python
deeplearning
GPU
Pytorch
autoencoder
CPU和GPU的区别
CPU的单个处理单元和GPU的单个处理单元有什么区别 我在互联网上看到的大多数地方都涵盖了两者之间的高级差异 我想知道每条指令可以执行哪些指令 它们的速度有多快 以及这些处理单元如何集成到完整的架构中 这似乎是一个答案很长的问题 所以很多链
GPU
CPU
cpuarchitecture
多GPU基本使用
例如 我如何使用两个设备来改进 以下代码的性能 向量之和 是否可以 同时 使用更多设备 如果是 我如何管理向量在不同设备的全局内存上的分配 include
CUDA
GPU
multigpu
有没有办法将参数传递给 optuna 中的多个作业?
我正在尝试使用 optuna 来搜索超参数空间 在一个特定场景中 我在一台具有几个 GPU 的机器上训练模型 模型和批量大小允许我为每 1 个 GPU 运行 1 次训练 因此 理想情况下我希望让 optuna 将所有试验分布在可用的 GPU
python
Multithreading
GPU
optuna
使用 CUDA 并行处理将彩色图像转为灰度图像
我正在尝试解决一个问题 我应该将彩色图像更改为灰度图像 为此 我使用 CUDA 并行方法 我在 GPU 上调用的内核代码如下 global void rgba to greyscale const uchar4 const rgbaImag
imageprocessing
CUDA
parallelprocessing
GPU
«
1 ...
5
6
7
8
9
10
11
...24
»