Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
如何让Jupyter Notebook在GPU上运行?
在 Google Collab 中 您可以选择笔记本在 CPU 或 GPU 环境上运行 现在我有一台配备 NVDIA Cuda 兼容 GPU 1050 和最新 anaconda 的笔记本电脑 如何拥有与协作功能类似的功能 让我可以简单地让我
GPU
有适用于 mac os X 10.8 的 opencl 分析器吗?
我试图找到 OpenCL 内核中的瓶颈 是否可以在 mac os X 上分析 OpenCL 程序 我发现 gDebuggerhttp www gremedy com http www gremedy com 但需要 10 5 或 10 6
MacOS
opencl
osxmountainlion
GPU
如何检查 PyTorch 是否正在使用 GPU?
如何检查 PyTorch 是否正在使用 GPU 这nvidia smi命令可以检测 GPU 活动 但我想直接从 Python 脚本内部检查它 这些功能应该有助于 gt gt gt import torch gt gt gt torch cu
python
memorymanagement
GPU
NVIDIA
Pytorch
在 Cython 中使用半精度 NumPy 浮点数
我正在尝试从一些 Cython 代码将 float16 数据发送到 Nvidia P100 卡 当我使用 float32 时 我可以在 Cython 中定义我的类型 如下所示 DTYPE np float32 ctypedef np flo
python
NumPy
GPU
Cython
Keras 不在具有 python 3.5 和 Tensorflow 1.4 的 Pycharm 上使用 GPU [重复]
这个问题在这里已经有答案了 from tensorflow python client import device lib def get available gpus local device protos device lib list
tensorflow
pycharm
Keras
GPU
无法找到 zlibwapi.dll。请确保它在您的库路径中
我正在开发一个对象检测项目 并希望使用我的 GPU 处理该项目 我已经完成了NVIDIA 设置教程 https medium com analytics vidhya build opencv from source with cuda f
opencv
GPU
zlib
如何使用 eclipse Nsight 仅使用一个 GPU 调试 CUDA
我收到错误 所有 cuda 设备均用于显示 在调试时无法使用 使用Ubuntu 有没有什么方法可以使用 Nsight eclipse 仅使用一个 GPU 进行调试 我见过类似的解决方案 sudo 服务 lightdm 停止 杀死 X 但这也
eclipse
CUDA
GPU
Nsight
为什么 nvidia-smi 在 Windows 10 21H2 下的 WSL2 中返回“GPU 访问被操作系统阻止”[关闭]
Closed 这个问题不符合堆栈溢出指南 help closed questions 目前不接受答案 在 WSL2 上安装 CUDA 我已按照以下说明在台式机 配备 RTX3080 的 AMD 5950X 系统 和笔记本电脑 配备 i7 7
CUDA
GPU
wsl2
PyTorch:tensor.cuda()和tensor.to(torch.device(“cuda:0”))之间有什么区别?
在 PyTorch 中 以下两种将张量 或模型 发送到 GPU 的方法有什么区别 Setup X np array 1 3 2 3 2 3 5 6 1 2 3 4 X model X torch DoubleTensor X Method
python
Pytorch
GPU
cos-extensions 安装 gpu 无法在 GCP Compute Engine 虚拟机上下载驱动程序签名
我正在 GCP 计算引擎上使用支持 GPU 的虚拟机 作为操作系统 我使用容器优化版本 COS 89 16108 403 47 LTS 它支持通过 SSH 运行 cos extensions install gpu 来安装简单的 GPU 驱
Linux 上的 OpenCL,集成英特尔图形芯片
我想用OpenCL在 Debian 8 上 我读到在本页 http streamcomputing eu blog 2011 12 29 opencl hardware support Linux 上不支持 Intel 的 GPU 这篇文章
Linux
graphics
opencl
GPU
intel
GPU 上的高效全对集交集
I have n集合 有限宇宙的子集 我想计算n n矩阵 其中 I J 条目包含集合交集的基数I并设置J n的顺序是50000 我的想法是将矩阵分割成足够小的块 以便每个条目都有一个线程 每个线程都应该使用以下方法计算交集bitwise a
Algorithm
CUDA
set
GPU
Intersection
C# 本身是否使用 GPU 进行图形处理?
我想以最快的方式绘制频繁使用的图形 如果我使用标准 C 图形回调 es graphics drawline 我这样做对吗 或者我应该使用不同的库 图形 DrawLine https msdn microsoft com en us libr
c
graphics
GPU
在具有 4.14 内核的 IMX6 上使用 vivante GPU
我正在使用 yocto rocko Linux 4 14 24 开发 IMX6QP 并尝试使用 GPU 我的 yocto 配置文件 MACHINE imx6qp tx6 emmc DL DIR BSPDIR downloads SSTATE
Kernel
GPU
imx6
监控显卡使用情况[关闭]
Closed 这个问题是与编程或软件开发无关 help closed questions 目前不接受答案 当我运行某个应用程序时 如何监控显卡的使用情况 我想查看我的应用程序使用 GPU 的情况 如果您在 Visual Studio 201
monitoring
GPU
在张量流中调整 3D 数据的大小,如 tf.image.resize_images
我需要调整一些 3D 数据的大小 例如tf image resize images二维数据的方法 我想我可以尝试跑步tf image resize images在它上循环并交换轴 但我认为一定有一种更简单的方法 简单的最近邻应该没问题 有任
3d
tensorflow
resize
GPU
Scale
C++ 中的按元素运算
是否有一个预先存在的库可以让我创建具有以下属性的类似数组的对象 运行时大小规范 在实例时选择 之后不会增长或缩小 运算符重载以执行元素明智的操作 即c a b将产生一个向量c with c i a i b i 对全部i 类似地对于 etc
c
Arrays
vector
Fortran
GPU
GPU 的延迟是多少?
我可以找到 CPU 核心与其缓存 主内存等之间的 CPU 周期延迟 但似乎很难找到有关现代 GPU 的类似信息 有谁知道 GPU 的延迟 特别是现代 nvidia GPU GF110 或更高版本 与其内存之间的延迟 谢谢 GPU 内存确实具
caching
CPU
GPU
latency
Caffe/pyCaffe:设置所有 GPU
是否可以为Caffe 尤其是pyCaffe 设置所有GPU 就像是 caffe train solver examples mnist lenet solver prototxt gpu all 这两个分支现在都支持多 GPU 一段时间了
parallelprocessing
neuralnetwork
GPU
deeplearning
caffe
有关 CUDA 中统一虚拟寻址 (UVA) 的信息/示例
我试图理解 CUDA 中统一虚拟寻址 UVA 的概念 我有两个问题 是否有任何示例 伪 代码可以演示这个概念 我在 CUDA C 编程指南中读到 UVA 只能在 64 位操作系统上使用 为什么会这样呢 A 统一虚拟地址空间 http doc
CUDA
GPU
NVIDIA
«
1
2
3
4
5
6
7
8
...24
»