Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
除了 12 小时后会话超时之外,Google Colab 还有其他限制吗?
限制之一是每次会话只能持续 12 小时 GPU和TPU的使用有限制吗 是的 您只能使用 1 个 GPU 内存有限为 12GB TPU 具有 64 GB 高带宽内存 您可以在此处阅读article https medium com janni
tensorflow
Session
GPU
googlecolaboratory
TPU
Tensorflow:GPU 加速仅在首次运行后发生
我已经在我的机器 Ubuntu 16 04 上安装了 CUDA 和 CUDNNtensorflow gpu 使用的版本 CUDA 10 0 CUDNN 7 6 Python 3 6 张量流 1 14 这是输出nvidia smi 显示显卡配
python
tensorflow
GPU
NVIDIA
BLAS 相当于 GPU 的 LAPACK 函数
在LAPACK中有这个function http www netlib org lapack double dspgvx f对角化 SUBROUTINE DSPGVX ITYPE JOBZ RANGE UPLO N AP BP VL VU
CUDA
opencl
GPU
Lapack
blas
如何减少 TensorFlow 循环中的内存消耗?
我在 TensorFlow 中有一个循环 如下所示 with tf device gpu 1 losses for target output in zip targets lstm outputs logits tf matmul W o
python
GPU
tensorflow
CUDA 中的块间同步
我为这个问题搜索了一个月 我无法同步 CUDA 中的块 我读过很多关于atomicAdd 合作组等的文章 我决定使用一个全局数组 这样一个块就可以在全局数组的一个元素上写入 写入之后 块的线程将等待 即陷入 while 循环 直到所有块都写
parallelprocessing
CUDA
NVIDIA
GPU
Tensorflow:GPU 上稀疏张量的梯度计算
我建立了一个类似于 CIFAR10 的 GPU 实现的张量流模型 我有一个在每个 GPU 上执行的基本模型 而网络变量则在 CPU 上 只要我不使用稀疏张量作为层中的权重矩阵 一切都会正常工作 我的稀疏权重矩阵是用函数构造的tf spars
tensorflow
GPU
sparsematrix
如何告诉 PyTorch 不使用 GPU?
我想在 CPU 和 GPU 之间进行一些时序比较以及一些分析 并且想知道是否有办法区分pytorch questions tagged pytorch不使用GPU而只使用CPU 我意识到我可以安装另一个仅 CPUpytorch questi
python
Pytorch
GPU
使用 GPU 加速 MATLAB 代码?
AccelerEyes 于 2012 年 12 月宣布与 Mathworks 合作开发 GPU 代码 并已停止生产 Jacket for MATLAB http blog accelereyes com blog 2012 12 12 ex
MATLAB
GPU
GPGPU
jacket
如何让我的java程序在GPU上运行?如何更改我的程序可以加速?[关闭]
Closed 这个问题需要多问focused help closed questions 目前不接受答案 我写了一个由几个类组成的程序 但是计算速度太慢 粗体的程序 我希望让我的java程序在GPU上运行以加快计算速度 或者有其他方法来加快
Java
GPU
GPU并行编程C/C++ [关闭]
Closed 这个问题正在寻求书籍 工具 软件库等的推荐 不满足堆栈溢出指南 help closed questions 目前不接受答案 我想学习 C C 中的 GPU 并行编程 我应该使用什么库和编译器 如果它们是开源的 那就太好了 注意
parallelprocessing
GPU
使用 CUDA 并行实现多个 SVD
我是使用 GPU 并行编程的新手 因此如果问题广泛或模糊 我深表歉意 我知道 CULA 库中有一些并行 SVD 函数 但是如果我有大量相对较小的矩阵需要分解 应该采取什么策略 例如我有n有维数的矩阵d n很大并且d是小 如何并行化这个过程
CUDA
parallelprocessing
GPU
SVD
是否可以使用 GPU 来加速 Python 中的哈希?
我最近读了 Jeff 的博客文章 标题为速度哈希 http www codinghorror com blog 2012 04 speed hashing html 其中他提到 您可以通过利用 GPU 的强大功能来非常快速地对事物进行哈希处
python
Hash
GPU
将数据上传到共享内存中用于卷积核
我在理解评论中提到的批量加载时遇到一些困难 为了计算像素中的卷积 大小为 5 的掩模必须以该特定像素为中心 图像被分成图块 应用卷积掩模后的这些图块是最终输出图块 其大小为TILE WIDTH TILE WIDTH 对于属于输出图块边界的像
CUDA
GPU
gpusharedmemory
C (Windows) - GPU 使用率(负载百分比)
根据互联网上的许多来源 可以使用 D3DKMTQueryStatistics 获取 GPU 使用情况 负载 如何在DirectX中查询GPU使用情况 https stackoverflow com questions 16376218 ho
c
Windows
GPU
GPU 如何将线程分组为扭曲/波前?
我的理解是 warp 是通过任务调度程序在运行时定义的一组线程 CUDA 的一个性能关键部分是 warp 内线程的分歧 有没有办法很好地猜测硬件将如何构造 warp在线程块内 例如 我启动了一个线程块中包含 1024 个线程的内核 扭曲是如
GPU
GPGPU
gpuwarp
OpenCL 找不到平台?
我正在尝试将 C API 用于 OpenCL 我已经安装了 NVIDIA 驱动程序 并且已经测试可以运行提供的简单向量加法程序here http www thebigblob com getting started with opencl
c
opencl
GPU
曾几何时,> 比 < 更快……等等,什么?
我在读很棒的 OpenGL 教程 https paroj github io gltut Positioning Tut05 20Overlap 20and 20Depth 20Buffering html 这真的很棒 相信我 我当前的主题
c
Optimization
OpenGL
CPU
GPU
无法选择具有以下功能的设备驱动程序“”:[[gpu]]
我正在尝试在 WSL 2 上安装 Cuda 我按照以下说明进行操作this https ubuntu com blog getting started with cuda on ubuntu on wsl 2 执行完每个步骤后 我尝试通过执
Ubuntu
GPU
windowssubsystemforlinux
OpenACC + MPI Fortran 程序入门
我有一个工作串行代码和一个通过 OpenACC 并行化的工作并行单 GPU 代码 现在我尝试通过在多个 GPU 上运行 采用 mpi openacc 范例来增加并行性 我用 Fortran 90 编写代码 并使用 Nvidia 的 HPC
Fortran
GPU
MPI
OpenACC
nvidiahpccompilers
Skia 或 Direct2D 如何使用 GPU 渲染线条或多边形?
这是一道了解2d矢量图形GPU加速渲染原理的题 使用 Skia 或 Direct2D 您可以绘制例如圆角矩形 贝塞尔曲线 多边形 还有模糊等效果 Skia Direct2D 提供基于 CPU 和 GPU 的渲染 For the CPU渲染
graphics
GPU
Rendering
Direct2D
skia
«
1 ...
6
7
8
9
10
11
12
...24
»