使用JetPack4.2为NVIDIA Xavier刷机

2023-05-16

1. 准备

Host:Ubuntu 16.04或18.04系统,配备鼠标、键盘、显示器,联网

Xavier:配备鼠标、键盘、显示器、HDMI转VGA接口(连接显示器和Xavier),开机后安装Ubuntu界面,命令如下:

cd ~/NVIDIA-INSTALL

sudo ./install.sh

sudo reboot now

2:连接

将Host与Xavier之间通过网线接到同一台交换机上,然后再通过USB进行连接。注意:主机和从机网段设置相同。之后利用lsusb命令查看是否已经将Xavier与主机连到一起了,如果命令行出现NVIDIA Corp,证明已经连接,可以开始刷机了

3:刷机

在Host上下载JetPack安装包,地址https://developer.nvidia.com/embedded/jetpack,4.2版本为.deb文件

在下载的终端

sudo apt install ./sdkmanager_0.9.11-3405_amd64.deb

安装完成后在终端输入sdkmanager进行启动,输入NVIDIA账号和密码,接下来步骤如下

(1)硬件

(2)软件

opencv可能会出现下载错误,需要安装或者移除一些东西之类,例如sudo apt-get remove libopencv-calib3d-dev

下载完成后,会出现自动还是手动界面,如果Xavier开机正常,选择自动,否则选择手动,按提示进行操作(网上也有很多教程)

(3)点击flash,会重启Xavier,按照向导进行设置,然后在Host里输入Xavier用户名和密码进行Jetson SDK components的安装

期间如果出现...cannot connect to the device via ssh ...的错误,在主机终端输入ssh nvidia@192.168.2.***,确保Host与Xavier网络始终连接,可通过ping 192.168.2.***查看是否连接正常

(4)安装完成

参考:使用jetpack 4.2为Xavier nano TX2刷机

玩转NVIDIA Jetson AGX Xavier(3)--- 使用JetPack 4.1为Xavier刷机

NVIDIA Jetson Xavier通过JetPack 4.1刷机教程(虚拟机版)

NVIDIA Jetson TX2:JetPack3.2.1刷机

第二次刷机小记:

1:主机先通过SDK下载安装包,注意只要下载从机上需要的就可以,不然特别耗费时间。

2:flash时,主机和从机通过Xavier自带的USB连接,自动模式即可(从机桌面系统已安装并且正常),从机会关闭,再自动重启,之后我们给从机设置用户名以及密码等,开机后重新连接网络,保证inatall时两者网段相同。

PS:新的刷机,新的体验!

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

使用JetPack4.2为NVIDIA Xavier刷机 的相关文章

  • 将 2D 数组复制到已知可变宽度的 GPU

    我正在研究如何将每行可变宽度的 2D 数组复制到 GPU 中 int rows 1000 int cols int host matrix malloc sizeof int rows int d array int length Each
  • OpenGL sRGB 帧缓冲区奇怪之处

    我正在使用 GLFW3 创建上下文 我注意到GLFW SRGB CAPABLE属性好像没有什么影响 无论我将其设置为什么 我总是会在以下情况下获得 sRGB 转换 GL FRAMEBUFFER SRGB已启用 我的理解是 当GL FRAME
  • Linux 中没有 X.org 的 OpenGL

    我想在 Linux 中打开一个没有 X 的 OpenGL 上下文 有什么办法可以做到吗 我知道集成英特尔显卡硬件是可能的 尽管大多数人的系统中都有 Nvidia 卡 我想要一个适用于 Nvidia 卡的解决方案 如果除了通过集成英特尔硬件之
  • CUDA 运行时 API 错误 38:未检测到支持 CUDA 的设备

    情况 我有一个 2 gpu 服务器 Ubuntu 12 04 我将 Tesla C1060 与 GTX 670 交换 然后我在 4 2 上安装了 CUDA 5 0 之后我编译了除 simpleMPI 之外的所有示例 没有错误 但当我跑步时
  • Tensorflow:GPU 加速仅在首次运行后发生

    我已经在我的机器 Ubuntu 16 04 上安装了 CUDA 和 CUDNNtensorflow gpu 使用的版本 CUDA 10 0 CUDNN 7 6 Python 3 6 张量流 1 14 这是输出nvidia smi 显示显卡配
  • 在 Python 中访问 GPU 硬件规格?

    我想使用 Numba 或类似的 Python CUDA 包访问各种 NVidia GPU 规范 可用设备内存 二级缓存大小 内存时钟频率等信息 来自阅读这个问题 https stackoverflow com questions 48654
  • 检测显示器是否关闭

    我有一个信息亭类型的应用程序 如果液晶电视关闭 我需要收到通知 以便我可以惩罚某人 我正在运行带有 nVidia 显卡和 nVidia 驱动程序的 Ubuntu 10 10 电视通过 HDMI 插入 我看过了nvidia settings
  • 使用python ctypes与nvapi交互(后续附演示代码)

    这是我之前问题的后续 有关 python ctypes 和 nvapi 的帮助 https stackoverflow com questions 6163770 help with python ctypes and nvapi 我正在发
  • 在 Optimus 笔记本电脑中以编程方式强制使用 NVIDIA GPU

    我正在编写 DirectX 游戏 当我在 Optimus 笔记本电脑上运行它时 会使用 Intel GPU 导致性能非常糟糕 如果我使用上下文菜单或将可执行文件重命名为 bf3 exe 或其他一些著名的游戏可执行文件名称来强制使用 NVID
  • 有关 CUDA 中统一虚拟寻址 (UVA) 的信息/示例

    我试图理解 CUDA 中统一虚拟寻址 UVA 的概念 我有两个问题 是否有任何示例 伪 代码可以演示这个概念 我在 CUDA C 编程指南中读到 UVA 只能在 64 位操作系统上使用 为什么会这样呢 A 统一虚拟地址空间 http doc
  • CUDA 标量和 SIMD 视频指令的效率

    SIMD指令的吞吐量低于32位整数运算 如果是 SM2 0 仅标量指令版本 则低 2 倍 如果是 SM3 0 则低 6 倍 什么情况下适合使用它们 如果您的数据已经以 SIMD 视频指令本机处理的格式打包 则需要多个步骤对其进行解包 以便可
  • 如何使 TensorFlow 在具有 2.x 功能的 GPU 上运行?

    我已在 Linux Ubuntu 16 04 上成功安装了tensorflow GPU 并进行了一些小的更改 以使其能够与新的 Ubuntu LTS 版本配合使用 然而 我认为 谁知道为什么 我的 GPU 满足计算能力大于 3 5 的最低要
  • 在 python docker 镜像上使用 GPU

    我正在使用一个python 3 7 4 slim busterdocker 镜像 我无法更改它 我想知道如何使用我的英伟达 GPU on it 我通常用一个tensorflow tensorflow 1 14 0 gpu py3并用一个简单
  • CUDA程序导致nvidia驱动程序崩溃

    当我超过大约 500 次试验和 256 个完整块时 我的 monte carlo pi 计算 CUDA 程序导致我的 nvidia 驱动程序崩溃 这似乎发生在 monteCarlo 内核函数中 任何帮助都会受到赞赏 include
  • 使 CUDA 内存不足

    我正在尝试训练网络 但我明白了 我将批量大小设置为 300 并收到此错误 但即使我将其减少到 100 我仍然收到此错误 更令人沮丧的是 在 1200 个图像上运行 10 epoch 大约需要 40 分钟 有什么建议吗 错了 我怎样才能加快这
  • Pytorch CUDA 错误:没有内核映像可用于在带有 cuda 11.1 的 RTX 3090 设备上执行

    如果我运行以下命令 import torch import sys print A sys version print B torch version print C torch cuda is available print D torc
  • Linux 上的 OpenCL 编译

    我是 OpenCL 的新手 从昨天开始 我尝试使用 OpenCL 进行并行编程 而不是使用我更熟悉且以前体验过的 CUDA 现在我有 NVIDIA GTX 580 GPU Ubuntu Linux 12 04 操作系统和 CUDA SDK
  • cuda中内核的并行执行

    可以说我有三个全局数组 它们已使用 cudaMemcpy 复制到 GPU 中 但 c 中的这些全局数组尚未使用 cudaHostAlloc 分配 以便分配页面锁定的内存 而不是简单的全局分配 int a 100 b 100 c 100 cu
  • 如何为 CUDA 内核选择网格和块尺寸?

    这是一个关于如何确定CUDA网格 块和线程大小的问题 这是对已发布问题的附加问题here https stackoverflow com a 5643838 1292251 通过此链接 talonmies 的答案包含一个代码片段 见下文 我
  • dlib 不使用 CUDA

    我使用 pip 安装了 dlib 我的显卡支持 CUDA 但是在运行 dlib 时 它不使用 GPU 我在 ubuntu 18 04 上工作 Python 3 6 5 default Apr 1 2018 05 46 30 GCC 7 3

随机推荐