Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
在 Ubuntu 中使用 Gstreamer 通过 RTP 协议流式传输 Mp4 视频
我正在尝试从本地目录获取视频文件 启用来自服务器的流并从客户端捕获这些帧 我使用了以下管道 服务器端 gst launch v filesrc location home gokul Videos Econ TestVideo radioa
Ubuntu
videostreaming
gstreamer
RTP
gstlaunch
如何使用Java将h.264直播流编码为RTP数据包
我正在为 Android 操作系统开发一个应用程序 我需要来自摄像机的实时解码视频流 该视频流使用 h 264 编解码器进行编码 将帧数据转换为 RTP 数据包并将数据包发送到服务器 首先 可以尝试在 PC 上实现从 HDD 中预先录制的视
Java
Android
h264
RTSP
RTP
C# - 捕获 RTP 流并发送到语音识别
我正在努力实现的目标 在 C 中捕获 RTP 流 将该流转发到 System Speech SpeechRecognitionEngine 我正在创建一个基于 Linux 的机器人 它将接受麦克风输入 将其发送给 Windows 机器 Wi
Stream
ffmpeg
SpeechRecognition
VLC
RTP
适用于 iPhone 和 Android 的 sip 堆栈
我正在寻找适用于 Android 和 iPhone 的 SIP 堆栈 我发现了很多类似的问题 有时已经很老了 我不太关心解决方案是商业的 但这是首选 还是开源的 到目前为止我发现 RADVISION 的 Android 商业解决方案 iPh
iphone
Android
voip
SIP
RTP
Websocket 连接失败并显示星号 11
我正在尝试将 websocket 配置为与 asterisk 11 一起使用 但是存在一些问题 我遵循的步骤是 在 http conf 中启用以下内容 enabled yes bindaddr 0 0 0 0 bindport 8088 我
WebSocket
Asterisk
webrtc
RTP
dtls
Gstreamer、rtspsrc 和负载类型
我在从特定摄像头检索 rtsp 流时遇到困难 因为摄像头提供的 rtp 有效负载类型是 35 未分配 并且该摄像头接受的有效负载类型rtph264德佩插件的范围是 96 127 结果是 gstreamer 显示如下错误
gstreamer
RTSP
RTP
ffmpeg创建RTP流
我正在尝试使用 ffmpeg 进行编码和流式传输 libavcodec libavformat MSVC x64 with Zeranoe builds 这是我的代码 很大程度上改编自编码示例 删除了错误处理 include stdafx
c
ffmpeg
RTP
FFmpeg RTP 流媒体错误 [关闭]
Closed 这个问题是无关 help closed questions 目前不接受答案 我想通过 FFmpeg 播放视频文件 但出现此错误 RTP 复用器仅支持一种流 当我写这个时 我得到了这个错误 ffmpeg exe i SomeVi
ffmpeg
Streaming
live
RTP
如何将 pcap 文件流式传输到 RTP/RTCP 流?
我已经捕获了三个不同的流作为带有元数据的 pcap 文件 如何流回 RTP RTCP 流 如果我理解正确的话 你有 pcap 但你想从他们那里得到 RTP 吗 Wireshark 用户界面 您可以使用 Wireshark 的 UI 通过菜单
Stream
RTP
pcap
rtcp
Android RTP/RTCP 堆栈
我正在寻找一个堆栈 库 它可以让我充分利用 Android 下 RTP 和 RTCP 协议的所有标头字段 我不知道这是否重要 但我想将它与我用于 SIP 和 SDP 的 JAIN SIP 堆栈结合起来 有没有人有任何经验或建议 The an
Android
RTP
rtcp
libavformat/ffmpeg 与 x264 和 RTP 同步时出现问题
我一直在开发一些实时直播的流媒体软件 来自各种摄像机和网络流使用 H 264 为了实现这一点 我直接使用 x264 编码器 使用 零延迟 预设 并提供 NAL 因为它们可用于 libavformat 打包到 RTP 最终是 RTSP 中 理
c
ffmpeg
RTP
x264
libavformat
如何在 HTML5 中流式传输实时视频?
我正在寻找一种方法来广播从植根于 PC 的网络摄像头或相机拍摄的实时视频 广播应该使用标签 我认为支持 rtp 和 rtsp 显示在 HTML5 页面中 查看流的用户不必安装任何插件或视频播放器 例如 QuickTime 我需要视频为 mp
html
Streaming
MP4
RTSP
RTP
使用 gstreamer-1.0 的 H264 RTP 流
我尝试从带有摄像头模块的 Raspberry Pi 3 到视频标签制作 H264 RTP 流 使用以下代码启动流 raspivid t 0 h 720 w 1080 fps 25 hf b 2000000 o gst launch 1 0
video
html5video
gstreamer
RTP
livestreaming
在 Android 上显示实时 UDP 或 RTP 流(组播)
我刚接触 Android 开发几周 我需要编写一个应用程序 可以向用户显示以 UDP 或 RDP 多播的实时流 该流位于诸如 rtp 230 0 0 11 1234 之类的地址 并通过该模块通过 WIFI 发出 我已经尝试从播放器 Daro
Android
udp
videostreaming
RTP
如何对 H265/HEVC 的 RTP 数据(通过 UDP)中的碎片帧进行解包?
我正在尝试对原始 RTP H265 流进行解包并重建它 以便解码器可以读取它 我已经能够通过识别 NAL 和 FU 详细信息从 RTP 缓冲区中提取单个和碎片单元 但是 我无法找到有关处理放置在碎片单元缓冲区前面的 NAL 的精确细节 这是
videostreaming
RTP
hevc
videocodecs
h265
RTP 视频流:是否必须存在 SDP 文件?
我已经实现了原始 rtp 流 我想使用 VLC 或 Mplayer 来播放它 但视频播放器似乎无法播放此流 例如 MPlayer 说 Stream not seekable Stray packet seq 6 1013 seq 987 n
videostreaming
RTP
在 Gstreamer 上流式传输 MP4 视频文件
我第一次使用 gstreamer 并尝试使用 Gstreamer RTP 和 UDP 将 MP4 视频文件从服务器流式传输到客户端 我尝试使用的命令行 在服务器端 gst launch 1 0 v filesrc location file
udp
videostreaming
gstreamer
MP4
RTP
如果wireshark无法识别某些类型的协议(RTSP、RTP、RTCP),如何强制其破译它们?
我正在尝试根据Java实现RTSP协议http www csee umbc edu pmundur courses CMSC691C lab5 kurose ross html http www csee umbc edu pmundur
TCP
udp
wireshark
RTSP
RTP
如何计算音频流中每个数据包的 RTP 时间戳
我阅读了 RTP 规范 但似乎无法理解 RTP 数据包时间戳 我尝试在我的服务器中以不同的方式实现它 但我无法让玩家正确播放它 我在这里的 错误 行为是 我使用 VLC 播放器播放 RTSP url 到我的服务器 我发现玩家的日志说 缓冲太
timestamp
audiostreaming
VLC
networkprotocols
RTP
从 RTP 流中解码 h264 帧
我正在使用 live555 和 ffmpeg 库从服务器获取和解码 RTP H264 流 视频流由 ffmpeg 编码 使用 Baseline 配置文件和 x264 param default preset m params veryfas
c
ffmpeg
h264
RTP
1
2
3
»