Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
ffmpeg rtsp解码缓冲区太小
我在 Android 上使用 ffmpeg 解码 rtsp 当图像快速更新或高分辨率时 我很快就会看到像素化 经过谷歌搜索 我发现它可能与UDP缓冲区大小有关 然后我在 ffmpeg libavformat udp c 中使用以下参数重新编
Android
ffmpeg
Streaming
RTSP
流式传输音频和视频
我已经尝试了一段时间但很挣扎 我有两个项目 将音频流式传输到服务器以通过网络分发 将音频和视频从网络摄像头流式传输到服务器 以便通过网络分发 到目前为止 我已经尝试过 ffmpeg 和 ffserver PulseAudio mjpegst
python
Linux
Streaming
videostreaming
audiostreaming
为什么 FLAC Streaming over HTTP 采用 Ogg 封装而不是原生封装?
当前所有 FLAC 流媒体实现 例如 Edcast 和 Icecast 似乎都在流媒体时使用 Ogg 作为 FLAC 的容器 这是什么原因呢 有什么缺点not使用 Ogg 并改为流式传输 本机 FLAC 流 我已经做了一些通过 HTTP 传
Streaming
OGG
flac
WCF 分块/流式传输
我正在使用 WCF 想要将一个大文件从客户端上传到服务器 我已经调查并决定遵循以下概述的分块方法http msdn microsoft com en us library aa717050 aspx http msdn microsoft
wcf
Streaming
uploading
chunking
如何在命令行中使用VLC保存视频流?
我正在尝试在 Window 7 Basic 的命令行中使用 VLC 保存在线视频 以下是我尝试过并部分起作用的一些事情 I movies gt vlc http media ch9 ms ch9 7492 a92ae0a6 7b81 411
commandline
Streaming
videostreaming
VLC
libvlc
验证 MPD 文件 - 使用 MPEG-DASH
我刚刚开始使用 MPEG DASH 从客户端 遵循 c057623 ISO IEC 23009 1 2012 规范 有谁知道是否有公共库或开源来验证我收到的 MPD 文件 我处理xml没有问题 任何帮助将不胜感激 您可能想检查一下MPEG
Streaming
iso
MPEG
MPD
mpegdash
视频流基础设施
我们想建立一个实时视频聊天网站 并正在寻找基本的架构建议和 或针对要使用的特定框架的推荐 以下是该网站的基本功能 大多数流媒体将由一个人通过网络摄像头等进行现场直播 通常由 1 10 人观看 但最多可能有 100 多名观众 音频和视频不必是
video
Streaming
h264
Elixir 向所有订阅者直播
我正在尝试在 Elixir 中实现一个无线电服务器 一个进程始终在工作并读取文件 mp3 并发布到主题 radio 当前用于测试目的 当它完成时会重新开始 每个连接订阅主题 radio 我不明白如何将块发送到所有订阅的连接 连接在 2 或
Streaming
elixir
cowboy
在近实时分析中,为什么 Lambda-->Firehose-->S3 优于 Lambda-->S3?
许多用于无服务器实时分析的 AWS 参考架构建议通过 Kinesis Firehose 将处理后的数据从 Lambda 推送到 S3 e g https aws amazon com blogs big data create real t
使用 FFmpeg 从 Mac 进行网络摄像头流传输
我想使用 FFmpeg 从 Mac 流式传输我的网络摄像头 首先我使用检查了支持的设备ffmpeg f avfoundation list devices true i Output AVFoundation input device 0x
MacOS
ffmpeg
Streaming
webcam
使用 HttpWebRequest 传输大文件时出现内存不足异常
使用大文件的 Http Put 时出现内存不足异常 我正在使用异步模型 如代码所示 我正在尝试将 8K 数据块发送到 Windows 2008 R2 服务器 当我尝试写入超过 536 868 864 字节的数据块时 始终会发生异常 异常发生
c
Streaming
OutOfMemory
媒体源 Api 不适用于自定义 webm 文件(Chrome 版本 23.0.1271.97 m)
我指的是对此给出的媒体源 api 演示link http html5 demos appspot com static media source html 它对于给定的测试 webm 文件工作正常 但是当我尝试将文件名更改为自定义 webm
javascript
html
video
Streaming
MediaSource
H264 中的 Elementary Stream 是什么意思
我读了 Elementary Stream 的内容维基百科 http en wikipedia org wiki Elementary stream 我正在使用的工具 Live555 需要 H 264 视频基本流文件 因此 当从视频应用程序
ffmpeg
Streaming
h264
live555
下沉 kafka 流时看不到消息,并且在 flink 1.2 中看不到打印消息
我的目标是使用kafka读取json格式的字符串 对字符串进行过滤 然后将消息接收出来 仍然是json字符串格式 出于测试目的 我的输入字符串消息如下所示 a 1 b 2 我的实现代码是 def main args Array String
Streaming
apacheflink
Java客户端-服务器:实时流式传输音频文件
我正在制作一个基于客户端 服务器的音乐应用程序 例如spotify 以下是发送一个mp3 audio file给我的客户 我想要的是向我的客户端实时播放这个 mp3 音频文件为了实现这个目标需要改变什么 编辑 我在 stackoverflo
Java
file
Sockets
Audio
Streaming
ffmpeg转码为直播流
我需要在 html 视频标签中显示 ip 摄像机流 我已经弄清楚如何从 rtsp 流转码到文件 如下所示 ffmpeg i rtsp user password ip s 640x480 tmp output mp4 现在我需要能够在这样的
video
ffmpeg
Streaming
videostreaming
html5video
连续从流中读取?
我有一个 Stream 对象 偶尔会获取一些数据 但间隔时间不可预测 Stream 上出现的消息是明确定义的 并提前声明其有效负载的大小 大小是包含在每个消息的前两个字节中的 16 位整数 我想要一个 StreamWatcher 类来检测
c
Events
Asynchronous
Streaming
从 iPhone 上传实时流媒体视频,例如 Ustream 或 Qik
如何将 iPhone 上的视频直播到 Ustream 或 Qik 等服务器 我知道 Apple 有一种叫做 Http Live Streaming 的东西 但我发现的大多数资源都只讨论将视频从服务器流式传输到 iPhone 我应该使用 Ap
iphone
http
video
Streaming
live
Spark 设置为从最早的偏移量读取 - 在尝试使用 Kafka 上不再可用的偏移量时抛出错误
我目前正在 Dataproc 上运行 Spark 作业 在尝试重新加入组并从 kafka 主题读取数据时遇到错误 我做了一些挖掘 但不确定问题是什么 我有auto offset reset set to earliest所以它应该从最早可用
apachespark
ApacheKafka
Streaming
googleclouddataproc
Transport Stream 流媒体服务器的要求
嘿大家 我们正在设计一个电视模块 在当前的架构中 我们有两个独立的设备 每个设备都在 Atom 处理器上运行 Linux 我们需要通过网络将实时传输流从一台设备传输到另一台设备 我尝试寻找在Linux上运行的能够实时传输传输流的流媒体软件
Linux
Streaming
live
«
1 ...
4
5
6
7
8
9
10
...14
»