java – 存储,转换为视频流Android屏幕

前端之家收集整理的这篇文章主要介绍了java – 存储,转换为视频流Android屏幕前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。
我使用DDMS从我的 Android手机获取屏幕截图,我需要一种有效的方式来转换视频并通过网络流式传输视频.

我有一个RawImage,其中填充了屏幕截图的数据:

RawImage mRawImage;

直到知道我使用SWT创建图像并保存它:

PaletteData paletteData = new PaletteData(
    mRawImage.getRedMask(),mRawImage.getGreenMask(),mRawImage.getBlueMask());

ImageData imageData = new ImageData(
    mRawImage.width,mRawImage.height,mRawImage.bpp,paletteData,1,mRawImage.data);

ImageLoader s = new ImageLoader();
s.data = new ImageData[] {imageData};
s.save("temp.jpg",SWT.IMAGE_JPEG);

>你能提出一种方法将这些图像序列转换为视频和
然后播放视频?

我发现NanoHTTPD可以用于流媒体,但我怎样才能将图像转换并压缩为视频?

>你相信我能用ffmpeg做到这一点吗?

我找到了一个很好的Tutorial用于使用FFMPEG和video4linux2流式传输网络摄像头.

是否可以将RawImage中的字节发送到FFMPEG以转换为实时视频流?

实际代码

$ffmpeg -f video4linux2 -i /dev/video0 http://78.47.18.19:8090/cam1.ffm

将其替换为类似于:

$ffmpeg -f video4linux2 -i **<add here java stream>** http://78.47.18.19:8090/cam1.ffm

有什么建议?

谢谢

PS:我期待一个解决方案,它可以帮助我将图像转换为压缩视频,然后通过网络流式传输视频,以便使用HTML5或Flash Player播放

@H_502_35@

解决方法

有两种方法可以解决这个问题:

1)在设备本身上捕获,编码和流

要么

2)从服务器捕获设备,编码和流

我不知道你的所有要求,但我认为选项2是要走的路.您将获得更好的性能和更广泛的工具,以实现您的最终目标.

捕获
几乎完全按照您描述的方式捕获JPEG图像.除了为每个索引添加一个索引,以便你有FILE1.JPG FILE2.JPG FILE3.JPG FILE4.jpg等.

现在,根据您的要求,在某个时间间隔将这些图像上传到服务器.

编码
使用mencode设置有损压缩率,如下所示:

mencoder“./*.jpg”-mf fps = 5 -o yourvideo.avi -ovc lavc -lavcopts vcodec = msmpeg4v2:vbitrate = 800

完成后,您可以使用ffmpeg创建MP4,如下所示:

ffmpeg -r 5 -b 1800 -i %01d.jpg yourvideo.mp4


现在为了通过网络流式传输mp4,我会设置一个网页,如:

http://myserver/androidStream

这会加载动态写入的M3U播放列表,以便始终指向要流式传输的最新视频.根据您使用的播放器,您可以将M3U播放列表指向将加载下一个视频的“下一个”M3U播放列表.您可能还希望根据您的要求查看替代播放列表格式,如ASX或PLS.

见:http://en.wikipedia.org/wiki/Advanced_Stream_Redirector
http://en.wikipedia.org/wiki/PLS_(file_format)作为其他非M3U播放列表格式的示例.

使用上面的一般步骤,您将拥有一个系统,其中设备以每分钟n个图像的速率捕获图像,然后将这些图像上载到服务器进行编码.一旦这些图像被编码,您可以通过引用文件直接流式传输电影,或者您可以设置M3U类型的播放列表,这将允许播放器在可用时从“当前”视频移动到“下一个”视频.

@H_502_35@ @H_502_35@

猜你在找的Android相关文章