Articles of rtsp

GStreamer通过HTTPSvideo流传输RTSP

我有一个通过HTTPS进行RTSP的流。 握手是安全的(通过https),但握手完成后的数据未加密(在RTSP中)。 默认情况下,GStreamer不会流式处理,因为它也希望数据加密(在RTSPS中),这不是我的情况。 我尝试了很多东西但似乎没什么用。 例如,在我开始获取流后,我尝试将其写入本地端口并将该URL传递给GStreamer,但它没有播放。 我是这个GStreamer的新手,所以我对玩家的了解有限。 我正在寻找一种方法来通过GStreamer完成握手,这是HTTPS(安全),然后我得到的流没有加密。 如果某人有类似的事情,请让我知道任何流式RTSP。 我尝试过类似的东西 nativeSetPipeline(“rtspsrc location=rtsph:// latency=100 ! rtph264depay ! avdec_h264 ! glimagesink”); 上面的管道默认工作,GStreamer通过HTTP播放RTSP,但是当我通过HTTPS尝试RTSP时 nativeSetPipeline(“rtspsrc debug = TRUE do-rtcp=false location=\”rtspsh://” latency=100 do-rtsp-keep-alive=true ! rtph264depay ! avdec_h264 ! glimagesink”); 这不起作用,因为GStreamer也希望流也得到保护。 有关如何通过HTTPS流式传输RTSP的任何想法/代码段或示例? 我使用的当前版本是1.10.4。

使用RTSP的video流:Android

我正在尝试在我的Linux机器上安装Wowza服务器,以便为我的Android应用程序启用RTSP流。 在Android客户端,我需要在我的应用程序中进行哪些更改? 我正在使用Videoview来播放本地存储的video文件。 现在我想让video内容通过我安装的服务器进行流式传输。 如果有必要,我现在可以转移到任何其他流媒体服务器,我正在研究流媒体服务器。

将实时Android网络摄像头video上传到RTP / RTSP服务器

我已经做了适当的研究,但仍然没有关于我想要实现的事情的信息。 所以我想编写一个应用程序,用户可以录制video并立即(实时)将video上传到RTP / RTSP服务器。 服务器端不会有问题。 我不清楚的是如何在电话方面实现这一点。 到目前为止我的研究是我必须将录制的video写入本地套接字而不是文件,因为写入文件的3gp文件无法访问,直到最终确定(当video停止且标题信息有已被写入关于长度和其他的video)。 当套接字接收连续数据时,我需要将其包装成RTP数据包并将其发送到远程服务器。 我可能还需要先进行基本编码(这还不是那么重要)。 如果这个理论到目前为止是否有任何人有任何想法。 我还想知道是否有人可以指出一些类似方法的代码片段,特别是将video即时发送到服务器。 我不知道该怎么做。 非常感谢和最诚挚的问候

rtspvideo性能作为浏览器触发的意图与我的应用程序触发的意图

嗨,我正在创建一个应用程序,它将播放livestream.com的rtsp直播频道。 我在我的应用程序中使用intent启动播放器如下: iPlayer = new Intent(Intent.ACTION_VIEW); //iPlayer.setType(“video/*”); iPlayer.setData(Uri.parse(videoUrl)); startActivity(iPlayer); 通过我的应用程序启动媒体播放器时,video性能非常差。 它会停止每隔几秒钟缓冲一次,播放几秒钟并暂停再次缓冲。 另一方面,如果我在Android浏览器中打开url(例如http://m.livestream.com/abcalbania ),它在该页面上有一个video标签并触发video播放器。 这一次,video运行非常顺利。 知道为什么会这样吗? 以及如何解决这个问题? 我不想将浏览器URL作为意图启动。 这是在Android 2.3.4的Atmel cortex A9芯片组上完成的

rtmp和rtsp协议有什么区别?

我只是想知道rtsp和rtmp协议之间有什么区别,如果我的服务器上有mp3,我正在使用http在我的android中播放它,这些在工作上有何不同。 在android中如果我想实现rtmp或rtsp,哪个最好? android中rtmp&rtsp的限制是什么? 上面有人能给我简单的答案吗?

使用ffmpeg实时解码android的硬件编码H264相机源

我正在尝试使用Android上的硬件H264编码器从相机创建video,并使用FFmpeg来复用音频(所有这些都在Android手机上) 到目前为止我所做的是将H264video打包成rtsp数据包,并使用VLC(通过UDP )对其进行解码,因此我知道video的格式至少是正确的。 但是,我无法以可以理解的格式将video数据发送到ffmpeg 。 我尝试将相同的rtsp数据包发送到localhost上的端口5006(通过UDP),然后向ffmpeg提供sdp文件,该文件告诉它video流进入哪个本地端口以及如何解码video,如果我理解的话rtsp正确流式传输。 然而,这不起作用,我无法诊断为什么,因为ffmpeg只是坐在那里等待输入。 出于延迟和可扩展性的原因,我不能只将video和音频发送到服务器并将其复制到那里,必须在手机上以尽可能轻的方式完成。 我想我正在寻找的是关于如何实现这一点的建议。 最佳解决方案是将分组化的H264video通过管道发送到ffmpeg ,但是我无法向ffmpeg发送解码video所需的sdp文件参数。 我可以根据请求提供更多信息,例如如何为Android编译ffmpeg ,但我怀疑这是必要的。 哦,我开始ffmpeg的方式是通过命令行,我真的宁愿避免与jni混淆,如果这是可能的。 非常感谢帮助,谢谢。

VLC RTSP直播到Android

对于我的应用程序,我必须从decklink卡stream到Android应用程序(我必须是一个实时stream,所以无论是HLS或RTSP似乎是很好的解决scheme,因为我的应用程序的目标是Android 3+)。 我使用decklink sdk重新编译了VLC,并且能够通过networking直播到另一台电脑(但是它与RTSP只能工作60秒)。 这是我试过的: HTTPstream: ./vlc -vvv decklink:// –sout '#transcode{vcodec=mp4v,acodec=mpga,vb=56,ab=24,channels=1} :standard{access=http{use-key-frames},mux=ts,dst=:3001/stream.mpeg}' 它是在Android VLC 0.0.11,但只在WiFi,而不是在3G。 而且我无法使用VideoView在我的应用程序中播放它。 这是我使用的代码和相应的错误消息: String url = "http://134.246.63.169:5554/stream.mpeg"; VideoView videoView = (VideoView) this.findViewById(R.id.videoView); videoView.setVideoURI(Uri.parse(url)); videoView.setMediaController(new MediaController(this)); videoView.requestFocus(); videoView.start(); 错误消息: 04-08 15:26:46.272: D/MediaPlayer(16349): Couldn't open file on client side, trying server side 04-08 15:26:46.272: V/ChromiumHTTPDataSource(7680): connect on behalf of uid 1080867789 04-08 15:26:46.272: […]

Android中的RTSP客户端

我正在Android中编写一个RTSP客户端。 我能够收到所有请求的回应, 描述它发回200 OK 使用传输设置:RTP / AVP:单播:客户端端口= 4568:4569获得了200 OK消息 发送PLAY,并得到了OK消息 之后,如何获得audio和video帧? 我已经在博客上search,但都说在client_port听,但我没有收到任何数据包。 请让我知道我是否正确地做。

Android 4.0.4 MediaPlayer使用RTSPurl准备问题

我正在使用我正在处理的videostream应用程序遇到一个奇怪的问题。 video/audio的实际stream式传输在我所有的testing设备上运行良好。 然而,在看似任何设备4.0+上,使用RTSP URL时,prepare()会立即返回(这会导致在video加载时干扰其他一些系统的用户提供正确反馈的问题)。 以下是我初始化和设置MediaPlayer的代码块,但请注意以下几点: 我的initPlayer方法是从AsyncTask中调用的。 video最终播放正确,但准备返回立即造成在video加载过程中缺乏对用户的反馈。 在整个过程中不会出现任何错误 通过OnPreparedListener中的onPrepared方法在MediaPlayer上调用start(),在prepare()返回之前,它显然会成为一个问题,然后才会真正准备好播放。 HTTPstream似乎正常工作,并且在低于4.0的每个testing设备上,问题不会发生。 我一直在试图解决这个问题的时间非常漫长,而且一直没能find遇到这个问题的其他人。 任何想法将不胜感激。 public void initPlayer() { //We first need to make sure the MediaPlayer isn't null if(mMediaPlayer==null){ mMediaPlayer = new MediaPlayer(); mMediaPlayer.setOnPreparedListener(mediaPlayerPreparedListener); mMediaPlayer.setOnCompletionListener(mediaPlayerCompletionListener); mMediaPlayer.setAudioStreamType(AudioManager.STREAM_MUSIC); } //If a video/stream has been chosen while another is already playing else if(mMediaPlayer.isPlaying()){ mMediaPlayer.reset(); } //Video is not in full […]

在Android中从字节stream中播放video

有什么办法从Android的字节stream播放video? 我正在使用特定的通信中间件,因此我不能只将http / rtsp链接传递给MediaPlayer对象。 我想知道是否可以用本地http / rtsp链接包装我的stream,所以我可以播放stream,而不是等待文件下载播放它。 我的中间件工作在TCP上,所以我也想过,我可以用TCP数据报包装我的rtsp数据报,并在删除TCP头之后以某种方式在客户端上解释它们。 我真的很惊讶,我不能只传递一个字节stream到MediaPlayer。 提前致谢。