大家好,关于rtsp服务器搭建很多朋友都还不太明白,不过没关系,因为今天小编就来为大家分享关于如何在win2008中搭建rtsp流媒体服务器的知识点,相信应该可以解决大家的一些困惑和问题,如果碰巧可以解决您的问题,还望关注下本站哦,希望对各位有所帮助!
一、live555移植到hi3516做rtsp服务器
live555库本身实现了做rtsp服务器,客户端可以通过rtsp客户端访问服务器上的文件并播放,支持的文件格式如下:
本次任务实现了把live555移植到嵌入式海思芯片hi3516上做rtsp服务器,除了支持客户端播放服务器上上面格式文件外,另添加了实时播放hi3516摄像头图像与音频的功能。
live555源码目录如下:
四个基本的库分别是:BasicUsageEnvironment, groupsock, liveMedia和UsageEnvironment。
编译后即生成这4个库文件:
这里我只简单说下liveMedia库的功能,其他三个库是live555运行的基础库,太(mei)简(yan)单(jiu),就不说了。
liveMedia库包含了音视频相关的所有功能,包含音视频文件的解析,RTP传输封装等,我们可以看到这个目录下有对h264、AAC等文件解析的支持:
交叉编译过程:略
这里我主要是修改mediaServer文件夹下的示例程序,添加实时预览摄像头图像与mic声音功能。
hi3516芯片,视频编码格式为h264,音频编码格式为AAC。
1.添加音频AAC支持
添加类 ADTSAudioLiveSource,继承自FramedSource
在该类的doGetNextFrame函数里实现获取hi3516音频数据做为rtsp服务器音频源。
注意点:
1.1 adts默认是带7字节或者9字节的头,传给rtsp的时候是要去掉头的,实际上RTSP通过rtp传输AAC帧的时候是不带adts头的,而是带4个字节的mpeg4-generic头。
1.2从FramedSource继承而来的变量
每次doGetNextFrame帧时,从FIFO里取一个完整的AAC帧,把帧拷贝到fTo buf里面,然后比较帧大小与fMaxSize来赋值几个关键的变量:
注意,不管帧长是否大于fMaxSize,每次都需要把完整的帧拷贝到fTo指针,live555内部会根据fNumTruncatedBytes等变量自行处理分包。
1.3 doGetNextFrame函数最后不管有没有取到帧,都需要执行FramedSource::afterGetting
1.4采样率,通道数,configstr等的计算
这几个变量在mediaSubbsession建立RTPsink时要用到,它影响了SDP里对于AAC音频描述字段的产生
添加类 AACAudioLiveServerMediaSubsession,继承自ADTSAudioFileServerMediaSubsession
createNewStreamSource函数创建上面的ADTSAudioLiveSource做为音频输入源,参数estBitrate为预估的码率,海思AAC编码码率设置为24kbps,所以estBitrate设置为24.
createNewRTPSink有必要继承,因为需要根据音频源的采样率、通道数等创建RTPSink.
2.添加h264支持
添加 H264FramedLiveSource,继承自FramedSource
unsigned maxFrameSize()函数必须继承,里面设置帧最大可能的大小,我设置为100000,如果不继承就是默认的,会出现画面马赛克
doGetNextFrame函数里面和AAC取帧的处理差不多,我加多了一个步骤,就是第一次取帧的时候会调用接口去产生一个关键帧,并且等待这个关键帧到来才处理,这样连接后出图会比较快。
添加类 H264VideoLiveServerMediaSubsession,继承自H264VideoFileServerMediaSubsession
这个类就是实现createNewStreamSource时创建H264FramedLiveSource
3.修改DynamicRTSPServer
修改类DynamicRTSPServer,在lookupServerMediaSession函数里动点手脚,默认在这个函数里面会根据文件名去寻找服务器下相应的文件做为直播源,我这里比较如果是我特定的live源名字则返回,相应的live源创建rtsp服务器的时候就添加好
4.初始化rtsp server
初始化rtsp服务器,添加一个ServerMediaSession,该mediaSession添加一个AACAudioLiveServerMediaSubsession和一个H264VideoLiveServerMediaSubsession,然后把该mediaSession添加给rtsp服务器。
客户端访问 rtsp://x.x.x.x/ch0.live时就可以看到实时的摄像头图像与声音啦!
二、如何在win2008中搭建rtsp流媒体服务器
用Helix Server做流媒体服务器,搭建过程先参考下,如果不成功,后期我会在csdn上写篇*客,到时候把发给你。我搭过很多流媒体服务器,这个就是专门支持rtsp协议的,视频格式为rmvb或rm,音频格式为ra,就是用helix server做流媒体服务器,helix producer plus做视音频编码器,realplayer做客户端播放器,这三个组合起来使用,配置通畅就好了,那么都和你说了用哪些软件了,其实网上都能搜到相关软件的使用说明了,不懂的再问我吧!
三、rtsp流浏览器播放方案
rtsp流在主流浏览器并不支持播放。比如大华的视频流:rtsp://admin:123456@
192.168.10.129/cam/realmonitor?channel=1&subtype=0,用vlc可以播放。但在浏览器会报ERR_UNKNOWN_URL_SCHEME。那如何在浏览器中播放呢。
以下列出几种方案。
1、安装插件(chrome最新版基本都不支持)
类如:kurento,vlc插件(谷歌浏览器版本41以下),vgx插件(不支持高版本,chrome72.0版本可用)等。
2、安装软件(中间件,基本都付费)
类如:Appemit(调用vlc插件播放rtsp),可以免安装的,目前只能windows,免费版会有提示。
猿大师中间件(底层调用VLC的ActiveX控件,实现在主流浏览器网页中内嵌播放多路RTSP的实时视频流),中间件收费的。
PluginOK(牛插)中间件。底层调用ActiveX控件VlcOcx.dll。(商业用途需付费使用)
3、服务器拉流转发及协议转换
示意图如下所示:
推流--------------服务器转发--------------拉流
方法一览:
a,vlc软件串流到协议,网页显示几个视频需启动几个vlc,只适合应急场景。
b,html5+ websocket_rtsp_proxy实现视频流直播,基于MSE(Media Source Extensions,W3C),扩展H5的功能。
步骤:服务器安装streamedian服务器,客户端通过video标签播放。
原型图:
价格:
c.基于nginx的rsmp转发
基于nginx实现rtmp转化,用flash实现播放。由于flash目前大多浏览器默认禁用,不推荐此方式。
步骤:安装ffmpeg工具,安装nginx。
另外nginx-rtmp-module也支持HLS协议,可以搭建基于hls的直播服务器。
d.rtsp转hls播放,通过ffmpeg转码
步骤:安装ffmpeg工具,ffmpeg转码。
形如:
ffmpeg-i"rtsp://admin:/cam/realmonitor?channel=1&subtype=0"-c copy-f hls-hls_time 2.0-hls_list_size 0-hls_wrap 15"D:/hls/test.m3u8"
缺点是直播流延时很大,对实时要求比较高的不满足要求。
案例:基于EasyDarwin拾建转码服务器。参考:
通过存储的m3u8去读取。
e.websocket代理推送,FFMPEG转码
此方法与a,b类似。但更实用。
以下提供两种方案:
(1)Gin+WebSocket+FFMPEG实现rtsp转码,参考:
通过FFMPEG把rstp转成,ginrtsp作为转发服务器,但需要自己写相应接口,需要了解go语言。
(2)node+ ffmpeg+ websocket+ flv.js,参考:
步骤:在node服务中建立websocket;通过fluent-ffmpeg转码,将RTSP流转为flv格式;通过flv.js连接websocket,并对获取的flv格式视频数据进行渲染播放。
import WebSocket from'ws'import webSocketStream from'websocket-stream/stream'import ffmpeg from'fluent-ffmpeg'//建立WebSocket服务const wss= new WebSocket.Server({ port: 8888, perMessageDeflate: false})//监听连接wss.on('connection', handleConnection)//连接时触发事件function handleConnection(ws, req){ //获取前端请求的流(前端websocket连接时后面带上流) const url= req.url.slice(1) //传入连接的ws客户端实例化一个流 const stream= webSocketStream(ws,{ binary: true}) //通过ffmpeg命令对实时流进行格式转换输出flv格式 const ffmpegCommand= ffmpeg(url) .addInputOption('-analyzeduration','100000','-max_delay','1000000') .on('start', function(){ console.log('Stream started.')}) .on('codecData', function(){ console.log('Stream codecData.')}) .on('error', function(err){ console.log('An error oured:', err.message) stream.end() }) .on('end', function(){ console.log('Stream end!') stream.end() }) .outputFormat('flv').videoCodec('copy').noAudio() stream.on('close', function(){ ffmpegCommand.kill('SIGKILL') }) try{ //执行命令传输到实例流中返回给客户端 ffmpegCommand.pipe(stream) } catch(error){ console.log(error) }}
优点全部基于js。前端即可搞定。
参考:
四、rtsp开启是什么意思
RTSP是Real-Time Streaming Protocol的简称,是一种用于实时数据的传输协议,可以实现音视频数据的传输。而开启RTSP服务,则是指启动了支持RTSP协议的数据传输服务,让用户可以使用RTSP协议来访问音视频流数据。
通过开启RTSP服务,可以让支持RTSP协议的终端设备(如智能手机、平板电脑、电视等)实现实时的音视频播放,同时也可以为其他系统提供完整的音视频数据流服务,以实现多种不同的业务需求。
要开启RTSP服务,需要使用支持该协议的音视频采集设备或服务器,通过配置相应的参数来启动RTSP服务。具体来说,可以通过使用专业的音视频监控软件或移动设备APP来实现,也可以使用相应的嵌入式硬件设备来搭建RTSP服务。不同的设备和软件的配置方法可能有所不同,因此需要根据实际情况进行具体操作。