我想做视频直播app,有技术大牛分享技术吗? 举报 理由 举报 取消 最近产生了一个做视频直播的app的想法,虽然目前市场上有17 花椒 映客 在直播这些当红的手机在线直播的app但是这些app有个通病就是内容过于低俗,我想换种思维,带来一种新的直播方式,内容更偏向于积极 健康的,我想做这样的app但是自己是出于做网站开发的 没有这方面的经验 身边的朋友认识的大牛也没搞过这种直播技术,因此想请教知乎的大牛分享一下自己的见解,如果兴趣相投 我们可以一起来做这款应用(应用的具体构思恕我不能向大家描述) 2017年9月21日 10 条回复 963 次浏览 iOS,创业,大牛,开发,技术,服务器,直播,网络
回复 ( 10 )
一、直播的技术架构:
直播视频采集SDK(PC/IOS/Anddroid)——直播CDN
(直播流分发加速)——直播视频播放器SDK(PC/IOS/Android)
二、音视频处理的一般流程:
数据采集→数据编码→数据传输(流媒体服务器) →解码数据→播放显示
1、数据采集:
摄像机及拾音器收集视频及音频数据,此时得到的为原始数据
涉及技术或协议:
摄像机:CCD、CMOS
拾音器:声电转换装置(咪头)、音频放大电路
2、数据编码:
使用相关硬件或软件对音视频原始数据进行编码处理(数字化)及加工(如音视频混合、打包封装等),得到可用的音视频数据
涉及技术或协议:
编码方式:CBR、VBR
编码格式
视频:H.265、H.264、MPEG-4等,封装容器有TS、MKV、AVI、MP4等
音频:G.711μ、AAC、Opus等,封装有MP3、OGG、AAC等
3、数据传输:
将编码完成后的音视频数据进行传输,早期的音视频通过同轴电缆之类的线缆进行传输,IP网络发展后,使用IP网络优传输
涉及技术或协议:
传输协议:RTP与RTCP、RTSP、RTMP、HTTP、HLS(HTTP Live
Streaming)等
控制信令:SIP和SDP、SNMP等
4、解码数据:
使用相关硬件或软件对接收到的编码后的音视频数据进行解码,得到可以直接显示的图像/声音
涉及技术或协议:
一般对应的编码器都会带有相应的解码器,也有一些第三方解码插件等
5、播放显示:
在显示器(电视、监视屏等)或扬声器(耳机、喇叭等)里,显示相应的图像画面或声音
涉及技术或协议:
显示器、扬声器、3D眼镜等
三、常见的视频直播相关协议:
1、RTMP(Real
Time Messaging Protocol,实时消息传送协议)
RTMP是Adobe Systems公司为Flash播放器和服务器之间音频、视频和数据传输开发的开放协议。它有三种变种:
1)、工作在TCP之上的明文协议,使用端口1935;
2)、RTMPT封装在HTTP请求之中,可穿越防火墙;
3)、RTMPS类似RTMPT,但使用的是HTTPS连接;
RTMP协议是被Flash用于对象、视频、音频的传输。这个协议建立在TCP协议或者轮询HTTP协议之上。RTMP协议就像一个用来装数据包的容器,这些数据既可以是AMF格式的数据,也可以是FLV中的视音频数据。一个单一的连接可以通过不同的通道传输多路网络流,这些通道中的包都是按照固定大小的包传输的。
2、RTSP(Real
Time Streaming Protocol,实时流传输协议)
RTSP定义了一对多应用程序如何有效地通过IP网络传送多媒体数据。RTSP提供了一个可扩展框架,数据源可以包括实时数据与已有的存储的数据。该协议目的在于控制多个数据发送连接,为选择发送通道如UDP、组播UDP与TCP提供途径,并为选择基于RTP上发送机制提供方法。
RTSP语法和运作跟HTTP/1.1类似,但并不特别强调时间同步,所以比较能容忍网络延迟。代理服务器的缓存功能也同样适用于RTSP,并且因为RTSP具有重新导向功能,可根据实际负载情况来切换提供服务的服务器,以避免过大的负载集中于同一服务器而造成延迟。
3、RTP(Real-time
Transport Protocol,实时传输协议)
RTP是针对多媒体数据流的一种传输层协议,详细说明了在互联网上传递音频和视频的标准数据包格式。RTP协议常用于流媒体系统(配合RTCP协议),视频会议和一键通系统(配合H.323或SIP),使它成为IP电话产业的技术基础。
RTP是建立在UDP协议上的,常与RTCP一起使用,其本身并没有提供按时发送机制或其它服务质量(QoS)保证,它依赖于低层服务去实现这一过程。
RTP 并不保证传送或防止无序传送,也不确定底层网络的可靠性,只管发送,不管传输是否丢包,也不管接收方是否有收到包。RTP 实行有序传送,RTP中的序列号允许接收方重组发送方的包序列,同时序列号也能用于决定适当的包位置,如在视频解码中,就不需要顺序解码。
4、RTCP(Real-time
Transport Control Protocol,实时传输控制协议)
RTCP是RTP的配套协议,为RTP媒体流提供信道外的控制。RTCP和RTP一起协作将多媒体数据打包和发送,定期在多媒体流会话参与者之间传输控制数据。
RTCP的主要功能是为RTP所提供的服务质量(QoS)提供反馈,收集相关媒体连接的统计信息,例如传输字节数,传输分组数,丢失分组数,单向和双向网络延迟等等。网络应用程序可以利用RTCP所提供的信息来提高服务质量,比如限制流量或改用压缩比小的编解码器。
四、利益相关
我们团队是做直播技术的,底层架构都是做好的,开放给开发者sdk和api接口,开发者接入后就可以实现直播的功能。欢迎相互交流学习。我的qq2479775187
知乎专栏 这篇文章汇集了我对这个行业的理解,欢迎大家指点
嫌钱多给我吧,我帮你捐给灾区。
直播的门槛至少两千万。
两千万丢水里听个响,您挺有钱的。
1、首先介绍一些直播的基础知识:
A.视频帧
视频帧其实就是一个一个的视频单元,视频单元分成三种,分别叫I、P、B帧。I帧可以简单的理解为就是一张图片,体积也会比较大,B帧和P帧它是一个参考帧。对一个直播流来说,最核心的帧是I帧,由I帧引申出来的就叫GOP。通常在直播上看到的延时,其实是内部直播流缓存延时,叫GOP cache。对于一个CDN系统来说,传输延时只是延时的一小部分,还有一部分是产生在用户流里面的GOP cache。所以直播平台如果要降低延时,首先建议调一下上行流的编码参数,调低I帧间隔。
B. 码率
码率也分三种,CBR、VBR、ABR。CBR是固定码率,可用于保证网络专线带宽是可控的场景。VBR是可变码率,它不好的地方在于,画面变化剧烈,它的码率跳变会特别大。所以在直播的实际应用中,ABR用的最多,即在质量和码率上做一个均分,控制一个平均值。
C. 编码、封装、传输
封装的功能相当于一个桶,它可以把不同编码格式的音视频装在一起,好的封装格式是能兼容很多种的音视频的编码格式的。编码的功能是把原始数据压缩的更小,像视频编码这种原始信息量大的,目前的编码方式已经把信息冗余度做的很低,如果出现丢帧,会导致视频的花屏。
了解这些知识是从事视频直播相关产品开发的基础,否则你很难理解直播时出现的一些问题,比如延迟产生在哪,以及为什么会发生卡顿。
2、接下来我们看一下搭建直播系统时需要重点关注的核心功能都有哪些:
A. 采集和播放
目前视频的采集已经相对容易许多,因为手机功能相对完整,不像PC时代需要面对不同的摄像头驱动,所以需要核心处理的技术点是网络适配。技术人员需要根据自身的网络条件去调整编码参数,以及多协议的拉流、软硬件的解码、多分辨率追帧等基础需求。如果在此基础之上,还能解决好对缓存的管理、数据同步等高端需求的话,那直播的整体播放体验就比较流畅了。
B. 分发和媒体处理
分发和媒体处理的工作,现在除了“特别特别大”的平台,一般都直接由CDN服务商来解决了。因为目前CDN服务已比较完善,跟直播匹配的一些功能,如上下线通知、协议转换、弱网传输,以及像转码、水印、增益、截图、录制这样的功能都已提供。
C. 功能系统
需要直播平台自身核心打造的,是功能系统。除去账户系统,还有如人气、道具、打赏、支付、抽奖等功能系统都是必备的。特别是弹幕功能,是对直播平台最核心的技术挑战。主要是弹幕的发送量会很大,直播在线人数动辄几十万,弹幕的发送频率又很高,1-2秒就会发一条消息,巨大的广播量对系统压力很大。所以一般直播平台都会采取分区的方式来加以解决,而如何分区,又在什么情况下合并分区,以维持合适的人气,这里面还是有很多逻辑上的问题是要去解决的。
D. 运营系统
运营系统也非常核心。视频的黄反审查,聊天内容的审核,还有一键断播、数据统计、质量监控这些都必不可少,因为一要面对内容监管审查的压力,其次是要能监测到全国不同区域的质量效果。
如果是自己搭建的话,即便是把上述功能都实现了,也只能说搭建出一个基本可以跑的一个直播产品而已,需要提升的地方还很多。但是现在搭建一个直播系统要远比之前来的容易,因为大量工作已经被CDN和终端服务商帮忙解决了,需要自己动手的地方少了很多。
3、 通过一张直播系统架构图,可以清晰地看到整个直播系统是如何工作的:
星域CDN的直播架构图
对一个直播平台来说,主播就相当于是一个数据源,各地不同的观众相当于是订阅者,其实就是生产者和订阅者模型。怎么样把这个生产者生产的信息,比较高效的送到订阅者手上,其实就是一个应用层的组播结构,需要做很多应用层层面的一些考量,比如中转跳数、网络距离、中转带宽成本和汇聚效果等。
推流模式就是主播直接把流推到CDN节点,CDN节点经过自己的网页加速,分发到真正观看的用户。直播所有的功能,像转码水印,转存截图、转点播,所有的这种功能,包括数据统计对外提供一些API,都会在CDN里面做。
一家直播厂商可能会选用多家CDN,或者是有自建的CDN。每个CDN最核心的一点,是怎么在国内这种错综复杂这个网络环境内,去组一张分发比较快速、容灾性能比较强,然后相对节省成本的一张虚拟网。
所以在整个CDN里面,最核心的就是传输组网,其次是在于功能系统的健壮。一个CDN、一个直播系统做的好坏,成败其实一部分在于传输的顺畅,另外一部分在于你是否稳健。
4、 直播效果的关键衡量指标:
虽然直播对技术的要求错综复杂,但直播的关键指标其实只有三个:卡顿、延时、首屏打开速度。做好这三大关键指标,直播的用户体验就有了保证。
A.卡顿
卡顿的解决与延时在一定程度上是矛盾的。卡顿产生的原因有三种,第一是主播上行卡顿,所有的观众都会卡;第二是CDN内部网络带来的卡顿,例如中转网络产生了波动,节点负载没控制好,或者是一些组网策略出问题,第三就是被调度和终端网络问题,好比DSN错配、或者最后一跳网络抖动。要有监控手动能发现主要问题点针对性处理。
B. 延时
除了前面说的视频GOP缓存,其次延迟主要来自累积,除了做跳帧等逻辑以外,还可以通过改变传输协议的方法来提高,对于延时控制要求高的直播业务,如互动类直播,根本不会采用TCP这样的协议来做传输,而会选择UDP协议。因为对于这种直播来说,视频的所有数据都可以放弃,但要优先保证音频的即时性。
C. 首屏打开速度
首屏打开则考验的是直播CDN的组网方式、网络覆盖率和传输协议的优化程度。今年对首屏打开速度的要求越来越高,秒开已经是去年的指标要求,今年要细化到几百毫秒,做不到这个级别就没有竞争优势。在这一点上,选择一个靠谱的CDN就尤为重要了。
5、 不同类型的直播平台,技术优化的侧重点不同:
目前主流的几种业态,分别是秀场类、游戏类、生活类这三种直播。此外事件类、互动类、教育类、监控类直播这几种业态也较为常见。
尽管这些业态里基本上都有10亿级独角兽公司产生,但每一种业态对系统的核心要求却是完全不一样的:
因此需要注意不同的业务形态,后端所用的技术是完全不一样的。如互动类的直播的超低延时方案,4K和VR这种对用户带宽满载利用率的直播场景,通用的技术可能无法做到覆盖。
利益相关:网心科技星域CDN程序员一枚,以上内容授权转载自我司直播技术负责人李浩的CSDN公开课《如何快速搭建超火爆的直播系统》。
【如需转载请先与本人联系,谢谢!】
蹭个点,聊聊如何打造一个适合吧移动直播的播放器?首先要保证功能强大,其次兼容性要好,能够适用于绝大多数的手机,最后要保证轻量级,因为移动设备的内存和磁盘容量都是有限的。
对于一个播放器来说,需要包含如下几个模块:
1、初始化模块
该模块中主要做一些初始化的工作,包括播放器实例的创建,消息机制和
线程的创建,以及相关全局变量的初始化。
2、输入模块
输入模块包含请求流媒体数据和对流媒体数据进行分解(Demux)两个部分。
对于移动直播,请求流媒体数据需要支持RTMP、HTTP和HLS协议。Demux模块需要支持诸如FLV、TS等格式的解析,并将分解后的音视频裸数据存放在相应的缓冲队列中,用于后续的解码。
3、解码模块
解码模块包含音频解码模块和视频解码模块,音视频解码需要分别在两个
线程中进行,从输入模块的缓冲队列中获取音视频裸数据,传入对应的解码器进行解码,并将解码后的音视频数据帧存入相应的队列中用于显示。其中解码可以采用软件解码和硬件解码两种方式:软件解码兼容性可容错性较好,但是耗CPU性能;硬件解码依赖于系统,Android采用MediaCodec(Android 4.1+),iOS采用VideoToolBox(iOS 8.0+)。兼容性和容错性较差,好处是不耗CPU。
5、显示模块
该模块主要将解码后的音视频数据帧展现出来。音频和视频的显示也是分别
由两个线程来执行,分别从解码后的音视频帧队列中获取音视频帧进行播放,Android端音频可以用AudioTrack或OpenSL ES进行播放,视频可以用NativeWindow和Surface进行播放;iOS端音频可以用AudioQueue或AudioUnit进行播放,视频可以用OpenGL ES进行播放。
6、事物处理模块
该模块主要是对播放器进行一些逻辑控制,比如暂停,播放,seek,截图等操作,以及一些播放过程中一些消息的反馈。
将上述6个模块有机的整合在一起,就可以完成一个播放器的开发,但是仅仅这些还是不够的。由于移动设备的特殊性,我们可能在播放过程中突然来电,查看QQ、微信等消息,完成这些后希望播放还能够继续。这就需要播放器能够对这些操作有相应的应对措施。有些用户希望APP切入后台还能够继续播放,有些则不需要,这都需要我们做出相应的处理。并且移动设备的内存和磁盘空间较小,需要我们保证播放器功能完善的前提下包大小尽可能的小,我们可以对各个模块中所用到的处理引擎进行裁剪,只保留我们所需的功能,这样我们就可以保证APP的轻量级。
综上所述,我们不仅要保证底层音视频引擎高效的运转,也要保证上层逻辑处理能够满足移动设备的特性,这样我们就可以打造出一款功能完善,兼容性好的播放器。
15年的问题了啊,不知道是否在下面有题主的产品……孰执牛耳?图为网图,可能不全。
目前市面上直播app有的基本功能
1、聊天:私聊、聊天室、点亮、推送、黑名单等;
2、礼物:普通礼物、豪华礼物、红包、排行榜、第三方充值、内购、礼物动态更新、提现等;
3、直播列表:关注、热门、最新、分类直播用户列表等;
4、自己直播:录制、推流、解码、播放、美颜、心跳、后台切换、主播对管理员操作、管理员对用户等;
5、房间逻辑:创建房间、进入房间、退出房间、关闭房间、切换房间、房间管理员设置、房间用户列表等;
6、用户逻辑:普通登陆、第三方登陆、注册、搜索、修改个人信息、关注列表、粉丝列表、忘记密码、查看个人信息、收入榜、关注和取关、检索等;
7、观看直播:聊天信息、滚屏弹幕、礼物显示、加载界面等;
8、统计:APP业务统计、第三方统计等;
9、超管:禁播、隐藏、审核等;
一个完整直播app原理
直播原理:把主播录制的视频,推送到服务器,在由服务器分发给观众观看。
直播环节:推流端(采集、美颜处理、编码、推流)、服务端处理(转码、录制、截图、鉴黄)、播放器(拉流、解码、渲染)、互动系统(聊天室、礼物系统、赞)
一个完整直播app实现流程
1.采集、2.滤镜处理、3.编码、4.推流、5.CDN分发、6.拉流、7.解码、8.播放、9.聊天互动
一个完整直播app架构
一个完整直播app技术点
一、流媒体(直播需要用到流媒体)
流媒体开发:网络层(socket或st)负责传输,协议层(rtmp或hls)负责网络打包,封装层(flv、ts)负责编解码数据的封装,编码层(h.264和aac)负责图像,音频压缩。
帧:每帧代表一幅静止的图像
GOP:(Group of Pictures)画面组,一个GOP就是一组连续的画面,每个画面都是一帧,一个GOP就是很多帧的集合
直播的数据,其实是一组图片,包括I帧、P帧、B帧,当用户第一次观看的时候,会寻找I帧,而播放器会到服务器寻找到最近的I帧反馈给用户。因此,GOP Cache增加了端到端延迟,因为它必须要拿到最近的I帧
GOP Cache的长度越长,画面质量越好
码率:图片进行压缩后每秒显示的数据量。
帧率:每秒显示的图片数。影响画面流畅度,与画面流畅度成正比:帧率越大,画面越流畅;帧率越小,画面越有跳动感。
由于人类眼睛的特殊生理结构,如果所看画面之帧率高于16的时候,就会认为是连贯的,此现象称之为视觉暂留。并且当帧速达到一定数值后,再增长的话,人眼也不容易察觉到有明显的流畅度提升了。
分辨率:(矩形)图片的长度和宽度,即图片的尺寸
压缩前的每秒数据量:帧率X分辨率(单位应该是若干个字节)
压缩比:压缩前的每秒数据量/码率 (对于同一个视频源并采用同一种视频编码算法,则:压缩比越高,画面质量越差。)
视频文件格式:文件的后缀,比如.wmv,.mov,.mp4,.mp3,.avi,
主要用处,根据文件格式,系统会自动判断用什么软件打开,
注意: 随意修改文件格式,对文件的本身不会造成太大的影响,比如把avi改成mp4,文件还是avi.
视频封装格式:一种储存视频信息的容器,流式封装可以有TS、FLV等,索引式的封装有MP4,MOV,AVI等,
主要作用:一个视频文件往往会包含图像和音频,还有一些配置信息(如图像和音频的关联,如何解码它们等):这些内容需要按照一定的规则组织、封装起来.
注意:会发现封装格式跟文件格式一样,因为一般视频文件格式的后缀名即采用相应的视频封装格式的名称,所以视频文件格式就是视频封装格式。
视频封装格式和视频压缩编码标准:就好像项目工程和编程语言,封装格式就是一个项目的工程,视频编码方式就是编程语言,一个项目工程可以用不同语言开发。
二、直播所用到的基础知识:
1.采集视频、音频
1.1 采集视频、音频编码框架
AVFoundation:AVFoundation是用来播放和创建实时的视听媒体数据的框架,同时提供Objective-C接口来操作这些视听数据,比如编辑,旋转,重编码
1.2 视频、音频硬件设备
CCD:图像传感器: 用于图像采集和处理的过程,把图像转换成电信号。
拾音器:声音传感器: 用于声音采集和处理的过程,把声音转换成电信号。
音频采样数据:一般都是PCM格式
视频采样数据: 一般都是YUV,或RGB格式,采集到的原始音视频的体积是非常大的,需要经过压缩技术处理来提高传输效率
2.视频处理(美颜,水印)
视频处理原理: 因为视频最终也是通过GPU,一帧一帧渲染到屏幕上的,所以我们可以利用OpenGL ES,对视频帧进行各种加工,从而视频各种不同的效果,就好像一个水龙头流出的水,经过若干节管道,然后流向不同的目标
现在的各种美颜和视频添加特效的app都是利用GPUImage这个框架实现的。
视频处理框架
GPUImage : GPUImage是一个基于OpenGL ES的一个强大的图像/视频处理框架,封装好了各种滤镜同时也可以编写自定义的滤镜,其本身内置了多达120多种常见的滤镜效果。
OpenGL:OpenGL(全写Open Graphics Library)是个定义了一个跨编程语言、跨平台的编程接口的规格,它用于三维图象(二维的亦可)。OpenGL是个专业的图形程序接口,是一个功能强大,调用方便的底层图形库。
OpenGL ES:OpenGL ES (OpenGL for Embedded Systems) 是 OpenGL三维图形 API 的子集,针对手机、PDA和游戏主机等嵌入式设备而设计。
3.视频编码解码
3.1 视频编码框架
FFmpeg:是一个跨平台的开源视频框架,能实现如视频编码,解码,转码,串流,播放等丰富的功能。其支持的视频格式以及播放协议非常丰富,几乎包含了所有音视频编解码、封装格式以及播放协议。
-Libswresample:可以对音频进行重采样,rematrixing 以及转换采样格式等操 作。
-Libavcodec:提供了一个通用的编解码框架,包含了许多视频,音频,字幕流 等编码/解码器。
-Libavformat:用于对视频进行封装/解封装。
-Libavutil:包含一些共用的函数,如随机数生成,数据结构,数学运算等。
-Libpostproc:用于进行视频的一些后期处理。
-Libswscale:用于视频图像缩放,颜色空间转换等。
-Libavfilter:提供滤镜功能。
X264:把视频原数据YUV编码压缩成H.264格式
VideoToolbox:苹果自带的视频硬解码和硬编码API,但是在iOS8之后才开放。
AudioToolbox:苹果自带的音频硬解码和硬编码API
3.2 视频编码技术
视频压缩编码标准:对视频进行压缩(视频编码)或者解压缩(视频解码)的编码技术,比如MPEG,H.264,这些视频编码技术是压缩编码视频的
主要作用:是将视频像素数据压缩成为视频码流,从而降低视频的数据量。如果视频不经过压缩编码的话,体积通常是非常大的,一部电影可能就要上百G的空间。
注意:最影响视频质量的是其视频编码数据和音频编码数据,跟封装格式没有多大关系
MPEG:一种视频压缩方式,它采用了帧间压缩,仅存储连续帧之间有差别的地方 ,从而达到较大的压缩比
H.264/AVC:一种视频压缩方式,采用事先预测和与MPEG中的P-B帧一样的帧预测方法压缩,它可以根据需要产生适合网络情况传输的视频流,还有更高的压缩比,有更好的图象质量
注意1:如果是从单个画面清晰度比较,MPEG4有优势;从动作连贯性上的清晰度,H.264有优势
注意2:由于264的算法更加复杂,程序实现烦琐,运行它需要更多的处理器和内存资源。因此,运行264对系统要求是比较高的。
注意3:由于264的实现更加灵活,它把一些实现留给了厂商自己去实现,虽然这样给实现带来了很多好处,但是不同产品之间互通成了很大的问题,造成了通过A公司的编码器编出的数据,必须通过A公司的解码器去解这样尴尬的事情
H.265/HEVC:一种视频压缩方式,基于H.264,保留原来的某些技术,同时对一些相关的技术加以改进,以改善码流、编码质量、延时和算法复杂度之间的关系,达到最优化设置。
H.265 是一种更为高效的编码标准,能够在同等画质效果下将内容的体积压缩得更小,传输时更快更省带宽
I帧:(关键帧)保留一副完整的画面,解码时只需要本帧数据就可以完成(因为包含完整画面)
P帧:(差别帧)保留这一帧跟之前帧的差别,解码时需要用之前缓存的画面叠加上本帧定义的差别,生成最终画面。(P帧没有完整画面数据,只有与前一帧的画面差别的数据)
B帧:(双向差别帧)保留的是本帧与前后帧的差别,解码B帧,不仅要取得之前的缓存画面,还要解码之后的画面,通过前后画面的与本帧数据的叠加取得最终的画面。B帧压缩率高,但是解码时CPU会比较累
帧内(Intraframe)压缩:当压缩一帧图像时,仅考虑本帧的数据而不考虑相邻帧之间的冗余信息,帧内一般采用有损压缩算法
帧间(Interframe)压缩:时间压缩(Temporal compression),它通过比较时间轴上不同帧之间的数据进行压缩。帧间压缩一般是无损的
muxing(合成):将视频流、音频流甚至是字幕流封装到一个文件中(容器格式(FLV,TS)),作为一个信号进行传输。
3.3 音频编码技术
AAC,mp3:这些属于音频编码技术,压缩音频用
3.4码率控制
多码率:观众所处的网络情况是非常复杂的,有可能是WiFi,有可能4G、3G、甚至2G,那么怎么满足多方需求呢?多搞几条线路,根据当前网络环境自定义码率。列如:常常看见视频播放软件中的1024,720,高清,标清,流畅等,指的就是各种码率。
3.5 视频封装格式
TS : 一种流媒体封装格式,流媒体封装有一个好处,就是不需要加载索引再播放,大大减少了首次载入的延迟,如果片子比较长,mp4文件的索引相当大,影响用户体验
FLV: 一种流媒体封装格式,由于它形成的文件极小、加载速度极快,使得网络观看视频文件成为可能,因此FLV格式成为了当今主流视频格式
4.推流
4.1 数据传输框架
librtmp:用来传输RTMP协议格式的数据
4.2 流媒体数据传输协议
RTMP:实时消息传输协议,Adobe Systems公司为Flash播放器和服务器之间音频、视频和数据传输开发的开放协议,因为是开放协议所以都可以使用了。
chunk:消息包
RTMP协议用于对象、视频、音频的传输。
这个协议建立在TCP协议或者轮询HTTP协议之上。
RTMP协议就像一个用来装数据包的容器,这些数据可以是FLV中的视音频数据。一个单一的连接可以通过不同的通道传输多路网络流,这些通道中的包都是按照固定大小的包传输的
5.流媒体服务器
5.1常用服务器
SRS:一款国人开发的优秀开源流媒体服务器系统
BMS:也是一款流媒体服务器系统,但不开源,是SRS的商业版,比SRS功能更多
nginx:免费开源web服务器,常用来配置流媒体服务器。
5.2数据分发
CDN:(Content Delivery Network),即内容分发网络,将网站的内容发布到最接近用户的网络”边缘”,使用户可以就近取得所需的内容,解决 Internet网络拥挤的状况,提高用户访问网站的响应速度.
1.上传流媒体数据到服务器(源站)
2.源站存储流媒体数据
3.客户端播放流媒体,向CDN请求编码后的流媒体数据
4.CDN的服务器响应请求,若节点上没有该流媒体数据存在,则向源站继续请求流媒体数据;若节点上已经缓存了该视频文件,则跳到第6步。
5.源站响应CDN的请求,将流媒体分发到相应的CDN节点上
6.CDN将流媒体数据发送到客户端
CDN:代理服务器,相当于一个中介。
CDN工作原理:比如请求流媒体数据
回源:当有用户访问某一个URL的时候,如果被解析到的那个CDN节点没有缓存响应的内容,或者是缓存已经到期,就会回源站去获取搜索。如果没有人访问,那么CDN节点不会主动去源站拿。
带宽:在固定的时间可传输的数据总量,
比如64位、800MHz的前端总线,它的数据传输率就等于64bit×800MHz÷8(Byte)=6.4GB/s
负载均衡: 由多台服务器以对称的方式组成一个服务器集合,每台服务器都具有等价的地位,都可以单独对外提供服务而无须其他服务器的辅助.
通过某种负载分担技术,将外部发送来的请求均匀分配到对称结构中的某一台服务器上,而接收到请求的服务器独立地回应客户的请求。
均衡负载能够平均分配客户请求到服务器列阵,籍此提供快速获取重要数据,解决大量并发访问服务问题。
这种群集技术可以用最少的投资获得接近于大型主机的性能。
QoS(带宽管理):限制每一个组群的带宽,让有限的带宽发挥最大的效用
6.拉流
直播协议选择:
即时性要求较高或有互动需求的可以采用RTMP,RTSP
对于有回放或跨平台需求的,推荐使用HLS
直播协议对比 :
HLS:由Apple公司定义的用于实时流传输的协议,HLS基于HTTP协议实现,传输内容包括两部分,一是M3U8描述文件,二是TS媒体文件。可实现流媒体的直播和点播,主要应用在iOS系统
HLS是以点播的技术方式来实现直播
HLS是自适应码率流播,客户端会根据网络状况自动选择不同码率的视频流,条件允许的情况下使用高码率,网络繁忙的时候使用低码率,并且自动在二者间随意切
换。这对移动设备网络状况不稳定的情况下保障流畅播放非常有帮助。
实现方法是服务器端提供多码率视频流,并且在列表文件中注明,播放器根据播放进度和下载速度自动调整。
HLS与RTMP对比:HLS主要是延时比较大,RTMP主要优势在于延时低
HLS协议的小切片方式会生成大量的文件,存储或处理这些文件会造成大量资源浪费
相比使用RTSP协议的好处在于,一旦切分完成,之后的分发过程完全不需要额外使用任何专门软件,普通的网络服务器即可,大大降低了CDN边缘服务器的配置要求,可以使用任何现成的CDN,而一般服务器很少支持RTSP。
HTTP-FLV:基于HTTP协议流式的传输媒体内容。
相对于RTMP,HTTP更简单和广为人知,内容延迟同样可以做到1~3秒,打开速度更快,因为HTTP本身没有复杂的状态交互。所以从延迟角度来看,HTTP-FLV要优于RTMP。
RTSP:实时流传输协议,定义了一对多应用程序如何有效地通过IP网络传送多媒体数据.
RTP:实时传输协议,RTP是建立在UDP协议上的,常与RTCP一起使用,其本身并没有提供按时发送机制或其它服务质量(QoS)保证,它依赖于低层服务去实现这一过程。
RTCP:RTP的配套协议,主要功能是为RTP所提供的服务质量(QoS)提供反馈,收集相关媒体连接的统计信息,例如传输字节数,传输分组数,丢失分组数,单向和双向网络延迟等等。
7.解码
7.1 解封装
demuxing(分离):从视频流、音频流,字幕流合成的文件(容器格式(FLV,TS))中, 分解出视频、音频或字幕,各自进行解码。
7.2 音频编码框架
fdk_aac:音频编码解码框架,PCM音频数据和AAC音频数据互转
7.3 解码介绍
硬解码:用GPU来解码,减少CPU运算
优点:播放流畅、低功耗,解码速度快
缺点:兼容不好
软解码:用CPU来解码
优点:兼容好
缺点:加大CPU负担,耗电增加、没有硬解码流畅,解码速度相对慢
8.播放
ijkplayer:一个基于FFmpeg的开源Android/iOS视频播放器
API易于集成;
编译配置可裁剪,方便控制安装包大小;
支持硬件加速解码,更加省电
简单易用,指定拉流URL,自动解码播放.
9.聊天互动
IM:(InstantMessaging)即时通讯:是一个实时通信系统,允许两人或多人使用网络实时的传递文字消息、文件、语音与视频交流。IM在直播系统中的主要作用是实现观众与主播、观众与观众之间的文字互动。
10.目前需求中存在的疑点
做个广告,欢迎关注“云笔技术博客”,持续更新互联网行业动态及技术热点
(二维码自动识别)
不要自己搞
不要花钱买
事实证明绝大部分直播业务用QQ群视频都是完全满足的
说实话,仅仅一句「内容偏向积极健康」是撑不起一个直播平台的。
想法是很好的,但无奈市场就是很浮躁
你这种感觉很像是,只差一个程序员的创业,首先我理解你的热情和认可你的创意。
你可以借助现有的开源产品,或者商业收费产品,最低成本,快捷的部署一套,尽快验证你的创意可行性(自己百度,我查过已经有厂家整套卖了。价格远比你请一个技术大牛便宜的多)。
根据我的判断,您是想做一款积极健康的直播。那么从什么角度切入(不要觉得这是商业机密,可能你的创意在别人一文不值),花椒,熊猫,斗鱼这些平台,很多是低俗,但是切合了人性底层的需求。请问你是否有想好,你所想的积极向上的东西,是否能够满足大众的客观需求,还是你自己的主观需求。
可以了解下我们云巴的实时消息,目前已经有多个直播应用采用我们的服务做直播弹幕了。