多媒体行业质量成本优化及容灾方案白皮书_第1页
多媒体行业质量成本优化及容灾方案白皮书_第2页
多媒体行业质量成本优化及容灾方案白皮书_第3页
多媒体行业质量成本优化及容灾方案白皮书_第4页
多媒体行业质量成本优化及容灾方案白皮书_第5页
已阅读5页,还剩56页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

一、质量优化 51.直播&点播业务通用质量指标介绍 52.直播质量优化 61)上行优化 82)云厂商内部链路优化 103)下行播放优化 124)上下行质量监控体系 163.点播质量优化 181)下行优化 182)云厂商内部链路优化 21二、成本优化 241.成本优化概述 242.CDN及直播出流量优化方案 241)视频&图片降低码率 242)直播图像拆分降码率 253)使用CDN智能压缩 254)使用客户端缓存 263.回源成本优化 261)源站存储成本优化 262)源站出流量成本优化 28三、容灾建设 311.直播容灾 311)直播链路架构 312)直播容灾案例及通用容灾方案 332.点播容灾 361)容灾案例及通用方案 36一、质量优化>5本文基于多媒体行业头部客户经验,抽练沉淀出多媒体质量成本优化及容灾方案,该文展开介绍了直播点播全链路上可做的质量优化措施、直播点播场景如何实现全链路容灾、多媒体成本如何进行优化。一、质量优化1.直播&点播业务通用质量指标介绍近年来长视频行业增速放缓寻求突破,短视频及直播行业蓬勃发展,截至2022年12月底,我国网民规模达到10.67亿,短视频用户规模为10.12亿,网络直播用户规模达7.51亿。无论是长视频、短视频还是直播行业其背后代表的业务为直播点播业务,背后承载的产品技术为直播、CDN、媒体转码等技术;作、业务营销、内容推荐等技术运营策略实施的同时,直播点播业务的质量优化也同步实施,让用户获取更优质的视频内容。直播点播业务通用的质量衡量指标如下:直播通用--开播失败率、卡顿率、秒开率;点播通用--多媒体行业头部客户的关键指标可参考如下:∙某短视频A直播:开播失败率、首帧时间、百秒卡顿sum、百秒卡顿avg、百秒卡顿次数、百秒重试次数ioswebh、错误率A时间、开播故障>6∙某游戏点播:成功率、错误率∙某长视频点播:卡顿率各头部客户的质量指标及通用质量指标及客户端日志打点详细介绍、质量监控告警如何设置等详情可看《多媒体行业质量监控最佳实践》一文。了解了直播点播质量衡量的指标,下文将展开如何对直播点播业务进行质量优化的介绍。2.直播质量优化直播及点播业务均承载在复杂技术链路架构上,要对质量进行优化,需要先拆解链路架常见的直播架构分为:边缘推播流架构、触发拉流架流架构,架构图可参考下图。7整体直播业务架构分为三层分别为上行接流层,中间分发层及下行播流层,而一般中间分发层众多的业务厂商均会采用云厂商CDN/直播进行分发,基于该前提下本文将云厂商CDN/直播以上的链路称之为上行接流层,云厂商CDN/直播以下的部分称之为下行播流层,针对上行链路、下行链路及云厂商内部链路如何进行质量优化,详情在下文展开。开>81)上行优化a)推流传输协议优化案例1-阿里RTS直播RTS在阿里云视频直播的基础上进行全链路延时监控、CDN传输协议改造、UDP等底层技术优化,通过集成阿里云播放器SDK,支持在千万级并发场景下节点间毫秒级延时直播的能力,弥补了传统直播存在3~6秒延时的问题,具备较优的抗弱网能力,确保了超低延时、低卡顿、秒开流畅的直播观看体验。RTS直播适用于互动直播、及低延迟直播场景,详情介绍参考链接。b)接流链路优化案例1-国内自建接流源站自建接流源站,具有优势如下:∙拥有CDN调度能力,增强了源站及整个直播平台容灾的能力;∙使用公共云平台自建直播接流源站可以增强平台的弹性能力,并且在多云策略的举∙同时客户可以执行调控各CDN流量比例,在质量和成本间取得最好的折衷;∙如自研智能CDN调度系统,精确捕捉CDN与用户的动态变化,可以更合理地利用可以大大降低观看故障时长,节约大量人力监控和维护成本。自建接流源站客户包括某短视频A、短视频B、游戏直播客户A、党媒客户等。某短视频客户A的自建源站,一部分部署在自建的IDC,一部分部署在阿里云及其他友商的公共云平台上。通过自建多地域源站,某短视频客户A实现了可以自研推流协议的优势。自建源站赋予了客户CDN调度的能力,即各家CDN都需要来客户自建源站进行阿里直播边缘推流介绍参考链接。>9回源拉流。N以及经常有一些不可预知的突发状况,因此,通过人工调度的方式,显然是无法接受的。客户自研智能CDN调度系统,精确捕捉CDN与用户的动态变化,从而更合理地利用C该客户对源站的要求非常高,必须有高可靠、高并发和易迁移的特性。∙高可靠:源站资源和系统要具有冗余的能力,在线上资源出现异常时,保持业务的可持续性。∙高并发:在面临突发流量时,源站可以快速扩展一倍以上,对房间的支撑能力和分发能力都有高并发的扩展。∙易迁移:某短视频客户A业务部署在多个IDC和公共云上。出现服务质量风险或商案例2-云厂商边缘节点推流多云厂商CDN或直播均支持边缘推流模式,边缘推流可以利用云厂商丰富的CDN节点、覆盖范围广的优势,优先将流数据调度至距离用户最近的最优CDN节点,通过云厂商智能调度系统将数据快速传输至直播中心进行内容分发,保证用户访问的都是最佳的上行网络,减少因上行传输带来的卡顿、拉流缓慢的问题。>10案例3-主播推流网络切换fallback机制推流端实现帧码率音视频头等关键视频元数据监控,识别到长周期推流稳定性问题或者推流失败问题可以支持断流自动切换到备用CDN节点线路重试,多次重试失败显性提N可以为其他厂商CDN节点。推流端实现视频关键元数据监控,包括:∙长时间的帧率跳变(按经验4秒及以上的帧率80%及以上的跳变未恢复行为会导致播流卡顿),时间阈值的选取与业务需求相关;∙音视频头是否=1,不等于1容易引发卡顿等。2)云厂商内部链路优化a)协议栈优化阿里云直播全链路节点均支持开启协议栈优化,协议栈优化主要是针对rtmp\http协议展开,基于TCP协议通过更改拥塞算法、滑动窗口逻辑等来实现节点建连逻辑、弱网、数据传输逻辑等方面的优化措施。CDN产品已用于不同类别的实际业务中,如大文件下,期望的业务最优结果不同。比如直播业务下,下载下,下载速度稳定,下载速度上限尽可能调高等等。不同业务类别下,基于产品侧。为了应对不同业务的不同需求,阿里云产品侧提供有多种场景下的拥塞控制算法,来优输时的逻辑,同时协议栈优化的开启对阿里直播内部成本会有所增加。b)内部链路卡顿自动切换L1-L2,L2-中心推流、播放等请求进入到阿里云直播节点系统之后,需要在不同层级节点之间进行传递,由于节点之间走运营商公网,任何一级公网环境出现抖动均会影响整条请求的可用性。此时通过一定算法判断出抖动、卡顿等异常情况的出现,并自动调整请求的上下行节点,来规避此条异常卡顿公网链路,达到恢复请求可用性的目的。目前卡顿内部链路自动切换主要应用在直播场景中,主要通过媒体时间戳、帧率(每秒收帧数)等信息判断卡顿的产生,通知上下游节点是否准备切换。为了确保切换是有效和必须的,也会存在一定算法来规避误切。直播域名(推播流域名均可开启)开启内部链路卡顿自动切换:卡顿切换时间推荐5s。s启需要提交阿里云工单进行申请。预期的业务影响:因调整前后,数据在内部链路已有cache,这部分cache重发,会导致端上画面出现几秒的回退。c)边缘节点覆盖调整CDN的节点调度一般是同大区内调度,当出现长期跨大区调度,客户可以提交相关信息申请调整覆盖节点。对于区域运营商限制跨省情况,阿里云CDN产品也可增加调度限制实现尽量本省,或者限制跨某省覆盖;调整非即时生效,和客户本地DNS过期时长有关。d)缓存及回源保持配置一、质量优化>12配置客户端播流断流后,L1保持一定时长的的拉流或者不断流,同时如果未触发拉流模式也可以配置播流断流后维持一段时间拉流或者不断流;该模式开启后可以优化首屏,但对直播产品和客户源站会产生额外的带宽开销。直播产品内部也可以配置直播视频在产品内部的缓存时长,缓存时长越长,直播延迟越越强,建议rtmp及flv的延迟配置时长保持一致,配置文档参考链接。3)下行播放优化a)多码率&窄带高清多码率及窄带高清的本质其实就是在弱网/低网速环境下使用低码率视频播放以减少客户播放视频质差现象,网络状态好/高网速情况下使用高码率视频播放,提升观看体验;多码率自适应可将指定的音视频文件流统一打包生成一个自适应码流文件,让播放器可视频画面由像素点构成,一个画面中像素点越多清晰度就越高,像素点的个数进行分档的码率就越高,播放所需要的网络环境如带宽及稳定性等就越高;阿里云直播产品已支持多码率转码,客户可按需配置,相关介绍和配置文档可参考这里。窄带高清技术对编码算法进行优化,可以实现在同等画质下更省流、在同等带宽下更高清的观看体验。阿里云直播产品已支持窄带高清配置,参考链接;终端应用如何选择适当清晰度的视频进行播放?终端用户的网络带宽需要不小于视频码率才能保障视频的清晰观看,不同分辨率的视频常态下的码率区间相对固定,所以业内对于播放视频码率的选择一般有两种做法:>13第一种根据不同的终端画质需要选择不同码率的视频作为默认码率;第二种为多码率自适应技术,该技术需要终端播放器配合检测终端客户网络情况+集成码率自适应算法+播流视频支持多码率来实施。不同的终端画质需要选择不同码率的视频作为默认码率,头部客户实现方案如下:∙某短视频平台A:手机端默认码率2Mbpsb)终端播放器buffer缓冲区播放器播放视频的过程本质上是播放器代码逻辑读取缓冲区数据,进行解封装、音视频放器播放视频一般会设置缓冲区来进行抗抖动,缓冲区分为帧缓冲区和显示缓冲区:帧缓冲区,主要是抗网络抖动、抗解码抖动、避免丢帧。显示缓冲区,主要是抗渲染抖动、实现音画同步。缓冲区越大,抗抖动效果越好,但内存占用就更大,延时效果也更大。不同直播场景的buffer缓冲时长如何设置:教育类直播场景需要低延迟直播,而终端播放器缓冲区时间越长,延迟越高,一般教育行业终端播放器buffer缓冲时长0-1s;>14秀场直播或带货直播等场景对延迟无高要求,一般会设置3-5s的buffer缓冲区。c)终端播放器低帧率/0帧识别自动切换线路相关直播业务采用多云厂商容灾,业务服务器下发多云厂商流地址供终端播放器播放,终端播流用多云厂商直播域名fallback逻辑,当终端播放器识别A域名长期低帧率/0帧的情况,终端播放器播放器fallback到B厂商的B域名进行播放同时可以结合网络探测数据识别是否需要降低档位,播放低码率视频,这样的播放逻辑可能会存在直播画面的重复。多云厂商直播域名fallback逻辑实现的收益点:∙单云厂商直播中心故障逃逸;∙单云厂商直播分发节点异常逃逸;∙部分终端用户到直播分发节点之间的网络链路问题逃逸;∙地方运营商域名级别封禁快速逃逸。d)预解析及链路择优策略播放域名预解析表示在应用启动或网页打开的时候对该应用或网页可能会涉及访问的域名进行预解析并缓存到本地,那么当访问对应域名的时候整体的DNS解析耗时就减短了。DNS本机缓存时长不建议太长,时间太长可能部分云厂商的直播分发节点出现异常下线,而终端仍然请求到异常节点的情况,某短视频客户A的DNS本机缓存时长是3分钟,>15可参考。e)运营商异常解析&缓存缓解-HTTPDNS部分运营商为了提升其终端用户的质量,会做一些DNS解析劫持,将流量劫持在网内就近访问内容的cache。部分情况也会出现一些运营未遵循DNS解析的TTL,LDNS解析缓存时间过长的情况,如果当时直播的分发节点异常下线、节点裁撤等,就会导致终端用户访问不到业务,或者运营商因为其他的一些原因做了DNS解析劫持。以上的DNS解析行为均可能会导致终端用户访问到的内容不符合客户业务预期,这种情况可以通过HTTPDNS解析解决。f)预加载策略长短视频应用场景下,终端用户应用展现的音视频内容由业务应用调度算法控制,为缩短音视频内容展示的首屏时间,一般会采用预加载策略。多节目直播场景下,开发者可维护一个队列,用于填充一定数量的待播放直播节目(每一个节目对应一条待开播的直播地址),在用户播放到A节目时,可预先加载接下来的N个直播地址。这样用户在进入下一个直播节目时,可节省网络建连、流媒体meta读取、播放器初始化等一系列耗时动作,快速进入首屏。RTS在阿里云视频直播的基础上进行全链路延时监控、CDN传输协议改造、UDP等底层技术优化,通过集成阿里云播放器SDK,支持在千万级并发场景下节点间毫秒级延时直播的能力,弥补了传统直播存在3~6秒延时的问题,具备较优的抗弱网能力,确保了超低延时、低卡顿、秒开流畅的直播观看体验。RTS直播适用于互动直播、及低延迟直>16播场景,对于抗弱网优化卡顿的直播场景也有很好的收益。详情介绍参考阿里云官网链接。4)上下行质量监控体系通过构建完善的直播上下行质量监控体系,客户可对业务质量有有效认知并及时发现问题并进行优化,这个问题及认知包括:各云厂商质量差异、业务各区域运营商质量差异、云厂商云产品异常、局部终端运营商网络问题、大主播推流问题、基于终端播放日志+行为特征分析实现内容推荐算法优化等等。下面展开介绍客户维度可做的监控告警及云产品维度可做的监控告警。a)客户维度可做的监控&告警基于终端日志打点逻辑,实现终端业务监控、告警;基于直播源站服务器性能、业务指标等,构建直播源站监控、告警;基于直播推流上报逻辑,实现推流端业务监控、告警。具体的终端日志要打点哪些字段、质量监控指标统计哪些、质量分数怎么计算、告警怎么实现等,详情参考多媒体行业质量监控最佳实践。客户可基于多端业务监控或告警识别业务问题、直播源站问题,通过运维或运营处理链路聚焦问题进行优化落地:∙如终端业务告警+阿里云客户风险主动定位服务+运维人工处理链路,实现云直播产品、局部终端网络(运营商劫持、解析长缓存、局部网络抖动或异常等)、客户自建直播源站问题、主播源流问题的定界及止损;∙如针对大主播的推断流监控告警,识别大主播非预期的断流行为,进行及时介入止∙如基于终端日志实现各云厂商质量评分体系,评估各云厂商产品服务质量及驱动各>17云厂商优化;∙基于终端日志实现个别终端播放问题的快速定位,以进行终端问题的逃逸等等。b)阿里云-云产品维度可做的监控&告警客户可以基于云监控产品,实现直播业务的监控及告警配置,涉及指标包括了4xx、5xxqps体参考文档链接。也可以基于阿里云直播产品实时播放日志(延迟秒级),实现基于服务端维度的直播质量指标监控,注意该监控的实施其实不能完全的代表终端的情况,因为服务端的日志无法覆盖终端到直播分发节点之间的全部链路情况,并且服务端日志卡顿的定义是经验值,不能代表全部的终端业务场景,理想情况是终端监控+服务端监控并存。怎么通过直播产品日志定义卡顿?∙音视频帧率维持在固定值或者固定值上下小比例波动,且视频帧率高于12帧-手机端(15帧-PC端)一般会被定义为稳定的直播;如果是教学投影PPT场景可能存在视频帧率较低场景,具体什么样的帧率是业务维度的低帧率会引发终端客户观感上的卡顿,客户维度可以自定义,但可以明确的是低视频帧率flv_lag_vfcnt是判断卡顿的一个维度。∙终端播放器buffer缓冲区缓冲时长为X秒,如果日志中视频帧率flv_lag_vfcnt连续X-1秒及以上掉0,就会卡顿。∙终端播放器buffer缓冲区缓冲时长为X秒,如果X秒之内的平均帧数flv_lag_vfcnt,如果平均帧数高于帧率*0.8则判定不卡顿,低于则判定卡顿(0.8是经验值,可以根据实际业务做调整)卡顿率如何计算?∙某客户定义:有卡顿的观看行为占总观看行为的比率,1分钟加权平均值>18∙某客户公式:卡顿率=有卡顿的观看行为/全部观看行为,详情参考多媒体行业质量监控最佳实践。3.点播质量优化上文介绍了直播业务如何进行优化,下面将展开点播业务优化的介绍,整体点播业务架构分为三层分别为上行源站层,中间分发层及下行播流层,而一般中间分发层众多的业务厂商均会采用云厂商CDN/直播进行分发,基于该前提下本文将云厂商CDN以上的链路称之为上行链路,云厂商CDN以下的部分称之为下行链路,针对上行链路、下行链路及云厂商内部链路如何进行质量优化,详情在下文展开。1)下行优化S在一条完整的http请求中,除了快速从所解析节点中拿到响应内容外,确保能快速解析,确保了通过一系列服务侧配置优化,缩短从点击视频播放,到看到视频首帧画面的耗时,也是点播场景中大量客户的首要诉求。>19NS会先检查自己的缓存里有没有该域名的解析结果,如果没有,则需要向权威DNS服取到最终cname域名,之后权威DNS再向CDN的DNS权威服务器获取调度到的节点这里DNS解析优化主要围绕缩短权威DNS请求次数来进行优化,优化方法主要分为DDNSDNS预热说明:预热就是对于特殊域名,在CDN节点上利用程序不断的向LocalDNS请求,使LocalDNS缓存中一直有该域名的解析结果,从而当用户真正请求时,LocalDNS只需从缓存中取出解析结果即可,缩短用户的DNS解析时间。之内有一定百分比的请求都不通,则认为该节点到LocalDNS的不通,约定一段时间之后进行重试。点程序组装ip报文,将其中的源IP字段替换掉,替换为对应地区LocHTTPDNS是面向多端应用(移动端APP,PC客户端应用)的域名解析服务,具有域名防劫持、精准调度、实时解析生效的特性。通过利用HTTP协议与DNS服务器交互,代替了传统的基于UDP协议的DNS交互,绕开了运营商的LocalDNS,有效防止了域名劫持,提高域名解析效率。另外,由于DNS服务器端获取的是真实客户端IP而非LocalDNS的IP,能够精确定位客户端地理位置、运营商信息,从而有效改进调度精确性,跨越中间多级解析服务>21b)视频降码率在保证画质或对画质要求不高的业务场景下,通过降低视频码率,减轻播放器端对上行带宽的承载压力,从而确保播放流畅。注意在相同帧率、分辨率、编码格式等情况下,码率的降低意味着画质的降低,可能会影响终端用户的播放体验,需要客户根据业务场景综合评估。下面将展开阿里云目前已有转码能力的介绍。传统低码率转码(可能损失画质):可根据需求选择不同的封装格式和清晰度将视频转码播放,适用于长视频。视频点播产品预置了流畅、标清、清、超清、2K、4K、原画(转封装)共7种清晰度,以及普通音质、高音质两档音质。您可以对不同清晰度进行码率、分辨率、格式等自定义设置,同时使用转码模板组进行不同转码模板的分组及管理。窄带高清:窄带高清技术对编码算法进行优化,可以实现在同等画质下更省流、在同等带宽下更高清的观看体验。阿里云直播产品已支持窄带高清配置,参考链接;d)客户端优化buffer缓存调整,具体可以参考直播质量优化-下行播放优化-终端播放器buffer缓冲区中的介绍。低帧率检测,具体可以参考直播质量优化-下行播放优化-终端播放器低帧率/0帧识别自动切换线路中的介绍。播放地址预加载,具体可以参考直播质量优化-下行播放优化-预加载策略中的介绍。2)云厂商内部链路优化a)命中率优化CDN命中率提升,可以让终端用户请求就近缓存命中,减少回源,回源的减少意味着链一、质量优化>22要提升命中率,下面展开介绍命中率提升的方式。闲时预热非业务高峰时期,及时通过API接口或者控制台,提交预期会被高频访问的资源URL进行预热,提前将文件拉取到CDNL2节点上。预热方法可以参考这里。配置优化∙按照CDN对缓存配置的逻辑,检查源站Web服务器配置,是否存在对于静态文件类配置。∙合理配置缓存过期时间,对于不同类别的源站文件,比如图片\css\js\json\文本等等,按照实际文件更新速度,设置合理的CDN过期时间,具体配置方法可以参考这里。∙去除URL中问号后的参数缓存,当URL请求中带有queryString或其他可变参数缓存命中率低。如果客户端请求参数非业务逻辑必须,可以在CDN侧开启忽略参数>23缓存,提升命中率。配置方法可以参考这里。∙大文件设置分片回源策略,用户下载安装包可能下载一半就停止下载,或者观看视频只看了一部分就停止观看,即用户只需要访问资源文件指定范围内的部分内容,但是CDN节点会向源站请求整个文件,从而使得CDN节点从源站下载的内容大于响应给用户的内容,导致缓存命中率低。range回源配置可以参考这里。∙合并回源,用于配置复用某个域名缓存在CDN上面的资源,比如域名打算复b)覆盖调整CDN的节点调度一般是同大区内调度,当出现长期跨大区调度,客户可以提交相关信息申请调整覆盖节点。对于区域运营商限制跨省情况,阿里云CDN产品也可增加调度限制实现尽量本省,或者限制跨某省覆盖;调整非即时生效,和客户本地DNS过期时长有关。c)协议栈优化下,下载速度稳定,下载速度上限尽可能调高等等。不同业务类别下,基于产品侧带宽利用率,带宽成本等的考量,需要采用不同的协议栈优化策略。为了应对不同业务的不同需求,产品侧提供有多种场景下的拥塞控制算法,比如传统的基于丢包的拥塞控制、基于时序的拥塞控制、硬性控制滑动窗口上下限、动态调整滑动RTT分时段控制滑动窗口等等;通过调整协议栈拥塞控制算法,来满足不同业务需求场景下,>24二、成本优化1.成本优化概述在客户使用云CDN的过程中,因自身源站流量输出、业务数据存储、CDN侧流量产生、请求数增长,增值功能使用等导致客户用云财务、运维、存储等各项成本增加,我们可以通过优化CDN功能配置、调整业务结构、优化计费模式等多种方式,尽可能降低上述成本,使用云成本更加低廉,使用更加高效。2.CDN及直播出流量优化方案1)视频&图片降低码率a)升级H.265编码H.265或高效率视频编码(HEVC)是一种新的视频编解码技术。视频编码指通过特定的压缩技术,将某个视频格式的文件转换成另一种视频格式文件的方式。相比H.264,H.265压缩效率更高,传输码率更低,视频画质更优,实现监控视频传输带宽减半、存储媒体处理、视频点播均支持h265转码,参考直播文档、媒体处理文档、视频点播文档。b)升级AV1格式AV1是由开放媒体视频联盟(AllianceofOpenMediaVideo)开发的开放、免版税的下一代视频编码格式。AV1所使用的编码技术主要来源于GoogleVP9的下一代影片压缩格式VP10,相比目>25缩小20%,相比于VP9压缩率也高出30%。这就意味着在同等带宽下可以传输更高清的画质。2020年上半年国内某头部长视频平台在电脑浏览器端(PCweb端)、安卓移动端上线AV1视频编码格式,成为国内首家也是目前唯一一家应用AV1的视频网站。2)直播图像拆分降码率IVE(Intelligentvideoencoding,即智能视频编码)技术可以根据客户要求对视频进行智能编码,并在不损失图像质量的前提下,优化视频编码性能,最终降低网络带宽占用率和减少存储空间。直播CDN带宽=同时在线人数*码率,如果要降低带宽就需要降低码率。直播图像在没有区分主体和背景时,为了保证整个图像清晰,就要牺牲码率。但其实图像是可以拆分的,可以考虑主体清晰度高,背景或者边缘图像相对模糊并不会影响整体画质。a)GzipGzip压缩是GNU组织发起的一项压缩算法,主要提供对于文本等静态文件的压缩,能法参考这里。Gzip的默认压缩等级为6,压缩等级越高,压缩率越高,但同时进行压缩所占用的CPb)BrBrotligoogleBrotli缩性能更好,同等压otli压缩功能后,CDN节点会对资源进行智能压缩后返回,缩小传输文件大小,提升文>26件传输效率,减少带宽消耗。具体开启方法可参考这里。支持br压缩的浏览器会越来越多。4)使用客户端缓存在使用CDN的过程中,合理利用浏览器强缓存和协商缓存能有效减少对CDN的请求,从而缩减请求数和CDN带宽流出。强缓存通过直接使用浏览器本地缓存、协商缓存通强缓存在http1.0中使用expires头来控制,在http1.1以后,通过cache-control头来控制,浏览器在请求CDN的过程中,会优先检查本地缓存,通过expires或者cache-control(两者均存在情况下,cache-control头优先)判断使用强缓存。确认使用的向CDN发送请求;在强缓存未命中情况下,浏览器一般会发送带有请求头If-modified-since或if-none-match(具体看CDN返回此资源的response-header时,是last-modifiedoretag)确认服务侧资源是否变更,CDN返回304的情况下,代表浏览器可继续使用本地缓存,从而减少CDN流量流出。3.回源成本优化1)源站存储成本优化a)业务存储介质合理规划存储分级处理,这里按照文件被访问的频次,规划不同频次文件对应的存储介质。存储>27hS冷归档等多种不同的存储,来适应客户不同频次访问文件的存储需求。用户可以将业务不同类型数据按照访问频度进行分类,并保存到OSS不同类别的存储服务中。OSS存储类型介绍可参考文档。比如某客户主要提供短视频服务,每天会产生大量的时长不一的点播视频,用户侧会按照视频被点击次数、观看时长、退出时长等分析一个视频的推荐热度。对于热度较低的资源,通过历史数据研判,约定一定时间逐步从标准存储,转换到低频存储,在这段期间内,如果热度进一步降低,再从低频存储转换到归档存储,直至到冷归档存储。样,如果转换到较低付费标准的存储类型bucket时,发现热度上升,为了避免过多访问导致数据取回费用飙升以及解冻成本升高,可再将其转换成标准存储,降低平均访问费用。b)其他方面除了上述提到的优化点以外,以下优化点也可以根据实际情况一并考虑:∙按照业务需求,合理规划不同类别文件的存储时限,并做好数据的定期清理。∙做好同地域不同可用区的数据同步,尽量减少不同地域之间数据的复制或同步,缩减对应存储和公网迁移成本。>28∙做好数据存储监控和相关告警配置,在数据存储量达到一定阈值时,及时发现和清理冗余数据。∙可采用存储容量包,缩减存储财务开销。2)源站出流量成本优化a)通过压缩算法或业务逻辑优化降低源站出流量成本∙源站支持Gzip、Br压缩。通过压缩源站响应数据,缩减对外流量或带宽流出。∙源站支持range等分片请求,在大文件下载和音视频访问过程中,支持响应客户端range请求(而非响应全部长度的文件),缩减对外流量和带宽流出。b)CDN自有业务功能实现命中率优化降低回源流量可参考点播质量优化中-命中率优化一节的描述,在此不再赘述。c)CDN架构调整降低回源流量L1节点缩减一般而言,一个域名调度域中节点数量会在一定区间内变动,而不会有大的变化,对于有业务服务区域比较有集中特性的域名,比如某客户主要在华东区域有业务覆盖,此时域名调度域中其他区域和省份的调度节点大部分处于闲置状态,从而导致其他地区出现历史缓存数据热度较低,会很快过期),按照命中率计算公式:缓存命中请求数/总请求数*100%可以看到,非华东地区请求MISS的增加会导致分子的减少,从而降低域名整体命中率。当然,缩减L1节点数量也会带来其他的一些附带问题,比如原加速域名调度域中存在二、成本优化>29湖北省份节点覆盖,做了节点缩减之后,后续湖北地区客户的访问请求就会因为找不到本地节点,从而产生跨省甚至跨大区的长链路,从而导致4层延迟的升高,影响首字节。所以该项优化策略一般针对于业务侧有比较强的地域覆盖属性的情形。CDNL2节点缩减减少回源评估缩减L2的节点数量,来减少回源流量;CDN整体的回说L2节点数量越多,相同文件需要回源取的次数越多,所以缩减L2可以一定程度上减少回源流量。点也会相对少,对稳定性有劣化影响。CDN302调度实现命中率提升减少回源原有方案是L1回源到L2,L2再回源到客户源站,采用此方案后,如果缓存未命中此L1,则此L1可以回源到策略中的下游有缓存的L1,减少回源。L1回源使用一致性hash环(回源访问调度中心返回302方式),在阿里云CDN的L1做汇聚,即先回站外L1环(电信,联通,移动等),再回到站内L1环(站内环多线接LL,即将原有CDN链路架构做变化:>30∙新架构:大区内L1->汇聚L1->L2该方案实现需要终端支持302跳转。同时如果客户业务域名整体的资源较冷,302调度开启后的命中率性能反而会出现劣化。原因:302调度开启后,对于冷资源会出现一次302跳转,再通过L1回源L2进一步回源,如果域名下的整体资源很冷,较多资源不能再次命中,那么首次302跳转反而会增加开销。>31三、容灾建设1.直播容灾基于直播云产品实现的直播业务链路包括:推流链路、直播转码&截图&录制&合流&垫片等逻辑、下行播流分发逻辑等等,其中推流链路存在多种不同架构,直播转码截图录制等逻辑亦存在多种实现方案。下文将展开推流链路架构、直播转码截图逻辑方案的介同时基于直播业务链路架构展开容灾方案介绍。1)直播链路架构a)上行推流架构介绍云厂商中心推流原有的阿里云中心推流方式已逐步下线,当前优先推荐客户使用边缘推流。原中心推流方式,是推流客户端直接向各区域中心的推流域名进行推流(例如:video-center.alive)。云厂商边缘推流利用阿里云丰富的CDN节点、覆盖范围广的优势,优先将流数据调度至距离用户最近的最优CDN节点,通过阿里智能调度系统将数据快速传输至直播中心进行内容分发,保证用户访问的都是最佳的上行网络,减少因上行传输带来的卡顿、拉流缓慢的问题。>32边缘推流优势:主流城市和地区。∙智能化:优先接入距离用户最近的CDN节点,保证内容传输的稳定。客户自建直播中心接流自建接流源站,具有优势如下:∙拥有CDN调度能力,增强了源站及整个直播平台容灾的能力;∙使用公共云平台自建直播接流源站可以增强平台的弹性能力,并且在多云策略的举∙同时客户可以执行调控各CDN流量比例,在质量和成本间取得最好的折衷;如自研CDN以大大降低观看故障时长,节约大量人力监控和维护成本。自建接流源站客户包括某短视频A、短视频B、游戏直播客户A、党媒客户等。b)直播转码截图等逻辑方案介绍为了适配不同的直播业务诉求及终端播流环境,一场直播可能会涉及到转码成不同格式适配终端环境、转码成不同档位适配终端网络设备情况、视频录制以便终端用户回看、视频截图以便业务运营审核、直播合流垫片适配业务场景等等。为了极致的业务应用及容灾等考量,也会自建直播中心实现上述功能,云直播产品仅实>33现接流及播流分发。总而言之,直播转码截图录制等能力可以依托于云直播产品实现,也可以自建实现。其中自建直播中心实现上述能力需要客户拥有音视频技术栈储备、投入自有直播中心运维容灾成本等,整体投入相对较大。c)直播播流分发直播播流分发,一般依托于云直播产品进行下行分发,如阿里云直播产品的下行分发就依托于CDN产品的节点,基于CDN节点,阿里云直播产品实现了协议栈优化、内部链播质量。2)直播容灾案例及通用容灾方案直播业务链路包括了:上行推流、直播中心转码录制、下行分发,故直播业务容灾方案需要评估全链路进行。下面展开多媒体行业头部客户容灾案例及通用容灾方案介绍。a)容灾案例客户A-大活动

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论