您可以捐助,支持我们的公益事业。

1元 10元 50元





认证码:  验证码,看不清楚?请点击刷新验证码 必填



  求知 文章 文库 Lib 视频 iPerson 课程 认证 咨询 工具 讲座 Model Center   Code  
会员   
   
 
     
   
 订阅
  捐助
如何打造一个高性能、高可用直播系统架构
 
作者: TGO鲲鹏会武汉分会
  4054  次浏览      16
 2019-11-27
 
编辑推荐:
本文讲述斗鱼在架构上不断迭代、改造与优化,形成当前能支撑千万级用户同时在线观看的架构平台。在这个过程中,斗鱼的直播系统架构踩过哪些坑,演进出哪些特性,希望可以为您的学习带来帮助。
本文来自于infoq,由火龙果软件Delores编辑、推荐。

目前斗鱼直播系统每天有 20 亿 + 的请求量,并且在今年 3 月份,PDD 入驻斗鱼的时候还曾达到 40 万 + 的瞬时 QPS,同时我们的服务增长到了上千实例的规模,在全国不同地区和不同机房进行了部署,提供给上百个内部业务方使用。总结下来,斗鱼直播系统有三个特点——流量大、服务多、架构复杂。针对这些问题,要确保整个系统的高性能和高可用,对于技术开发团队来说也是一个比较大的挑战。

高性能业务架构演进中的挑战与解决方案

三大挑战

早在 5 年前,我们和其他公司一样处于单体应用时期,主要使用“Nginx+PHP+Memcache+MySQL”,当时遇到最大的一个问题,是如果一个用户进入到直播间访问 Memcache 的时候,如果刚好 Memcache 里面缓存数据失效了,那么请求就会穿透到 MySQL ,会对服务造成很大的压力。

所以从 2016 年开始,我们将 Memcache 换成了 Redis,将全量的直播间的数据缓存到 Redis 的内存缓存,解除服务对 MySQL 的直接依赖,同时还做了一些业务隔离:将业务进行了垂直拆分。保证了那个时期的服务稳定。

但是随着斗鱼体量的日益增长,请求量越来越大,我们没想到 Redis 也会成为一个新的瓶颈。所以从去年开始斗鱼着手对系统做了一些改造,将 PHP 换成了 Golang,然后在我们 Golang 里面做了一些内存缓存池和 Redis 连接池优化,经过这一系列的改造,目前斗鱼的直播系统无论是在性能上还是可用性上都有很显著的一个提升。

首先给大家介绍一下我们斗鱼的 Memcache 时期。在理想的情况下,当一位用户进入到我们直播间页面,请求会先到 Memcache,如果 Memcache 里面有缓存数据,那么就会直接将数据返给用户。但是通常情况下并不总是理想状况,我们现在举一个具体案例进行介绍。

假设有一位大主播开播了,他就会发开播信息给他的粉丝们,这些粉丝会在短时间内进入到该主播的直播间,这样就带来第一个问题——瞬时流量。 紧接着大量请求会并发到 Memcache 里,由于 Memcache 采用是一致性 hash 的算法,所以同一个直播间的缓存 key 会落在同一个 Memcache 节点上,这就会造成某个 Memcache 节点在短时间内负载过高,导致第二个问题——热点房间问题。同时又由于直播间刚开播,之前没有人访问过这个页面,Memcache 里是没有这个直播间信息,那么又会有大量的请求穿透到 MySQL,对 MySQL 造成性能影响,所以就造成了第三个问题——缓存穿透问题。

解决之道

针对上述三大挑战,我们做了一些优化。

首先要解决的是缓存穿透问题。斗鱼直播系统里写操作都是主播进行触发,而大量读服务接口则是用户进行触发,所以我们在业务层面上做了一个读写分离,规定:只有主播接口才可以对 MySQL 和 Redis 做写入操作;并且将直播间基础数据全量且不过期的缓存到 Redis 里。这样就去除了用户请求对 MySQL 的依赖。也就是说用户请求无论如何都不会穿透到 MySQL。

针对于第二个问题——瞬时流量,我们主要在 Nginx 的配置上面做了一些优化。首先,将直播系统单独分配一个 nginx 的 proxy cache,做一些隔离,避免非核心业务的 cache 占用了核心业务 cache 的空间;其次,对突发流量,在服务返回 502,504 状态码(服务容量不够了)时,返回上一次缓存的数据,避免直播间白屏,保证其可用性;最后,做了 proxy lock on 的配置,确保瞬时同样的请求,只会有一个请求到后端,降低后端和数据源的负载。

最后针对热点房间问题,我们将一致性 hash 的 Memcache 换成了主从结构的 Redis。多从库的 Redis,每个里面都有大主播的数据信息,可以有效的分担大主播流量,从而使得后端数据源的负载均衡,不会出现单节点的性能问题。

新的问题

优化之后,大家都觉得还挺不错的,但是,我们发现把 Memcache 换成 Redis 之后又带来了新问题:

带宽过高

首先我们遇到的是内网带宽过高的问题。以前 Memcache 把响应数据给客户端的时候,它会将这些数据做一个压缩。我们将 Memcache 迁移到 Redis 后,由于 Redis 没有这个能力,内网带宽翻了 4 到 5 倍,引起了网卡负载较高,出现一些丢包和性能问题。

使用不当

随着我们斗鱼的体量越来越大,我们的请求量越来越大,Redis 逐渐成为了我们的性能瓶颈,大量的业务共用同一组 Redis,如果某个业务方出现 Redis 用法不当,阻塞了单线程的 Redis,会影响其他业务。同时由于 Redis 没有限流功能,很容易 Redis 被打垮,导致所有业务全部瘫痪。

时延过高

因为业务需求的升级,我们想带给用户更好的体验,将许多曾经的缓存接口变成了实时接口。如何降低我们请求的时延,考验着我们开发的能力。

微服务化

为了解决这三个问题,我们步入了一个新的时期——微服务。首先是在架构上做了一些改变:PHP 换成了 Golang、 将 Redis 主从结构变成 Redis 分片的主从结构。其次我们针对业务做了一些区分:大主播和小主播采用不同的存储策略,小主播的信息我们是通过 hash 算法放到一个节点里,这样是为了降低 Redis 内存开销;大主播的信息在所有分片均会存放,保证大主播在突发流量时有很多节点进行分担。

架构改变说完后,我们再聊下,我们斗鱼对 Redis 的一些理解和经验。

最佳实践

刚才也说了,我们之前业务上共用 Redis 造成了一些问题,为了解决这些问题,首先要做的是对 Redis 做好隔离;其次针对带宽过高的问题,一方面将 Redis 里的 key 做了精简,降低流量和存储大小;另一方面从业务上规范了房间字段的按需索取。最后从代码层次规范了 Redis 的使用方法:我们根据线上全链路压测的压测结果,调整了 Redis 连接池空闲连接数,这样可以解决线上的突发流量问题;并且规范了获取 Redis 数据的方式,严格限定了获取 Redis 的每次包尽量不要超过 1KB,并且尽量使用 pipeline,减少网络 io。

再快一点

刚才说过我们后来有许多接口变成了实时性接口,怎么让服务更快一点呢。我们就把一些热门主播通过任务提前算好,服务通过异步获取热门主播名单缓存这些直播间数据,用户再看这些热门主播的时候速度可以更快。同时对于获取批量直播间数据,通过计算 redis 从库个数,并发去拉取直播间数据,来降低业务方的时延。

实验数据

为了让大家有个直观对优化有个直观的理解,下面第一个图,是我们斗鱼在对批量直播间数据做的对比试验。大家可以看到精简 key 和按需索取,其性能要好很多。下面第二个图,是官方做的 Redis 包大小的对比图。当获取 Redis 数据包大小在 1KB 以下,性能比较平稳,但超过 1KB,性能急剧下降。所以我们业务场景在使用 Redis 的时候,一定要注意些这些细节。才能使得我们系统性能更好。

高可用技术架构

为了让大家知道高可用的必要性,我们先来看下斗鱼的技术架构图。这是一个多机房架构的部署图。我们先来看一个服务区域,首先必不可少的是我们的应用(客户端和服务端),服务端和客户端靠 etcd 来发现彼此。不同的服务区域则是通过我们自己写的 sider 来相互通信和感知。然后 prometheus 和日志都会把数据采集到微服务管理平台,一个服务从开始部署上线、到运行监控、故障定位及修复操作都可以在微服务管理平台进行。

高可用

从刚才介绍大家应该可以知道目前斗鱼的架构和部署的复杂性。如果没有好的高可用的解决方案,那么势必会造成系统的不可靠,导致严重的线上问题。

因此我们提出了高可用的一些解决方案。我们将高可用分为两个层次。第一层是自动挡,比如像负载均衡、故障转移、超时传递、弹性扩容、限流熔断等,这些都是可以通过代码层面或者运维自动化工具,不需要人工干预,做到系统的自愈。第二层是手动档,这些主要就是监控报警、全链路压测、混沌工程、sop 等,我们能通过一些手段提前预知可能存在的问题,或者线上出现问题无法自愈,我们怎么快速发现,快速解决。

因为高可用的内容比较多,限于篇幅有限。我们今天就主要讲两个内容负载均衡和监控报警。

负载均衡

通常情况微服务都会采用 roundrobin 的负载均衡算法,它实现起来比较简单,但是它的问题也不小。在这里给大家看一个负载均衡 roundrobin 的案例。为了方便大家理解这个算法,我们对模型做了一些简化。大家可以看这个图,有个定时任务,每秒都会先调用一个消耗低 cpu 的单个房间信息接口,然后再调用一个消耗高 cpu 的批量房间信息接口。如果刚好服务端就两台实例,根据 roundrobin 算法,这个请求的调用方式就是:奇数次单个房间信息接口都调用到 a 节点,偶数次批量房间信息接口都调用到 b 节点。显然易见的就是 a 节点负载会远远低于 b 节点。

为了解决以上问题,我们可不可以根据系统的负载动态的调度呢。于是我们会在客户端用 gRPC 调用服务端的时候,让服务端不仅返回业务数据,同时在 header 头里会将服务端 cpu 的 load 返给客户端。客户端根据服务端的 cpu load 和请求的耗时,异步算出下次客户端需要请求的服务端实例。这个调度算法看似挺美好,但是他会带来“马太效应”。假设服务端某个节点此时负载比较小,客户端可能会因为算法一窝蜂去请求他,使它负载变高。这样服务端节点 cpu 会变得忽低忽高,这也不是我们想要的结果。

所以这个时候,我们通过调研采用了业界流行的 p2c 算法。我们在客户端在做调度的时候做了一个随机数。 如图左边所示。可以看到加了随机数后,可以避免这种“马太效应”的调度问题,负载较低的多调度点,负载较高的少调度点。当然如果服务端有问题,是直接剔除的。

通过优化负载均衡的算法,我们平滑了服务端的 cpu 负载,同时可以快速剔除有问题的服务节点。当然还有个最关键的成效,就是有了这个算法,我们才可以把多机房的 etcd 注册数据进行同步,做多数据中心,然后客户端根据算法自动选择不同机房的节点,实现同城双活。

这个图就是我们通过 wrr 算法切到 p2c 算法后的对照图,可以看到在这个图的前半部分,每个实例之间的负载差距都比较大,并且同一个实例的负载波动也比较大。换成 p2c 算法后,趋势图看起来就比较稳定了。

监控报警

先给大家看一个线上报警的架构图。通常线上出现问题后,我们的日志系统和监控系统,会将对应的数据上报到报警系统,但是报警的信息可能五花八门,需要一个人工过滤器系统去筛选这些信息,才能找到真正负责业务的人员。

我们之前在没有进行服务错误收敛的时候,经常会出现各种报警狂轰乱炸,出现陌生的报警信息,不知道该如何处理,业务报警和系统报警交织在一起,很难分辨出报警的轻重缓急。不得已需要有专门几个人处理和筛选报警信息。但是人工为什么要成为报警的一个系统?

这是因为我们没有从源头做好,没有很好的对服务进行错误收敛,导致错误信息泛滥,报警轰炸。

错误收敛

要想将错误收敛做好,首先要制定好的规范。我们规范了系统和业务的统一错误码,监控,日志应用同一套错误码,方便关联和查看。并将监控,日志索引做了统一规范,例如之前 redis 的命令叫 command,mysql 语句叫 sql,http 请求叫 url,这样导致我们的日志很难收敛做分析和发现问题,我们后来将一些共性的指标统一成一个名字,例如将刚才所说的在日志和监控都取名叫 method。

做好规范后,接下来,我们就开始治理我们的服务。我们认为系统错误的重要程度要高于业务错误。监控应该更多的区分系统级别的错误。所以右图第二个,因为我们之前做了统一错误码规范,code 小于 10000 的系统错误码全量记录到 prometheus 里,对于业务错误码,我们都收敛成 biz err。如果出现 biz err,业务方应该通过这个状态码,去日志里看详细信息。

在右边第三个图,介绍的是我们收敛 redis 的一个代码片段,像 redis,mysql 也有很多错误码,例如查不到信息非系统级别的错误,我们统一收敛到 unexpected err,做一个 warning 告警。但对于像图中上面的 read timeout,write timeout 等则是记录 error,做一个高级别的报警。

还有个问题,虽然我们统一了错误码,但如果出现错误码的时候,没有文档和解决方案,我们还是一筹莫展。

所以我们提出代码既是文档的解决方案。通过自动化的语法树解析代码里的状态码和注释,自动的生成对应的错误码文档,告诉我们错误码在代码哪个地方,可能存在的问题。

有了错误收敛后,我们才很好的去做我们的监控。

监控指标

我再提出一个问题,有了错误收敛,我们监控就可以很好的发现服务问题吗?

这里再举个例子,这里有个汽车,大家看这个汽车,觉得这个汽车是可以使用的吗?如果仅从一个平面去观察这个汽车,有可能你觉得汽车是正常的。但是如果你从多个维度去观察这个汽车,你可能会发现他尾部存在问题。这个和我们服务监控一样,我们如果要做监控,那么这个监控指标一定要立体。

所以我们将监控维度上做了一些要求。从系统维度上,我们需要知道服务的上下游的关联监控;从应用维度上,我们要能够看到应用实例监控、应用大盘监控、全部应用大盘监控、各种不同指标的 top 榜。

在指标上,我们按照 SRE 文档里要求,对四个黄金指标延迟、流量、错误和饱和度做了很好的落实。

下图是我们一个服务,上面展示了一些基础监控数据,中间的一部分是我们服务的关键指标,分别是服务的错误码分布,服务的 qps,服务的 p99 耗时,这三个刚好对应的就是黄金指标的错误、流量、延迟。流量和延迟做开发的其实接触的比较多,对这些指标还是比较敏感的,我就不详细介绍。主要来说下黄金指标的错误和饱和度。

监控的错误识别,上面我已经介绍了错误收敛怎么处理的,如果服务做到很好的错误收敛当发现问题的时候,可以很快发现和解决,如下所示,我们可以很快知道我们错误日志和慢日志的一些情况。但是这个并不能很好的预防不必要的错误发生。

所以为了更好的识别错误,预防错误发生,可以使用混沌工程进行一些故障注入。一方面可以尽早的识别一些错误,另一方面也可以让我们开发人员积累一些错误经验,方便后续处理线上故障问题。

最后在介绍下,可能容易被大家忽视的一个监控指标–饱和度。通常有好多业务方,容易忽视饱和度的监控和报警,导致服务达到了性能瓶颈之后被动的去做一些应急方案。

并且就算知道这个指标,也很难预估出来服务的饱和度。需要研发人员具有一定的经验、一定的能力,很多时候我在线下压测后发现线下压测和线上压测完全不一样。因为线下是很简单的,线上环境是很复杂的,所以饱和度最好是通过线上全链路压侧。这样就可以知道线上的水位是多少,知道一个核心数可以提供多少的 qps,什么时候会达到性能瓶颈。下图就是我们斗鱼做全链路压测之后,得到各个机房某个服务的 qps 饱和度图

和时间赛跑

无论系统如何高可用,但系统还是会出现线上故障。如果出现了问题,我们就要想办法如何快速解决。

系统聚合

我们斗鱼之前微服务系统都是按系统拆分,监控系统、日志系统、报警系统等,如果线上如果出现问题,那我首先去需要打开多个系统的页面,不停去登录账号,非常影响排查效率。所以后来就是对微服务做聚合的一个操作,把所有的系统按应用维度聚合到一起。我们查看一个应用,可以很快在里面看到监控、注册、配置、性能和日志等信息,这个小小的改动,其实能够很快的帮助业务方进行排查问题。

数据分析

我们要对数据做分析,杂乱无章的数据对排查速度影响很大。避免人工的一些检索和判断。我们根据之前所说的收敛工作和监控的立体维度。可以很快的查看各个应用各种指标的 top 榜,并且能够知道报警的错误码是多少,索引到确切的解决方案。

SOP 手册

我们需要通过混沌工程,全链路压测等方式,提前想好可能出现的严重问题,做好 sop 操作手册,这样当问题真正来领的时候,我们不会慌张,可以很从容的处理。就像这个图里的一样。

 
   
4054 次浏览       16
相关文章

企业架构、TOGAF与ArchiMate概览
架构师之路-如何做好业务建模?
大型网站电商网站架构案例和技术架构的示例
完整的Archimate视点指南(包括示例)
相关文档

数据中台技术架构方法论与实践
适用ArchiMate、EA 和 iSpace进行企业架构建模
Zachman企业架构框架简介
企业架构让SOA落地
相关课程

云平台与微服务架构设计
中台战略、中台建设与数字商业
亿级用户高并发、高可用系统架构
高可用分布式架构设计与实践