大型IM系统有多难?万字长文搞懂异地多活!IM电竞
发布时间:2022-10-16 05:58:07

  前几天技术群里有群友问我手上有没有IM分布式系统异地多活方面的文章,我仔细想了想,除了微信分享的几篇文章里有提到容灾和异地多活(只是大致提过,没有详细展开),确实目前还没有系统性的异地多活技术资料可供参考。正好借此机会,整理了Kaito分享的这篇供大家学习。

  本文从一个简单的系统例子开始,从单机架构、主从副本IM电竞、同城灾备、同城双活,再到异地双活、异地多活,由浅入深、循序渐进地讲解了大型分布式系统异地多活容灾架构的技术原理和基本的实现思路,非常适合入门者学习。

  - 移动端IM开发入门文章:《新手入门一篇就够:从零开发移动端IM》- 开源IM框架源码:

  《IM开发基础知识补课(一):正确理解前置HTTP SSO单点登陆接口的原理》

  《IM开发基础知识补课(二):如何设计大量图片文件的服务端存储架构?》

  《IM开发基础知识补课(三):快速理解服务端数据库读写分离原理及实践建议》

  《IM开发基础知识补课(四):正确理解HTTP短连接中的Cookie、Session和Token》

  《IM开发基础知识补课(六):数据库用NoSQL还是SQL?读这篇就够了!》

  《IM开发基础知识补课(七):主流移动端账号登录方式的原理及设计思路》

  《IM开发基础知识补课(八):史上最通俗,彻底搞懂字符乱码问题的本质》

  《IM开发基础知识补课(十):大型IM系统有多难?万字长文,搞懂异地多活!》(* 本文)

  在软件开发领域,「异地多活」是分布式系统架构设计的一座高峰,很多人经常听过它,但很少人理解其中的原理。

  异地多活到底是什么?为什么需要异地多活?它到底解决了什么问题?究竟是怎么解决的?

  我曾经有幸深度参与过一个中等互联网公司异地多活系统的设计与实施过程。所以今天,我就来和你聊一聊异地多活背后的的实现原理。

  现如今,我们开发一个软件系统,对其要求越来越高,如果你了解一些「架构设计」的要求,就知道一个好的软件架构应该遵循以下 3 个原则。

  1)平均故障间隔 MTBF(Mean Time Between Failure):表示两次故障的间隔时间,也就是系统「正常运行」的平均时间,这个时间越长,说明系统稳定性越高;

  2)故障恢复时间 MTTR(Mean Time To Repair):表示系统发生故障后「恢复的时间」,这个值越小,故障对用户的影响越小。

  这个公式得出的结果是一个「比例」,通常我们会用「N 个 9」来描述一个系统的可用性。

  从这张图你可以看到,要想达到 4 个 9 以上的可用性,平均每天故障时间必须控制在 10 秒以内。

  也就是说,只有故障的时间「越短」,整个系统的可用性才会越高,每提升 1 个 9,都会对系统提出更高的要求。

  我们都知道,系统发生故障其实是不可避免的,尤其是规模越大的系统,发生问题的概率也越大。

  这些风险随时都有可能发生。所以在面对故障时,我们的系统能否以「最快」的速度恢复,就成为了可用性的关键。

  这篇文章要讲的「异地多活」架构,就是为了解决这个问题,而提出的高效解决方案。

  本文余下的内容,我将会从一个最简单的系统出发,带你一步步演化出一个支持「异地多活」的系统架构。

  在这个过程中,你会看到一个系统会遇到哪些可用性问题,以及为什么架构要这样演进,从而理解异地多活架构的意义。

  这个架构模型非常简单,客户端请求进来,业务应用读写数据库,返回结果,非常好理解。

  但需要注意的是,这里的数据库是「单机」部署的,所以它有一个致命的缺点:即一旦遭遇意外(例如磁盘损坏、操作系统异常、误删数据),那这意味着所有数据就全部「丢失」了,这个损失是巨大的。

  你可以对数据做备份,把数据库文件「定期」cp 到另一台机器上。这样,即使原机器丢失数据,你依旧可以通过备份把数据「恢复」回来,以此保证数据安全。

  很明显:你的数据库越大,意味着故障恢复时间越久。按照前面我们提到的「高可用」标准,这个方案可能连 1 个 9 都达不到,远远无法满足我们对可用性的要求。

  针对上节中单机架构的问题,你可以在另一台机器上,再部署一个数据库实例,让这个新实例成为原实例的「副本」,让两者保持「实时同步」。

  我们一般把原实例叫作主库(master),新实例叫作从库(slave)。

  同样的思路,你的「业务应用」也可以在其它机器部署一份,避免单点。因为业务应用通常是「无状态」的(不像数据库那样存储数据),所以直接部署即可,非常简单。

  因为业务应用部署了多个,所以你现在还需要部署一个「接入层」,来做请求的「负载均衡」(一般会使用 nginx 或 LVS),这样当一台机器宕机后,另一台机器也可以「接管」所有流量,持续提供服务。

  没错:担心一个实例故障,那就部署多个实例,担心一个机器宕机,那就部署多台机器。

  到这里:你的架构基本已演变成主流方案了,之后开发新的业务应用,都可以按照这种模式去部署。

  按照前面的分析,为了避免单点故障,你的应用虽然部署了多台机器,但这些机器的分布情况,我们并没有去深究。

  而一个机房有很多服务器,这些服务器通常会分布在一个个「机柜」上,如果你使用的这些机器,刚好在一个机柜,还是存在风险。

  如果恰好连接这个机柜的交换机 / 路由器发生故障,那么你的应用依旧有「不可用」的风险。

  部署在一个机柜有风险,那把这些机器打散,分散到不同机柜上,是不是就没问题了?

  这样确实会大大降低出问题的概率。但我们依旧不能掉以轻心,因为无论怎么分散,它们总归还是在一个相同的环境下:机房。

  一般来讲,建设一个机房的要求其实是很高的,地理位置、温湿度控制、备用电源等等,机房厂商会在各方面做好防护。

  2015 年 5 月 27 日,杭州市某地光纤被挖断,近 3 亿用户长达 5 小时无法访问支付宝;2021 年 7 月 13 日,B 站部分服务器机房发生故障,造成整站持续 3 个小时无法访问;2021 年 10 月 9 日,富途证券服务器机房发生电力闪断故障,造成用户 2 个小时无法登陆、交易;

  可见:即使机房级别的防护已经做得足够好,但只要有「概率」出问题,那现实情况就有可能发生(墨菲定律)。虽然概率很小,但一旦真的发生,影响之大可见一斑。

  看到这里你可能会想,机房出现问题的概率也太小了吧,工作了这么多年,也没让我碰上一次,有必要考虑得这么复杂吗?

  1)体量很小的系统,它会重点关注「用户」规模、增长,这个阶段获取用户是一切;

  2)等用户体量上来了,这个阶段会重点关注「性能」,优化接口响应时间、页面打开速度等等,这个阶段更多是关注用户体验;

  3)等体量再大到一定规模后你会发现,「可用性」就变得尤为重要。像微信、支付宝这种全民级的应用,如果机房发生一次故障,那整个影响范围可以说是非常巨大的。

  现在,你需要做机房级别的冗余方案,也就是说,你需要再搭建一个机房,来部署你的服务。

  简单起见,你可以在「同一个城市」再搭建一个机房,原机房我们叫做 A 机房,新机房叫 B 机房,这两个机房的网络用一条「专线」连通。

  为了避免 A 机房故障导致数据丢失,所以我们需要把数据在 B 机房也存一份。最简单的方案还是和前面提到的一样:备份。

  A 机房的数据,定时在 B 机房做备份(拷贝数据文件),这样即使整个 A 机房遭到严重的损坏,B 机房的数据不会丢失,通过备份可以把数据「恢复」回来IM电竞,重启服务。

  为什么叫冷备呢?因为 B 机房只做备份,不提供实时服务,它是冷的,只会在 A 机房故障时才会启用。

  但备份的问题依旧和之前描述的一样:数据不完整、恢复数据期间业务不可用,整个系统的可用性还是无法得到保证。

  所以,我们还是需要用「主从副本」的方式,在 B 机房部署 A 机房的数据副本。

  数据是保住了,但这时你需要考虑另外一个问题——如果 A 机房真挂掉了,要想保证服务不中断,你还需要在 B 机房「紧急」做这些事情。

  看到了么?A 机房故障后,B 机房需要做这么多工作,你的业务才能完全「恢复」过来。

  你看:整个过程需要人为介入,且需花费大量时间来操作,恢复之前整个服务还是不可用的,这个方案还是不太爽,如果能做到故障后立即「切换」,那就好了。

  因此:要想缩短业务恢复的时间,你必须把这些工作在 B 机房「提前」做好,也就是说,你需要在 B 机房提前部署好接入层、业务应用,等待随时切换。

  到这里你会发现,B 机房从最开始的「空空如也」,演变到现在,几乎是「镜像」了一份 A 机房的所有东西,从最上层的接入层,到中间的业务应用,到最下层的存储。

  “热”的意思是指:B 机房处于「待命」状态,A 故障后 B 可以随时「接管」流量,继续提供服务。

  无论是冷备还是热备,因为它们都处于「备用」状态,所以我们把这两个方案统称为:同城灾备。

  同城灾备的最大优势在于:我们再也不用担心「机房」级别的故障了,一个机房发生风险,我们只需把流量切换到另一个机房即可,可用性再次提高,是不是很爽?(后面还有更爽的 ...)

  虽然我们有了应对机房故障的解决方案,但这里有个问题是我们不能忽视的:A 机房挂掉,全部流量切到 B 机房,B 机房能否真的如我们所愿,正常提供服务?

  这就好比有两支军队 A 和 B,A 军队历经沙场,作战经验丰富,而 B 军队只是后备军,除了有军人的基本素养之外,并没有实战经验,战斗经验基本为 0。

  如果 A 军队丧失战斗能力,需要 B 军队立即顶上时,作为指挥官的你,肯定也会担心 B 军队能否真的担此重任吧?

  我们的架构也是如此:此时的 B 机房虽然是随时「待命」状态,但 A 机房真的发生故障,我们要把全部流量切到 B 机房,其实是不敢百分百保证它可以「如期」工作的。

  你想:我们在一个机房内部署服务,还总是发生各种各样的问题,例如:发布应用的版本不一致、系统资源不足、操作系统参数不一样等等。现在多部署一个机房,这些问题只会增多,不会减少。

  另外:从「成本」的角度来看,我们新部署一个机房,需要购买服务器、内存、硬盘、带宽资源,花费成本也是非常高昂的,只让它当一个后备军,未免也太「大材小用」了!

  因此:我们需要让 B 机房也接入流量,实时提供服务,这样做的好处有两个。

  那怎么让 B 机房也接入流量呢?很简单,就是把 B 机房的接入层 IP 地址,加入到 DNS 中,这样,B 机房从上层就可以有流量进来了。

  但这里有一个问题:别忘了,B 机房的存储,现在可都是 A 机房的「从库」,从库默认可都是「不可写」的,B 机房的写请求打到本机房存储上,肯定会报错,这还是不符合我们预期。怎么办?

  你的业务应用在操作数据库时,需要区分「读写分离」(一般用中间件实现),即两个机房的「读」流量,可以读任意机房的存储,但「写」流量,只允许写 A 机房,因为主库在 A 机房。

  这会涉及到你用的所有存储,例如项目中用到了 MySQL、Redis、MongoDB 等等,操作这些数据库,都需要区分读写请求,所以这块需要一定的业务「改造」成本。

  因为 A 机房的存储都是主库,所以我们把 A 机房叫做「主机房」,B 机房叫「从机房」。

  两个机房部署在「同城」,物理距离比较近,而且两个机房用「专线」网络连接,虽然跨机房访问的延迟,比单个机房内要大一些,但整体的延迟还是可以接受的。

  业务改造完成后,B 机房可以慢慢接入流量(从 10%、30%、50% 逐渐覆盖到 100%)你可以持续观察 B 机房的业务是否存在问题,有问题及时修复,逐渐让 B 机房的工作能力,达到和 A 机房相同水平。

  现在:因为 B 机房实时接入了流量,此时如果 A 机房挂了im新闻,那我们就可以「大胆」地把 A 的流量,全部切换到 B 机房,完成快速切换!

  到这里你可以看到:我们部署的 B 机房,在物理上虽然与 A 有一定距离,但整个系统从「逻辑」上来看,我们是把这两个机房看作一个「整体」来规划的,也就是说,相当于把 2 个机房当作 1 个机房来用。

  这种架构方案:比前面的同城灾备更「进了一步」,B 机房实时接入了流量,还能应对随时的故障切换,这种方案我们把它叫做「同城双活」。

  因为两个机房都能处理业务请求,这对我们系统的内部维护、改造、升级提供了更多的可实施空间(流量随时切换),现在,整个系统的弹性也变大了,是不是更爽了?

  如上节所述,虽然我们把 2 个机房当作一个整体来规划,但这 2 个机房在物理层面上,还是处于「一个城市」内,如果是整个城市发生自然灾害,例如地震、水灾(河南水灾刚过去不久),那 2 个机房依旧存在「全局覆没」的风险。

  但这次冗余机房,就不能部署在同一个城市了,你需要把它放到距离更远的地方,部署在「异地」。

  通常建议两个机房的距离要在 1000 公里以上,这样才能应对城市级别的灾难。

  按照前面的思路,把 C 机房用起来,最简单粗暴的方案还就是做「冷备」,即定时把 A、B 机房的数据,在 C 机房做备份,防止数据丢失。

  具体就是:两地是指 2 个城市,三中心是指有 3 个机房。其中 2 个机房在同一个城市,并且同时提供服务,第 3 个机房部署在异地,只做数据灾备。

  这种架构方案,通常用在银行、金融、政企相关的项目中。它的问题还是前面所说的,启用灾备机房需要时间,而且启用后的服务,不确定能否如期工作。

  所以:要想真正的抵御城市级别的故障,越来越多的互联网公司,开始实施「异地双活」。

  我们不再把 A、B 机房部署在同一个城市,而是分开部署(例如 A 机房放在北京,B 机房放在上海)。

  前面我们讲了同城双活,那异地双活是不是直接「照搬」同城双活的模式去部署就可以了呢?

  此时两个机房都接入流量,那上海机房的请求,可能要去读写北京机房的存储,这里存在一个很大的问题:网络延迟。

  因为两个机房距离较远,受到物理距离的限制。现在,两地之间的网络延迟就变成了「不可忽视」的因素了。

  北京到上海的距离大约 1300 公里,即使架设一条高速的「网络专线」,光纤以光速传输,一个来回也需要近 10ms 的延迟。

  况且:网络线路之间还会经历各种路由器、交换机等网络设备,实际延迟可能会达到 30ms ~ 100ms,如果网络发生抖动,延迟甚至会达到 1 秒。

  不止是延迟:远距离的网络专线质量,是远远达不到机房内网络质量的,专线网络经常会发生延迟、丢包、甚至中断的情况。总之,不能过度信任和依赖「跨城专线」。

  试想:一个客户端请求打到上海机房,上海机房要去读写北京机房的存储,一次跨机房访问延迟就达到了 30ms,这大致是机房内网网络(0.5 ms)访问速度的 60 倍(30ms / 0.5ms),一次请求慢 60 倍,来回往返就要慢 100 倍以上。

  而我们在 App 打开一个页面,可能会访问后端几十个 API,每次都跨机房访问,整个页面的响应延迟有可能就达到了秒级,这个性能简直惨不忍睹,难以接受。

  看到了么:虽然我们只是简单的把机房部署在了「异地」,但「同城双活」的架构模型,在这里就不适用了,还是按照这种方式部署,这是「伪异地双活」!

  既然「跨机房」调用延迟是不容忽视的因素,那我们只能尽量避免跨机房「调用」,规避这个延迟问题。

  也就是说:上海机房的应用,不能再「跨机房」去读写北京机房的存储,只允许读写上海本地的存储,实现「就近访问」,这样才能避免延迟问题。

  还是之前提到的问题:上海机房存储都是从库,不允许写入啊,除非我们只允许上海机房接入「读流量」,不接收「写流量」,否则无法满足跨机房的要求。

  很显然:只让上海机房接收读流量的方案不现实,因为很少有项目是只有读流量,没有写流量的。所以这种方案还是不行,这怎么办?

  要想上海机房读写本机房的存储,那上海机房的存储不能再是北京机房的从库,而是也要变为「主库」。

  你没看错:两个机房的存储必须都是「主库」,而且两个机房的数据还要「互相同步」数据,即客户端无论写哪一个机房,都能把这条数据同步到另一个机房。

  因为只有两个机房都拥有「全量数据」,才能支持任意切换机房,持续提供服务。

  如果对 MySQL 有所了解,你应该知道,MySQL 本身就提供了双主架构,它支持双向复制数据,但平时用的并不多。而且 Redis、MongoDB 等数据库并没有提供这个功能。所以,你必须开发对应的「数据同步中间件」来实现双向同步的功能。

  此外:除了数据库这种有状态的软件之外,你的项目通常还会使用到消息队列(例如 RabbitMQ、Kafka),这些也是有状态的服务,所以它们也需要开发双向同步的中间件,支持任意机房写入数据,同步至另一个机房。

  看到了么:这一下子复杂度就上来了,单单针对每个数据库、队列开发同步中间件,就需要投入很大精力了。

  很多有能力的公司,也会采用自研同步中间件的方式来做(例如饿了么、携程、美团都开发了自己的同步中间件)。

  这里:我们用中间件双向同步数据,就不用再担心专线问题(一旦专线出问题,我们的中间件可以自动重试,直到成功,达到数据最终一致)。

  但这里还会遇到一个问题:两个机房都可以写,操作的不是同一条数据那还好,如果修改的是同一条的数据,发生冲突怎么办?

  也就是说:在很短的时间内,同一个用户修改同一条数据,两个机房无法确认谁先谁后,数据发生「冲突」。

  这是一个很严重的问题:系统发生故障并不可怕,可怕的是数据发生「错误」,因为修正数据的成本太高了。我们一定要避免这种情况的发生。

  这个方案实现起来比较复杂,要想合并数据,就必须要区分出「先后」顺序。我们很容易想到的方案,就是以「时间」为标尺,以「后到达」的请求为准。

  因为北京机房的时间「更晚」,那最终结果就会是 X = 1。但这里其实应该以第 2 个请求为准,X = 2 才对。

  接上节:既然自动合并数据的方案实现成本高,那我们就要想,能否从源头就「避免」数据冲突呢?

  从源头避免数据冲突的思路是:在最上层接入流量时,就不要让冲突的情况发生。

  具体来讲就是:要在最上层就把用户「区分」开,部分用户请求固定打到北京机房,其它用户请求固定打到上海 机房,进入某个机房的用户请求,之后的所有业务操作,都在这一个机房内完成,从根源上避免「跨机房」。

  所以这时:你需要在接入层之上,再部署一个「路由层」(通常部署在云服务器上),自己可以配置路由规则,把用户「分流」到不同的机房内。

  举例:假设我们一共有 4 个应用,北京和上海机房都部署这些应用。但应用 1、2 只在北京机房接入流量,在上海机房只是热备。应用 3、4 只在上海机房接入流量,在北京机房是热备。

  这样一来:应用 1、2 的所有业务请求,只读写北京机房存储,应用 3、4 的所有请求,只会读写上海机房存储。

  这里按业务类型在不同机房接入流量,还需要考虑多个应用之间的依赖关系,要尽可能的把完成「相关」业务的应用部署在同一个机房,避免跨机房调用。

  例如,订单、支付服务有依赖关系,会产生互相调用,那这 2 个服务在 A 机房接入流量。社区、发帖服务有依赖关系,那这 2 个服务在 B 机房接入流量。

  这种方案就是:最上层的路由层,会根据用户 ID 计算「哈希」取模,然后从路由表中找到对应的机房,之后把请求转发到指定机房内。

  举例:一共 200 个用户,根据用户 ID 计算哈希值,然后根据路由规则,把用户 1 - 100 路由到北京机房,101 - 200 用户路由到上海机房,这样,就避免了同一个用户修改同一条数据的情况发生。

  这种方案,非常适合与地理位置密切相关的业务,例如打车、外卖服务就非常适合这种方案。

  拿外卖服务举例:你要点外卖肯定是「就近」点餐,整个业务范围相关的有商家、用户、骑手,它们都是在相同的地理位置内的。

  针对这种特征:就可以在最上层,按用户的「地理位置」来做分片,分散到不同的机房。

  举例:北京、河北地区的用户点餐,请求只会打到北京机房,而上海、浙江地区的用户,请求则只会打到上海机房。这样的分片规则,也能避免数据冲突。

  提醒:这 3 种常见的分片规则,第一次看不太好理解,建议配合图多理解几遍。搞懂这 3 个分片规则,你才能真正明白怎么做异地多活。

  总之:分片的核心思路在于,让同一个用户的相关请求,只在一个机房内完成所有业务「闭环」,不再出现「跨机房」访问。

  当然,最上层的路由层把用户分片后,理论来说同一个用户只会落在同一个机房内,但不排除程序 Bug 导致用户会在两个机房「漂移」。

  安全起见,每个机房在写本存储时,还需要有一套机制,能够检测「数据归属」,应用层操作存储时,需要通过中间件来做「兜底」,避免不该写本机房的情况发生。(篇幅限制,这里不展开讲,理解思路即可)

  现在:两个机房就可以都接收「读写」流量(做好分片的请求),底层存储保持「双向」同步,两个机房都拥有全量数据。当任意机房故障时,另一个机房就可以「接管」全部流量,实现快速切换,简直不要太爽。

  不仅如此:因为机房部署在异地,我们还可以更细化地「优化」路由规则,让用户访问就近的机房,这样整个系统的性能也会大大提升。

  这里还有一种情况,是无法做数据分片的:全局数据,例如系统配置、商品库存这类需要强一致的数据,这类服务依旧只能采用写主机房,读从机房的方案,不做双活。

  双活的重点,是要优先保证「核心」业务先实现双活,并不是「全部」业务实现双活。

  路由规则、路由转发、数据同步中间件、数据校验兜底策略,不仅需要开发强大的中间件,同时还要配合业务改造(业务边界划分、依赖拆分)等一些列工作,没有足够的人力物力,这套架构很难实施。14、异地多活架构

  理解了异地双活,那「异地多活」顾名思义,就是在异地双活的基础上,部署多个机房即可。

  这些服务按照「单元化」的部署方式,可以让每个机房部署在任意地区,随时扩展新机房,你只需要在最上层定义好分片规则就好了。

  但这里还有一个小问题:随着扩展的机房越来越多,当一个机房写入数据后,需要同步的机房也越来越多,这个实现复杂度会比较高。

  这种方案必须设立一个「中心机房」,任意机房写入数据后,都只同步到中心机房,再由中心机房同步至其它机房。

  这样做的好处是:一个机房写入数据,只需要同步数据到中心机房即可,不需要再关心一共部署了多少个机房,实现复杂度大大「简化」。

  但与此同时:这个中心机房的「稳定性」要求会比较高。不过也还好,即使中心机房发生故障IM电竞,我们也可以把任意一个机房,提升为中心机房,继续按照之前的架构提供服务。

  多活的优势在于:可以任意扩展机房「就近」部署。任意机房发生故障,可以完成快速「切换」,大大提高了系统的可用性。

  同时:我们也再也不用担心系统规模的增长,因为这套架构具有极强的「扩展能力」。

  怎么样?我们从一个最简单的应用,一路优化下来,到最终的架构方案,有没有帮你彻底理解异地多活呢?

  1)一个好的软件架构,应该遵循高性能、高可用、易扩展 3 大原则,其中「高可用」在系统规模变得越来越大时,变得尤为重要。

  2)系统发生故障并不可怕,能以「最快」的速度恢复,才是高可用追求的目标,异地多活是实现高可用的有效手段。

  3)提升高可用的核心是「冗余」,备份、主从副本、同城灾备、同城双活、两地三中心、异地双活,异地多活都是在做冗余。

  4)同城灾备分为「冷备」和「热备」,冷备只备份数据,不提供服务,热备实时同步数据,并做好随时切换的准备。

  5)同城双活比灾备的优势在于,两个机房都可以接入「读写」流量,提高可用性的同时,还提升了系统性能。虽然物理上是两个机房,但「逻辑」上还是当作一个机房来用。

  6)两地三中心是在同城双活的基础上,额外部署一个异地机房做「灾备」,用来抵御「城市」级别的灾害,但启用灾备机房需要时间。

  7)异地双活才是抵御「城市」级别灾害的更好方案,两个机房同时提供服务,故障随时可切换,可用性高。但实现也最复杂,理解了异地双活,才能彻底理解异地多活。

  8)异地多活是在异地双活的基础上,任意扩展多个机房,不仅又提高了可用性,还能应对更大规模的流量的压力,扩展性最强,是实现高可用的最终方案。

  这篇文章我从「宏观」层面,向你介绍了异地多活架构的「核心」思路,整篇文章的信息量还是很大的,如果不太好理解,我建议你多读几遍。

  因为篇幅限制,很多细节我并没有展开来讲。这篇文章更像是讲异地多活的架构之「道」,而真正实施的「术」,要考虑的点其实也非常繁多,因为它需要开发强大的「基础设施」才可以完成实施。

  不仅如此,要想真正实现异地多活,还需要遵循一些原则,例如业务梳理、业务分级、数据分类、数据最终一致性保障、机房切换一致性保障、异常处理等等。同时,相关的运维设施、监控体系也要能跟得上才行。

  宏观上需要考虑业务(微服务部署、依赖、拆分、SDK、Web 框架)、基础设施(服务发现、流量调度、持续集成、同步中间件、自研存储),微观上要开发各种中间件,还要关注中间件的高性能、高可用、容错能力,其复杂度之高,只有亲身参与过之后才知道。

  我曾经有幸参与过存储层同步中间件的设计与开发,实现过「跨机房」同步 MySQL、Redis、MongoDB 的中间件,踩过的坑也非常多。当然,这些中间件的设计思路也非常有意思,有时间单独分享一下这些中间件的设计思路。

  在我看来:从同城双活演变为异地双活的过程,是最为复杂的。最核心的东西包括:业务单元化划分、存储层数据双向同步、最上层的分片逻辑,这些是实现异地多活的重中之重。IM电竞IM电竞IM电竞