本文来自作者
田晓亮
在
GitChat
上分享 「Service Mesh 在华为公有云的实践」,
「
阅读原文
」
查看交流实录。
「
文末高能
」
编辑 | 哈比
我们在构建微服务而构建微服务是困难的
微服务是一个很大的概念,从团队组织到最佳实践似乎都有实施微服务的一些指导。
我们这里只提构建微服务的架构模式,也就是关乎到你用什么样的方式来构建你以微服务架构来组织的应用系统。
近些年随着微服务的火热,越来越多的团队开始进行实践,将微服务纷纷落地,也许你是从 0 开始,一步步地完成了单体应用向微服务的转型,让我们来看看,你解决了多少问题。
我相信最难的部分之一就是调用你的服务。
微服务将原本内存中函数的调用转换为网络中的调用后,就牵扯到这些问题,而任何一个分支展开,都会涉及一系列的问题。
业务开发者也许真的有精力去学习架构相关的复杂问题,然而对于公司来说,真正有价值的是业务本身,让业务开发者解决这些问题需要花费浪费大量的时间精力,导致业务上线受到影响。
那我们来看看是否有便捷的方式来解决业务开发者的痛点。
Chassis 模式
一句话来概括:一种语言开发框架来作为微服务开发的底座,封装掉复杂性,帮助你解决跨网络带来的问题,让用户聚焦在上层业务逻辑的开发。
通常情况下会实现以下功能:
现在我们来看看业界有哪些可用的 Chassis 框架:
-
Spring Cloud
-
ServiceComb
-
Dubbo
-
Go-Micro
-
Go-Kit
先不细去纠结微服务的严格定义,也先暂且搁置诸如 “某些老旧框架是否是真的微服务框架” 这类争议。从实现方式来看,上述服务化框架都是将分布式系统开发的复杂性进行了一定程度的封装然后提供了简便的开发接口供使用者调用。
但是,用这种方式构建微服务还有一些问题:
-
多语言 SDK 支持:微服务提倡不同组件使用最适合它的语言开发,但是这需要每种语言都有开发框架,不断实现相同的功能。上面可以看到只有 go 语言和 Java 语言出现了微服务开发框架,其他语言呢?
-
不论代码侵入程度,都需要开发者思考如何与 SDK 结合,并从代码层面做出改变,对于大部分开发者来说都是一个高曲线的学习过程。
-
绑定了特定技术栈,不容易改造。
-
老旧单体应用由于无人维护,耦合程度高等问题无法进行改造,在进行微服务拆分的过程中重用遗留代码变得无比困难。而且微服务的拆分难以分步进行,需要一个相对较长的周期将系统整体拆分后才能上线。
我们知道技术演进来自于在实践中不断地将功能抽象,解耦,封装,服务化。
是否也可以把语言框架提供的能力抽象,成为服务?
很多问题是开放性的解法,上学时大家体会很深一道难题会有很多解法。
在引入后面内容前,我先介绍下 SideCar 模式。
SideCar 模式
一个典型的场景如下:
应用容器与日志同步工具在同一个 Pod 下,共享存储卷,应用程序生成的日志文件会由日志同步工具收集并发送到类似 kafka,elasticsearch 这样服务中。
在这样的架构下我们获得了什么呢?
-
以容器作为基础打包单元,那么就可以分给不同的团队进行开发测试
-
Sidecar 容器可重用,可以与不同的容器结合
-
以容器作为错误边界,使服务能够独立开发和测试,比如应用服务在没有日志保存功能的情况下也可以独立运行
-
独立回滚与更新,但需要考虑复杂的版本组合,建议使用语义版本管理对版本进行控制
我们知道侵入式框架是在 L7 去解决微服务调用,管理,监控的问题,那么是否我们可以将这部分抽象出来,在 L5 层解决呢。
在这个模式的基础和思路之下,我们引入了 Service mesh。
Service Mesh
什么是 Service Mesh。
Service mesh 最早是由 Linkerd 给出的定义,我们来看看英文版。
A service mesh is a dedicated infrastructure layer for handling service-to-service communication.
It’s responsible for the reliable delivery of requests through the complex topology of services that comprise a modern, cloud native application.
In practice, the service mesh is typically implemented as an array of lightweight network proxies that are deployed alongside application code, without the application needing to be aware. (But there are variations to this idea, as we’ll see.)
The concept of the service mesh as a separate layer is tied to the rise of the cloud native application.
In the cloud native model, a single application might consist of hundreds of services;
each service might have thousands of instances;
and each of those instances might be in a constantly-changing state as they are dynamically scheduled by an orchestrator like Kubernetes.
Not only is service communication in this world incredibly complex, it’s a pervasive and fundamental part of runtime behavior.
Managing it is vital to ensuring end-to-end performance and reliability.
大致的意思如下:
-
一种基础设施层,服务间的通信通过 service mesh 进行
-
可靠地传输复杂拓扑中服务的请求,将它们变成现代的云原生服务
-
一种网络代理的实现,通常与业务服务部署在一起,业务服务不感知
-
一种网络模型,在 TCP/IP 之上的抽象层,TCP/IP 负责将字节码可靠地在网络节点间传递,Service mesh 则复杂将服务间的协议请求可靠地在服务间进行传输。它们不关心传输的内容
-
TCP/IP 仅仅负责传输,但 Service mesh 可对运行时进行控制,使服务变得可监控,可管理。
为什么使用 Service Mesh
-
无需考虑每种语言都要解决的问题
-
对业务代码 0 侵入,开发者无需关心分布式架构带来的复杂性以及引入的技术问题
-
对于不适合改造的老旧单体应用,提供了一种接入分布式环境的方式
-
微服务化的进程通常不是一蹴而就的,很多应用选择了演进的方式,就是将单体应用一部分一部分地进行拆分。而在这个过程中,使用 Service Mesh 就可以很好地保证未拆分的应用与已经拆分出来的微服务之间的互通和统一治理
-
开发出的应用既是云原生的又具有独立性,不将业务代码与任何框架,平台或者服务绑定
依然没有银弹,我们来看看 Service mesh 解决不了的问题:
-
Service Mesh 组件代理请求转发,会在一定程度上降低系统通信性能
-
侵入式框架以源码和业务代码结合,有较强定制和扩展能力,Service mesh 相对不易定制扩展
-
在运行时,依赖单独的 Service Mesh 代理,多了一个故障点。整个系统的运行和运维也强依赖于 Service Mesh 组件的能力
Service Mesh 的实践历程和设计思路
Service Mesh 在华为公司内部的发展历程
第一代: 基于 NGINX 的微服务代理
该平台是华为公司内部使用的微服务开发部署运行平台,开发于 2013 年,用于公司内部某电信业务。在这个业务系统中有大概 400 多个左右的微服务,实例数量根据局点大小不一样,一个典型的部署为 800 多个左右实例的规模。
整体架构如下:
其中的 Internal Router 组件用来给开发者解决分布式架构中的可靠传输问题:
-
使用高性能 nginx 及其相应的 lua 扩展作为 Internal Router,将 Http 服务接入
-
使用 RouteAgent 负责注册 / 注销实例,更新 IR 的实例信息
-
使用 zookeeper 作为注册中心
-
以 Per-Host 的方式部署在微服务所运行的环境中
用这种方式构建的微服务环境已经在超过 200 个局点的生产环境下得到使用,整体运行情况良好。
但是随着时间的推移,当业务对敏捷的要求越来越大,而且容器的使用也越来越广泛,这种方式带来了一些问题:
-
使用 lua 脚本扩展注册发现,负载均衡,熔断,降级,容错,限流,但 lua 的扩展性有一定的局限
-
用 RouteAgent 负责服务的注册以及每个 NGINX 上服务实例路由的刷新,RA 需清楚地感知本节点上的微服务都有哪些,但是使用 Kubernetes 做容器调度后微服务和实例的分布信息在 K8S 里面集中记录
-
容器的 IP 更多,变化更频繁,使用 RouteAgent 刷新 NGINX 路由的方式会导致 NGINX 服务受到影响,频繁的路由刷新导致业务运行收到影响
-
当 IR 服务失败后,整个 Host 中的服务都会丢失,无法与外界建立联系
为了解决这些问题,出现了第二代的解决方案: HSA Sidecar。
HSA 是华为内部的一套微服务开发框架,它提供了注册中心,配置中心,java 开发框架,以及 SideCar 等组件。
-
基于 Java 微服务框架开发 , 非侵入式通信方式,支持 RPC 与 Http,提供 SOAP 协议转换,但会导致性能下降
-
与微服务部署在一个 Pod 中即 Sidecar 模式
-
作为代理服务,使微服务自动获得注册发现,负载均衡,熔断,降级,容错限流等功能
-
占用资源很高,一个应用实例一个 Sidecar 实例的部署方式,会占用过高资源
虽然第一代的问题解决了,但是第二代的 Sidecar 在性能和资源占用上有很大的问题,在少量的技术项目中试用后,因为资源占用过高的问题无法在大规模环境中推广使用。
CSE Mesher
Service Mesh 模式的一种实现。基于自研的 Go 语言微服务框架(该框架即将开源)开发,使用 ServiceComb 注册中心(开源)与 CSE 配置中心,以 Sidecar 的方式部署在微服务所运行的环境中,也可以 PerHost 模式运行。
在用户数据面使用,提供 VM 部署、公有云部署、容器部署,占用资源小(闲置 10 多 M,并发运行时 30 多 M)。
基本特性
注册发现
注册中心为插件化模块,目前对接了 ServiceComb Service Center,未来还会有更多的系统对接进来。
我个人是 Eureka 的深入实践者,相比 Eureka 解决了简单的注册发现(虽然非常轻量,但是大量配置需要调教),Service center 提供了大量的 特性 来支撑更好地治理管理你的微服务 , 并与 Promethues 整合,提供自身的运行时 Metric 监控。
路由规则管理
根据预定义的路由规则对请求进行引流:
多协议支持,协议转换,不同框架的对接与统一治理
使用负载均衡与重试策略
-
负载均衡器会调用注册中心插件进行实例查询
-
在查询中的实例里表中,使用 Filter 进行过滤
-
将过滤后的实例传入 Strategy 中进行实例选择
-
默认提供 RoundRobin Random,会话粘滞策略
-
具备容错能力且加入 Backoff 算法,增强网络稳定性
使用熔断降级
熔断使用的断路器对一个执行过程进行包装,断路器负责监控维护每个执行过程的状态、结果、错误、超时。当达到一定阀值时就会熔断,并触发降级。以这样的机制来保护服务提供者,不会出现级联的雪崩式错误。服务雪崩效应是一种因 服务提供者 的不可用导致 服务调用者 的不可用,并将不可用 逐渐放大 的过程 . 如果所示:
使用限流
提供了消费者端与提供者端限流。
用户可以通过配置来限制每秒只允许多少个请求被发出或者接受。
对接监控
Metrics:提供了主动上报到 CSE Dashborad 的方式。也可与华为公有云 APM,Prometeus 对接。
分布式追踪:对接 Zipkin。
架构设计
整体架构
数据面
即 Service mesh 组件本身,对所有请求进行处理,它有以下功能:
-
发现服务
-
执行路由策略
-
负载均衡
-
拦截所有请求并处理,转发
-
TLS 透明传输
-
生成监控数据
控制面
为管理人员提供统一的管理入口,为所有运行的 mesher 提供配置下发但不会介入服务请求
运行场景
与业务服务部署在一起有 3 种运行模式:
ServiceC 为裸服务 , 它既不用 mesher 也不用 SDK,那么起码它需要自己注册到服务中心中,供其它服务发现,否则无法进行访问。
-
消费者与提供者均使用 Mesher
以这种方式运行的服务可以使用透明 TLS 传输,并且拥有了服务端限流。
性能对比
在性能对比后,我聊下自己的看法:
-
Linkerd 作为 java 实现的 service mesh,受到资源占用的拖累,考虑到数据中心成本,不适合作为 SideCar 和应用部署在一起,相信它的主要场景在于 Kubernetes Ingress 和 Daemonset,并且由于只有数据面,需要和别的生态系统对接获得控制面能力,否则,业务团队又要考虑自己开发控制面。
-
目前 Istio 已知问题是每次请求都要调用一次 Mixer API 来传送 metric 数据,相信未来版本能够解决,但不能满足我们内部的产品节奏。
-
作为对比,Mesher 通过 Channel 与 Go 协程机制主动上报 metric 数据,以此获得更高的性能,机制如下:模块将数据传送到 channel 中,协程收到信号并主动上报
一些思考以及未来
华为为什么开发了自己的 Service Mesh
-
Istio 的性能问题没有解决,Envoy 每次访问请求 Mixer API 导致性能下降。
-
Istio 强绑定 Kubernetes 平台(1.7.4+),虽然有着良好的架构,对接不同平台不是问题但需要时间,Mesher 贯彻不将开发者绑定到任何框架和平台的理念。
-
从成本角度讲 Linkerd 并不适合做 SideCar 部署,JVM 资源占用较多,他的未来场景可能是在 Daemonset 模式里。
但是升级却必然会导致实例的失联,目前定位确实比较尴尬,他们提出 Service Mesh 的概念,现在最火爆的却是 Istio,有点像 Google 提出云计算,最大受益者是 AWS 一样。
-
过去在 ServiceComb 中的积累:Service center,Config center,Go SDK,Governance UX 已经提供了大量技术积累,可用于做 Mesher 的控制面。