正文
本文最初发布于
Apollo博客
,经原作者授权由InfoQ中文站翻译并分享。
Facebook将GraphQL作为开源项目发布已经有两年的时间了。从那时算起,社区就以指数级的速度在增长,现在成千上万的公司在生产环境中使用GraphQL。在2017年10月举行的GraphQL峰会上,我非常荣幸地受邀在第二天演讲。读者可以在YouTube上观看
完整的视频
,也可以通过阅读本文对演讲有一个大致的了解(演讲的演示文稿可以在SlideShare 站点
下载
——译者注)。
首先,我会简要介绍一下GraphQL的现状,然后阐述它未来一段时间内的演化会给开发人员带来哪些好处,尤其会重点介绍全栈GraphQL集成的三个样例:缓存、性能跟踪和模式拼接(schema stitching)。
GraphQL的与众不同之处是什么?
主要有三个因素使得GraphQL在与其他API技术的对比中脱颖而出:
-
GraphQL有一个很好的查询语言,这是用来描述
数据需求(data requirement)
的好办法,另外它还具有一个定义良好的模式,它暴露了
API的能力(API capability)
。在主流技术中,GraphQL是唯一一个同时指定了等式两侧的主流技术,它的所有好处都来源于这两个概念的相互作用。
-
GraphQL能够帮助我们将API的消费者与提供者解耦。在像REST这种基于端点的API中,所返回数据的形式是由服务器决定的。在GraphQL中,数据的形式则是由使用它的UI代码所决定的,这样的话会更加自然,能够让我们聚焦于关注点分离,而不是技术。
-
GraphQL查询是与使用它的代码息息相关的,所以我们可以将查询视为一个
数据获取单元
。GraphQL预先了解UI组件的所有数据需求,因此能够实现一些新类型的服务器功能。比如,在某个查询的底层API调用中,使用批处理和缓存,这些调用代表了UI部分所需的数据,借助GraphQL来实现就会变得非常容易。
分离关注点,而不是分离技术:GraphQL将数据的需求放到了客户端
接下来,我们看一下人们经常提到的关于数据获取的三个方面,然后讨论GraphQL如何使用上述特性来对其进行改善。
需要注意的是我所讨论的功能有很大一部分是现在就可用的,还有一部分是将来要实现的。如果这些功能让你感到兴奋的话,那么可以滚动的页面底部了解如何参与。
1.跨请求缓存
人们经常问到的一个问题就是如何为GraphQL API实现跨请求的缓存。在将常规的HTTP缓存应用到GraphQL上时,会有一些问题:
-
HTTP缓存通常不支持POST请求或较长的cache key;
-
请求的多样性通常会意味着更低的缓存命中率;
-
GraphQL是独立于传输层的,所以HTTP并不一定总是有效。
但是,GraphQL同时带来了众多新的机会:
-
在访问后端的模式和解析器(resolver)上声明缓存控制信息;
-
模式方案所带来的自动化细粒度缓存控制,而不需要考虑每个请求的命中率。
在GraphQL中我们该如何更好地使用缓存呢,我们又该如何利用这些新机会呢?
应该将缓存功能放在何处?
我们首先需要决定将缓存功能放到何处。最初的设想可能会计划将缓存逻辑放到GraphQL服务器里面。但是,像DataLoader这样的简单工具无法跨GraphQL请求良好地运行,另外将缓存功能放到服务器端的代码中有可能会导致实现变得非常复杂。所以,我们应该将其放到其他的地方。
就像REST一样,在API层的两侧都进行缓存是非常明智的做法:
-
在GraphQL API外边的基础设施层缓存整个响应;
-
在GraphQL服务器之下缓存底层对数据库和微服务访问所获取到的结果。
对于第二项,已有的缓存基础设施依然可用。对于第一项,我们需要在API之外创建一个新的分层,它能够以感知GraphQL的方式实现诸如缓存这样的功能。从本质上来讲,这种架构能够让我们将复杂性放到GraphQL服务器之外:
将复杂性转移到客户端和服务器之间的一个新的层中
我将这个组件称为GraphQL网关。在Apollo团队中,我们认为这种新的网关层非常重要,每个人都需要将其作为GraphQL架构的一部分。
这也是为什么在本年的GraphQL峰会期间,我们
启动了Apollo Engine
,将其作为第一个GraphQL网关。
用于缓存控制的GraphQL响应扩展
正如我在前面的序言中所述,GraphQL的优势之一就是它有一个巨大的工具生态系统,它们都是通过GraphQL的查询和模式来运行的。我认为缓存应该按照相同的方式运行,为此我们引入了
Apollo 缓存控制
,它使用了GraphQL规范内置的一项名为
扩展(extension)
的特性,在响应中包含缓存控制信息。
通过我们的
JavaScript参考实现
,很容易就可以在模式中添加缓存控制信息:
通过apollo-cache-control-js在模式中定义缓存信息
在这里,我们在GraphQL的主要功能之上创建了这个新的缓存控制规范,对这种实现方式我感到很兴奋。它能够以细粒度的方式指定数据的信息,并且利用GraphQL的扩展机制将相关的缓存控制信息发送给消费者。在实现方式上,它完全是独立于语言和传输的。
我在GraphQL峰会发表完演讲之后,
Oleg Ilyenko
发布了一个
针对Sangria的可运行缓存控制功能
,他在维护着Scala GraphQL实现。
通过网关实现缓存
现在,我们重新回到GraphQL服务器中的缓存控制信息,借助网关,我们能够以一种清晰的方式来实现缓存功能。栈中的每一部分都能在各自的位置发挥作用:
缓存会协调技术栈中的每个组成部分
还有另外一件很酷的事情值得一提,大多数人已经在GraphQL技术栈中使用过缓存了:比如在前端使用Apollo Client和Relay缓存数据。在未来版本的Apollo Client中,来自响应中的缓存控制信息将会自动过期来自客户端的旧数据。所以,就像GraphQL中的其他组成部分一样,服务器描述了它的功能,客户端指定其数据需求,所有组成部分都能很好地协作。
接下来,我们看一下另外一个跨越整个栈的GraphQL功能样例。
2.跟踪
相对于基于端的系统,GraphQL能够让前端开发人员以一种更加细粒度的方式来使用数据。他们能够精确地请求想要的数据,忽略不会使用的字段。这样的话,就有机会探测详细的性能信息,并且能够以过去无法实现的方式来进行性能的跟踪。
不要满足于一个不透明的总查询时间——GraphQL能够让我们获取每个字段详细计时
我们可以说GraphQL是第一个能够细粒度获取内部信息的API技术。这并不是某项工具做到的——GraphQL第一次能够让前端开发人员以合法的方式获取每个字段的执行计时,然后让他们基于此修改查询以解决相关的问题。
跨越整个栈进行跟踪
跟踪与缓存类似,协调整个栈才能真正有用。
在提供跟踪信息时,每个组成部分都有其作用,并且都可以参与进来
服务器可以在结果中提供额外信息,就像提供缓存相关的信息类似,网关可以抽取并聚集这些信息。与缓存类似,在服务器中不想关心的复杂功能,都由网关组件负责处理。
在这里,客户端的主要角色将查询与UI组件连接起来。这是非常重要的,我们就可以将API层的性能与其对前端影响关联起来。我们第一次能够把后端获取数据的性能与它所影响的UI组件在页面上显示出来。
GraphQL跟踪扩展
与缓存非常类似,我们可以借助GraphQL的响应扩展功能,以独立于服务器的方式来实现。Apollo Tracing规范目前已经有了
Node
、
Ruby
、
Scala
、
Java
和
Elixir
实现,该规范定义了GraphQL服务器返回计时数据的方式,解析器(resolver)会以一种标准的方式进行解析,其他的工具都可以使用解析得到的性能数据。
我们假设所有GraphQL工具都要访问性能数据:
抽象共享让所有工具都能使用像跟踪数据这样的信息
借助Apollo Tracing,我们能够在GraphiQL、编辑器或其他任意地方使用性能数据。
到目前为止,我们已经看过了一个客户端和一个服务器之间的交互。最后一个样例,我们看一下GraphQL能够如何帮助我们模块化架构。
3.模式拼接
GraphQL最大的好处之一就是能够在一个地方访问所有的数据。但是,直到最近,这种方式也是有一定成本的:我们需要将整个GraphQL模式实现为一个代码库,这样的话,才能在一个请求中对所有数据进行查询。如果你的架构是模块化的,又想使用统一GraphQL API所带来的收益,那该怎么处理呢?
模式拼接是一个很简单的理念:GraphQL能够很容易地将多个API合并成一个,这样的话,我们就可以按照独立服务的方式来实现模式中的各个组成部分。这些服务可以独立进行部署,使用不同的语言进行编写,甚至还可以归属不同的组织。
如下是一个
样例
: