HelloFresh的API网关落地实践
HelloFresh是一家食品电商初创公司,用户根据选定的菜谱下单,HelloFresh把菜谱所需要的食材送至用户家中。来自HelloFresh的技术负责人Ítalo Lelis在博客上分享了HelloFresh的API网关落地实践,本文为该博文的译文,并已获得原网站的翻译授权。
HelloFresh的规模一直保持着增长的态势:我们的产品在持续改进,新的想法不断涌现出来,我们拥有完全自动化的供应链。持续的增长给我们带来了惊喜,同时也带来了技术方面的挑战。
在这篇文章里,我将会和大家分享我们的基础设施所经历的一次重大迁移,这次迁移保证了以后的路我们可以走得更快、更灵活,也更安全。
挑战
我们最近构建了一个API网关,接下来需要在不停机的情况下对网关后面的主API(单体系统)进行迁移改造,这对我么来说是一个很大的挑战。
架构
API网关处在基础设施的最外层,它每天需要接收大量的请求,所以我们选择了Go语言来构建网关,因为Go性能好、简单易用,而且提供了优雅的并发解决方案。
我们手头已经有很多现成的工具,它们可以简化我们的迁移工作。
服务发现和客户端负载均衡
我们使用Consul作为服务发现工具,它和HAProxy配合起来使用可以帮我们解决微服务架构的两个主要问题:服务发现(新服务上线时会自动注册)和客户端负载均衡(把请求均衡地分发到各个服务器上)。
自动化
我们的工具箱里最有用的工具或许要数基础设施的自动化。我们使用Ansible在云端管理资源,包括单机、网络、DNS、运行持续集成工具的主机,等等。按照我们的惯例,当有新服务被创建,我们的工程师第一件事情就是为这个服务创建Ansible脚本。
日志和监控
从某种程度上说,基础设施里的所有东西都应该被监控起来。在记录日志和监控应用方面,我们有一些最佳实践。
办公室里有仪表盘,我们在任何时候都可以查看系统的运行情况。
我们使用ELK技术栈来收集日志,从而可以快速地分析服务的运行情况。 我们使用Statsd和Grafana作为监控工具,这些工具总会给我们带来惊喜。Grafana的仪表盘为性能度量指标提供了非常完美的视角。 理解当前的架构 尽管有了这些工具,我们仍然有一个棘手的问题需要解决:理清当前的架构,然后想清楚如何顺利地进行迁移。我们花了一些时间对遗留系统进行了重构,让它们支持新的网关,同时我们也加入了认证服务。在这个过程中,我们遇到了一些问题。 虽然我们可以对移动应用进行更新,但也要考虑到有些用户可能不愿意升级,所以我们要保持向后兼容,比如DNS,我们要确保旧版本也能正常工作。 我们需要整理出所有公开和私有的API端点,并让它们自动地注册到网关上。 我们需要把认证工作从主API迁移到新的认证服务上。 确保网关和微服务之间通信的安全性。 为了解决这些问题,我们写了一个Go脚本,这个脚本会读取OpenAPI规范(Swagger)文件并为API资源创建规则(比如速率限定、配额、CORS等)代理。 我们在staging环境搭建了整个基础设施,并在上面运行自动化测试,对服务间的通信进行了测试。不得不说,自动化staging测试在整个迁移过程中起到了很大的作用。我们有很多功能测试用例,这些用例保证了主API的功能是完好的。 在确保了staging环境一切正常之后,我们开始考虑如何将它们推到生产环境。 第一次尝试 可以告诉大家的是,我们的第一次尝试简直是灾难性的。尽管我们已经做足了计划,不过仍然不足以把它们推向生产环境。先来看看我们的初始计划。
把最新的API网关部署到staging环境 把主API的变更部署到staging环境 在staging环境运行自动化功能测试 通过网站和移动端进行staging环境的手动测试 把最新的API网关部署到生产环境 把主API的变更部署到生产环境 在生产环境运行自动化功能测试 通过网站和移动端进行生产环境的手动测试庆祝胜利 在staging环境一切进展得都很顺利,当我们准备进入生产环境时,问题出现了。 认证服务的数据库过载:我们低估了请求的流量,造成数据库拒绝连接 错误的CORS配置:部分端点的CORS规则配置错误,造成请求无法获得资源 数据库被冲垮,我们不得不马上回滚。幸运的是,我们的监控系统捕获到了从认证服务获取令牌的问题。 第二次尝试 从第一次失败中吸取了教训,我们知道我们还没有为进入生产环境做好准备,于是在回滚之后,立即对问题展开诊断。在再次尝试之前,我们做了一些改进。 准备蓝绿(blue-green)部署过程。我们为生产环境创建了一个副本,包括已经部署好的网关,通过一些简单的配置变更就能让整个集群运行起来,如果需要回滚,也只需做一些简单的配置变更。 从当前的系统收集更多的度量指标,这样可以帮助我们决定该使用多少机器来处理负载。我们利用第一次尝试时所使用的数据作为探针,并使用Gatling来运行负载测试,确保我们可以应付预期的流量。 再次进入生产环境之前,我们对认证服务的已知问题进行了修复,包括一个大小写问题、一个JWT签名的性能问题,并添加了更多的日志和监控。 我们花费了一个礼拜来完成上述的工作,之后的部署进展得很顺利,中间没有停机。不过尽管部署进展得很顺利,我们仍然发现了一些在自动化测试中没有发现的个别问题,不过这些问题最终得到修复,并没有对系统造成太大影响。 结果 最终的架构如下图所示。 主API 10多个主API部署在装配了高端CPU的主机上 主从MySQL(3个副本) 认证服务 4个应用服务器 主从PostgreSQL(2个副本) RabbitMQ用于异步地处理用户的更新操作 API网关 4个应用服务器 主从MongoDB(4个副本) 其它 所有机器上都运行着Ansible命令,部署只需要几秒钟 使用Amazon CloudFront作为CDN/WAF 使用Consul和HAProxy作为服务发现和客户端负载均衡工具 使用Stasd和Grafana收集系统度量指标并触发告警 使用ELK技术栈从不同的服务收集日志 使用Concourse CI作为持续集成工具
关注公众号:拾黑(shiheibook)了解更多
[广告]赞助链接:
四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/
关注网络尖刀微信公众号
随时掌握互联网精彩
随时掌握互联网精彩
赞助链接
排名
热点
搜索指数
- 1 习近平拉美之行的三个“一” 7986225
- 2 微信或史诗级“瘦身” 内存有救了 7993418
- 3 俄神秘导弹首现战场 普京:无法拦截 7897518
- 4 中国主张成为G20峰会的一抹亮色 7753104
- 5 男子求助如何打开亡父遗留14年手机 7648432
- 6 中国对日本等国试行免签 7582537
- 7 女生半裸遭男保洁刷卡闯入 酒店回应 7410318
- 8 7万余件儿童羽绒服里没有真羽绒 7334866
- 9 70多辆小米SU7同一天撞墙撞柱 7207481
- 10 千年古镇“因网而变、因数而兴” 7165346