关于apollo:apollo在项目的使用

44次阅读

共计 3246 个字符,预计需要花费 9 分钟才能阅读完成。

Apollo(阿波罗)是携程框架部门研发的分布式配置核心,可能集中化治理利用不同环境、不同集群的配置,配置批改后可能实时推送到利用端,并且具备标准的权限、流程治理等个性,实用于微服务配置管理场景。

性能:

  • 对立治理不同环境、不同集群的配置,以命名空间 namespace 为最小粒度进行配置,一个服务引入了这个命名空间,即应用了该命名空间的配置。
  • 配置批改实时失效
  • 版本公布治理
  • 灰度公布
  • 权限治理、公布审核、操作审计
  • 客户端配置信息监控

应用:

  • 服务端的配置:

    • 新建 appId,appId 能够了解为是一套利用。在 appId 新建 namespace 增加配置内容。Namespace 能够了解为是配置的汇合,原先一个 yml 文件寄存配置,当初能够通过某个环境,某个 appId 下的 namespace 引入。
  • 客户端的应用:

    • 引入 maven 包并在启动类退出 @EnableApollo 即可,通过 meta.server,appId 和 namespace 找到所需的配置。能够了解为在 apollo 的配置就在配置文件里。通过 @Value,@ConfigurationProperties 引入的变量不受影响,对代码的入侵比拟小。
    • 监听配置的变动,不同的 namespace
  • 在我的项目的应用:

    • 把配置信息放入 apollo。间接的做法是每个服务应用一个 namespace,然而通过梳理发现,有些配置是多个服务独特应用的。
    • 服务的配置进行分类:

      • 通用:Log,eureka,feign 调用相干的
      • 某些服务专用:database(openapi monitor)redis(card openapi double)kafka activemq ElasticSearch
      • 各自的服务领有独自的 namespace

通过分类后,如果要批改数据库地址,redis 地址,或者新增一个中间件的地址,只用新增 namespace,在配置文件引入 / 批改该 namespace 即可。
如果想更改某个服务的配置,在相应的 namespace 下批改,并重启 docker 服务。能够看到公布历史,有哪些实例在应用。
我的项目是用 docker 部署的,原先一部分配置在服务里,一部分配置在 docker-compose 里,革新后尽可能所有的配置都放在 apollo 里,apollo 的配置放在 docker-compose.yml 里,docker-compose.yml 能够引入公共的配置文件 env_file,真正的 apollo 配置寄存文件,包含 apollo.meta,app.id,apollo.cacheDir,不必再通过 profile.active 辨别。一些无奈通过 apollo 配置的放在服务的配置或 docker 的配置中。实践上能当在服务的配置文件里的都能放在 apollo 里。
每个服务只需一个配置文件,甚至不必配置文件。为了本地开发的不便,在本地搁置了 sit 环境的配置。
通过 apollo.meta 辨别不同的环境,apollo.meta 变量通过 docker-compose 文件的公共配置 env_file 引入

须要留神的:

  • 配置的备份
  • 假如两个人对同一个服务进行开发,须要批改配置
  • Application 里的配置会实时失效,自定义的 namespace 不会。
  • 开关,限流额度,门路
  • 对于日志级别,database 等须要更新 bean 的,须要写代码

    • https://github.com/ctripcorp/apollo-use-cases

Namespace 的类型:

  • 公有:namespace 从属于 appId,只有配置了该 appId 才可拜访
  • 私有:只有连上了 apollo 就能应用,属于所有利用,全局惟一
  • 关联:属性是公有的,能够了解为在继承私有属性的根底上,可对私有属性进行批改

其余的性能:

  • 密钥治理,爱护配置不被其余利用获取
  • 权限调配:以 namespace 为粒度调配批改,公布,查看的权限
  • 增加集群
  • 配置笼罩,后面的会笼罩前面的,尽可能不要笼罩,保障配置的唯一性

架构:

从逻辑上来说比拟清晰,将配置的编辑 / 公布与客户端获取配置离开,用两个服务实现
Portal 通过调用 admin service 接口批改配置
Client 通过 config service 接口获取配置
为了保障高可用,增加了一层 eureka,client 和 portal 通过 eureka 调用接口服务。
为了使不同语言的 client 可通过 http 接口即可获取 admin service 和 config service 的信息,eureka 上搭建 Meta service,用来封装服务发现的细节,不必关怀背地的注册核心和服务发现组件(用于不同语言的服务注册到 eureka 上)。

残缺架构如下:

次要模块:

  • Config Service:配置的读取、推送等,服务对象是 Apollo 客户端
  • Admin Service:配置的批改、公布等,服务对象是 Apollo Portal(治理界面)
  • Config Service 和 Admin Service 都是多实例、无状态部署,所以须要将本人注册到 Eureka 中并放弃心跳
  • Meta Server:在 Eureka 之上搭建,用于封装 Eureka 的服务发现接口:

    • Client 通过域名拜访 Meta Server 获取 Config Service 服务列表(IP+Port),而后间接通过 IP+Port 拜访服务,同时在 Client 侧会做 load balance、谬误重试
    • Portal 通过域名拜访 Meta Server 获取 Admin Service 服务列表(IP+Port),而后间接通过 IP+Port 拜访服务,同时在 Portal 侧会做 load balance、谬误重试
  • 为了简化部署,实际上会把 Config Service、Eureka 和 Meta Server 三个逻辑角色部署在同一个 JVM 过程中

服务端设计:

Admin service 公布了配置批改的事件,所有 config service 收到音讯并告诉客户端批改配置。
有两个值得去摸索的点:

  • Admin service 公布事件的形式:能够用中间件 redis,activemq 实现。这里为了缩小内部组件的依赖,通过数据库实现。


具体的做法是 Admin 公布一条配置后,这个配置必定属于某个 namespace,在 ReleaseMessage 表插入一条记录 AppId+Cluster+Namespace,config service 有一个线程每秒扫描 ReleaseMessage 表,如果有新的音讯记录,就告诉客户端更新配置。所以配置如果有更新,个别一秒内就可告诉到客户端。

  • Config service 告诉客户端的形式:客户端发动获取配置的申请,config service 用 defferResult 将申请挂起,如果 60 秒内没有感兴趣的 namespace 配置发生变化,返回 304,否则立刻返回变动后的配置。应用 defferResult 能够进步申请的并发量

客户端设计:

  • 客户端和服务端放弃了一个长连贯,从而能第一工夫取得配置更新的推送。(通过 Http Long Polling 实现)
  • 客户端还会定时从 Apollo 配置核心服务端拉取利用的最新配置。

    • 这是一个 fallback 机制,为了避免推送机制生效导致配置不更新
    • 客户端定时拉取会上报本地版本,所以个别状况下,对于定时拉取的操作,服务端都会返回 304 – Not Modified
    • 定时频率默认为每 5 分钟拉取一次,客户端也能够通过在运行时指定 System Property: apollo.refreshInterval 来笼罩,单位为分钟。
  • 客户端从 Apollo 配置核心服务端获取到利用的最新配置后,会保留在内存中
  • 客户端会把从服务端获取到的配置在本地文件系统缓存一份

    • 在遇到服务不可用,或网络不通的时候,仍然能从本地复原配置
  • 应用程序能够从 Apollo 客户端获取最新的配置、订阅配置更新告诉
  • 测试环境下多环境部署 SIT,QA,UAT,用一套画面治理不同的环境:

与 spring 的集成原理
Spring 的 ApplicationContext 会蕴含一个 Environment,在服务启动的时候把参数注入即可。

正文完
 0