关于java:亿级流量架构怎么做资源隔离写得太好了

45次阅读

共计 4800 个字符,预计需要花费 12 分钟才能阅读完成。

作者:等不到的口琴

链接:https://www.cnblogs.com/Coura…

为什么要资源隔离

常见的资源, 例如磁盘、网络、CPU 等等, 都会存在竞争的问题, 在构建分布式架构时, 能够将本来连贯在一起的组件、模块、资源拆分开来, 以便达到最大的利用效率或性能。资源隔离之后, 当某一部分组件呈现故障时, 能够隔离故障, 不便定位的同时, 阻止流传, 避免出现滚雪球以及雪崩效应。

常见的隔离形式有:

  • 线程隔离
  • 过程隔离
  • 集群隔离
  • 机房隔离
  • 读写隔离
  • 动静隔离
  • 爬虫隔离
  • 等等

线程隔离

网络上很多帖子, 大多是从框架开始聊的, 这儿说人话其实就是对线程进行治理, 把外围业务线程与非核心业务线程隔开, 不同的业务须要的线程数量不同, 能够设置不同的线程池, 来举一些框架中利用的例子, 例如 Netty 中的主从多线程、Tomcat 申请隔离、Dubbo 线程模型。

Netty 主从程模型

主线程负责认证,连贯,胜利之后交由从线程负责连贯的读写操作,大抵如下代码:

EventLoopGroup bossGroup = new NioEventLoopGroup(1);
EventLoopGroup workerGroup = new NioEventLoopGroup();

ServerBootstrap b = new ServerBootstrap();
b.group(bossGroup, workerGroup);

主线程是一个单线程,从线程是一个默认为 cpu* 2 个数的线程池,能够在咱们的业务 handler 中做一个简略测试:

public void channelRead(ChannelHandlerContext ctx, Object msg) {System.out.println("thread name=" + Thread.currentThread().getName() + "server receive msg=" + msg);
}

服务端在读取数据的时候打印一下以后的线程:

thread name=nioEventLoopGroup-3-1 server receive msg="..."

能够发现这里应用的线程其实和解决 io 线程是同一个;

Dubbo 线程隔离模型

Dubbo 的底层通信框架其实应用的就是 Netty,然而 Dubbo 并没有间接应用 Netty 的 io 线程来解决业务,能够简略在生产者端输入以后线程名称:

thread name=DubboServerHandler-192.168.1.115:20880-thread-2,...

能够发现业务逻辑应用并不是 nioEventLoopGroup 线程,这是因为 Dubbo 有本人的线程模型,能够看看官网提供的模型图:

由图能够晓得,Dubbo 服务端接管到申请后, 通过调度器 (Dispatcher) 散发到不同的线程池,也简略做一些对于调度器 (Dispatcher) 总结:

Dispatcher 调度器能够配置音讯的解决线程:

  • all 所有音讯都派发到线程池,包含申请,响应,连贯事件,断开事件,心跳等。
  • direct 所有音讯都不派发到线程池,全副在 IO 线程上间接执行。
  • message 只有申请响应音讯派发到线程池,其它连贯断开事件,心跳等音讯,间接在 IO 线程上执行。
  • execution 只有申请音讯派发到线程池,不含响应,响应和其它连贯断开事件,心跳等音讯,间接在 IO 线程上执行。
  • connection 在 IO 线程上,将连贯断开事件放入队列,有序一一执行,其它音讯派发到线程池。

通过看源码能够晓得,Dubbo 默认应用的线程池是FixedThreadPool,线程数默认为200

Tomcat 申请线程隔离

Tomcat 是 Servelet 的具体实现, 在 Tomcat 申请反对四种申请解决形式别离为:BIO、AIO、NIO、APR

BIO 模式:阻塞式 I / O 操作,示意 Tomcat 应用的是传统 Java。I/ O 操作(即 Java.io 包及其子包)。Tomcat7 以下版本默认状况下是以 bio 模式运行的,因为每个申请都要创立一个线程来解决,线程开销较大,不能解决高并发的场景,在几种模式中性能也最低。

NIO 模式:同步非阻塞 I / O 操作,是一个基于缓冲区、并能提供非阻塞 I / O 操作的 API,它领有比传统 I / O 操作具备更好的并发性能。

在 Tomcat7 版本之后,Tomcat 把连贯染指和业务解决拆分成两个线程池来解决,即:

能够应用独立的线程池来保护 servlet 的创立。连接器 connector 能染指的申请必定比业务简单的 servlet 解决的个数要多,在两头,Tomcat 退出了队列,来期待 servlet 线程池闲暇。这两步是 Tomcat 内核实现的,在一阶段无奈辨别具体业务或资源,所以只能在连贯染指,servlet 初始化实现后咱们依据本人的业务线去划分独立的连接池。

这样做, 独立的业务或资源中如果呈现解体,不会影响其余的业务线程,从而达到资源隔离和服务降级的成果。

在应用了 servlet3 之后,零碎线程隔离变得更灵便了。能够划分外围业务队列和非核心业务队列:

线程隔离小总结

  1. 资源一旦呈现问题,尽管是隔离状态,想要让资源从新可用,很难做到不重启 jvm。
  2. 线程池外部线程如果呈现 OOM、FullGC、cpu 耗尽等问题也是无法控制的
  3. 线程隔离,只能保障在调配线程这个资源上进行隔离,并不能保障整体稳定性

过程隔离

过程隔离这种思维其实并不生疏,Linux 操作系统中, 利用文件管理系统将各个过程的虚拟内存与理论的物理内存映射起来, 这样做的益处是防止不同的过程之间相互影响, 而在分布式系统中, 线程隔离不能齐全隔离故障防止雪崩, 例如某个线程组耗尽内存导致 OOM, 那么其余线程组势必也会受影响, 所以过程隔离的思维是,CPU、内存等等这些资源也通过不同的虚拟机来做隔离。

具体操作是, 将业务逻辑进行拆分成多个子系统(拆分准则能够参考:Redis 集群拆分准则之 AKF),实现物理隔离,当某一个子系统呈现问题,不会影响到其余子系统。

集群隔离

如果零碎中某个业务模块蕴含像抢购、秒杀、存储 I / O 密集度高、网络 I / o 高、计算 I / O 高这类需要的时候,很容易在并发量高的时候因为这种性能把整个模块占有的资源全副耗尽,导致响应编码甚至节点不可用。

像上图的的拆分之后, 如果某一天购物人数霎时暴增, 电商交易功能模块可能受影响, 损坏后导致电商模块其余的浏览查问也无奈应用, 因而就要建设集群进行隔离, 具体来说就是持续拆分模块, 将性能微服务化。

解决方案

  • 独立拆分模块
  • 微服务化

能够应用 hystrix 在微服务中隔离分布式服务故障。他能够通过线程和信号量进行隔离。

线程池隔离与信号量隔离比照

这儿同下面的线程隔离, 不多赘述, 简略叙述一下 hystrix 的两种隔离形式的区别:

隔离形式 是否反对超时 是否反对熔断 隔离原理 是否是异步调用 资源耗费
线程池隔离 反对,可间接返回 反对,当线程池达到 maxSize 后,再申请会触发 fallback 接口进行熔断 每个服务独自用线程池 能够是异步,也能够是同步。看调用的办法 大,大量线程的上下文切换,容易造成机器负载高
信号量隔离 不反对,如果阻塞,只能通过调用协定(如:socket 超时能力返回) 反对,当信号量达到 maxConcurrentRequests 后。再申请会触发 fallback 通过信号量的计数器 同步调用,不反对异步 小,只是个计数器

信号量隔离

说人话就是, 很多线程涌过去, 要去取得信号量, 取得了能力继续执行, 否则先进入队列期待或者间接 fallback 回调

最重要的是,信号量的调用是同步的,也就是说,每次调用都得阻塞调用方的线程,直到后果返回。这样就导致了无奈对拜访做超时(只能依附调用协定超时,无奈被动开释)

官网对信号量隔离的形容倡议

  • Generally the only time you should use semaphore isolation for HystrixCommands is when the call is so high volume (hundreds per second, per instance) that the overhead of separate threads is too high; this typically only applies to non-network calls.

了解下两点:

  1. 隔离的细粒度太高,数百个实例须要隔离,此时用线程池做隔离开销过大
  2. 通常这种都是非网络调用的状况下

机房隔离

机房隔离次要目标有两个, 一方面是将不同区域的用户数据隔离到不同的地区, 例如湖北的数据放在湖北的服务器, 浙江的放在浙江服务器, 等等, 这样能解决数据容量大,计算密集,i/o(网络)密集度高的问题, 相当于将流量分在了各个区域。

另一方面, 机房隔离也是为了保障安全性, 所有数据都放在一个中央, 如果产生自然灾害或者爆炸等灾祸时, 数据将全都失落, 所以把服务建设整体正本(计算服务、数据存储),在多机房内做异地多活或冷备份、是微服务数据异构的放大版本。

如果机房层面呈现问题的时候,能够通过智能 dns、httpdns、负载平衡等技术疾速切换, 让区域用户尽量不收影响。

数据读写隔离

通过主从模式,将 mysql、redis 等数据存储服务集群化,读写拆散,那么在写入数据不可用的时候,也能够通过 重试机制 长期通过其余节点读取到数据。

多节点在做子网划分的时候,除了异地多活,还能够做数据中心,所有数据在本地机房 crud 异步同步到数据中心,数据中心再去散发数据给其余机房, 那么数据长期在本地机房不可用的时候,就能够尝试连贯异地机房或数据中心。

动态隔离

次要思路是将一些动态资源散发在边缘服务器中, 因为日常拜访中有很多资源是不会变的, 所以没必要每次都想从主服务器上获取, 能够将这些数据保留在边缘服务器上升高主服务器的压力。

有一篇很具体的解说参考: 全局负载平衡与 CDN 内容散发

爬虫隔离

建设适合的规定, 将爬虫申请转移到另外的集群

目前咱们开发的都是 API 接口,并且少数都是凋谢的 API 接口。也就是说,只有有人拿到这个接口,任何人都能够通过这个 API 接口获取数据,如果是网络爬虫申请速度快,获取的数据多,不仅会对服务器造成影响, 不必多久,爬虫方齐全能够用咱们 API 的接口来开发一个同样的网站,开放平台的 API 接口调用须要限度其频率,以节约服务器资源和防止歹意的频繁调用, 在大型互联网我的项目中,对于 web 服务和网络爬虫的拜访流量能达到 5:1,甚至更高,有的零碎有时候就会因为爬虫流量过高而导致资源耗尽,服务不可用。解决策略大抵两个方面:

一是限流,限度拜访的频率;

二是将爬虫申请转发到固定中央。

爬虫限流

  • 登录 / 会话限度
  • 下载限流
  • 拜访频率
  • ip 限度,黑白名单

想要分辨进去一个拜访是不是爬虫,能够简略的应用 nginx 来剖析 ua 解决

UA 介绍

User Agent 简称 UA,就是用户代理。通常咱们用浏览器拜访网站,在网站的日志中,咱们的浏览器就是一种 UA。

禁止特定 UA 拜访, 例如最近有个网站 A 剽窃公司主站 B 的内容,除了域名不同,内容、图片等都齐全是咱们主站的内容。呈现这种状况,有两种可能:

一种是:它用爬虫抓取公司主站 B 的内容并放到本人服务器上显示;

另一种是:通过将拜访代理至公司主站 B,而域名 A 是盗用者的,骗取流量。

无论怎样,都要禁止这种行为的持续。有两种办法解决:

1)禁止 IP

2)禁止 UA

从 nginx 日志察看,访问者的代理 IP 常常变,然而拜访 UA 却是固定的,因此能够禁止 UA。

nginx 不仅能够解决 ua 来拆散流量,还能够通过更弱小的 openresty 来实现更简单的逻辑,实现一个流量网关,软防火墙。

近期热文举荐:

1.1,000+ 道 Java 面试题及答案整顿(2021 最新版)

2. 别在再满屏的 if/ else 了,试试策略模式,真香!!

3. 卧槽!Java 中的 xx ≠ null 是什么新语法?

4.Spring Boot 2.5 重磅公布,光明模式太炸了!

5.《Java 开发手册(嵩山版)》最新公布,速速下载!

感觉不错,别忘了顺手点赞 + 转发哦!

正文完
 0