首发地址

day04 高性能服务设计思路

我的项目仓库地址

https://github.com/lzs123/CProxy,欢送fork and star!

往期教程

day01-从一个根底的socket服务说起

day02 真正的高并发还得看IO多路复用

day03 C++我的项目开发配置最佳实际(vscode近程开发配置、格式化、代码查看、cmake治理配置)


通过后面3节,咱们曾经具备了开发一个高性能服务的基础知识,并且还能搭建一个比拟好用的C++开发环境。

从这一节开始,将正式开始CProxy的开发。

需要明确

首先,先明确下咱们的我的项目到底是能干嘛?所谓内网穿透,简略讲就是在通过内网穿透工具(CProxy), 能够让局域网的服务(LocalServer)被公网(PublicClient)拜访到。

原理说起来也简略,CProxy自身有一个公网ip,LocalServer注册到CProxy上,PublicClient拜访CProxy的公网ip和端口,之后CProxy再将数据转发到LocalServer,下图是整体拜访的数据流

CProxy具体分为CProxyClient和CProxyServer,CProxyClient部署在与LocalServer同一个局域网内,CProxyServer部署到公网服务器上;
CProxyClient启动时,将须要进行数据转发的LocalServer注册到CProxyServer上,每注册一个LocalServer,CProxyServer就会多监听一个公网ip:port,这样,公网的PublicClient就能通过拜访CProxyServer,最初将数据转发到内网的LocalServer上。

我的项目标准

在扣具体实现细节前,咱们先讲讲我的项目开发时的一些标准

我的项目根本目录构造

根本的目录构造其实在第三节就曾经给进去了

├── client│   ├── xxx.cpp│   ├── ...├── lib│   ├── xxx.cpp│   ├── ...├── server│   ├── xxx.cpp│   ├── ...├── include│   ├── ...

server目录是CProxy服务端目录,client目录是CProxy客户端目录,server和client别离能构建出可执行的程序;lib目录则寄存一些被server和client调用的库函数;include目录则是寄存一些第三方库。

引入第三方库 - spdlog日志库

spdlog是我的项目引入的一个日志库,也是惟一一个第三方库,次要是我的项目波及到多线程,间接用print打日志调试切实是不不便;spdlog提供了比拟丰盛的日志格局,能够把日志工夫戳、所在线程id、代码地位这些信息都打印进去。

引入步骤

  1. 我的项目spdlog代码仓库

    git clone https://github.com/gabime/spdlog.git
  2. 将spdlog/include/spdlog目录间接拷贝到CProxy我的项目的include目录下
  3. 代码应用

    // 因为在CMakeLists中曾经`include_directories(${PROJECT_SOURCE_DIR}/include)`,// 示意在索引头文件时会查找到根目录下的include,// 所以上面的写法最终会找到${PROJECT_SOURCE_DIR}/include/spdlog/spdlog.h#include "spdlog/spdlog.h"// 初始化日志格局// format docs: https://github.com/gabime/spdlog/wiki/3.-Custom-formattingspdlog::set_pattern("[%@ %H:%M:%S:%e %z] [%^%L%$] [thread %t] %v");// 打印日志SPDLOG_INFO("cproxy server listen at: {}:{}", ip, port);

    引入ccache减速编译

    引入spdlog之后,能够发现每次编译都须要一首歌的工夫,这开发调试时频繁编译,净听歌了。为了减速编译速度,我的项目引入了ccache,编译速度快过5G。ccache的原理和装置应用在《day03 C++我的项目开发配置最佳实际》中有具体介绍,这里就不过多废话了。

    命名规定

    原谅我这该死的代码洁癖,我的项目会规定一些命名规定,让代码读起来更优雅。。。,命名规定并没有什么规范,只有一个团队或一个我的项目内对立就行。
    我的项目的命名规定大体是参考google的C++我的项目格调:https://zh-google-styleguide.readthedocs.io/en/latest/google-cpp-styleguide/

  • 文件名:全副小写,单词之间通过下划线连贯,C++文件用.cpp结尾,头文件用.h结尾
  • 类型/构造体:每个单词首字母均大写,如:MyExcitingClass
  • 变量名:全副小写, 单词之间用下划线连贯;类的公有成员变量以下划线结尾
  • 函数名:惯例函数名中每个单词首字母均大写,如:AddTableEntry;对于类的公有办法,首字母小写。

    次要设计思路

    业务概念设计

    CProxyServer

  • Control:在CProxyServer中会保护一个ControlMap,一个Control对应一个CProxyClient,存储CProxyClient的一些元信息和管制信息。
  • Tunnel:每个Control中会保护一个TunnelMap,一个Tunnel对应一个LocalServer服务。

    CProxyClient

  • Tunnel:在CProxyClient端,也会保护一个TunnelMap,每个Tunnel对应一个LocalServer服务

    CProxyServer端的Tunnel与CProxyClient端的Tunnel存储的内容不一样,设计为两个不同的类。

连贯设计

整个内网穿透须要的连贯可分为两类:CProxyClient和CProxyServer之间传输元信息的管制连贯和用于传输数据的数据连贯

  • 管制连贯(ctl_conn)

用于CProxyClient和CProxyServer之间各种事件的告诉,比方CProxyClient向CProxyServer申请注册LocalServer、CProxyServer告诉CProxyClient有新申请拜访等

  • 数据连贯(tran_conn)

用于承载转发理论业务数据;业务数据传输会在LocalServer<->CProxyClient、CProxyClient<->CProxyServer和CProxyServer<->PublicClient三处中央进行。所以数据连贯又细分为local_conn、proxy_conn和public_conn,不便进行不同的解决逻辑。

线程模型设计

咱们次要采纳多Reactor多线程模型配合IO多路复用实现高性能解决。

对Reactor线程模型和IO多路复用不熟的同学能够先回顾下第二节《day02 真正的高并发还得看IO多路复用》,再持续往下学习。
  • thread_pool

thread_pool保护了一个工作线程列表,当reactor线程监听到有新连贯建设时,能够从thread_pool中获取一个可用的工作线程,并由该工作线程解决新连贯的读写事件,将每个连贯的IO操作与reactor线程拆散。

  • event_loop_thread

event_loop_thread是reactor的线程实现,每个线程都有一个事件循环(One loop per thread),事件的监听及事件产生时的回调解决都是在这个线程中实现的。
thread_pool中的每个工作线程都是一个event_loop_thread, 次要负责连贯套接字的read/write事件处理。

反应堆模式设计

这一部分讲的是event_loop_thread实现事件散发和事件回调的设计思路。

  • event_loop

event_loop就是下面提到的event_loop_thread中的事件循环。简略来说,一个event_loop_thread被选中用来解决连贯套接字fd时,fd会注册相干读写事件到该线程的event_loop上;当event_loop上注册的套接字都没有事件触发时,event_loop会阻塞线程,期待I/O事件产生。

  • event_dispatcher

咱们设计一个基类event_dispatcher,每个event_loop对象会绑定一个event_dispatcher对象,具体的事件散发逻辑都是由event_dispatcher提供,event_loop并不关怀。
这是对事件散发的一种形象。咱们能够实现一个基于poll的poll_dispatcher,也能够是一个基于epoll的epoll_dispatcher。切换时event_loop并不需要做批改。

  • channel

对各种注册到event_loop上的套接字fd对象,咱们都封装成channel来示意。比方用于监听新连贯的acceptor自身就是一个channel,用于替换元信息的管制连贯ctl_conn和用于转发数据的tran_conn都有绑定一个channel用于寄存套接字相干信息。

数据读写

  • buffer

试想一下,有2kB的数据须要发送,但套接字发送缓冲区只有1kB。有两种做法:

循环调用write写入

在一个循环中一直进行write调用,等到零碎将发送缓冲区的数据发送到对端后,缓冲区的空间就又能从新写入,这个时候能够把残余的1kB数据写到发送缓冲区中。

这种做法的毛病很显著,咱们并不知道零碎什么时候会把发送缓冲区的数据发送到对端,这与过后的网络环境有关系。在循环过程中,线程无奈解决其余套接字。

基于事件回调

在写入1kB之后,write返回,将残余1kB数据寄存到一个buffer对象中,并且监听套接字fd的可写事件(比方epoll的EPOLLOUT)。而后线程就能够去解决其余套接字了。等到fd的可写事件触发(代表以后fd的发送缓冲区有闲暇空间),再调用write将buffer中的1kB数据写入缓冲区。这样能够明显提高线程的并发解决效率。

buffer屏蔽了套接字读写的细节。将数据写入buffer后,只有在适合的机会(可写事件触发时),通知buffer往套接字写入数据即可,咱们并不需要关怀每次写了多少,还剩多少没写。

buffer设计时次要思考尽量减少读写老本、防止频繁的内存扩缩容以及尽量减少扩缩容时的老本耗费。

总结

咱们先是明确了我的项目的具体性能需要,而后提了开发过程中的一些标准,以便放弃我的项目代码整洁。最初再是带着大家讲了下CProxy整个我的项目的设计思路。

从下一节开始,就开始配合代码深刻理解这些设计的具体实现。有能力的读者也能够先间接去看我的项目,读完这节后再看整个我的项目应该会清晰很多。

github地址:https://github.com/lzs123/CProxy,欢送fork and star!

如果本文对你有用,点个赞再走吧!或者关注我,我会带来更多优质的内容。