背景

手里有一个web项目,代码按照前端代码库、后端代码库分别在GitHub上,分散带来的结果是,不容易持续集成,比如你可能需要很多的job去保证一个项目的正常运作,但是这个项目也不是特别大,所以尝试将代码融合,于此同时将代码docker化,用于持续部署。

技术架构

原来的代码使用gunicorn+gevent+supervisor+flask+DB的架构;具体的细节如下:

本地服务器搭建了一个nginx域名服务器,里面区分PC端还是手机端;
访问域名通过nginx,访问前端静态页面的内容
静态页面中加载指定地址的数据,提供数据的服务由flask后端提供接口;
后端提供的接口,通过访问redis缓存和mongodb数据库,返回相应的数据;

docker-compose

上篇文章说了flask项目是怎么拆分和组合的,但是上次仅仅是使用docker,多个容器之间使用的--link连接起来的,本篇文章将介绍如何使用docker-compose代替原来的多个docker命令;

  • docker compose是什么可以自行搜索,我直接上我的docker-compose.yml

        version: '3'        services:         flask:            image: "flask:latest"            restart: always            depends_on:              - mongoDB            - redisDB            tty: true            stdin_open: false            environment:              SLEEP_SECOND: 10            container_name: flask            logging:              driver: "json-file"              options:                max-size: "200M"                max-file: "10"            command: "gunicorn manage:app -k gevent -w 4 -b 0.0.0.0"            volumes:              - $HOME/logs:/app/logs
            networks:              - inline-network            ports:              - "8000:8000"              matrix:            image: "flask:latest"            restart: always            depends_on:              - mongoDB              - redisDB            tty: true            stdin_open: false            environment:              SLEEP_SECOND: 10            container_name: matrix            command: "flask matrix"            volumes:              - $HOME/logs:/app/logs              - /etc/localtime:/etc/localtime            networks:             - inline-network              broadcast:            image: "flask:latest"            restart: always            depends_on:              - mongoDB              - redisDB            tty: true            stdin_open: false            environment:              SLEEP_SECOND: 10            container_name: broadcast            command: "flask broadcast"            volumes:              - $HOME/logs:/app/logs              - /etc/localtime:/etc/localtime            networks:              - inline-network            redisDB:          image: "redis:latest"          container_name: redis          restart: always          networks:            inline-network:              aliases:                - redis          ports:            - "6379:6379"            mongoDB:          image: "mongo:latest"          restart: always          container_name: mongo          ports:            - "27017:27017"          volumes:            - /var/lib/mongo:/data/db          networks:            inline-network:              aliases:                - mongo        networks:      inline-network:        driver: "bridge"    ```
  • 解释:所有的启动的dontainer都在inline-network网络环境中,所以可以直接使用aliases指定的名字作为数据库连接时候的host,本来是不打算将数据库的端口的,只给flask用,但是后面由于切换的时候是现切换数据库,在切换后段flask的镜像,所以就将数据库端口和宿主机绑定了。
  • 其中flask、matrix、broadcast,都是之前代码中的功能,使用supervisor启动的,现在单独启动三个docker进程去完成。

前端docker

前端的PC端和移动端,都使用npm构建成dist文件,然后通过nginx定向到指定的dist文件内容就可以,所以我们对前端的代码也进行了docker化,使用的是nginx;

  • dockerfile:

    FROM nginx:1.15-alpineCOPY dist/ /usr/share/nginx/htmlCOPY default.conf /etc/nginx/conf.d/default.confENTRYPOINT nginx -g "daemon off;"
  • default.conf

     server {     listen       80;     server_name  localhost;      #charset koi8-r;     #access_log  /var/log/nginx/host.access.log  main;      location / {         root   /usr/share/nginx/html;         index  index.html index.htm;         try_files $uri $uri/ /index.html;     }       #error_page  404              /404.html;      # redirect server error pages to the static page /50x.html     #     error_page   500 502 503 504  /50x.html;     location = /50x.html {         root   /usr/share/nginx/html;     } }
  • PC端和移动端使用的dockerfile和default.conf都是上面的;
  • 在服务其部署的时候,只需要部署域名服务,将PC端和移动端的docker镜像映射到宿主机的8088和8087端口,服务器nginx配置中根据PC请求和移动端的请求,定位到指定的PC/移动端nginx镜像即可。

总结

本次镜像化大概花了一周的时间,包括测试和解决一些坑,很多知识点包括原来的项目都不是太熟悉,所以记录一下,可能回头会发现这些很LOW,但是相信对一些人还是有用的。