共计 2657 个字符,预计需要花费 7 分钟才能阅读完成。
背景
手里有一个 web 项目,代码按照前端代码库、后端代码库分别在 GitHub 上,分散带来的结果是,不容易持续集成,比如你可能需要很多的 job 去保证一个项目的正常运作,但是这个项目也不是特别大,所以尝试将代码融合,于此同时将代码 docker 化,用于持续部署。
技术架构
原来的代码使用 gunicorn+gevent+supervisor+flask+DB 的架构;具体的细节如下:
本地服务器搭建了一个 nginx 域名服务器,里面区分 PC 端还是手机端;
访问域名通过 nginx,访问前端静态页面的内容
静态页面中加载指定地址的数据,提供数据的服务由 flask 后端提供接口;
后端提供的接口,通过访问 redis 缓存和 mongodb 数据库,返回相应的数据;
docker-compose
上篇文章说了 flask 项目是怎么拆分和组合的,但是上次仅仅是使用 docker,多个容器之间使用的 –link 连接起来的,本篇文章将介绍如何使用 docker-compose 代替原来的多个 docker 命令;
-
docker compose 是什么可以自行搜索,我直接上我的 docker-compose.yml
version: '3' services: flask: image: "flask:latest" restart: always depends_on: - mongoDB - redisDB tty: true stdin_open: false environment: SLEEP_SECOND: 10 container_name: flask logging: driver: "json-file" options: max-size: "200M" max-file: "10" command: "gunicorn manage:app -k gevent -w 4 -b 0.0.0.0" volumes: - $HOME/logs:/app/logs
networks:
- inline-network
ports:
- "8000:8000"
matrix:
image: "flask:latest"
restart: always
depends_on:
- mongoDB
- redisDB
tty: true
stdin_open: false
environment:
SLEEP_SECOND: 10
container_name: matrix
command: "flask matrix"
volumes:
- $HOME/logs:/app/logs
- /etc/localtime:/etc/localtime
networks:
- inline-network
broadcast:
image: "flask:latest"
restart: always
depends_on:
- mongoDB
- redisDB
tty: true
stdin_open: false
environment:
SLEEP_SECOND: 10
container_name: broadcast
command: "flask broadcast"
volumes:
- $HOME/logs:/app/logs
- /etc/localtime:/etc/localtime
networks:
- inline-network
redisDB:
image: "redis:latest"
container_name: redis
restart: always
networks:
inline-network:
aliases:
- redis
ports:
- "6379:6379"
mongoDB:
image: "mongo:latest"
restart: always
container_name: mongo
ports:
- "27017:27017"
volumes:
- /var/lib/mongo:/data/db
networks:
inline-network:
aliases:
- mongo
networks:
inline-network:
driver: "bridge"
```
- 解释:所有的启动的 dontainer 都在 inline-network 网络环境中,所以可以直接使用 aliases 指定的名字作为数据库连接时候的 host,本来是不打算将数据库的端口的,只给 flask 用,但是后面由于切换的时候是现切换数据库,在切换后段 flask 的镜像,所以就将数据库端口和宿主机绑定了。
- 其中 flask、matrix、broadcast,都是之前代码中的功能,使用 supervisor 启动的,现在单独启动三个 docker 进程去完成。
前端 docker
前端的 PC 端和移动端,都使用 npm 构建成 dist 文件,然后通过 nginx 定向到指定的 dist 文件内容就可以,所以我们对前端的代码也进行了 docker 化,使用的是 nginx;
-
dockerfile:
FROM nginx:1.15-alpine COPY dist/ /usr/share/nginx/html COPY default.conf /etc/nginx/conf.d/default.conf ENTRYPOINT nginx -g "daemon off;"
-
default.conf
server { listen 80; server_name localhost; #charset koi8-r; #access_log /var/log/nginx/host.access.log main; location / { root /usr/share/nginx/html; index index.html index.htm; try_files $uri $uri/ /index.html; } #error_page 404 /404.html; # redirect server error pages to the static page /50x.html # error_page 500 502 503 504 /50x.html; location = /50x.html {root /usr/share/nginx/html;} }
- PC 端和移动端使用的 dockerfile 和 default.conf 都是上面的;
- 在服务其部署的时候,只需要部署域名服务,将 PC 端和移动端的 docker 镜像映射到宿主机的 8088 和 8087 端口,服务器 nginx 配置中根据 PC 请求和移动端的请求,定位到指定的 PC/ 移动端 nginx 镜像即可。
总结
本次镜像化大概花了一周的时间,包括测试和解决一些坑,很多知识点包括原来的项目都不是太熟悉,所以记录一下,可能回头会发现这些很 LOW,但是相信对一些人还是有用的。
正文完