共计 12662 个字符,预计需要花费 32 分钟才能阅读完成。
背景:
当初有那么的一个需要:一些小伙伴想本地运行一套 springcloud 的利用。线上的都 docker 化部署在 kubernetes 集群中了。利用呢应用了 statefulset 的形式部署(他想考主机名 hostname 去在 nacos 中注册)。而后本地 idea 开发呢。主机名都是一个。故他感觉跑不了多个利用 (有 8 个利用吧),最初的后果就是每个人电脑下面都启动了不同的利用去搞 ……. 是不是很反人类?windows 本机能跑 kubernetes 然而我也感觉麻烦啊 …… 怎么搞从新捡起来一下 docker compose 的应用吧,犹记得上次应用 docker compose 还是 2016 年测试跑一个 gitlab。从此以后根本就跟 docker compose 无缘了
docker compose 的应用
windows 装置 docker dockercompose 就略过了 …… 我的 windows pc 没有装置 wsl2。也不想搞了就找了一个 linux 测试一下 docker compose 化利用。而后染程序本人去玩了。开始大家招聘信息的下面写的精通 docker 虚拟化啥的 …… 我只能呵呵了!
初始化环境 centos8 一台
装置 docker docker compose
dnf install dnf-utils device-mapper-persistent-data lvm2
yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
yum install docker-ce -y
curl -L https://download.fastgit.org/docker/compose/releases/download/1.27.4/docker-compose-`uname -s`-`uname -m` > /usr/local/bin/docker-compose
sudo chmod +x /usr/local/bin/docker-compose
顺手找了一个 docker compose 版本下载了,也不太关怀版本就想简略跑起来。docker compose 的源是从一个博客上看来的。下载官网的下不动,这是个国内的源。
相熟一下 docker compose
先 copy 了一个 docker-compose.yaml 的文件简略批改了一下
version: '3'
services:
laya-auth:
image: harbor.xxx.com/layatools/openjdk:8-jdk
container_name: laya-auth
hostname: laya-auth
volumes:
- /data/laya-verse-service/auth/target/auth-0.0.1-SNAPSHOT.jar:/data/laya-verse-service/auth/target/auth-0.0.1-SNAPSHOT.jar
ports:
- 8080:8080
command:
- /bin/sh
- -c
- |
java -jar /data/laya-verse-service/auth/target/auth-0.0.1-SNAPSHOT.jar
跑了一下起来了 …… 嗯都放上试一下:
version: '3'
services:
laya-auth:
image: harbor.xxxx.com/layatools/openjdk:8-jdk
container_name: laya-auth
hostname: laya-auth
volumes:
- /data/laya-verse-service/auth/target/auth-0.0.1-SNAPSHOT.jar:/data/laya-verse-service/auth/target/auth-0.0.1-SNAPSHOT.jar
ports:
- 8080:8080
command:
- /bin/sh
- -c
- |
java -jar /data/laya-verse-service/auth/target/auth-0.0.1-SNAPSHOT.jar
laya-chat:
image: harbor.xxxx.com/layatools/openjdk:8-jdk
container_name: laya-chat
hostname: laya-chat
volumes:
- /data/laya-verse-service/chat/target/chat-0.0.1-SNAPSHOT.jar:/data/laya-verse-service/chat/target/chat-0.0.1-SNAPSHOT.jar
ports:
- 8081:8081
command:
- /bin/sh
- -c
- |
java -jar /data/laya-verse-service/chat/target/chat-0.0.1-SNAPSHOT.jar
laya-datacontrol:
image: harbor.xxxx.com/layatools/openjdk:8-jdk
container_name: laya-datacontrol
hostname: laya-datacontrol
volumes:
- /data/laya-verse-service/datacontrol/target/datacontrol-0.0.1-SNAPSHOT.jar:/data/laya-verse-service/datacontrol/target/datacontrol-0.0.1-SNAPSHOT.jar
ports:
- 8082:8082
command:
- /bin/sh
- -c
- |
java -jar /data/laya-verse-service/datacontrol/target/datacontrol-0.0.1-SNAPSHOT.jar
laya-gateway:
image: harbor.xxxx.com/layatools/openjdk:8-jdk
container_name: laya-gateway
hostname: laya-gateway
volumes:
- /data/laya-verse-service/gateway/target/gateway-0.0.1-SNAPSHOT.jar:/data/laya-verse-service/gateway/target/gateway-0.0.1-SNAPSHOT.jar
ports:
- 8083:8083
command:
- /bin/sh
- -c
- |
java -jar /data/laya-verse-service/gateway/target/gateway-0.0.1-SNAPSHOT.jar
laya-monitor:
image: harbor.xxxx.com/layatools/openjdk:8-jdk
container_name: laya-monitor
hostname: laya-monitor
volumes:
- /data/laya-verse-service/monitor/target/monitor-0.0.1-SNAPSHOT.jar:/data/laya-verse-service/monitor/target/monitor-0.0.1-SNAPSHOT.jar
ports:
- 8084:8084
command:
- /bin/sh
- -c
- |
java -jar /data/laya-verse-service/monitor/target/monitor-0.0.1-SNAPSHOT.jar
laya-node:
image: harbor.xxxx.com/layatools/openjdk:8-jdk
container_name: laya-node
hostname: laya-node
volumes:
- /data/laya-verse-service/node/target/node-0.0.1-SNAPSHOT.jar:/data/laya-verse-service/node/target/node-0.0.1-SNAPSHOT.jar
ports:
- 8085:8085
command:
- /bin/sh
- -c
- |
java -jar /data/laya-verse-service/node/target/node-0.0.1-SNAPSHOT.jar
laya-nodemanage:
image: harbor.xxxx.com/layatools/openjdk:8-jdk
container_name: laya-nodemanage
hostname: laya-nodemanage
volumes:
- /data/laya-verse-service/nodemanage/target/nodemanage-0.0.1-SNAPSHOT.jar:/data/laya-verse-service/nodemanage/target/nodemanage-0.0.1-SNAPSHOT.jar
ports:
- 8086:8086
command:
- /bin/sh
- -c
- |
java -jar /data/laya-verse-service/nodemanage/target/nodemanage-0.0.1-SNAPSHOT.jar
laya-social:
image: harbor.xxxx.com/layatools/openjdk:8-jdk
container_name: laya-social
hostname: laya-social
volumes:
- /data/laya-verse-service/social/target/social-0.0.1-SNAPSHOT.jar:/data/laya-verse-service/social/target/social-0.0.1-SNAPSHOT.jar
ports:
- 8087:8087
command:
- /bin/sh
- -c
- |
java -jar /data/laya-verse-service/social/target/social-0.0.1-SNAPSHOT.jar
docker ps
随机进一个 pod 看一下 hostname:
docker exec -it 99c950ebb787 sh
/ # hostname
laya-nodemanage
/ #
挺好算是实现了集体的需要
Docker compose 罕用的命令:
-
ps:列出所有运行容器
docker-compose ps
-
logs:查看服务日志输入
docker-compose logs
利用太多了 看日志太麻烦了 help 一下
docker-compose logs -f laya-auth
-
port:打印绑定的公共端口,上面命令能够输入 laya-auth 服务 8080 端口所绑定的公共端口
docker-compose port laya-auth 8080
-
build:构建或者从新构建服务
docker-compose build
-
stop:进行已运行的服务的容器
docker-compose stop laya-node
-
start:启动指定服务已存在的容器
docker-compose start laya-node
-
rm:删除指定服务的容器
docker-compose stop laya-gateway docker-compose rm laya-gateway
注:先 stop 能力 rm 删除哦
-
up:构建、启动容器
docker-compose up docker-compose up laya-gateway
注:单个服务能够跟单个服务名
-
kill:通过发送 SIGKILL 信号来进行指定服务的容器
docker-compose kill laya-gateway
- pull:下载服务镜像
-
scale:设置指定服务运气容器的个数,以 service=num 模式指定
docker-compose scale xxx=2
注:我这里就不演示了 我指定了 container name scale 多个会报错的啊哈哈哈
-
run:在一个服务上执行一个命令
docker-compose run laya-auth sh
具体参数
摘自:https://www.jianshu.com/p/90bf0e231e5a
Compose 和 Docker 兼容性:Compose 文件格式有 3 个版本, 别离为 1, 2.x 和 3.x
目前支流的为 3.x 其反对 docker 1.13.0 及其以上的版本
罕用参数:version # 指定 compose 文件的版本
services # 定义所有的 service 信息, services 上面的第一级别的 key 既是一个 service 的名称
build # 指定蕴含构建上下文的门路, 或作为一个对象,该对象具备 context 和指定的 dockerfile 文件以及 args 参数值
context # context: 指定 Dockerfile 文件所在的门路
dockerfile # dockerfile: 指定 context 指定的目录上面的 Dockerfile 的名称 (默认为 Dockerfile)
args # args: Dockerfile 在 build 过程中须要的参数 (等同于 docker container build --build-arg 的作用)
cache_from # v3.2 中新增的参数, 指定缓存的镜像列表 (等同于 docker container build --cache_from 的作用)
labels # v3.3 中新增的参数, 设置镜像的元数据 (等同于 docker container build --labels 的作用)
shm_size # v3.5 中新增的参数, 设置容器 /dev/shm 分区的大小 (等同于 docker container build --shm-size 的作用)
command # 笼罩容器启动后默认执行的命令, 反对 shell 格局和 [] 格局
configs # 不晓得怎么用
cgroup_parent # 不晓得怎么用
container_name # 指定容器的名称 (等同于 docker run --name 的作用)
hostname #特意找来的指定 pod 的 hostname
credential_spec # 不晓得怎么用
deploy # v3 版本以上, 指定与部署和运行服务相干的配置, deploy 局部是 docker stack 应用的, docker stack 依赖 docker swarm
endpoint_mode # v3.3 版本中新增的性能, 指定服务裸露的形式
vip # Docker 为该服务调配了一个虚构 IP(VIP), 作为客户端的拜访服务的地址
dnsrr # DNS 轮询, Docker 为该服务设置 DNS 条目, 使得服务名称的 DNS 查问返回一个 IP 地址列表, 客户端间接拜访其中的一个地址
labels # 指定服务的标签,这些标签仅在服务上设置
mode # 指定 deploy 的模式
global # 每个集群节点都只有一个容器
replicated # 用户能够指定集群中容器的数量 (默认)
placement # 不晓得怎么用
replicas # deploy 的 mode 为 replicated 时, 指定容器正本的数量
resources # 资源限度
limits # 设置容器的资源限度
cpus: "0.5" # 设置该容器最多只能应用 50% 的 CPU
memory: 50M # 设置该容器最多只能应用 50M 的内存空间
reservations # 设置为容器预留的系统资源 (随时可用)
cpus: "0.2" # 为该容器保留 20% 的 CPU
memory: 20M # 为该容器保留 20M 的内存空间
restart_policy # 定义容器重启策略, 用于代替 restart 参数
condition # 定义容器重启策略 (承受三个参数)
none # 不尝试重启
on-failure # 只有当容器外部应用程序呈现问题才会重启
any # 无论如何都会尝试重启 (默认)
delay # 尝试重启的间隔时间 (默认为 0s)
max_attempts # 尝试重启次数 (默认始终尝试重启)
window # 查看重启是否胜利之前的等待时间 (即如果容器启动了, 隔多少秒之后去检测容器是否失常, 默认 0s)
update_config # 用于配置滚动更新配置
parallelism # 一次性更新的容器数量
delay # 更新一组容器之间的间隔时间
failure_action # 定义更新失败的策略
continue # 持续更新
rollback # 回滚更新
pause # 暂停更新 (默认)
monitor # 每次更新后的持续时间以监督更新是否失败 (单位: ns|us|ms|s|m|h) (默认为 0)
max_failure_ratio # 回滚期间容忍的失败率 (默认值为 0)
order # v3.4 版本中新增的参数, 回滚期间的操作程序
stop-first #旧工作在启动新工作之前进行 (默认)
start-first #首先启动新工作, 并且正在运行的工作临时重叠
rollback_config # v3.7 版本中新增的参数, 用于定义在 update_config 更新失败的回滚策略
parallelism # 一次回滚的容器数, 如果设置为 0, 则所有容器同时回滚
delay # 每个组回滚之间的工夫距离 (默认为 0)
failure_action # 定义回滚失败的策略
continue # 持续回滚
pause # 暂停回滚
monitor # 每次回滚工作后的持续时间以监督失败 (单位: ns|us|ms|s|m|h) (默认为 0)
max_failure_ratio # 回滚期间容忍的失败率 (默认值 0)
order # 回滚期间的操作程序
stop-first # 旧工作在启动新工作之前进行 (默认)
start-first # 首先启动新工作, 并且正在运行的工作临时重叠
留神:反对 docker-compose up 和 docker-compose run 但不反对 docker stack deploy 的子选项
security_opt container_name devices tmpfs stop_signal links cgroup_parent
network_mode external_links restart build userns_mode sysctls
devices # 指定设施映射列表 (等同于 docker run --device 的作用)
depends_on # 定义容器启动程序 (此选项解决了容器之间的依赖关系,此选项在 v3 版本中 应用 swarm 部署时将疏忽该选项)
示例:docker-compose up 以依赖程序启动服务,上面例子中 redis 和 db 服务在 web 启动前启动
默认状况下应用 docker-compose up web 这样的形式启动 web 服务时,也会启动 redis 和 db 两个服务,因为在配置文件中定义了依赖关系
version: '3'
services:
web:
build: .
depends_on:
- db
- redis
redis:
image: redis
db:
image: postgres
dns # 设置 DNS 地址 (等同于 docker run --dns 的作用)
dns_search # 设置 DNS 搜寻域 (等同于 docker run --dns-search 的作用)
tmpfs # v2 版本以上, 挂载目录到容器中, 作为容器的临时文件零碎 (等同于 docker run --tmpfs 的作用, 在应用 swarm 部署时将疏忽该选项)
entrypoint # 笼罩容器的默认 entrypoint 指令 (等同于 docker run --entrypoint 的作用)
env_file # 从指定文件中读取变量设置为容器中的环境变量, 能够是单个值或者一个文件列表, 如果多个文件中的变量重名则前面的变量笼罩后面的变量, environment 的值笼罩 env_file 的值
文件格式:RACK_ENV=development
environment # 设置环境变量,environment 的值能够笼罩 env_file 的值 (等同于 docker run --env 的作用)
expose # 裸露端口, 然而不能和宿主机建设映射关系, 相似于 Dockerfile 的 EXPOSE 指令
external_links # 连贯不在 docker-compose.yml 中定义的容器或者不在 compose 治理的容器 (docker run 启动的容器, 在 v3 版本中应用 swarm 部署时将疏忽该选项)
extra_hosts # 增加 host 记录到容器中的 /etc/hosts 中 (等同于 docker run --add-host 的作用)
healthcheck # v2.1 以上版本, 定义容器衰弱状态查看, 相似于 Dockerfile 的 HEALTHCHECK 指令
test # 查看容器查看状态的命令, 该选项必须是一个字符串或者列表, 第一项必须是 NONE, CMD 或 CMD-SHELL, 如果其是一个字符串则相当于 CMD-SHELL 加该字符串
NONE # 禁用容器的衰弱状态检测
CMD # test: ["CMD", "curl", "-f", "http://localhost"]
CMD-SHELL # test: ["CMD-SHELL", "curl -f http://localhost || exit 1"] 或者 test: curl -f https://localhost || exit 1
interval: 1m30s # 每次查看之间的间隔时间
timeout: 10s # 运行命令的超时工夫
retries: 3 # 重试次数
start_period: 40s # v3.4 以上新增的选项, 定义容器启动工夫距离
disable: true # true 或 false, 示意是否禁用衰弱状态检测和 test: NONE 雷同
image # 指定 docker 镜像, 能够是近程仓库镜像、本地镜像
init # v3.7 中新增的参数, true 或 false 示意是否在容器中运行一个 init, 它接管信号并传递给过程
isolation # 隔离容器技术, 在 Linux 中仅反对 default 值
labels # 应用 Docker 标签将元数据增加到容器, 与 Dockerfile 中的 LABELS 相似
links # 链接到其它服务中的容器, 该选项是 docker 历史遗留的选项, 目前已被用户自定义网络名称空间取代, 最终有可能被废除 (在应用 swarm 部署时将疏忽该选项)
logging # 设置容器日志服务
driver # 指定日志记录驱动程序, 默认 json-file (等同于 docker run --log-driver 的作用)
options # 指定日志的相干参数 (等同于 docker run --log-opt 的作用)
max-size # 设置单个日志文件的大小, 当达到这个值后会进行日志滚动操作
max-file # 日志文件保留的数量
network_mode # 指定网络模式 (等同于 docker run --net 的作用, 在应用 swarm 部署时将疏忽该选项)
networks # 将容器退出指定网络 (等同于 docker network connect 的作用), networks 能够位于 compose 文件顶级键和 services 键的二级键
aliases # 同一网络上的容器能够应用服务名称或别名连贯到其中一个服务的容器
ipv4_address # IP V4 格局
ipv6_address # IP V6 格局
示例:
version: '3.7'
services:
test:
image: nginx:1.14-alpine
container_name: mynginx
command: ifconfig
networks:
app_net: # 调用上面 networks 定义的 app_net 网络
ipv4_address: 172.16.238.10
networks:
app_net:
driver: bridge
ipam:
driver: default
config:
- subnet: 172.16.238.0/24
pid: 'host' # 共享宿主机的 过程空间 (PID)
ports # 建设宿主机和容器之间的端口映射关系, ports 反对两种语法格局
SHORT 语法格局示例:
- "3000" # 裸露容器的 3000 端口, 宿主机的端口由 docker 随机映射一个没有被占用的端口
- "3000-3005" # 裸露容器的 3000 到 3005 端口, 宿主机的端口由 docker 随机映射没有被占用的端口
- "8000:8000" # 容器的 8000 端口和宿主机的 8000 端口建设映射关系
- "9090-9091:8080-8081"
- "127.0.0.1:8001:8001" # 指定映射宿主机的指定地址的
- "127.0.0.1:5000-5010:5000-5010"
- "6060:6060/udp" # 指定协定
LONG 语法格局示例:(v3.2 新增的语法格局)
ports:
- target: 80 # 容器端口
published: 8080 # 宿主机端口
protocol: tcp # 协定类型
mode: host # host 在每个节点上公布主机端口, ingress 对于群模式端口进行负载平衡
secrets # 不晓得怎么用
security_opt # 为每个容器笼罩默认的标签 (在应用 swarm 部署时将疏忽该选项)
stop_grace_period # 指定在发送了 SIGTERM 信号之后, 容器期待多少秒之后退出 (默认 10s)
stop_signal # 指定进行容器发送的信号 (默认为 SIGTERM 相当于 kill PID; SIGKILL 相当于 kill -9 PID; 在应用 swarm 部署时将疏忽该选项)
sysctls # 设置容器中的内核参数 (在应用 swarm 部署时将疏忽该选项)
ulimits # 设置容器的 limit
userns_mode # 如果 Docker 守护程序配置了用户名称空间, 则禁用此服务的用户名称空间 (在应用 swarm 部署时将疏忽该选项)
volumes # 定义容器和宿主机的卷映射关系, 其和 networks 一样能够位于 services 键的二级键和 compose 顶级键, 如果须要跨服务间应用则在顶级键定义, 在 services 中援用
SHORT 语法格局示例:
volumes:
- /var/lib/mysql # 映射容器内的 /var/lib/mysql 到宿主机的一个随机目录中
- /opt/data:/var/lib/mysql # 映射容器内的 /var/lib/mysql 到宿主机的 /opt/data
- ./cache:/tmp/cache # 映射容器内的 /var/lib/mysql 到宿主机 compose 文件所在的地位
- ~/configs:/etc/configs/:ro # 映射容器宿主机的目录到容器中去, 权限只读
- datavolume:/var/lib/mysql # datavolume 为 volumes 顶级键定义的目录, 在此处间接调用
LONG 语法格局示例:(v3.2 新增的语法格局)
version: "3.2"
services:
web:
image: nginx:alpine
ports:
- "80:80"
volumes:
- type: volume # mount 的类型, 必须是 bind、volume 或 tmpfs
source: mydata # 宿主机目录
target: /data # 容器目录
volume: # 配置额定的选项, 其 key 必须和 type 的值雷同
nocopy: true # volume 额定的选项, 在创立卷时禁用从容器复制数据
- type: bind # volume 模式只指定容器门路即可, 宿主机门路随机生成; bind 须要指定容器和数据机的映射门路
source: ./static
target: /opt/app/static
read_only: true # 设置文件系统为只读文件系统
volumes:
mydata: # 定义在 volume, 可在所有服务中调用
restart # 定义容器重启策略 (在应用 swarm 部署时将疏忽该选项, 在 swarm 应用 restart_policy 代替 restart)
no # 禁止主动重启容器 (默认)
always # 无论如何容器都会重启
on-failure # 当呈现 on-failure 报错时, 容器重新启动
其余选项:domainname, hostname, ipc, mac_address, privileged, read_only, shm_size, stdin_open, tty, user, working_dir
下面这些选项都只承受单个值和 docker run 的对应参数相似
对于值为工夫的可承受的值:2.5s
10s
1m30s
2h32m
5h34m56s
工夫单位: us, ms, s, m,h
对于值为大小的可承受的值:2b
1024kb
2048k
300m
1gb
单位: b, k, m, g 或者 kb, mb, gb
networks # 定义 networks 信息
driver # 指定网络模式, 大多数状况下, 它 bridge 于单个主机和 overlay Swarm 上
bridge # Docker 默认应用 bridge 连贯单个主机上的网络
overlay # overlay 驱动程序创立一个跨多个节点命名的网络
host # 共享主机网络名称空间 (等同于 docker run --net=host)
none # 等同于 docker run --net=none
driver_opts # v3.2 以上版本, 传递给驱动程序的参数, 这些参数取决于驱动程序
attachable # driver 为 overlay 时应用, 如果设置为 true 则除了服务之外,独立容器也能够附加到该网络; 如果独立容器连贯到该网络,则它能够与其余 Docker 守护过程连贯到的该网络的服务和独立容器进行通信
ipam # 自定义 IPAM 配置. 这是一个具备多个属性的对象, 每个属性都是可选的
driver # IPAM 驱动程序, bridge 或者 default
config # 配置项
subnet # CIDR 格局的子网,示意该网络的网段
external # 内部网络, 如果设置为 true 则 docker-compose up 不会尝试创立它, 如果它不存在则引发谬误
name # v3.5 以上版本, 为此网络设置名称
文件格式示例:version: "3"
services:
redis:
image: redis:alpine
ports:
- "6379"
networks:
- frontend
deploy:
replicas: 2
update_config:
parallelism: 2
delay: 10s
restart_policy:
condition: on-failure
db:
image: postgres:9.4
volumes:
- db-data:/var/lib/postgresql/data
networks:
- backend
deploy:
placement:
constraints: [node.role == manager]
也没有用到什么简单的 network link 集体的利用中就用了下 hostname.
万能的 help:
docker-compose --help
其余能够参考的:
https://www.jianshu.com/p/658911a8cff3
https://www.runoob.com/docker/docker-compose.html
https://www.cnblogs.com/minseo/p/11548177.html