背景:
当初有那么的一个需要:一些小伙伴想本地运行一套springcloud的利用。线上的都docker化部署在kubernetes集群中了。利用呢应用了statefulset的形式部署(他想考主机名hostname去在nacos中注册)。而后本地idea开发呢。主机名都是一个。故他感觉跑不了多个利用(有8个利用吧),最初的后果就是每个人电脑下面都启动了不同的利用去搞.......是不是很反人类?windows本机能跑kubernetes然而我也感觉麻烦啊......怎么搞从新捡起来一下docker compose的应用吧,犹记得上次应用docker compose还是2016年测试跑一个gitlab。从此以后根本就跟docker compose无缘了
docker compose的应用
windows装置docker dockercompose就略过了......我的windows pc没有装置wsl2。也不想搞了就找了一个linux测试一下docker compose化利用。而后染程序本人去玩了。开始大家招聘信息的下面写的精通docker虚拟化啥的......我只能呵呵了!
初始化环境centos8一台
装置docker docker compose
dnf install dnf-utils device-mapper-persistent-data lvm2yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repoyum install docker-ce -ycurl -L https://download.fastgit.org/docker/compose/releases/download/1.27.4/docker-compose-`uname -s`-`uname -m` > /usr/local/bin/docker-composesudo chmod +x /usr/local/bin/docker-compose
顺手找了一个docker compose版本下载了,也不太关怀版本就想简略跑起来。docker compose的源是从一个博客上看来的。下载官网的下不动,这是个国内的源。
相熟一下docker compose
先copy了一个docker-compose.yaml的文件简略批改了一下
version: '3'services: laya-auth: image: harbor.xxx.com/layatools/openjdk:8-jdk container_name: laya-auth hostname: laya-auth volumes: - /data/laya-verse-service/auth/target/auth-0.0.1-SNAPSHOT.jar:/data/laya-verse-service/auth/target/auth-0.0.1-SNAPSHOT.jar ports: - 8080:8080 command: - /bin/sh - -c - | java -jar /data/laya-verse-service/auth/target/auth-0.0.1-SNAPSHOT.jar
跑了一下起来了......嗯都放上试一下:
version: '3'services: laya-auth: image: harbor.xxxx.com/layatools/openjdk:8-jdk container_name: laya-auth hostname: laya-auth volumes: - /data/laya-verse-service/auth/target/auth-0.0.1-SNAPSHOT.jar:/data/laya-verse-service/auth/target/auth-0.0.1-SNAPSHOT.jar ports: - 8080:8080 command: - /bin/sh - -c - | java -jar /data/laya-verse-service/auth/target/auth-0.0.1-SNAPSHOT.jar laya-chat: image: harbor.xxxx.com/layatools/openjdk:8-jdk container_name: laya-chat hostname: laya-chat volumes: - /data/laya-verse-service/chat/target/chat-0.0.1-SNAPSHOT.jar:/data/laya-verse-service/chat/target/chat-0.0.1-SNAPSHOT.jar ports: - 8081:8081 command: - /bin/sh - -c - | java -jar /data/laya-verse-service/chat/target/chat-0.0.1-SNAPSHOT.jar laya-datacontrol: image: harbor.xxxx.com/layatools/openjdk:8-jdk container_name: laya-datacontrol hostname: laya-datacontrol volumes: - /data/laya-verse-service/datacontrol/target/datacontrol-0.0.1-SNAPSHOT.jar:/data/laya-verse-service/datacontrol/target/datacontrol-0.0.1-SNAPSHOT.jar ports: - 8082:8082 command: - /bin/sh - -c - | java -jar /data/laya-verse-service/datacontrol/target/datacontrol-0.0.1-SNAPSHOT.jar laya-gateway: image: harbor.xxxx.com/layatools/openjdk:8-jdk container_name: laya-gateway hostname: laya-gateway volumes: - /data/laya-verse-service/gateway/target/gateway-0.0.1-SNAPSHOT.jar:/data/laya-verse-service/gateway/target/gateway-0.0.1-SNAPSHOT.jar ports: - 8083:8083 command: - /bin/sh - -c - | java -jar /data/laya-verse-service/gateway/target/gateway-0.0.1-SNAPSHOT.jar laya-monitor: image: harbor.xxxx.com/layatools/openjdk:8-jdk container_name: laya-monitor hostname: laya-monitor volumes: - /data/laya-verse-service/monitor/target/monitor-0.0.1-SNAPSHOT.jar:/data/laya-verse-service/monitor/target/monitor-0.0.1-SNAPSHOT.jar ports: - 8084:8084 command: - /bin/sh - -c - | java -jar /data/laya-verse-service/monitor/target/monitor-0.0.1-SNAPSHOT.jar laya-node: image: harbor.xxxx.com/layatools/openjdk:8-jdk container_name: laya-node hostname: laya-node volumes: - /data/laya-verse-service/node/target/node-0.0.1-SNAPSHOT.jar:/data/laya-verse-service/node/target/node-0.0.1-SNAPSHOT.jar ports: - 8085:8085 command: - /bin/sh - -c - | java -jar /data/laya-verse-service/node/target/node-0.0.1-SNAPSHOT.jar laya-nodemanage: image: harbor.xxxx.com/layatools/openjdk:8-jdk container_name: laya-nodemanage hostname: laya-nodemanage volumes: - /data/laya-verse-service/nodemanage/target/nodemanage-0.0.1-SNAPSHOT.jar:/data/laya-verse-service/nodemanage/target/nodemanage-0.0.1-SNAPSHOT.jar ports: - 8086:8086 command: - /bin/sh - -c - | java -jar /data/laya-verse-service/nodemanage/target/nodemanage-0.0.1-SNAPSHOT.jar laya-social: image: harbor.xxxx.com/layatools/openjdk:8-jdk container_name: laya-social hostname: laya-social volumes: - /data/laya-verse-service/social/target/social-0.0.1-SNAPSHOT.jar:/data/laya-verse-service/social/target/social-0.0.1-SNAPSHOT.jar ports: - 8087:8087 command: - /bin/sh - -c - | java -jar /data/laya-verse-service/social/target/social-0.0.1-SNAPSHOT.jar
docker ps
随机进一个pod看一下hostname:
docker exec -it 99c950ebb787 sh / # hostname laya-nodemanage/ #
挺好算是实现了集体的需要
Docker compose罕用的命令:
ps:列出所有运行容器
docker-compose ps
logs:查看服务日志输入
docker-compose logs
利用太多了 看日志太麻烦了 help一下
docker-compose logs -f laya-auth
port:打印绑定的公共端口,上面命令能够输入laya-auth服务 8080 端口所绑定的公共端口
docker-compose port laya-auth 8080
build:构建或者从新构建服务
docker-compose build
stop:进行已运行的服务的容器
docker-compose stop laya-node
start:启动指定服务已存在的容器
docker-compose start laya-node
rm:删除指定服务的容器
docker-compose stop laya-gatewaydocker-compose rm laya-gateway
注: 先stop能力rm删除哦
up:构建、启动容器
docker-compose updocker-compose up laya-gateway
注: 单个服务能够跟单个服务名
kill:通过发送 SIGKILL 信号来进行指定服务的容器
docker-compose kill laya-gateway
- pull:下载服务镜像
scale:设置指定服务运气容器的个数,以 service=num 模式指定
docker-compose scale xxx=2
注:我这里就不演示了 我指定了container name scale多个会报错的啊哈哈哈
run:在一个服务上执行一个命令
docker-compose run laya-auth sh
具体参数
摘自:https://www.jianshu.com/p/90bf0e231e5a
Compose和Docker兼容性: Compose 文件格式有3个版本,别离为1, 2.x 和 3.x 目前支流的为 3.x 其反对 docker 1.13.0 及其以上的版本罕用参数: version # 指定 compose 文件的版本 services # 定义所有的 service 信息, services 上面的第一级别的 key 既是一个 service 的名称 build # 指定蕴含构建上下文的门路, 或作为一个对象,该对象具备 context 和指定的 dockerfile 文件以及 args 参数值 context # context: 指定 Dockerfile 文件所在的门路 dockerfile # dockerfile: 指定 context 指定的目录上面的 Dockerfile 的名称(默认为 Dockerfile) args # args: Dockerfile 在 build 过程中须要的参数 (等同于 docker container build --build-arg 的作用) cache_from # v3.2中新增的参数, 指定缓存的镜像列表 (等同于 docker container build --cache_from 的作用) labels # v3.3中新增的参数, 设置镜像的元数据 (等同于 docker container build --labels 的作用) shm_size # v3.5中新增的参数, 设置容器 /dev/shm 分区的大小 (等同于 docker container build --shm-size 的作用) command # 笼罩容器启动后默认执行的命令, 反对 shell 格局和 [] 格局 configs # 不晓得怎么用 cgroup_parent # 不晓得怎么用 container_name # 指定容器的名称 (等同于 docker run --name 的作用) hostname #特意找来的指定pod的hostname credential_spec # 不晓得怎么用 deploy # v3 版本以上, 指定与部署和运行服务相干的配置, deploy 局部是 docker stack 应用的, docker stack 依赖 docker swarm endpoint_mode # v3.3 版本中新增的性能, 指定服务裸露的形式 vip # Docker 为该服务调配了一个虚构 IP(VIP), 作为客户端的拜访服务的地址 dnsrr # DNS轮询, Docker 为该服务设置 DNS 条目, 使得服务名称的 DNS 查问返回一个 IP 地址列表, 客户端间接拜访其中的一个地址 labels # 指定服务的标签,这些标签仅在服务上设置 mode # 指定 deploy 的模式 global # 每个集群节点都只有一个容器 replicated # 用户能够指定集群中容器的数量(默认) placement # 不晓得怎么用 replicas # deploy 的 mode 为 replicated 时, 指定容器正本的数量 resources # 资源限度 limits # 设置容器的资源限度 cpus: "0.5" # 设置该容器最多只能应用 50% 的 CPU memory: 50M # 设置该容器最多只能应用 50M 的内存空间 reservations # 设置为容器预留的系统资源(随时可用) cpus: "0.2" # 为该容器保留 20% 的 CPU memory: 20M # 为该容器保留 20M 的内存空间 restart_policy # 定义容器重启策略, 用于代替 restart 参数 condition # 定义容器重启策略(承受三个参数) none # 不尝试重启 on-failure # 只有当容器外部应用程序呈现问题才会重启 any # 无论如何都会尝试重启(默认) delay # 尝试重启的间隔时间(默认为 0s) max_attempts # 尝试重启次数(默认始终尝试重启) window # 查看重启是否胜利之前的等待时间(即如果容器启动了, 隔多少秒之后去检测容器是否失常, 默认 0s) update_config # 用于配置滚动更新配置 parallelism # 一次性更新的容器数量 delay # 更新一组容器之间的间隔时间 failure_action # 定义更新失败的策略 continue # 持续更新 rollback # 回滚更新 pause # 暂停更新(默认) monitor # 每次更新后的持续时间以监督更新是否失败(单位: ns|us|ms|s|m|h) (默认为0) max_failure_ratio # 回滚期间容忍的失败率(默认值为0) order # v3.4 版本中新增的参数, 回滚期间的操作程序 stop-first #旧工作在启动新工作之前进行(默认) start-first #首先启动新工作, 并且正在运行的工作临时重叠 rollback_config # v3.7 版本中新增的参数, 用于定义在 update_config 更新失败的回滚策略 parallelism # 一次回滚的容器数, 如果设置为0, 则所有容器同时回滚 delay # 每个组回滚之间的工夫距离(默认为0) failure_action # 定义回滚失败的策略 continue # 持续回滚 pause # 暂停回滚 monitor # 每次回滚工作后的持续时间以监督失败(单位: ns|us|ms|s|m|h) (默认为0) max_failure_ratio # 回滚期间容忍的失败率(默认值0) order # 回滚期间的操作程序 stop-first # 旧工作在启动新工作之前进行(默认) start-first # 首先启动新工作, 并且正在运行的工作临时重叠 留神: 反对 docker-compose up 和 docker-compose run 但不反对 docker stack deploy 的子选项 security_opt container_name devices tmpfs stop_signal links cgroup_parent network_mode external_links restart build userns_mode sysctls devices # 指定设施映射列表 (等同于 docker run --device 的作用) depends_on # 定义容器启动程序 (此选项解决了容器之间的依赖关系, 此选项在 v3 版本中 应用 swarm 部署时将疏忽该选项) 示例: docker-compose up 以依赖程序启动服务,上面例子中 redis 和 db 服务在 web 启动前启动 默认状况下应用 docker-compose up web 这样的形式启动 web 服务时,也会启动 redis 和 db 两个服务,因为在配置文件中定义了依赖关系 version: '3' services: web: build: . depends_on: - db - redis redis: image: redis db: image: postgres dns # 设置 DNS 地址(等同于 docker run --dns 的作用) dns_search # 设置 DNS 搜寻域(等同于 docker run --dns-search 的作用) tmpfs # v2 版本以上, 挂载目录到容器中, 作为容器的临时文件零碎(等同于 docker run --tmpfs 的作用, 在应用 swarm 部署时将疏忽该选项) entrypoint # 笼罩容器的默认 entrypoint 指令 (等同于 docker run --entrypoint 的作用) env_file # 从指定文件中读取变量设置为容器中的环境变量, 能够是单个值或者一个文件列表, 如果多个文件中的变量重名则前面的变量笼罩后面的变量, environment 的值笼罩 env_file 的值 文件格式: RACK_ENV=development environment # 设置环境变量, environment 的值能够笼罩 env_file 的值 (等同于 docker run --env 的作用) expose # 裸露端口, 然而不能和宿主机建设映射关系, 相似于 Dockerfile 的 EXPOSE 指令 external_links # 连贯不在 docker-compose.yml 中定义的容器或者不在 compose 治理的容器(docker run 启动的容器, 在 v3 版本中应用 swarm 部署时将疏忽该选项) extra_hosts # 增加 host 记录到容器中的 /etc/hosts 中 (等同于 docker run --add-host 的作用) healthcheck # v2.1 以上版本, 定义容器衰弱状态查看, 相似于 Dockerfile 的 HEALTHCHECK 指令 test # 查看容器查看状态的命令, 该选项必须是一个字符串或者列表, 第一项必须是 NONE, CMD 或 CMD-SHELL, 如果其是一个字符串则相当于 CMD-SHELL 加该字符串 NONE # 禁用容器的衰弱状态检测 CMD # test: ["CMD", "curl", "-f", "http://localhost"] CMD-SHELL # test: ["CMD-SHELL", "curl -f http://localhost || exit 1"] 或者 test: curl -f https://localhost || exit 1 interval: 1m30s # 每次查看之间的间隔时间 timeout: 10s # 运行命令的超时工夫 retries: 3 # 重试次数 start_period: 40s # v3.4 以上新增的选项, 定义容器启动工夫距离 disable: true # true 或 false, 示意是否禁用衰弱状态检测和 test: NONE 雷同 image # 指定 docker 镜像, 能够是近程仓库镜像、本地镜像 init # v3.7 中新增的参数, true 或 false 示意是否在容器中运行一个 init, 它接管信号并传递给过程 isolation # 隔离容器技术, 在 Linux 中仅反对 default 值 labels # 应用 Docker 标签将元数据增加到容器, 与 Dockerfile 中的 LABELS 相似 links # 链接到其它服务中的容器, 该选项是 docker 历史遗留的选项, 目前已被用户自定义网络名称空间取代, 最终有可能被废除 (在应用 swarm 部署时将疏忽该选项) logging # 设置容器日志服务 driver # 指定日志记录驱动程序, 默认 json-file (等同于 docker run --log-driver 的作用) options # 指定日志的相干参数 (等同于 docker run --log-opt 的作用) max-size # 设置单个日志文件的大小, 当达到这个值后会进行日志滚动操作 max-file # 日志文件保留的数量 network_mode # 指定网络模式 (等同于 docker run --net 的作用, 在应用 swarm 部署时将疏忽该选项) networks # 将容器退出指定网络 (等同于 docker network connect 的作用), networks 能够位于 compose 文件顶级键和 services 键的二级键 aliases # 同一网络上的容器能够应用服务名称或别名连贯到其中一个服务的容器 ipv4_address # IP V4 格局 ipv6_address # IP V6 格局 示例: version: '3.7' services: test: image: nginx:1.14-alpine container_name: mynginx command: ifconfig networks: app_net: # 调用上面 networks 定义的 app_net 网络 ipv4_address: 172.16.238.10 networks: app_net: driver: bridge ipam: driver: default config: - subnet: 172.16.238.0/24 pid: 'host' # 共享宿主机的 过程空间(PID) ports # 建设宿主机和容器之间的端口映射关系, ports 反对两种语法格局 SHORT 语法格局示例: - "3000" # 裸露容器的 3000 端口, 宿主机的端口由 docker 随机映射一个没有被占用的端口 - "3000-3005" # 裸露容器的 3000 到 3005 端口, 宿主机的端口由 docker 随机映射没有被占用的端口 - "8000:8000" # 容器的 8000 端口和宿主机的 8000 端口建设映射关系 - "9090-9091:8080-8081" - "127.0.0.1:8001:8001" # 指定映射宿主机的指定地址的 - "127.0.0.1:5000-5010:5000-5010" - "6060:6060/udp" # 指定协定 LONG 语法格局示例:(v3.2 新增的语法格局) ports: - target: 80 # 容器端口 published: 8080 # 宿主机端口 protocol: tcp # 协定类型 mode: host # host 在每个节点上公布主机端口, ingress 对于群模式端口进行负载平衡 secrets # 不晓得怎么用 security_opt # 为每个容器笼罩默认的标签 (在应用 swarm 部署时将疏忽该选项) stop_grace_period # 指定在发送了 SIGTERM 信号之后, 容器期待多少秒之后退出(默认 10s) stop_signal # 指定进行容器发送的信号 (默认为 SIGTERM 相当于 kill PID; SIGKILL 相当于 kill -9 PID; 在应用 swarm 部署时将疏忽该选项) sysctls # 设置容器中的内核参数 (在应用 swarm 部署时将疏忽该选项) ulimits # 设置容器的 limit userns_mode # 如果Docker守护程序配置了用户名称空间, 则禁用此服务的用户名称空间 (在应用 swarm 部署时将疏忽该选项) volumes # 定义容器和宿主机的卷映射关系, 其和 networks 一样能够位于 services 键的二级键和 compose 顶级键, 如果须要跨服务间应用则在顶级键定义, 在 services 中援用 SHORT 语法格局示例: volumes: - /var/lib/mysql # 映射容器内的 /var/lib/mysql 到宿主机的一个随机目录中 - /opt/data:/var/lib/mysql # 映射容器内的 /var/lib/mysql 到宿主机的 /opt/data - ./cache:/tmp/cache # 映射容器内的 /var/lib/mysql 到宿主机 compose 文件所在的地位 - ~/configs:/etc/configs/:ro # 映射容器宿主机的目录到容器中去, 权限只读 - datavolume:/var/lib/mysql # datavolume 为 volumes 顶级键定义的目录, 在此处间接调用 LONG 语法格局示例:(v3.2 新增的语法格局) version: "3.2" services: web: image: nginx:alpine ports: - "80:80" volumes: - type: volume # mount 的类型, 必须是 bind、volume 或 tmpfs source: mydata # 宿主机目录 target: /data # 容器目录 volume: # 配置额定的选项, 其 key 必须和 type 的值雷同 nocopy: true # volume 额定的选项, 在创立卷时禁用从容器复制数据 - type: bind # volume 模式只指定容器门路即可, 宿主机门路随机生成; bind 须要指定容器和数据机的映射门路 source: ./static target: /opt/app/static read_only: true # 设置文件系统为只读文件系统 volumes: mydata: # 定义在 volume, 可在所有服务中调用 restart # 定义容器重启策略(在应用 swarm 部署时将疏忽该选项, 在 swarm 应用 restart_policy 代替 restart) no # 禁止主动重启容器(默认) always # 无论如何容器都会重启 on-failure # 当呈现 on-failure 报错时, 容器重新启动 其余选项: domainname, hostname, ipc, mac_address, privileged, read_only, shm_size, stdin_open, tty, user, working_dir 下面这些选项都只承受单个值和 docker run 的对应参数相似 对于值为工夫的可承受的值: 2.5s 10s 1m30s 2h32m 5h34m56s 工夫单位: us, ms, s, m, h 对于值为大小的可承受的值: 2b 1024kb 2048k 300m 1gb 单位: b, k, m, g 或者 kb, mb, gb networks # 定义 networks 信息 driver # 指定网络模式, 大多数状况下, 它 bridge 于单个主机和 overlay Swarm 上 bridge # Docker 默认应用 bridge 连贯单个主机上的网络 overlay # overlay 驱动程序创立一个跨多个节点命名的网络 host # 共享主机网络名称空间(等同于 docker run --net=host) none # 等同于 docker run --net=none driver_opts # v3.2以上版本, 传递给驱动程序的参数, 这些参数取决于驱动程序 attachable # driver 为 overlay 时应用, 如果设置为 true 则除了服务之外,独立容器也能够附加到该网络; 如果独立容器连贯到该网络,则它能够与其余 Docker 守护过程连贯到的该网络的服务和独立容器进行通信 ipam # 自定义 IPAM 配置. 这是一个具备多个属性的对象, 每个属性都是可选的 driver # IPAM 驱动程序, bridge 或者 default config # 配置项 subnet # CIDR格局的子网,示意该网络的网段 external # 内部网络, 如果设置为 true 则 docker-compose up 不会尝试创立它, 如果它不存在则引发谬误 name # v3.5 以上版本, 为此网络设置名称文件格式示例: version: "3" services: redis: image: redis:alpine ports: - "6379" networks: - frontend deploy: replicas: 2 update_config: parallelism: 2 delay: 10s restart_policy: condition: on-failure db: image: postgres:9.4 volumes: - db-data:/var/lib/postgresql/data networks: - backend deploy: placement: constraints: [node.role == manager]
也没有用到什么简单的network link 集体的利用中就用了下hostname.
万能的help:
docker-compose --help
其余能够参考的:
https://www.jianshu.com/p/658911a8cff3
https://www.runoob.com/docker/docker-compose.html
https://www.cnblogs.com/minseo/p/11548177.html