docker 下的 redis.cnf
version: "3"services: redis: container_name: rebloom image: redislabs/rebloom:latest ports: - "6379:6379" volumes: - ./volumes:/data # /usr/local/redis/data 是你宿主机的门路;/data 是容器内的门路,容器内的 redis 会把须要长久化的数据都保留到 /data 目录下 - ./redis.conf:/etc/redis/redis.conf # redis.conf 这个文件曾经筹备好了,能够放到这个门路,也能够本人批改,比方放到我的项目门路中 restart: always
# 这个文件的地址,和你的 docker-compose.yaml 中的 /usr/local/redis/redis.conf:/etc/redis/redis.conf 冒号右边的要对应起来# redis 反对两者长久化机制:RDB&AOF# https://juejin.cn/post/6844903716290576392appendonly yes#default: 长久化文件appendfilename "appendonly.aof"#default: 每秒同步一次appendfsync everysecport 6379# 绑定端口,不指定外网可能连不上服务器bind 0.0.0.0
复刻到 k8s 中却跑不通,会报错
解决办法:
apiVersion: v1kind: ConfigMapmetadata: name: crawler-bloom-redis-config namespace: xxxxxdata: redis-config: | maxmemory 100mb appendonly yes appendfilename "appendonly.aof" appendfsync everysec loadmodule "/usr/lib/redis/modules/redisbloom.so"
退出 loadmodule "/usr/lib/redis/modules/redisbloom.so"
即可,至于为什么 docker 下不必加,k8s 中却要加,我就不晓得了。晓得的人能够贴到评论区