关于prometheus:prometheus源码分析discovery自动发现

3次阅读

共计 6588 个字符,预计需要花费 17 分钟才能阅读完成。

discovery 反对文件、http、consul 等主动发现 targets,targets 会被发送到 scrape 模块进行拉取。

一. 整体框架

discovery 组件通过 Manager 对象治理所有的逻辑,当有数据变动时,通过 syncChannel 将数据发送给 scrape 组件。

discovery 组件会为每个 Job_name 创立一个 provider 对象,它蕴含 Discover 对象:

  • Discover 对象会主动发现 target;
  • 当有 targets 变动时:

    • 首先,通过 updateGroup() 更新 Manager 中的 targets 对象;
    • 而后,向 Manager 的 triggerSend channel 发送音讯,通知 Manager 要更新;
    • 最初,Manager 收到 triggerSend channel 中的音讯,将 Manager 中的所有 targets 发送给 syncChannel;

scrape 组件接管 syncChannel 中的数据,而后应用 reload() 进行抓取对象更新:

  • 若有新 job,则创立 scrapePool 并启动它;
  • 若有新 target,则创立 scrapeLoop 并启动它;
  • 若有隐没的 target,则进行其 scrapeLoop;

二.discovery 组件的代码入口

  • 先创立 provider 和 dicover 对象;
  • 再启动 provider;
// discovery/manager.go
func (m *Manager) ApplyConfig(cfg map[string]sd_config.ServiceDiscoveryConfig) error {
    .......
    m.targets = make(map[poolKey]map[string]*targetgroup.Group)
    // 依据配置创立 provider 和 discover 对象
    for name, scfg := range cfg {failedCount += m.registerProviders(scfg, name)
    }
    // 启动 provder
    for _, prov := range m.providers {m.startProvider(m.ctx, prov)
    }
    return nil
}

三.provider 和 discover 对象的初始化

provider 对象的初始化在 Manager.registerProviders():

  • 对主动发现的配置,为其每个配置创立 provider 和 discover 对象;
  • 将 provider 对象退出 m.providers;
// discovery/manager.go
// registerProviders returns a number of failed SD config.
func (m *Manager) registerProviders(cfg sd_config.ServiceDiscoveryConfig, setName string) int {add := func(cfg interface{}, newDiscoverer func() (Discoverer, error)) {t := reflect.TypeOf(cfg).String()
        // 创立 Discover 对象
        d, err := newDiscoverer()
        // 结构 provider 对象
        provider := provider{name:   fmt.Sprintf("%s/%d", t, len(m.providers)),
            d:      d,
            config: cfg,
            subs:   []string{setName},
        }
        // 退出 m.providers
        m.providers = append(m.providers, &provider)
    }
    // 对 file_sd_configs 中的每个配置,创立 provider 和 discover
    for _, c := range cfg.FileSDConfigs {add(c, func() (Discoverer, error) {return file.NewDiscovery(c, log.With(m.logger, "discovery", "file")), nil
        })
    }
    ......
    for _, c := range cfg.KubernetesSDConfigs {add(c, func() (Discoverer, error) {return kubernetes.New(log.With(m.logger, "discovery", "k8s"), c)
       })
    }
    ………
}

discover 对象的创立,以 file_sd.Discover 为例:

// discovery/file/file.go
// 应用 file_sd_config,创立 file Discovery 对象
func NewDiscovery(conf *SDConfig, logger log.Logger) *Discovery {
    disc := &Discovery{
        paths:      conf.Files,
        interval:   time.Duration(conf.RefreshInterval),
        timestamps: make(map[string]float64),
        logger:     logger,
    }
    fileSDTimeStamp.addDiscoverer(disc)
    return disc
}

discover 是 interface,不同的发现形式均实现了该 interface:

// discovery/manager.go
type Discoverer interface {Run(ctx context.Context, up chan<- []*targetgroup.Group)
}

discover 对象当发现有数据变动,会将数据写入 Run() 中的 chan 参数。

四.discover 对象产生数据

每个 provider 对象启动时:

  • 启动 1 个 goroutine: 执行 disover.Run() 去主动发现 targets;
  • 启动 1 个 goroutine: 执行 m.update() 更新数据并告诉 Manager;
// discovery/manager.go
func (m *Manager) startProvider(ctx context.Context, p *provider) {ctx, cancel := context.WithCancel(ctx)
    updates := make(chan []*targetgroup.Group)
    m.discoverCancel = append(m.discoverCancel, cancel)
    // 让 provider 中的 discover 对象,应用 Run() 去主动发现
    // 当有数据变动,将数据写入 updates
    go p.d.Run(ctx, updates)
    // 更新 Manager 中的 targets 并告诉 Manager
    go m.updater(ctx, p, updates)
}

1) goroutine1: p.d.Run()

以 file.Discovery 为例:

  • 它感知 file 内容的变动,应用 d.refresh() 解析 file 内容:

    • 通过 fsnotify 感知 file 变动;
    • 应用 Ticker 定期刷新 (默认 5min);
  • d.refresh() 负责读文件,而后将后果发送到 channel:
// discovery/file/file.go
func (d *Discovery) Run(ctx context.Context, ch chan<- []*targetgroup.Group) {watcher, err := fsnotify.NewWatcher()
    d.watcher = watcher
    d.refresh(ctx, ch)

    ticker := time.NewTicker(d.interval)    // 默认 5min
    defer ticker.Stop()
    for {
        select {case <-ctx.Done():
            return
        case event := <-d.watcher.Events:    // fsnotify 感知到 file 变动
            d.refresh(ctx, ch)
        case <-ticker.C:
            // Setting a new watch after an update might fail. Make sure we don't lose
            // those files forever.
            d.refresh(ctx, ch)
    }
}
// discovery/file/file.go
func (d *Discovery) refresh(ctx context.Context, ch chan<- []*targetgroup.Group) {for _, p := range d.listFiles() {tgroups, err := d.readFile(p)
        select {
        // 发送到 chan
        case ch <- tgroups:
        case <-ctx.Done():
            return
        }
    }
}

2) goroutine2: m.updater()

该 goroutine 负责将接管并解决上一步 chan 中的数据:

  • 首先,将接管的数据更新至 m.targets 中;
  • 而后,向 m.triggerSend 这个 chan 发送音讯;
// discovery/manager.go
func (m *Manager) updater(ctx context.Context, p *provider, updates chan []*targetgroup.Group) {
    for {
        select {case <-ctx.Done():
            return
        case tgs, ok := <-updates:
            // 更新 m.targets 中的数据
            for _, s := range p.subs {m.updateGroup(poolKey{setName: s, provider: p.name}, tgs)
            }
            // 向 m.triggerSend 发送音讯
            select {case m.triggerSend <- struct{}{}:
            default:
            }
        }
    }
}

Manager 对象会接管并解决 m.triggerSend 音讯:

  • 收到 m.triggerSend 后,将 Manager 中的所有 targets 发送到 m.syncChan;
  • scrape 组件会接管并解决 syncChan;
// discovery/manager.go
func (m *Manager) sender() {ticker := time.NewTicker(m.updatert)
    defer ticker.Stop()

    for {
        select {case <-m.ctx.Done():
            return
        case <-ticker.C: // Some discoverers send updates too often so we throttle these with the ticker.
            select {
            // 接管 m.triggerSend 音讯
            case <-m.triggerSend:
                select {
                // 将 Manager 中的 targets 发送到 syncCh
                case m.syncCh <- m.allGroups():
                default:
            }
        }
    }
}

五.scrape 组件接收数据

上一步讲到,discovery.Manager 将以后所有的 targets,发送到 m.syncChan;

scrape 组件会接管并解决 m.syncChan 中的数据:

// cmd/prometheus/main.go
func main() {
    ......
    scrapeManager.Run(discoveryManagerScrape.SyncCh())
    ......
}

scrapeManager.Run() 收到数据后:

  • 读取 chan 中的数据,更新至 scrape.Manager.targets 中;
  • 发送 triggerReload 音讯,由 m.reload() 进行解决;
// scrape/manager.go
func (m *Manager) Run(tsets <-chan map[string][]*targetgroup.Group) error {go m.reloader()        // 解决 reload 音讯
    for {
        select {
        case ts := <-tsets:
            m.updateTsets(ts)    // 更新 Manager 中的 targets 对象

            select {case m.triggerReload <- struct{}{}:    // 发送 reload 音讯
            default:
            }
        }
    }
}

m.reloader() 解决 m.triggerReload 音讯:

  • 接管 m.triggerReload 音讯;
  • 调用 m.reload() 进行解决;
// scrape/manager.go
func (m *Manager) reloader() {ticker := time.NewTicker(5 * time.Second)
    defer ticker.Stop()
    for {
        select {
        case <-ticker.C:
            select {
            case <-m.triggerReload:
                m.reload()
            case <-m.graceShut:
                return
            }
        }
    }
}

m.reload() 解析新的 targetSets:

  • 若有新 job_name,则创立 scrapePool;
  • 对每个 scrapePool 进行 sync();
func (m *Manager) reload() {m.mtxScrape.Lock()
    var wg sync.WaitGroup
    for setName, groups := range m.targetSets {
        // 新 job_name 配置,创立 scrapePool
        if _, ok := m.scrapePools[setName]; !ok {scrapeConfig, ok := m.scrapeConfigs[setName]
            sp, err := newScrapePool(scrapeConfig, m.append, m.jitterSeed, log.With(m.logger, "scrape_pool", setName))
            m.scrapePools[setName] = sp
        }
        wg.Add(1)
        // 并行的同步每个 scrapePool
        // Run the sync in parallel as these take a while and at high load can't catch up.
        go func(sp *scrapePool, groups []*targetgroup.Group) {sp.Sync(groups)
            wg.Done()}(m.scrapePools[setName], groups)
    }
    m.mtxScrape.Unlock()
    wg.Wait()}

scrapePool.sync():

  • 对新的 target,创立 scrapeLoop 并执行;
  • 对隐没的 target,进行其 scrapeLoop 并删除其对象;
// scrape/scrape.go
func (sp *scrapePool) sync(targets []*Target) {
    for _, t := range targets {
        t := t
        hash := t.hash()
        if _, ok := sp.activeTargets[hash]; !ok {s := &targetScraper{Target: t, client: sp.client, timeout: timeout}
            // 新 target,创立 scrapeLoop
            l := sp.newLoop(scrapeLoopOptions{
                target:          t,
                scraper:         s,
                limit:           limit,
                honorLabels:     honorLabels,
                honorTimestamps: honorTimestamps,
                mrc:             mrc,
            })
            sp.activeTargets[hash] = t
            sp.loops[hash] = l
            // 执行 scrapeLoop
            go l.run(interval, timeout, nil)
        }
    }
        
    var wg sync.WaitGroup
    for hash := range sp.activeTargets {
       // 隐没的 target
       if _, ok := uniqueTargets[hash]; !ok {wg.Add(1)
           go func(l loop) {l.stop()                    // 进行 scrapeLoop
              wg.Done()}(sp.loops[hash])
           delete(sp.loops, hash)        // 删除对象
           delete(sp.activeTargets, hash)
        }
    }
    wg.Wait()}
正文完
 0