lodash源码分析之去重uniq方法

59次阅读

共计 2962 个字符,预计需要花费 8 分钟才能阅读完成。

lodash.js 包是 node 开发中常用的 js 工具包,里面有许多实用的方法,今天分析常用的一个去重方法 —uniq

用法

    _.uniq([2, 1, 2])
    // => [2, 1]

源码包

    // uniq.js
    import baseUniq from './.internal/baseUniq.js'
    
    function uniq(array) {return (array != null && array.length) ? baseUniq(array) : []}

    export default uniq

可以看到,uniq 函数这边只做了一个针对 baseUniq 的封装,所以继续看 baseUniq 源码????

    // baseUniq.js
    import SetCache from './SetCache.js'
    import arrayIncludes from './arrayIncludes.js'
    import arrayIncludesWith from './arrayIncludesWith.js'
    import cacheHas from './cacheHas.js'
    import createSet from './createSet.js'
    import setToArray from './setToArray.js'
    
    const LARGE_ARRAY_SIZE = 200 // 作为数组处理的最大数组长度
    function baseUniq(array, iteratee, comparator) {
      let index = -1
      let includes = arrayIncludes // 向下兼容,内部使用使用 while 做循环
      let isCommon = true
    
      const {length} = array
      const result = []
      let seen = result
    
      if (comparator) {
        // 如果有 comparator,标注为非普通函数处理
        isCommon = false
        includes = arrayIncludesWith // includes 判重方法更换为 arrayIncludesWith
      }
      else if (length >= LARGE_ARRAY_SIZE) { // 长度超过 200 后启用,大数组优化策略
        // 判断是否有迭代器,没有则设为 Set 类型(支持 Set 类型的环境直接调用生成 Set 实例去重)const set = iteratee ? null : createSet(array) 
        if (set) {return setToArray(set) //Set 类型转数组(Set 类型中不存在重复元素,相当于去重了)直接返回
        }
        isCommon = false // 非普通模式
        includes = cacheHas // includes 判重方法更换为 hash 判断
        seen = new SetCache // 实例化 hash 缓存容器
      }
      else {
        // 存在迭代器的情况下,新开辟内存空间为缓存容器,否则直接指向结果数组容器
        seen = iteratee ? [] : result}
      outer:
      while (++index < length) { // 循环遍历每一个元素
        let value = array[index] // 取出当前遍历值
        // 存在迭代器函数执行迭代器函数后返回结果,否则直接返回自身
        const computed = iteratee ? iteratee(value) : value 
        
        value = (comparator || value !== 0) ? value : 0
        if (isCommon && computed === computed) { // 普通模式执行下面代码
          let seenIndex = seen.length // 取当前容器的长度为下一个元素的角标
          while (seenIndex--) { // 循环遍历每一个容器中每一个元素
            if (seen[seenIndex] === computed) { // 匹配到重复的元素
              continue outer // 直接跳出当前循环直接进入下一轮 outer:
            }
          }
          if (iteratee) { // 有迭代器的情况下
            seen.push(computed) // 结果推入缓存容器
          }
          result.push(value) // 追加入结果数组
        }
         // 非正常数组处理模式下,调用 includes 方法,判断缓存容器中是否存在重复的值
        else if (!includes(seen, computed, comparator)) {if (seen !== result) { // 非普通模式下,result 和 seen 内存空间地址不一样
            seen.push(computed)
          }
          result.push(value) // 追加入结果数组
        }
      }
      return result // 循环完成,返回去重后的数组
    }
    
    export default baseUniq

大致的流程:

分析

1. 注意下面的代码:

    else if (length >= LARGE_ARRAY_SIZE) { // 长度超过 200 后启用,大数组优化策略
    // 判断是否有迭代器,没有则设为 Set 类型(支持 Set 类型的环境直接调用生成 Set 实例去重)const set = iteratee ? null : createSet(array) 
    if (set) {return setToArray(set) //Set 类型转数组(Set 类型中不存在重复元素,相当于去重了)直接返回
    }
  }

lodash 会去判断当前数组的长度,如果数组过大会调用 ES6 的新的 Set 数据类型,Set 类型中不会存在重复的元素。也就是说做到了数组的去重,最后调用 setToArray 方法返回数组,Set 类型是可迭代的类型,可以使用 ... 扩展运算符。
在性能方面,因为 js 是单线程执行,大数组的循环会长时间占用 CPU 时间,导致线程被阻塞。而使用 Set 类型后将去重的工作交个底层去处理,提高了性能。所以平时在有去重需求时可以考虑 Set 类型的去重,而不是在 js 执行层去做循环,也是一种性能优化。

2. 接着看不采用 Set 去重的代码处理策略:

    outer:
      while (++index < length) { // 循环遍历每一个元素
        let value = array[index] // 取出当前遍历值
        
        value = (comparator || value !== 0) ? value : 0
        if (isCommon && computed === computed) { // 普通模式执行下面代码
          let seenIndex = seen.length // 取当前容器的长度为下一个元素的角标
          while (seenIndex--) { // 循环遍历每一个容器中每一个元素
            if (seen[seenIndex] === computed) { // 匹配到重复的元素
              continue outer // 直接跳出当前循环直接进入下一轮 outer:
            }
          }
        }
      }

可以看到这里使用两个嵌套 while 去遍历数组,并判断是否存在重复元素。这样的逻辑并没有问题,也是平时工作中最常见的去重代码逻辑,代码的执行时间复杂度为 O(n^2),执行时间会随着数组的增大指数级增加,所以也就是为什么 lodash 的 uniq 函数要规定最大的可迭代数组长度,超过长度采用 Set 去重法。避免性能浪费

尾巴

ES6 的出现真的很大程度上方便代码的编写,ES6 这么方便为什么我还喜欢 lodash 这种库,既臃肿复杂,又需要记忆很多 API。我的回答是高效、优雅、省心。工作时使用成熟库是对代码质量的保证,并且成熟的库一般会对性能部分进行优化。

正文完
 0