原文链接: 为什么要防止在 Go 中应用 ioutil.ReadAll?

ioutil.ReadAll 次要的作用是从一个 io.Reader 中读取所有数据,直到结尾。

在 GitHub 上搜寻 ioutil.ReadAll,类型抉择 Code,语言选择 Go,一共失去了 637307 条后果。

这阐明 ioutil.ReadAll 还是挺受欢迎的,次要也是用起来的确不便。

然而当遇到大文件时,这个函数就会暴露出两个显著的毛病:

  1. 性能问题,文件越大,性能越差。
  2. 文件过大的话,可能间接撑爆内存,导致程序解体。

为什么会这样呢?这篇文章就通过源码来剖析背地的起因,并试图给出更好的解决方案。

上面咱们正式开始。

ioutil.ReadAll

首先,咱们通过一个例子看一下 ioutil.ReadAll 的应用场景。比如说,应用 http.Client 发送 GET 申请,而后再读取返回内容:

func main() {    res, err := http.Get("http://www.google.com/robots.txt")    if err != nil {        log.Fatal(err)    }        robots, err := io.ReadAll(res.Body)    res.Body.Close()    if err != nil {        log.Fatal(err)    }    fmt.Printf("%s", robots)}

http.Get() 返回的数据,存储在 res.Body 中,通过 ioutil.ReadAll 将其读取进去。

外表上看这段代码没有什么问题,但仔细分析却并非如此。想要探索其背地的起因,就只能靠源码谈话。

ioutil.ReadAll 的源码如下:

// src/io/ioutil/ioutil.gofunc ReadAll(r io.Reader) ([]byte, error) {    return io.ReadAll(r)}

Go 1.16 版本开始,间接调用 io.ReadAll() 函数,上面再看看 io.ReadAll() 的实现:

// src/io/io.gofunc ReadAll(r Reader) ([]byte, error) {    // 创立一个 512 字节的 buf    b := make([]byte, 0, 512)    for {        if len(b) == cap(b) {            // 如果 buf 满了,则追加一个元素,使其从新分配内存            b = append(b, 0)[:len(b)]        }        // 读取内容到 buf        n, err := r.Read(b[len(b):cap(b)])        b = b[:len(b)+n]        // 遇到结尾或者报错则返回        if err != nil {            if err == EOF {                err = nil            }            return b, err        }    }}

我给代码加上了必要的正文,这段代码的执行次要分三个步骤:

  1. 创立一个 512 字节的 buf
  2. 一直读取内容到 buf,当 buf 满的时候,会追加一个元素,促使其从新分配内存;
  3. 直到结尾或报错,则返回;

晓得了执行步骤,但想要剖析其性能问题,还须要理解 Go 切片的扩容策略,如下:

  1. 如果冀望容量大于以后容量的两倍就会应用冀望容量;
  2. 如果以后切片的长度小于 1024 就会将容量翻倍;
  3. 如果以后切片的长度大于 1024 就会每次减少 25% 的容量,直到新容量大于冀望容量;

也就是说,如果待拷贝数据的容量小于 512 字节的话,性能不受影响。但如果超过 512 字节,就会开始切片扩容。数据量越大,扩容越频繁,性能受影响越大。

如果数据量足够大的话,内存可能就间接撑爆了,这样的话影响就大了。

那有更好的替换计划吗?当然是有的,咱们接着往下看。

io.Copy

能够应用 io.Copy 函数来代替,源码定义如下:

src/io/io.gofunc Copy(dst Writer, src Reader) (written int64, err error) {    return copyBuffer(dst, src, nil)}

其性能是间接从 src 读取数据,并写入到 dst

ioutil.ReadAll 最大的不同就是没有把所有数据一次性都取出来,而是一直读取,一直写入。

具体实现 Copy 的逻辑在 copyBuffer 函数中实现:

// src/io/io.gofunc copyBuffer(dst Writer, src Reader, buf []byte) (written int64, err error) {    // 如果源实现了 WriteTo 办法,则间接调用 WriteTo    if wt, ok := src.(WriterTo); ok {        return wt.WriteTo(dst)    }    // 同样的,如果指标实现了 ReaderFrom 办法,则间接调用 ReaderFrom    if rt, ok := dst.(ReaderFrom); ok {        return rt.ReadFrom(src)    }    // 如果 buf 为空,则创立 32KB 的 buf    if buf == nil {        size := 32 * 1024        if l, ok := src.(*LimitedReader); ok && int64(size) > l.N {            if l.N < 1 {                size = 1            } else {                size = int(l.N)            }        }        buf = make([]byte, size)    }    // 循环读取数据并写入    for {        nr, er := src.Read(buf)        if nr > 0 {            nw, ew := dst.Write(buf[0:nr])            if nw < 0 || nr < nw {                nw = 0                if ew == nil {                    ew = errInvalidWrite                }            }            written += int64(nw)            if ew != nil {                err = ew                break            }            if nr != nw {                err = ErrShortWrite                break            }        }        if er != nil {            if er != EOF {                err = er            }            break        }    }    return written, err}

此函数执行步骤如下:

  1. 如果源实现了 WriteTo 办法,则间接调用 WriteTo 办法;
  2. 同样的,如果指标实现了 ReaderFrom 办法,则间接调用 ReaderFrom 办法;
  3. 如果 buf 为空,则创立 32KB 的 buf
  4. 最初就是循环 ReadWrite

比照之后就会发现,io.Copy 函数不会一次性读取全副数据,也不会频繁进行切片扩容,显然在数据量大时是更好的抉择。

ioutil 其余函数

再看看 ioutil 包的其余函数:

  • func ReadDir(dirname string) ([]os.FileInfo, error)
  • func ReadFile(filename string) ([]byte, error)
  • func WriteFile(filename string, data []byte, perm os.FileMode) error
  • func TempFile(dir, prefix string) (f *os.File, err error)
  • func TempDir(dir, prefix string) (name string, err error)
  • func NopCloser(r io.Reader) io.ReadCloser

上面举例具体阐明:

ReadDir

// ReadDir 读取指定目录中的所有目录和文件(不包含子目录)。// 返回读取到的文件信息列表和遇到的谬误,列表是通过排序的。func ReadDir(dirname string) ([]os.FileInfo, error)

举例:

package mainimport (    "fmt"    "io/ioutil")func main() {    dirName := "../"    fileInfos, _ := ioutil.ReadDir(dirName)    fmt.Println(len(fileInfos))    for i := 0; i < len(fileInfos); i++ {        fmt.Printf("%T\n", fileInfos[i])        fmt.Println(i, fileInfos[i].Name(), fileInfos[i].IsDir())    }}

ReadFile

// ReadFile 读取文件中的所有数据,返回读取的数据和遇到的谬误// 如果读取胜利,则 err 返回 nil,而不是 EOFfunc ReadFile(filename string) ([]byte, error)

举例:

package mainimport (    "fmt"    "io/ioutil"    "os")func main() {    data, err := ioutil.ReadFile("./test.txt")    if err != nil {        fmt.Println("read error")        os.Exit(1)    }    fmt.Println(string(data))}

WriteFile

// WriteFile 向文件中写入数据,写入前会清空文件。// 如果文件不存在,则会以指定的权限创立该文件。// 返回遇到的谬误。func WriteFile(filename string, data []byte, perm os.FileMode) error

举例:

package mainimport (    "fmt"    "io/ioutil")func main() {    fileName := "./text.txt"    s := "Hello AlwaysBeta"    err := ioutil.WriteFile(fileName, []byte(s), 0777)    fmt.Println(err)}

TempFile

// TempFile 在 dir 目录中创立一个以 prefix 为前缀的临时文件,并将其以读// 写模式关上。返回创立的文件对象和遇到的谬误。// 如果 dir 为空,则在默认的长期目录中创立文件(参见 os.TempDir),屡次// 调用会创立不同的临时文件,调用者能够通过 f.Name() 获取文件的残缺门路。// 调用本函数所创立的临时文件,应该由调用者本人删除。func TempFile(dir, prefix string) (f *os.File, err error)

举例:

package mainimport (    "fmt"    "io/ioutil"    "os")func main() {    f, err := ioutil.TempFile("./", "Test")    if err != nil {        fmt.Println(err)    }    defer os.Remove(f.Name()) // 用完删除    fmt.Printf("%s\n", f.Name())}

TempDir

// TempDir 性能同 TempFile,只不过创立的是目录,返回目录的残缺门路。func TempDir(dir, prefix string) (name string, err error)

举例:

package mainimport (    "fmt"    "io/ioutil"    "os")func main() {    dir, err := ioutil.TempDir("./", "Test")    if err != nil {        fmt.Println(err)    }    defer os.Remove(dir) // 用完删除    fmt.Printf("%s\n", dir)}

NopCloser

// NopCloser 将 r 包装为一个 ReadCloser 类型,但 Close 办法不做任何事件。func NopCloser(r io.Reader) io.ReadCloser

这个函数的应用场景是这样的:

有时候咱们须要传递一个 io.ReadCloser 的实例,而咱们当初有一个 io.Reader 的实例,比方:strings.Reader

这个时候 NopCloser 就派上用场了。它包装一个 io.Reader,返回一个 io.ReadCloser,相应的 Close 办法啥也不做,只是返回 nil

举例:

package mainimport (    "fmt"    "io/ioutil"    "reflect"    "strings")func main() {    //返回 *strings.Reader    reader := strings.NewReader("Hello AlwaysBeta")    r := ioutil.NopCloser(reader)    defer r.Close()    fmt.Println(reflect.TypeOf(reader))    data, _ := ioutil.ReadAll(reader)    fmt.Println(string(data))}

总结

ioutil 提供了几个很实用的工具函数,背地实现逻辑也并不简单。

本篇文章从一个问题动手,重点钻研了 ioutil.ReadAll 函数。次要起因是在小数据量的状况下,这个函数并没有什么问题,但当数据量大时,它就变成了一颗定时炸弹。有可能会影响程序的性能,甚至会导致程序解体。

接下来给出对应的解决方案,在数据量大的状况下,最好应用 io.Copy 函数。

文章最初持续介绍了 ioutil 的其余几个函数,并给出了程序示例。相干代码都会上传到 GitHub,须要的同学能够自行下载。

好了,本文就到这里吧。关注我,带你通过问题读 Go 源码。


源码地址:

  • https://github.com/yongxinz/gopher

举荐浏览:

  • [如何在 Go 中将 []byte 转换为 io.Reader?](https://mp.weixin.qq.com/s/nF...)
  • 开始读 Go 源码了

参考文章:

  • https://haisum.github.io/2017...
  • https://juejin.cn/post/697764...
  • https://zhuanlan.zhihu.com/p/...