关于java:java如何高效地读取一个超大文件四种方式分析对比

30次阅读

共计 1709 个字符,预计需要花费 5 分钟才能阅读完成。

前言

我最近在优化我的 PDF 转 word 的开源小工具,有时候会遇到一个问题,就是如果我的 PDF 文件比拟大,几百兆,如何更快更节俭内存的读取它。于是我剖析比照了四种常见的读取文件的形式,并应用 javaVisualVM 工具进行了剖析。最初的出的论断是 commons-io 工夫和空间都更加的高效。钻研剖析仍然来自哪位 baeldung 国外大佬。

上面我会给出几种常见的读取大文件的形式。

读取大文件的四种形式

首先我本人在本地压缩了一个文件夹,大略 500M 左右。尽管不是很大然而,绝对还能够。

办法 1:Guava 读取

`String path = “G:java 书籍及工具.zip”;
Files.readLines(new File(path), Charsets.UTF_8);
`

应用 guava 读取比较简单,一行代码就搞定了。

上面去 jdk 的 bin 目录找到 javaVisualVM 工具,而后双击运行即可。

从上图能够看到:

  • 工夫耗费:20 秒
  • 堆内存:最高 2.5G
  • CPU 耗费:最高 50%

咱们一个 500M 的文件,堆内存最高居然 2.5G,如果咱们读取一个 2G 的文件,可能咱们的电脑间接死机了就。

形式 2:Apache Commons IO 一般形式

`String path = “G:java 书籍及工具.zip”;
FileUtils.readLines(new File(path), Charsets.UTF_8);
`

这种形式也比较简单,同样是一行代码。上面运行,也剖析一波:

从上图能够看到:

  • 工夫耗费:17 秒
  • 堆内存:最高 2.5G
  • CPU 耗费:最高 50%,安稳运行 25% 左右

这种形式和下面那种基本上耗费差不多,必定不是我想要的。

形式 3:java 文件流

`FileInputStream inputStream = null;
Scanner sc = null;
try {
     inputStream = new FileInputStream(path);
     sc = new Scanner(inputStream, “UTF-8”);
     while (sc.hasNextLine()) {
          String line = sc.nextLine();
          //System.out.println(line);
     }
     if (sc.ioException() != null) {
          throw sc.ioException();
     }
} finally {
     if (inputStream != null) {
          inputStream.close();
     }
     if (sc != null) {
           sc.close();
     }
}
`

这种形式其实就是 java 中最常见的形式,而后咱们运行剖析一波:

从上图能够看到:

  • 工夫耗费:32 秒,减少了一倍
  • 堆内存:最高 1G,少了一半
  • CPU 耗费:安稳运行 25% 左右

这种形式的确很优良,然而工夫上开销更大。

形式 4:Apache Commons IO 流

`LineIterator it = FileUtils.lineIterator(new File(path), “UTF-8”);
try {
      while (it.hasNext()) {
          String line = it.nextLine();
      }
} finally {
     LineIterator.closeQuietly(it);
}
`

这种形式代码看起来比较简单,所以间接运行一波吧:

从上图能够看到:

  • 工夫耗费:16 秒,最低
  • 堆内存:最高 650M,少了一半
  • CPU 耗费:安稳运行 25% 左右

OK,就它了,牛。

论断

通过以上的剖析,咱们能够得出一个论断,如果咱们想要读取一个大文件,抉择了谬误的形式,就有可能极大地占用我的内存和 CPU,当文件特地大时,会造成动向不到的问题。

因而为了去解决这样的问题,有四种常见的读取大文件的形式。通过剖析比照,发现,Apache Commons IO 流是最高效的一种形式。

正文完
 0