>>分享Java编程技术,对《Java面向对象编程》等书籍提供技术支持 书籍支持  卫琴直播  品书摘要  在线测试  资源下载  联系我们
发表一个新主题 开启一个新投票 回复文章 您是本文章第 22327 个阅读者 刷新本主题
 * 贴子主题:  Java读取大文件的高效率实现_java大文件 回复文章 点赞(0)  收藏  
作者:flybird    发表时间:2020-02-06 20:49:29     消息  查看  搜索  好友  邮件  复制  引用

          
                                                          
        
     1、概述

     本文将演示如何用Java高效地读取大文件。J

      2、在内存中读取

     读取文件行的标准方式是在内存中读取,Guava 和Apache Commons IO都提供了如下所示快速读取文件行的方法:

     Files.readLines(new File(path), Charsets.UTF_8);

     FileUtils.readLines(new File(path));
这种方法带来的问题是文件的所有行都被存放在内存中,当文件足够大时很快就会导致程序抛出OutOfMemoryError 异常。

     例如:读取一个大约1G的文件:
@Test
public void givenUsingGuava_whenIteratingAFile_thenWorks() throws IOException {
     String path = ...
     Files.readLines(new File(path), Charsets.UTF_8);
}

这种方式开始时只占用很少的内存:(大约消耗了0Mb内存)

[main] INFO  org.baeldung.java.CoreJavaIoUnitTest - Total Memory: 128 Mb
[main] INFO  org.baeldung.java.CoreJavaIoUnitTest - Free Memory: 116 Mb
然而,当文件全部读到内存中后,我们最后可以看到(大约消耗了2GB内存):

[main] INFO  org.baeldung.java.CoreJavaIoUnitTest - Total Memory: 2666 Mb
[main] INFO  org.baeldung.java.CoreJavaIoUnitTest - Free Memory: 490 Mb
这意味这一过程大约耗费了2.1GB的内存——原因很简单:现在文件的所有行都被存储在内存中。

     把文件所有的内容都放在内存中很快会耗尽可用内存——不论实际可用内存有多大,这点是显而易见的。

     此外,我们通常不需要把文件的所有行一次性地放入内存中——相反,我们只需要遍历文件的每一行,然后做相应的处理,处理完之后把它扔掉。所以,这正是我们将要做的——通过行迭代,而不是把所有行都放在内存中。

     3、文件流

     现在让我们看下这种解决方案——我们将使用java.util.Scanner类扫描文件的内容,一行一行连续地读取:

FileInputStream inputStream = null;
Scanner sc = null;
try {
     inputStream = new FileInputStream(path);
     sc = new Scanner(inputStream, "UTF-8");
     while (sc.hasNextLine()) {
         String line = sc.nextLine();
         // System.out.println(line);
     }
     // note that Scanner suppresses exceptions
     if (sc.ioException() != null) {
         throw sc.ioException();
     }
} finally {
     if (inputStream != null) {
         inputStream.close();
     }
     if (sc != null) {
         sc.close();
     }
}

这种方案将会遍历文件中的所有行——允许对每一行进行处理,而不保持对它的引用。总之没有把它们存放在内存中:(大约消耗了150MB内存)

  [main] INFO  org.baeldung.java.CoreJavaIoUnitTest - Total Memory: 763 Mb

  [main] INFO  org.baeldung.java.CoreJavaIoUnitTest - Free Memory: 605 Mb

      4、Apache Commons IO流

     同样也可以使用Commons IO库实现,利用该库提供的自定义LineIterator:


LineIterator it = FileUtils.lineIterator(theFile, "UTF-8");
try {
     while (it.hasNext()) {
         String line = it.nextLine();
         // do something with line
     }
} finally {
     LineIterator.closeQuietly(it);
}

由于整个文件不是全部存放在内存中,这也就导致相当保守的内存消耗:(大约消耗了150MB内存)

[main] INFO  o.b.java.CoreJavaIoIntegrationTest - Total Memory: 752 Mb
[main] INFO  o.b.java.CoreJavaIoIntegrationTest - Free Memory: 564 Mb

         5、结论

         这篇短文介绍了如何在不重复读取与不耗尽内存的情况下处理大文件——这为大文件的处理提供了一个有用的解决办法。

         所有这些例子的实现和代码片段都可以在我的github项目上获取到——这是一个基于Eclipse的项目,所以它应该很容易被导入和运行。
                                    
                                                
----------------------------
原文链接:https://blog.csdn.net/lee_sire/article/details/53997922

程序猿的技术大观园:www.javathinker.net



[这个贴子最后由 flybird 在 2020-02-06 21:06:15 重新编辑]
网站系统异常


系统异常信息
Request URL: http://www.javathinker.net/WEB-INF/lybbs/jsp/topic.jsp?postID=2564

java.lang.NullPointerException

如果你不知道错误发生的原因,请把上面完整的信息提交给本站管理人员