贝利信息

按行读取内存不够?如何用python解决?

日期:2025-12-04 00:00 / 作者:尊渡假赌尊渡假赌尊渡假赌
真正节省内存的关键是逐行迭代、即时处理、不累积;用for line in open()流式读取,避免readlines()或列表推导式等全量加载操作。

内存不够时按行读取文件本身是合理的做法,问题往往出在“看似按行读取”,实际却一次性加载了全部内容——比如用了 readlines() 或把每行处理结果全存进列表。真正节省内存的关键是:**逐行迭代、即时处理、不累积**。

用 for line in open() 真正流式读取

这是最轻量、最常用的方式。Python 文件对象是可迭代的,for 循环会自动按行缓冲读取,内存只保留当前一行:

需要跳过空行或过滤时,别先 collect 再 filter

常见误区:先用 [line for line in f if line.strip()] 构建新列表——这又把符合条件的行全装进内存了。

处理后要写入新文件?也别缓存结果

比如清洗日志、转换格式后保存,避免用 results.append(...) 最后再 writelines(results)

超大文件需随机访问某几行?用 linecache 或 mmap

如果真要“读第100万行”,又不想遍历前面所有行,普通按行读取就不够高效了。

基本上就这些。核心就一条:别让数据在内存里“堆着”。只要不显式收集、不调用会全加载的方法,哪怕几十GB的纯文本,也能靠一行行流式处理完。