请教 Python 大佬,遍历一个 5GB 大小的 txt 文件,用什么方式效率比较高
python 新手,现在有个需求,大概几百万条数据需要翻译,映射关系存在一个 5GB 左右大小的 txt 文件里,也就是拿几百万个值去几亿条数据里去匹配,怎么做比较好
介绍的太笼统了,匹配是怎么匹配的?
社工库?
5GB 不大,全部载入内存也能抗
如果是 500G 的话就要建立索引了,可以考虑使用数据库。不过无论如何如果要大量随机读写的话效率不会很美丽就是了
可以用 dask.bag.read_text
examples.dask.org/bag.html
之前搞过这个。你不要 readlines 会卡死,readline 就行。建议切成 5 个 1G 的文件,这样效率更高。
用的数据库是 clickhouse ,查询速度还是挺快。
两个文件 O1 和 O2 ,可以理解成两张表,每行\t 分隔,O1 每行是 a ,b ,c ,其中 c 需要映射成另一个值 d ,这个映射关系在 O2 文件里( c ,d ),O2 文件大概有 5GB ,几亿行数据。
试了下 pandas ,查一次要 3 ,4 秒,查几百万次完全查不动啊
暂不考虑数据库
对 O2 建哈希表完事了,5 个 G 绰绰有余
这么朴素的任务弄个 hash 表不就完了。啥你说内存不够,不够就加。内存多便宜.
给个模拟数据
清洗出来,自己先按照数据的逻辑做一个大的基本划分,然后丢到 pandas !
多加几根内存条就可以吧? 5g 不是很大
整到 sqlite 里
一个 join 完事
有你问的时间都跑完了
用不了 sql
O1 按需求是要逐行读取的,所以只能对 O2 操作。我明天试试 hash 表吧
按理说你都能用 python 了,sqlite 是内置的标准库,应该是用得了的
# 根据 O2 构造 hash 表(字典)
with open(r'O2.txt', encoding='utf-8') as fp:
table = dict((row.split('\t') for row in fp))
# O1 逐行替换并输出
with open(r'O1.txt', encoding='utf-8') as in_fp, open(r'out.txt', 'w', encoding='utf-8') as out_fp:
for row in in_fp:
cols = row.split('\t')
cols[2] = table[cols[2].rstrip('\n')]
out_fp.write('\t'.join(cols))
内存若不够,考虑构造 hash 表时,仅将 hash(str) 作为键名,然后 cols[2] = table[hash(cols[2].rstrip('\n'))] ?
说不定 python 编译的时候没带 SQLite 🐶
扔哈希或者 Redis 里再查
可以试试用 sqlite ,几行搞定 导入+翻译+输出,感觉速度应该也不慢
- 生成 O2.txt (从小写字母,映射至大写字母,共 26 行)
printf "%s\n" {a..z} | sed 's/^.*$/&\t\U&/' | tee O2.txt
『输出』
a A
b B
… …
z Z
- 生成 O1.txt (也是 26 行,字段内容是:主键 ID 、预期转换成啥样、待转换内容)
printf "%s\n" {a..z} | awk -v OFS=$'\t' '{print NR, toupper($0), $0}' | tee O1.txt
『输出』
1 A a
2 B b
… … …
26 Z z
- 导入映射表至数据库
sqlite3 -tabs O2.db 'CREATE TABLE O2 (key PRIMARY KEY, value) WITHOUT ROWID' '.import O2.txt O2'
- 逐行查数据库进行翻译
4.1 为 SQLite 启用 csv 扩展
①下载 csv.c: www.sqlite.org/src/file?name=ext/misc/csv.c&ci=tip
②编译扩展:参考 sqlite.org/loadext.html
4.2 翻译
SQLITE_CSV_LIB_PATH='./csv' # 编译好的 CSV 模块库路径(可省略后缀)
SQLITE_CACHE_SIZE_MB=512 # 数据库最大缓存页面大小(单位:MB )
# sed -E 's/"/""/g; s/^|$/"/g; s/\t/","/g' O1.txt |
tr '\t' ',' < O1.txt | # 制表符 转成 逗号(要求 O1.txt 每列内容,都不包含『"』『,』,否则用上面那行)
sqlite3 -tabs O2.db \
".load $SQLITE_CSV_LIB_PATH" \
"PRAGMA cache_size = -$((SQLITE_CACHE_SIZE_MB << 10))" \
'CREATE VIRTUAL TABLE TEMP.O1 USING csv(filename="/dev/stdin", columns=3)' \
'SELECT O1.c0 id, O1.c1 expect, O2.value replaced FROM O1 LEFT JOIN O2 ON O1.c2 = O2.key'
『输出』
id expect replaced
1 A A
2 B B
… … …
26 Z Z
以前我还会考虑怎么做,现在碰到大点的数据,现在就两张表都塞 hadoop 然后 spark 跑个 join 就好
前面有人提过 dask 、dtable 这些照理够用了,还想通用一点,上 spark 、flink 这种大数据平台
5GB 左右几亿条,数据条目本身不大而且规整的话,按某种方式(比如先 hash 一下 key )切一下建文件夹和文件,比如 abcdef 对应 123456 就建 ab/cd/ef 路径,文件名 123456 ,建好之后直接 path 判断下有没有,有就把路径里唯一的文件名写进去。
这个开销有点大噢
比如 Linux ext4 ,每个文件所需的一个 inode 要 256 字节(存各种属主、权限、时间信息,还有数据分布在哪儿等),
且不说应该不会预留几亿个 inode 可用,光是建一亿个文件就要 23.8 GB 的 inode ,还没算目录……
以及长文件名、特殊符号等其他问题
那还不如用数据库呢,MySQL 的 innodb 下,一行数据仅额外需要至少 18 字节(存事务、回滚信息等),SQLite 更少
若这个表的 B+树 3~4 层高,前两层容易缓存至内存,那么翻译一行数据一般只需额外读取 1~2 次硬盘,绝对比文件系统开销小
#25 说了不考虑数据库啊🤣
另外这个提法是为了黑 Windows 版 QQ 的群图片缓存( Image\Group2 ),腾讯是把文件名开头的四个字符比如 abcdef.jpg 建成 ab/cd 路径然后把 abcdef.jpg 文件塞里面。
不知为何不考虑数据库,权限不足?不熟悉?
连 1MB 、无需额外进程 的 SQLite 也要排除。。
那上面提到的大数据平台就更离谱了
眼拙,丝毫没看出原来是在讽刺
其他做得好的类似软件,是如何存储这些小文件的?数据库?
SQLite 确实提到过,数据库中存储小文件,可比文件系统快 35%,减少 20% 磁盘占用
sqlite.org/fasterthanfs.html
这种场景,你说你不用数据库,我猜测,你应该是 C++ 内嵌汇编的大佬,自己能写出比数据库引擎更好的分析、算法、索引,结果,你起手式却是 Python ?????
你用 Python 处理数据,不用数据库,反向做方案,是贵司钱多?还是工作量不饱和,要给自己加任务?
其次,你这最大的数据量,几亿条,才 5GB ,另一个几百万条的文件,估计才几十 MB 吧?不说内存,一些大缓存的洋垃圾 CPU ,说不定都能把你这几百万条文件给一口吃掉。
不用数据库,这道题就是如何使用 C++,选取极致的字符串匹配算法,实现数据切分到每个核 与 内存,使其处理带宽最大化。
用数据库,这道题就是怎么安装、配置数据库,进行性能调优。
这两道题的难度完全不是一个等级的,不是大佬当然选择数据库,最好是地球上最强数据库 Oracle 。
至于 Python ?如果你的目标是,追求极致的处理性能,那么 Python 在这个问题上,就是个笑话。有些数据库引擎内部能优化到把数据量按 node 与 内存条的对应关系给负载均衡 + 并行起来,Python 却还在研究代码是不是写错了,怎么按行读取这种事情上,画风都不一样。
当然了,如果只是想叼根烟,翘着二郎腿,在空调房里,摸摸鱼,顺便在上百万的全闪存储 + 王思聪级的服务器上,用 Python 跑个数据玩玩,那当我没说。
fopen, 控制游标, 一次读入 n 行, 以此类推 只到遇到文件结尾符
大文件处理大多是这种套路, windows 的很多设计也是, 因为不可能几个 gb 的文件全部读到内存里面处理.
import mmap?
估计是个面试题,不让用数据库,只能用 Python 解决
抱歉各位,昨天有事没看回复,我再说明一下。
首先我之前是写 java 的,临时过来写 python ,所以很多用法不了解。
然后 O1 文件其实不是一个规则的 txt ,而是需要解析的 xml 文件,我是用 sax 逐行读取的。这点之前没有详细说明
O2 文件跟之前描述一样,是个表形式的 txt 文件,通过第一列映射第二、三列
描述改个不停。。不如放几行数据出来
我还是觉得 sqlite 足够你用,几行的事
下载个 sqlite3.exe ( 1~2MB )就能用,也不用管理员权限,内存占用也随你设,1MB ,1GB ,都行
xml 也很好解决,xmlstarlet
Git 其实也是这种方式
感谢,已解决
大约有这几个问题: 当前使用/曾经使用的分布式事务的方案是什么? 你觉得比较好的方案是哪种?(综合考虑 “对架构复杂度提升”,”对代码可读性的影响“,“对程序员写代码的心智负…
原手机是荣耀 Magic4 的 256G 版本,22 年 5 月把 iPhone 12 回收后额外花了 1000 左右买的,开始用着还行,但从去年开始,一天要充电两次,今年也变…
在本篇文章中,我会对Go语言编程模式的一些基本技术和要点,这样可以让你更容易掌握Go语言编程。其中,主要包括,数组切片的一些小坑,还有接口编程,以及时间和程序运行性能相关的话…
合速度