请教 Python 大佬,遍历一个 5GB 大小的 txt 文件,用什么方式效率比较高
python 新手,现在有个需求,大概几百万条数据需要翻译,映射关系存在一个 5GB 左右大小的 txt 文件里,也就是拿几百万个值去几亿条数据里去匹配,怎么做比较好
介绍的太笼统了,匹配是怎么匹配的?
社工库?
5GB 不大,全部载入内存也能抗
如果是 500G 的话就要建立索引了,可以考虑使用数据库。不过无论如何如果要大量随机读写的话效率不会很美丽就是了
可以用 dask.bag.read_text
examples.dask.org/bag.html
之前搞过这个。你不要 readlines 会卡死,readline 就行。建议切成 5 个 1G 的文件,这样效率更高。
用的数据库是 clickhouse ,查询速度还是挺快。
两个文件 O1 和 O2 ,可以理解成两张表,每行\t 分隔,O1 每行是 a ,b ,c ,其中 c 需要映射成另一个值 d ,这个映射关系在 O2 文件里( c ,d ),O2 文件大概有 5GB ,几亿行数据。
试了下 pandas ,查一次要 3 ,4 秒,查几百万次完全查不动啊
暂不考虑数据库
对 O2 建哈希表完事了,5 个 G 绰绰有余
这么朴素的任务弄个 hash 表不就完了。啥你说内存不够,不够就加。内存多便宜.
给个模拟数据
清洗出来,自己先按照数据的逻辑做一个大的基本划分,然后丢到 pandas !
多加几根内存条就可以吧? 5g 不是很大
整到 sqlite 里
一个 join 完事
有你问的时间都跑完了
用不了 sql
O1 按需求是要逐行读取的,所以只能对 O2 操作。我明天试试 hash 表吧
按理说你都能用 python 了,sqlite 是内置的标准库,应该是用得了的
# 根据 O2 构造 hash 表(字典)
with open(r'O2.txt', encoding='utf-8') as fp:
table = dict((row.split('\t') for row in fp))
# O1 逐行替换并输出
with open(r'O1.txt', encoding='utf-8') as in_fp, open(r'out.txt', 'w', encoding='utf-8') as out_fp:
for row in in_fp:
cols = row.split('\t')
cols[2] = table[cols[2].rstrip('\n')]
out_fp.write('\t'.join(cols))
内存若不够,考虑构造 hash 表时,仅将 hash(str) 作为键名,然后 cols[2] = table[hash(cols[2].rstrip('\n'))] ?
说不定 python 编译的时候没带 SQLite 🐶
扔哈希或者 Redis 里再查
可以试试用 sqlite ,几行搞定 导入+翻译+输出,感觉速度应该也不慢
- 生成 O2.txt (从小写字母,映射至大写字母,共 26 行)
printf "%s\n" {a..z} | sed 's/^.*$/&\t\U&/' | tee O2.txt
『输出』
a A
b B
… …
z Z
- 生成 O1.txt (也是 26 行,字段内容是:主键 ID 、预期转换成啥样、待转换内容)
printf "%s\n" {a..z} | awk -v OFS=$'\t' '{print NR, toupper($0), $0}' | tee O1.txt
『输出』
1 A a
2 B b
… … …
26 Z z
- 导入映射表至数据库
sqlite3 -tabs O2.db 'CREATE TABLE O2 (key PRIMARY KEY, value) WITHOUT ROWID' '.import O2.txt O2'
- 逐行查数据库进行翻译
4.1 为 SQLite 启用 csv 扩展
①下载 csv.c: www.sqlite.org/src/file?name=ext/misc/csv.c&ci=tip
②编译扩展:参考 sqlite.org/loadext.html
4.2 翻译
SQLITE_CSV_LIB_PATH='./csv' # 编译好的 CSV 模块库路径(可省略后缀)
SQLITE_CACHE_SIZE_MB=512 # 数据库最大缓存页面大小(单位:MB )
# sed -E 's/"/""/g; s/^|$/"/g; s/\t/","/g' O1.txt |
tr '\t' ',' < O1.txt | # 制表符 转成 逗号(要求 O1.txt 每列内容,都不包含『"』『,』,否则用上面那行)
sqlite3 -tabs O2.db \
".load $SQLITE_CSV_LIB_PATH" \
"PRAGMA cache_size = -$((SQLITE_CACHE_SIZE_MB << 10))" \
'CREATE VIRTUAL TABLE TEMP.O1 USING csv(filename="/dev/stdin", columns=3)' \
'SELECT O1.c0 id, O1.c1 expect, O2.value replaced FROM O1 LEFT JOIN O2 ON O1.c2 = O2.key'
『输出』
id expect replaced
1 A A
2 B B
… … …
26 Z Z
以前我还会考虑怎么做,现在碰到大点的数据,现在就两张表都塞 hadoop 然后 spark 跑个 join 就好
前面有人提过 dask 、dtable 这些照理够用了,还想通用一点,上 spark 、flink 这种大数据平台
5GB 左右几亿条,数据条目本身不大而且规整的话,按某种方式(比如先 hash 一下 key )切一下建文件夹和文件,比如 abcdef 对应 123456 就建 ab/cd/ef 路径,文件名 123456 ,建好之后直接 path 判断下有没有,有就把路径里唯一的文件名写进去。
这个开销有点大噢
比如 Linux ext4 ,每个文件所需的一个 inode 要 256 字节(存各种属主、权限、时间信息,还有数据分布在哪儿等),
且不说应该不会预留几亿个 inode 可用,光是建一亿个文件就要 23.8 GB 的 inode ,还没算目录……
以及长文件名、特殊符号等其他问题
那还不如用数据库呢,MySQL 的 innodb 下,一行数据仅额外需要至少 18 字节(存事务、回滚信息等),SQLite 更少
若这个表的 B+树 3~4 层高,前两层容易缓存至内存,那么翻译一行数据一般只需额外读取 1~2 次硬盘,绝对比文件系统开销小
#25 说了不考虑数据库啊🤣
另外这个提法是为了黑 Windows 版 QQ 的群图片缓存( Image\Group2 ),腾讯是把文件名开头的四个字符比如 abcdef.jpg 建成 ab/cd 路径然后把 abcdef.jpg 文件塞里面。
不知为何不考虑数据库,权限不足?不熟悉?
连 1MB 、无需额外进程 的 SQLite 也要排除。。
那上面提到的大数据平台就更离谱了
眼拙,丝毫没看出原来是在讽刺
其他做得好的类似软件,是如何存储这些小文件的?数据库?
SQLite 确实提到过,数据库中存储小文件,可比文件系统快 35%,减少 20% 磁盘占用
sqlite.org/fasterthanfs.html
这种场景,你说你不用数据库,我猜测,你应该是 C++ 内嵌汇编的大佬,自己能写出比数据库引擎更好的分析、算法、索引,结果,你起手式却是 Python ?????
你用 Python 处理数据,不用数据库,反向做方案,是贵司钱多?还是工作量不饱和,要给自己加任务?
其次,你这最大的数据量,几亿条,才 5GB ,另一个几百万条的文件,估计才几十 MB 吧?不说内存,一些大缓存的洋垃圾 CPU ,说不定都能把你这几百万条文件给一口吃掉。
不用数据库,这道题就是如何使用 C++,选取极致的字符串匹配算法,实现数据切分到每个核 与 内存,使其处理带宽最大化。
用数据库,这道题就是怎么安装、配置数据库,进行性能调优。
这两道题的难度完全不是一个等级的,不是大佬当然选择数据库,最好是地球上最强数据库 Oracle 。
至于 Python ?如果你的目标是,追求极致的处理性能,那么 Python 在这个问题上,就是个笑话。有些数据库引擎内部能优化到把数据量按 node 与 内存条的对应关系给负载均衡 + 并行起来,Python 却还在研究代码是不是写错了,怎么按行读取这种事情上,画风都不一样。
当然了,如果只是想叼根烟,翘着二郎腿,在空调房里,摸摸鱼,顺便在上百万的全闪存储 + 王思聪级的服务器上,用 Python 跑个数据玩玩,那当我没说。
fopen, 控制游标, 一次读入 n 行, 以此类推 只到遇到文件结尾符
大文件处理大多是这种套路, windows 的很多设计也是, 因为不可能几个 gb 的文件全部读到内存里面处理.
import mmap
?
估计是个面试题,不让用数据库,只能用 Python 解决
抱歉各位,昨天有事没看回复,我再说明一下。
首先我之前是写 java 的,临时过来写 python ,所以很多用法不了解。
然后 O1 文件其实不是一个规则的 txt ,而是需要解析的 xml 文件,我是用 sax 逐行读取的。这点之前没有详细说明
O2 文件跟之前描述一样,是个表形式的 txt 文件,通过第一列映射第二、三列
描述改个不停。。不如放几行数据出来
我还是觉得 sqlite 足够你用,几行的事
下载个 sqlite3.exe ( 1~2MB )就能用,也不用管理员权限,内存占用也随你设,1MB ,1GB ,都行
xml 也很好解决,xmlstarlet
Git 其实也是这种方式
感谢,已解决
某些开源项目被收购,下面评论一堆酸的。目前项目还是开源,作为一个吃瓜群众,想问下,如果一个开源项目被收购,需要给 Contributors 分钱吗? 开源的玩法不就是这样的吗…
在最近的开发过程中,发现数据库服务器的时间是比北京时间少 8 小时的,所以存数据的时候,时间字段自动扣减了 8 小时。 因为这个现象,我突然想到跨时区的应用在处理这样的时间问…
我特意说明了主力机,原因是我只有一台,我在纳闷我更新后那些软件还能不能用,毕竟现在大部分软件下载页里的 window 包都是 win10 64/32 位和 win7 64/32…