- 论坛徽章:
- 0
|
回复 6# iamlimeng
你好 我发现瓶颈了 就是假设这次的文件有1万个, 之后我分别解析,生成了一系列的临时txt, (这些txt也是1万个)
之后我需要将这1万个txt临时文件,写入一个txt目标文件。 这一步骤耗时较长。
(简练的说:就是解析1万个文件 每个文件生成一个临时txt解析好的数据, 之后这些数据全部导入到一个名字为dest.txt的文件中。)
(#注:其中这1万个文件中 每个文件大概数据量为几十K)
请问遇到这种问题,有什么办法可以进行解决吗?
我想的是 把这些解析后的txt数据,分批放入多进程,之后每个进程里 将txt再分别写入一个临时txt 之后每个进程的临时txt 再汇总至最终txt里
实现方法如下:
(a,b,c) (d,e,f) (h,i,g,k) #假设一万个txt
| | |
X Y Z #假设3个进程 那么把1万个分3份 每份3000+ 分别执行
\ | /
最终txt #之后将2步得到的3个txt录入最终txt.
不知道这个效率是否会提高?
或者各位朋友 谁有更好的办法来对付这个多对一的过程 麻烦给我说下 感激不尽!!{:3_193:}
|
|