今天项目有个需求,就是把txt文件转为csv,txt之间是空格隔开,转为csv时需要把空格转换为逗号,网上找的一个版本,只需要三行代码,特别犀利:

python numpy pandas 快速把超大txt文件转存为csv-Python 技术分享 Java技术分享 Python 爬虫技术_微信公众号:zeropython—昊天博客

[code language="python"]
import numpy as np
import pandas as pd

data_txt = np.loadtxt('datas_train.txt')
data_txtDF = pd.DataFrame(data_txt)
data_txtDF.to_csv('datas_train.csv',index=False)

上述的datas_train.txt只有不到100MB,560W行数据,三分钟之内转换完毕。
然后我换了一个5600W行共1.2G的txt文本,用上述代码转换,电脑直接卡死了。
原因在于上述代码会把全部的txt加载进内存,然后再转换,这就会造成电脑内存耗尽。
然后就想到了切割数据的办法,具体实现如下:

[code language="python"]
import numpy as np
import pandas as pd

train_data = pd.read_table('big_data.txt',iterator=True,header=None)

while True:
try:
chunk = train_data.get_chunk(5600000)
chunk.columns = ['user_id','spu_id','buy_or_not','date']
chunk.to_csv('big_data111.csv', mode='a',header=False,index = None)
except Exception as e:
break

这里我把数据分成了小块,每块数据有560W行,分11次加载就能全部加载完了,速度也很快,总共花了5分钟左右。
注意,get_chunk()里面的参数表示文件的行数,而非字节数。




HTTPX 基础教程-新乡seo|网站优化,网站建设_微信公众号:zeropython—昊天博客