今晚写机器学习回归算法时,需要先预处理一下txt数据,原数据之间隔了不等个空格,需要处理成以逗号分隔,用Python写了一个小脚本批量处理。
原数据
处理后的数据
源代码如下
#!/usr/bin/python # -*- coding: utf-8 -*- #为了可以添加中文注释 file = 'C:\Users\zhuhuihui\Desktop\data3.txt' #原始数据目录 file_write = 'C:\Users\zhuhuihui\Desktop\data4.txt' #新写入数据目录 f = open(file,'r') #只读模式打开 f_w = open(file_write,'w') for eachline in f: #按行读入 if(eachline != '\n'): eachline = ','.join(eachline.split()) #将连续空格替换成‘,' f_w.write(eachline) #将数据写入新的txt f_w.write('\n') #换行 f.close() #关闭 f_w.close()
相关推荐
应运MVVM模式的DataGrid 实现了 批量数据处理
java数据批量处理
最近在研究springBoot+springbatch ,按照官网的实例做了一个实例。 最近在研究springBoot+springbatch ,按照官网的实例做了一个实例。
批处理分段数据的步骤和方法,给出了流程和典型的分析算例,供参考学习 欢迎高手指点其他更高效的处理思路和方法流程
帝国CMS批量王插件 强大的批量处理数据功能
AD域中批量处理数据的脚本,请大家参考,可以省去一个一个处理的麻烦。
看完该文件你就可以最高效率的批量处理数据
2.10【视频讲解】循环——批量处理数据.mp4
MATLAB源程序,可直接将多组数据进行imf转换。方便实用。
NULL 博文链接:https://wangyaweinihao.iteye.com/blog/2326293
很多人都对Java在批量数据的处理方面是否是其合适的场所持有怀疑的念头,由此延伸,那么就会认为ORM可能也不是特别适合数据的批量处理。 其实,我想如果我们应用得当的话,完全可以消除ORM批量处理性能问题这方面的...
mybaits 多线程 实现数据批量插入 (运用CountDownLatch实现闭锁) 1、mybatis批处理 2、数据分批量查询 3、数据分批量插入
经过同学运行发现,当fluent导出数据量到excel时,因为超过百兆太大不支持,于是稍微改写了一下,这样可以选择 以dat格式或则txt格式储存,然后在运用该段代码处理数据达到上述目的。因为不能对上传后的资料重新编辑...
简单便捷的小工具,希望对大家有所帮助!
用于eeglab平台批量预处理脑电数据,实现的有:导入,准参考,滤波,存储等
ArrayList数据批量添加数据,供新手参考
利用数组处理批量数据.