Fork me on GitHub

版权声明 本站原创文章 由 萌叔 发表
转载请注明 萌叔 | https://vearne.cc

帮同事写的小程序

140822,1406181801491716879,221.203.75.168,20140822000014  
140823,1408051715321587060,101.28.174.242,20140822000127  
140823,1408051715321587060,101.28.174.242,20140822000129  
140824,1408051715321587060,101.28.174.242,20140822000139  
140824,1406031640261808247,110.254.245.82,20140822000205  
140825,1305230023521467300,210.73.6.180,20140822000216  
140825,1408181402431171048,110.243.255.56,20140822000216  
140825,1408131900341325654,110.248.233.239,20140822000216  
140825,1407071756131811923,27.213.51.178,20140822000228  
140826,1408171201311863011,124.67.26.134,20140822000238 

某个数据文件的内容如上,每行的第一部分是时间140822 2014年8月22日
要按不同的日期分割文件, shell脚本如下:

cat data.txt | while read line  
do  
if [ -n "$line" ]  
then  
echo $line  
echo ${line%%,*}  
echo $line >> "${line%%,*}.txt"  
echo "${line##*,}"  
fi  
done

实际运行中,速度非常差,无法容忍,由于时间的起止是从140822 至 140826

所以程序改为

date  
for((i=140818;i<=140826;i++));do  
    echo $i;  
    awk '{if(/^'$i'/)print $0;}' data.txt >$i.data.csv  
done;  
date

这样速度有了明显的提升,推断速度提升的原因是减少了IO操作次数,子进程创建和销毁的次数也减少了
尝试使用grep替代awk命令发现速度更快

date  
for((i=140818;i<=140826;i++));do  
    echo $i;  
    grep "$i," data.txt > "${i}.txt"  
done;  
date

使用awk命令耗时为6分钟左右,而使用grep 命令耗时大约为3分多钟

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注