- 论坛徽章:
- 0
|
从最简单的开始.
注意备份
grep -v root
awk -F”:” ‘{ print $1,$3 }’ /etc/passwd
cut -d”:” -f1,3 /etc/passwd
(冒号分割,也可以用’ ‘ - tab之类.)
awk -F”:” ‘{ print $1,($3+1) }’ /etc/passwd
(可以进行数学运算,注意都+1了)
awk ‘{ print $0″
” }’ dosfile
(unix -> dos,就是在末尾+
)
sed -e s/pattern/newstr/g filename > newfile
(替换pattern->newstr,freebsd的要换成-E)
sed -n 1,5p filename
(显示1-5行 - 这种任务应该交给head)
uniq -c xxx
(清理重复,显示重复数目)
wc -l xxxx
(这个文件有几行?)
sort -r
(倒着来)
sort -n
(按数字排)
awk ‘BEGIN{sum=0}{sum=sum+$0}END{print sum}’ test.txt
(数字求和)
你觉得差不多了?
ok.
给你个日志,让你求一下该站的流量情况,呵呵.
一个无关的例子:
awk -F’|’ ‘{a[$5]+=$4}END{for(i in a)printf(”%s %d
“,i,a)}’ datafile | sort
csplit -k -f dgckfhz dz3090100.unl.bak 970000 {99}
将dz3090100.unl.bak 分割成按照每个文件970000行,文件以dgckfhz开头以00-99结尾的文件
本文来自ChinaUnix博客,如果查看原文请点:http://blog.chinaunix.net/u/18783/showart_1929143.html |
|