最近我在写一个MAILLOG分析脚本,并把分析结果存入MYSQL,写完后分析一个80079行的LOG,足足运行了25分钟才处理完,各位老大是不是太慢了呢?
以下为我的脚本;
$start = time();
open(MAILLOG,"maillog.6") ;
@entry =
by DVDRW - Perl - 2006-03-03 17:07:34 阅读(3967) 回复(4)
哪位朋友用过 perl socket 编程,不知 perl socket 服务器端同时连接1000个客户端下载数据效率如何 ? 熟悉的朋友请回复,谢谢 本人是新手,还没有积分 :)
perl中的hash和我印象中传统的hash表不一样,数据结构中hash表是通过一个函数把关键字映射到一个连续地址空间上,也就是实际上用数组实现的 perl可以允许任意形式的变量直接作为索引,然而如果事先不能知道关键字的特点,也就不能合适的选出hash函数,那有怎么能够保证O(1)的查找效率呢,其实我就是想问perl中hash怎么实现的 刚开始学perl 可能说的不大清楚 大家见谅
哪个效率高呢。貌似perl要高,但是,我这里通过这两者循环发网络请求的时候,发一个请求echo一个数据,php能实时echo数据,但是perl print数据总是有延迟呢,差不多发几个才print一次。
请问,如果让 perl 在 DELL PE 2650 上去查询 400万 条记录的Oracle 9i 数据库, 不知反应如何? 有单独的数据库服务器。 用 asp 处理过,感觉速度很慢。
我要用的处理很简单就是截取文件中的几个域然后再输出 cat a.dat | awk ' { print $1} ' 但是要处理的文件很多,而且都很大,所以执行起来特别耗费时间。 请教一下有没有效率更高的方法~~~ 还有另外一个问题,有一个文件中有半角字符和全角字符,我要按位截取的话, 有什么办法可以把全角自动算为两位?(好像substr() 和length()都是按字符处理的, 全角也只算为一位) 如: aaaa我是谁bbcc 我要截取1-12位,预想结果是...
如题,我想自己写一个网络蜘蛛,定时搜索网络资源。之后再写一个程序对这些网络资源(例如,doc文件,pdf文件等等)进行处理,提起其中的文本信息。我知道现在有很多开源的网络蜘蛛,java的,perl的都有。我想请教下大家,perl用来做这个有没有优势?效率如何?实现起来是否困难?我之所以想自己写是因为想提高下自己的对perl的理解和应用能力,当然我也会借鉴目前已有的这些开源程序。还请大家不吝赐教~~
walkerxk@www:~$ cat a.sh #!/bin/bash N=1000 for ((I=1;I<$N;I++)) do J=$(echo $N/10|bc) if [ $(expr $I % $J) -eq 0 ] then echo $I >sh.log fi done walkerxk@www:~$ cat a.pl #!/usr/bin/perl $n=1000; open($f,">pl.log"); for ($i=1;$i<$n;$i++) { $j=$n/10; if (0==$i%$j) { print $f $i."\n"; } } walkerxk@www:~$ time ./a.pl real 0m0.008s user 0m0.004s sys 0m0.004s walkerxk@www:~$ time ./a.sh real...
前提:小弟很菜,说的不对的地方请原谅! perl写的普通的CGI一般执行效率很低,而PHP在UNIX上大多是以SO方式集成到APACHE中的, 而且PHP的效率和perl相比是很高的 (我知道有文章用实例对比过,但是事实是什么情况大家都知道,我们不作perl和php的斗争) perl中的mod_perl是和前面说的php的安装方法类似吗? 我不是很清楚,我也没试验过,因为我不会modperl,但是知道它似乎很耗内存,但php不是很耗内存 不知道perl&php的性能之...