ChinaUnix.net
相关文章推荐:

linux 查大文件

硬RAID 不是软RAID,而且不能重起的

by very_99 - Linux论坛 - 2005-11-09 11:26:05 阅读(767) 回复(9)

相关讨论

请教各位朋友,在redhat linux9下如何检内存溢出

by Bristol - Linux论坛 - 2005-05-10 13:38:30 阅读(349) 回复(1)

请问用什么命令可以把一个大文件分成小文件呢 我有一个大文件有35万行,我想把它分成为5万行为一个文件. 麻烦你为我解答

by carefen - Linux论坛 - 2003-05-31 01:32:14 阅读(411) 回复(3)

linux下,如何增大文件描述字符? 高手指点

by 008bian - 服务器应用 - 2008-05-08 15:32:31 阅读(3511) 回复(11)

是这样的,小弟有个项目要通过FTP去其它机上取文件,取下来大概都是2,3个G的大文件,我要把它们插入数据库,因为直接读取文件非常慢近乎不可能,我听说文件映射成内存会快很多,不知道用Java怎么将文件映射成内存呢? 小弟很急,只要朋友们提供的资料对路,偶愿意出RMB20,聊表谢意

by josephchen1979 - Java - 2007-05-18 14:39:46 阅读(1697) 回复(2)

我记得以前是通过以下命令实现的: ulimit -h 30000 ulimit -s 30000 分别是把硬限制和软限制提高. 但是在2.6下好像不行了,请大家帮忙.

by SirFang - C/C++ - 2006-09-04 15:32:53 阅读(984) 回复(1)

近日小弟做了个linux下用户数据报协议大文件传输程式发上来与大家共勉。 代码在 redhat 9.0 下编译通过。 最大测试无差错传输文件:288M 最大测试传输速度:6.5M/S 可能这里并不需要这种类型的帖子,但希望各位能代小弟转贴,因为网络上很难搜索到这种可以解决丢包问题的代码级实现方法,希望每一个需要的人都能看的到。 服务器端: #include; #include; #include; #include

by me09 - C/C++ - 2006-06-21 23:51:56 阅读(2878) 回复(17)

近日小弟做了个linux下用户数据报协议大文件传输程式发上来与大家共勉。 代码在 redhat 9.0 下编译通过。 最大测试无差错传输文件:288M 最大测试传输速度:6.5M/S 可能这里并不需要这种类型的帖子,但希望各位能代小弟转贴,因为网络上很难搜索到这种可以解决丢包问题的代码级实现方法,希望每一个需要的人都能看的到。 服务器端: [code] #include; #include; #include; #include

by me09 - 程序开发 - 2006-05-15 13:00:42 阅读(9940) 回复(16)

-------------------------------------------------------------------------------- 如果是对大文件呢? 比如压缩过超过5G以上的文件,使用什么加密呢? 我试了openssl ,不灵了!

by niuniu_2118 - Linux论坛 - 2005-09-20 11:11:33 阅读(419) 回复(2)

现在有一linux,dump 数据库的空间大于2g,提示不让dump,不知道是很linux的文件大小限制有关系,还是和sybase有关系

by ibmsoft - Linux论坛 - 2005-09-02 10:11:08 阅读(726) 回复(9)

我是redhat9用户,在/var/spool/mail下有一个root很大,而且每秒钟都在增加. 我用cat /dev/null >; /var/spool/mail/root 将其内容删除后.他还是会每秒钟增加,大概增加的速度是每秒1K.如果这个文件到达几G以后,我的sendmail就不能用了,邮件会发不出去的。

by bbsuser - 服务器应用 - 2004-05-20 09:12:02 阅读(680) 回复(6)