ChinaUnix.net
相关文章推荐:

linux 搜索大文件

都说linux ext3支持十几T的大文件 为什么我的程序每次写到2G就被终止了呢郁闷,求解谢谢

by luoleicn - 内核源码 - 2009-06-27 11:13:34 阅读(1526) 回复(4)

相关讨论

[color="#333333"] $dd if=source of=target.1 bs=1M count=10   $dd if=source of=target.2 bs=1M skip=10   source被分为target.1和target.2两个文件,其中target.1为source的前10M部分;   target.2为source的减去10M后的部分。   $cat target.1 target.2 > othersource LUPA开源社区 Zp[UU.|xU&B LUPA开源社区 Zp[UU.|xU&BLUPA开源社区 Zp[UU.|xU&B 本文来自ChinaUnix博客,如果查看原文请点:http://blog...

by qintel - Linux文档专区 - 2007-09-03 20:55:24 阅读(1329) 回复(0)

mysql记录的单个文件超大,系统已经识别不出来。请教如何删除? bash# ls -l httplog.MYD ls: httplog.MYD: Value too large for defined data type bash# rm httplog.MYD rm: unable to stat `httplog.MYD': Value too large for defined data type

by srun - Linux系统管理 - 2007-04-08 00:41:18 阅读(6280) 回复(3)

Hi 本人想写一个处理速度更高的文件处理程序 特此请教! 下面代码只是每次读取文件一行来处理 将一个大文件(例如10G),拆分成500个表来保存 文件内容是 4,53,62 6553,5,42 853,65,45 722,55,74 ...... ... 想更高效率就需要每次取 几M 到内存再处理 所以下面代码有待改善 有人能分享下怎样从这个大文件抽取 几M(1M或5M)到内存再进行处理吗???(我代码是对每行的 , 之前的数字取模,按照模数来分表) 或者有人有更好的想...

linux文件处理

by cllggg - C/C++ - 2010-12-29 16:55:49 阅读(8845) 回复(18)

linux下,我们使用ulimit -n命令可以看到单个进程能够打开的最大文件句柄数量(socket连接也算在里面)。系统默认值1024。    对于一般的应用来说(象Apache、系统进程)1024完全足够使用。但是如何象squid、mysql、java等单进程处理大量请求的应用来说就有点捉襟见肘了。如果单个进程打开的文件句柄数量超过了系统定义的值,就会提到“too many files open”的错误提示。如何知道当前进程打开了多少个文件句柄呢?下面一段小脚...

by sjhf - Linux文档专区 - 2009-03-23 11:09:35 阅读(687) 回复(0)

当硬盘空间不够时,我们就很关心哪些目录或文件比较大,看看能否干掉一些了,怎么才能知道呢? #已易读的格式显示指定目录或文件的大小,-s选项指定对于目录不详细显示每个子目录或文件的大小 du -sh [dirname|filename] 如: 当前目录的大小: du -sh . 当前目录下个文件或目录的大小: du -sh * 显示前10个占用空间最大的文件或目录: du -s * | sort -nr | head 本文来自ChinaUnix博客,如果查看原文请点:htt...

by phpor - Linux文档专区 - 2008-02-17 20:19:14 阅读(507) 回复(0)

linux下用户数据报协议大文件传输 代码在 redhat下编译通过。 最大测试无差错传输文件:288M 最大测试传输速度:6.5M/S 包含了可以解决丢包问题的代码级实现方法。 服务器端: CODE: #include; #include; #include; #include; #include; #include; #include; #include; #include; #include; #include; #include; #include; #define SERV_PORT 2500 #define MAX_SIZE 1024*40 void recvUDP(char name[20],int sockfd) { in...

by danforn - Linux文档专区 - 2008-02-01 09:54:34 阅读(1019) 回复(0)

请问用什么命令可以把一个大文件分成小文件呢 我有一个大文件有35万行,我想把它分成为5万行为一个文件. 麻烦你为我解答

by carefen - Linux论坛 - 2003-05-31 01:32:14 阅读(748) 回复(3)

请问用什么命令可以把一个大文件分成小文件呢 我有一个大文件有35万行,我想把它分成为5万行为一个文件. 麻烦你为我解答

by carefen - Linux系统管理 - 2003-05-31 01:32:14 阅读(2318) 回复(3)

输入您的搜索字词提交搜索表单 [color="#000000"]Web[color="#000000"]bbs.chinaunix.net 本文来自ChinaUnix博客,如果查看原文请点:http://blog.chinaunix.net/u/9817/showart_1408545.html

by 枫影谁用了 - Linux文档专区 - 2008-11-12 09:11:45 阅读(616) 回复(0)

1:按文件名来查找 find: locate -(先执行updatedb 命令来更新检索数据库) 2:按文件内容或者输出内容来查找 grep: 3:寻找命令的二进制文件 whereis: /usr/bin/find /usr/share/man/man1p/find.1p.gz /usr/share/man/man1/find.1.gz which:(which 和where 相似,只是我们所设置的环境变量中设置好的路径中寻找) /usr/bin/find 本文来自ChinaUnix博客,如果查看原文请点:http://blog.chinaunix.net/u2/61627/showart_48...

by ivykiki - Linux文档专区 - 2008-02-22 14:07:58 阅读(585) 回复(0)