免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
12下一页
最近访问板块 发新帖
查看: 2324 | 回复: 10
打印 上一主题 下一主题

火急!!!ls文件数目超过一万个就得不到文件名了,如何解决? [复制链接]

论坛徽章:
0
跳转到指定楼层
1 [收藏(0)] [报告]
发表于 2006-07-17 15:17 |只看该作者 |倒序浏览
ls文件数目超过一万个就得不到文件名了,如何解决?
我只是想得到当前目录下(不包含子目录)的文件名
比如我的目录下有三万个文件
ls 文件名后缀 得不到任何的文件名,大家可以试一下
或者,有别的方法可以么?
如果,可以得到小数目的文件名(比如几百或者几千个也可以)

论坛徽章:
0
2 [报告]
发表于 2006-07-17 15:53 |只看该作者
没环境,用find试试。

论坛徽章:
0
3 [报告]
发表于 2006-07-17 16:48 |只看该作者
hehe !
    Maybe , you got wrong !
    I have trid it , I created 20000 .txt files , then " ls -l " works well .
    PS : My platform is Suse 9.0 !

论坛徽章:
8
摩羯座
日期:2014-11-26 18:59:452015亚冠之浦和红钻
日期:2015-06-23 19:10:532015亚冠之西悉尼流浪者
日期:2015-08-21 08:40:5815-16赛季CBA联赛之山东
日期:2016-01-31 18:25:0515-16赛季CBA联赛之四川
日期:2016-02-16 16:08:30程序设计版块每日发帖之星
日期:2016-06-29 06:20:002017金鸡报晓
日期:2017-01-10 15:19:5615-16赛季CBA联赛之佛山
日期:2017-02-27 20:41:19
4 [报告]
发表于 2006-07-17 16:54 |只看该作者
他用的是
ls *xxx
有两种方法
1.看看精华区的文章,了解一下shell命令行扩展
2.升级物理内存超过硬盘容量

[ 本帖最后由 waker 于 2006-7-17 16:56 编辑 ]

论坛徽章:
0
5 [报告]
发表于 2006-07-17 17:04 |只看该作者
xargs

论坛徽章:
0
6 [报告]
发表于 2006-07-17 20:38 |只看该作者
实现的方法应该不少
不一定就非要用ls 了
用find + xargs就可以了

论坛徽章:
0
7 [报告]
发表于 2006-07-18 01:05 |只看该作者
和内存容量有关系的。用find

论坛徽章:
0
8 [报告]
发表于 2006-07-18 09:54 |只看该作者
具体使用find & xargs 如何实现呢?

论坛徽章:
0
9 [报告]
发表于 2006-07-18 10:04 |只看该作者
用:find ./ -name *txt | xargs ls -l
就可以了,但是我发现,大于10000个文件,也是没有问题的阿!
这主要可能是和我们试验的平台有关系。我的内存比较大!

论坛徽章:
0
10 [报告]
发表于 2006-07-19 11:03 |只看该作者
可以用ls + 正则表达式
例 ls [a-f]*
取出a-f开头的所有的文件。
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP