- 论坛徽章:
- 0
|
lz最近有没有什么新的数据,都贴出来看看吧,学习学习,呵呵。
另外,lz说xfs和lustre都测试过,我想问问lustre是分布式文件系统,xfs是本地文件系统,测试的时候是不是本地文件系统用xfs,集群之间用lustre文件系统呢?
从架构上说,lustre是在xfs之上吗?
我再说几个存储上的问题
1)raid5的时候,并不是盘越多越好,盘太多的话,在写cache往磁盘刷数据的时候,并不能把IO很平均地分配到各个硬盘,这个时候往往有些盘很忙,而有些盘很闲。
2)有读有写的时候比纯读存些要慢是正常的,一方面是读写互斥的问题,一方面是cache利用的问题,如果是单纯以读业务为主,可以把读cache分配大一些,写cache小一些,这样整体性能会有很大提高,因为命中率会提高,但是如果是混合业务的话,cache资源会比较紧张,常常成为瓶颈。
3)xfs文件系统是64位的文件系统,支持大文件,大目录。在大文件的读写性能上表现优异,但是小文件写和小文件删除恰恰是它的软肋,据说SGI的开发者已经开发补丁来解决这个问题,但是从lz的测试来看lustre也存在这个问题,我对这个还比较感兴趣,希望有更多的数据可以参考学习。
4)磁盘的cache最好不要打开,多数情况下对性能没有好处反而影响数据一致性。
5)磁盘的读写速度:sata盘一般是70M/s,sas 110M/s,fc 110M/s,如果是相同的磁盘,比如都是FC盘,不同的firmware版本在性能上会有一些差异。
6)当一个目录下有很多小文件时,目录的结构非常复杂,对xfs来说是b+树索引的extent结构,这个时候inode大小对读写性能不会有太大影响,影响的是磁盘寻道时间,因为此时有很多的元数据和日志需要处理,而同意文件中元数据IO,日志IO,数据IO的LBA地址相互之间都是不连续的,各个文件的数据IO的LBA地址也不连续,所以此时的读写带宽很慢。 |
|