免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
12下一页
最近访问板块 发新帖
查看: 2008 | 回复: 10
打印 上一主题 下一主题

请教 PVFS2 segementation fault 问题! [复制链接]

论坛徽章:
0
跳转到指定楼层
1 [收藏(0)] [报告]
发表于 2006-07-13 11:54 |只看该作者 |倒序浏览
之前使用pvfs2 没有问题,但是在为了使用外置存储,调整本地存储挂载点,重新安装一次之后,出现如下的segementation fault的问题。请大侠们帮忙!

**********************************************************************
        Welcome to the PVFS2 Configuration Generator:

This interactive script will generate configuration files suitable
for use with a new PVFS2 file system.  Please see the PVFS2 quickstart
guide for details.

**********************************************************************

You must first select the network protocol that your file system will use.
The only currently supported options are "tcp", "gm", and "ib".
(For multi-homed configurations, use e.g. "ib,tcp".)

* Enter protocol type [Default is tcp]:

Choose a TCP/IP port for the servers to listen on.  Note that this
script assumes that all servers will use the same port number.

* Enter port number [Default is 3334]:

Next you must list the hostnames of the machines that will act as
I/O servers.  Acceptable syntax is "node1, node2, ..." or "node{#-#,#,#}".

* Enter hostnames [Default is localhost]: 174.19.234.2,174.19.234.3,174.19.234.4,174.19.234.5

Now list the hostnames of the machines that will act as Metadata
servers.  This list may or may not overlap with the I/O server list.

* Enter hostnames [Default is localhost]: 174.19.234.2,174.19.234.3,174.19.234.4,174.19.234.5

Configured a total of 4 servers:
4 of them are I/O servers.
4 of them are Metadata servers.

* Would you like to verify server list (y/n) [Default is n]? y

****** I/O servers:
tcp://174.19.234.2:3334
tcp://174.19.234.3:3334
tcp://174.19.234.4:3334
tcp://174.19.234.5:3334

****** Metadata servers:
tcp://174.19.234.2:3334
tcp://174.19.234.3:3334
tcp://174.19.234.4:3334
tcp://174.19.234.5:3334

* Does this look ok (y/n) [Default is y]? y

Choose a file for each server to write log messages to.

* Enter log file location [Default is /tmp/pvfs2-server.log]:

Choose a directory for each server to store data in.

* Enter directory name: [Default is /pvfs2-storage-space]: /mnt/pvfs2

Writing fs config file... Done.
Writing 4 server config file(s)... Done.
Segmentation fault

请高手指导

论坛徽章:
0
2 [报告]
发表于 2006-07-13 13:47 |只看该作者
where is nntp?

论坛徽章:
0
3 [报告]
发表于 2006-07-13 14:36 |只看该作者
where is your details?

论坛徽章:
0
4 [报告]
发表于 2006-07-13 15:39 |只看该作者
4 IO server
4 pvfs2 client
OS:SuSE EL 9
kernel:2.6.5-7.191

在每台IO server上配置
#cd /usr/src/
#tar zxvf pvfs2-1.4.0.tar.gz
#cd pvfs2-1.4.0
#./configure --disable-kernel-aio --with-kernel=/usr/src/linux-2.6.5-7.191
#make
#make install

#pvfs2-genconfig /etc/pvfs2-fs.conf /etc/pvfs2-server.conf
配置最后一步,出 segmentation fault 错!重启后试过几次,仍然出错。无法定位问题,请高手帮忙

help
thx

[ 本帖最后由 jiangyi_hust 于 2006-7-13 16:25 编辑 ]

论坛徽章:
0
5 [报告]
发表于 2006-07-13 17:08 |只看该作者
segfault 一般是程序自身的问题,并和这个程序运行需要的环境也有关系. 配置最后出错,service还没有起来所以debug也无法enable.

个人建议:

1. change OS to RHEL4 (just have a try) with NXbit & SELinux disabled.(just for troubleshooting)
2. try latest pvfs2 1.5.1
3. carefully check your gcc, glibc, pthread environment ensure that are all ok.
4. try to log something when re-produce the issue.

论坛徽章:
0
6 [报告]
发表于 2006-07-14 17:28 |只看该作者
Thanks for nntp's help!
The problem is fixed!

论坛徽章:
0
7 [报告]
发表于 2006-07-14 17:29 |只看该作者
and the issue and problem is ?

论坛徽章:
0
8 [报告]
发表于 2006-07-14 23:16 |只看该作者
use the PVFS2 release 1.5.1 and change the OS.

安装操作系统的时候使用的是安装服务器,在安装过程中可能有些包没有装好,安装完成后服务器的名字显示的是linux,也有none的。
在重新安装后名字显示是所要求的名字。
所以估计问题是OS的问题。之前使用的是PVFS2 1.4.0

论坛徽章:
0
9 [报告]
发表于 2006-07-14 23:25 |只看该作者
请问nntp 在不考虑单点故障的情况下,pvfs2能否使用在流媒体环境中。
pvfs2的条带化的读写方式 与流媒体的应用 配合起来是否在性能上有不合拍的地方?!

我觉得搞清这个问题的前提是需要搞清楚 流媒体请求对文件的读写方式是怎样的
请关注!

论坛徽章:
0
10 [报告]
发表于 2006-07-15 00:06 |只看该作者
涉及到performance benchmark的问题,就是一个头大的问题,因为要测试的可能组合非常多,configure和tuning的组合也很多,这样两个一对上,排出来的测试排列组合和结果也爆多。

我个人觉得pvfs2不适合流媒体环境,讨论RAID性能的时候,因为是在一个disk system上面,通过利用SCSI 技术优势,stripe程度越高,对于流媒体(大文件,顺序读)服务的性能提高就越大.  但是 pvfs2 是跨物理主机的文件系统,文件跨主机之后(striped),读开销不但要算上涉及这个文件的单个host上的disk I/O 开销,还有host/host之间的通信开销. 虽然一个大文件(比如4GB media file)因stripe多个host得到了并发操作的好处,他的开销也同时提高了.

LVS+dedicated media server+centralized high performance storage 的方案要比  multi-clients(media service system)+pvfs2 cluster+low end host based storage的方案好很多.

举例来说,如果是对应流媒体应用,  4个服务器作LVS 分掉client 的压力,用一个高性能的FC SAN来集中存储. 要比多client(media service system) 直接访问pvfs2 cluster获得媒体服务要好很多.

这是我个人意见,说得比较粗略,需要针对具体的benchmark需求做实际的具体的评估工作才能精确得到一个结果.

正常的流媒体应用应该都是大文件/顺序读行为.
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP