免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
12下一页
最近访问板块 发新帖
查看: 11689 | 回复: 19
打印 上一主题 下一主题

【Solaris 10专题】Solaris 10设备与文件系统管理 [复制链接]

论坛徽章:
0
跳转到指定楼层
1 [收藏(0)] [报告]
发表于 2008-04-10 06:21 |只看该作者 |倒序浏览
特别说明:本主题版权所有,不得转载及另行发布,否则一切法律责任自负!
目录:
Part-1 设 备 管 理
# 1 设备管理概述
# 2 硬盘管理
# 3 热插拔设备的管理
# 4 USB大容量存储设备
# 5 CD和DVD设备的刻录
# 6 磁带设备

Part-2 传统文件系统管理
# 1 文件系统概述
# 2 UFS系统文件系统介绍
# 3 网络文件系统(NFS)介绍
# 4 虚拟文件系统
Part-3 ZFS文件系统
# 1 ZFS文件系统概述
# 2 创建和管理存储池
# 3 管理ZFS
# 4 ZFS文件系统的快照和克隆


Part 1 设备管理:
Solaris系统操作环境下的设备管理一直在不断的发展。Solaris 10比以前的Solaris版本又增添了新的设备和设备管理命令。本章主要介绍一些主要的Solaris设备的管理信息。

1 设备管理概述
有很多的硬件设备支持着Solaris系统的运行,而且随着技术的发展,还会有更多的新设备出现。管理好、使用好这些设备是保障系统平稳且有效运行的关键。
1.1 Solaris 10设备管理新特性

Solaris 10版本更新了设备管理,下面我们来介绍这些设备的新特性。
1.支持USB2.0

Solaris USB 2.0 设备支持包括以下功能:

将USB总线速度从12 Mbps提高到480 Mbps。这种速度的增加意味着当支持USB 2.0规范的设备连接到USB 2.0端口时,其运行速度将大大高于支持USB 1.1规范的同类设备。

在所有基于PCI的平台上,USB 2.0都可用于Solaris。要提供USB 2.0端口,需要一块USB 2.0 PCI卡。有关针对Solaris发行版确认的USB 2.0 PCI卡列表,请访问http://www.sun.com/io_technologies/ihvindex.html

USB 1.1设备的工作方式与过去一样,即使系统中同时有USB 1.1和USB 2.0设备也是如此。

尽管USB 2.0设备可以在USB 1.x端口上运行,但其性能远低于连接到USB 2.0端口时的性能。
2.x86系统的1394(FireWire)和海量存储支持

Solaris 10对1394设备的更新:

已将1394 OpenHCI主机控制器驱动程序更新为包括对x86系统的支持。以前对1394(FireWire)技术的支持仅可用于SPARC系统。

引入了scsa1394驱动程序,以支持符合串行总线协议2(SBP-2)规范的1394海量存储设备。该驱动程序支持由总线供电和自备电源的1394海量存储设备。以前仅支持1394摄像机。
3.设备文件系统(devfs)的增强功能

devfs文件系统提供下列增强功能:

执行/devices目录中的操作会附加设备条目。未使用的设备条目被分离开来。

系统启动性能得到增强,这是由于只附加了启动系统所需的设备条目。当访问设备时将添加新的设备条目。
1.2 显示当前的设备信息命令介绍
prtconf ----显示系统设置信息,包括内存总数和系统设备层信息---prtconf(1MB)
sysdef  ----显示系统设置信息,包括硬件、虚拟设备、承载模块和内核参数----sysdef(1MB)
dmesg  ----显示设备的诊断信息----dmesg(1MB)
1.3 如何增添非热插拔的外围设备

非热插拔的设备可能有以下这些:

 CD-ROM;

 第二块硬盘;

 磁带设备;

 SBUS card。

增添这些外围设备步骤如下:

(1)成为超级用户;

(2)使用命令添加设备驱动:

# pkgadd [-d] device package-name

-d:包含设备驱动的数据包的路径;

package-name:包含设备驱动的数据包名。

(3)建立/reconfigure文件:

# touch /reconfigure

这个/reconfigure将导致系统在重新启动时自动检查新的设备;

(4)系统关机;

(5)将新的设备插到计算机上;

(6)重新开机并检查硬件工作是否正常。

[ 本帖最后由 云杉上的蝴蝶 于 2008-4-12 06:50 编辑 ]

论坛徽章:
0
2 [报告]
发表于 2008-04-10 06:50 |只看该作者

硬盘管理

硬盘是存储数据的设备,在整个系统中具有很重要的地位。详细了解硬盘的管理方法是非常必要的。本节主要介绍硬盘的有关知识和管理方法。

硬盘管理概述
1.硬盘标识(Disk Labels)

硬盘标识是专门存放硬盘的控制、结构和盘片信息的地方。目前,Solaris 10支持两种硬盘标识:VTOC和EFI。VTOC是传统的硬盘标识,但它只能创造小于1 TB大小的文件系统(1TB=1000GB)。EFI标识可以支持操作系统创造大于1 TB的文件系统。
需要指出的是,Solaris 10在运行64位内核时支持多TB的UFS文件系统,详细情况请见第12章文件系统的介绍。而在使用EFI标识的情况下,运行32位的Solaris 10系统也可以支持大于1TB的UFS文件系统。

EFI标识硬盘虽然比VTOC标识硬盘支持文件系统大,但是它也有一些限制:
 SCSI驱动器ssd当前支持的磁盘最大只能为2 TB。如果你需要大于2 TB容量的磁盘,请使用磁盘和存储管理产品(如Solaris卷管理器)来创建较大的设备。
 EFI硬盘标识不支持IDE硬盘。
 EFI标识硬盘不能作为启动盘启动操作系统。

 EFI标识硬盘的全盘表示为cxtydz。
 不能用Solaris Management Console管理工具来管理EFI标识硬盘,但可以用format工具来管理。
2.盘片(Disk Slices)介绍

一个物理盘划分为几个部分,单个部分被称为盘片。存储在硬盘的文件包含在文件系统中,而每个文件系统所在的硬盘部分是一个盘片(Disk Slices)。当我们设置盘片时,需要记住下面的概念:

 每个盘片上装有一个文件系统;

 没有文件系统可以跨越多个盘片。

对于SPARC和x86系统平台,盘片的设置稍微有所不同,下面我们来汇总一下这些不同,
盘片在SPARC和x86上的不同
SPARC平台 :全部的硬盘都贡献给了Solaris                    | x86平台 :硬盘使用fdisk命令来分区,一个分区可装一个操作系统
VTOC(lable标识)的硬盘可以分为8个盘片,号码是0~7     |VTOC(lable标识)的硬盘的fdisk分区可以分为10个分区,号码为0~9
EFI(lable标识)的硬盘可以分为7个盘片,号码为0~6        |EFI(lable标识)的硬盘可以分为7个盘片,号码是0~6

需要说明的是,在x86平台的fdisk分区,fdisk分区是硬盘dos分区的一部分,是为了安装多操作系统时,留给其他一些其它的操作系统(如Solaris)的。
盘片-|文件系统-|通常情况下,可在服务器或客户机上找到——-|解 释——————————————-------------
0 Root(/) |都能  |安装操作系统的文件和目录,系统不能在EFI lable的硬盘上启动
1 swap    |都能  |提供虚拟内存
2 —        |都能  |在VTOC硬盘下,表示整个硬盘。大小不能被改变 |在EFI硬盘下,只是一个普通的盘片号码
3 export  |都能  |用户可以按照自己的需要定义这个盘片,也可以用来安装客户机需要的操作系统版本
4            |都能  |用户可以按照自己的需要定义这个盘片
5 /opt|都能 |用户可以按照自己的需要定义这个盘片,可以用来安装一些应用软件。如果在盘片没有分配给/opt文件,系统空间的话,这个/opt目录大小为0                                    
6 /usr |都能 |主要安装一些命令、文档和常用库文件等
7 /home或 /export/home |都能 |主要是安装一些用户的文件
8  N/A | N/A |不适用VTOC硬盘 .EFI硬盘的保留盘片,不能修改和删除这个盘片
9  —   |都能  |不使用EFI硬盘 |VTOC硬盘上保留盘片

硬盘分区表
硬盘标识的一个重要的组成部分就是分区表,它存放着盘片、盘片的边界和盘片的大小等信息。查看分区表的内容可使用format命令。
分区表术语--值--描 述
号码 -- 0~7--VTOC硬盘:分区或盘片号0~7. EFI硬盘:分区或盘片号0~6
Tag--0=UNASSIGNED 1=BOOT ;2=ROOT 3=SWAP 4=USR;5=BACKUP 7=VAR;8=HOME 11=RESERVED;
--------------数字号码表示文件系统被挂接(mount)的分区号
Flags--wm--这个分区可以写和挂接(mount)
-------wu--这个分区是可以写的,但是不能被挂接。这是swqp分区
-------rm--这个分区可以被读,也可以被挂接

4.Format命令简介

Format命令是系统管理员使用管理硬盘的工具。

用 处---详细信息

1.在操作系统上寻找所有的硬盘驱动 --报告下列信息:目标所在的位置//硬盘的结构//硬盘是否被格式化//硬盘是否有被mount上的分区
2.找回硬盘标识--方便硬盘修复操作
3.修复有缺陷的硬盘扇区--允许管理员修复硬盘驱动或者回到出厂设置
4.格式化和分析硬盘--创建扇区和校验扇区
5.硬盘分区--硬盘分成盘片并在每个盘片上创建单个文件系统
6.增添硬盘标识--写硬盘名和控制信息到硬盘,目的是为了硬盘的恢复

查看硬盘信息

硬盘的信息主要包括硬盘的使用情况、分区情况和标识内容。
1.查看硬盘的使用情况

键入du命令可以查出每个文件或目录占用了多少个512字节的硬盘块。若某目录含子目录,则在计算块数时,子目录中的内容也包括在内。

host%du

2913 ./3.0templates

639 ./Srt

347 ./Howto

1998 ./Clipart

607 ./Newtemplates

38 ./Modemstuff

2004 ./Config/Art

6593 ./Config

13280

host%

上面例子中的输出以512字节的块为单位,欲换算成兆字节(MB),应除以2048,上例中,13280/2048=6.48MB。

也可以用du-k列出以K为单位的输出结果,使用du-s可以只列出总空间大小而无须列出详细目录大小。
2.查看硬盘的分区的情况

使用format命令可以查看到硬盘分区表的信息:

# format

Searching for disks...done

Specify disk (enter its number):1

Selecting c0t0d0

format> partition

partition> print

Current partition table (original):

Total disk cylinders available: 8892 + 2 (reserved cylinders)

Part Tag Flag Cylinders Size Blocks

0 root wm 1110 - 4687 1.61GB (0/3578/0) 3381210

1 swap wu 0 - 1109 512.00MB (0/1110/0) 1048950

2 backup wm 0 - 8891 4.01GB (0/8892/0) 8402940

3 unassigned wm 0 0 (0/0/0) 0

4 unassigned wm 0 0 (0/0/0) 0

5 unassigned wm 0 0 (0/0/0) 0

6 unassigned wm 0 0 (0/0/0) 0

7 home wm 4688 - 8891 1.89GB (0/4204/0) 3972780

partition> q

format> q

#

上面的信息显示硬盘共有三个分区,分布在0,1,7号盘片上,2号盘片标识整个硬盘。
3.查看或更改硬盘标识内容

(1)先来查看硬盘的标识。

检查硬盘标识的命令是prtvtoc。需要说明的是,查看EFI标识也使用这个命令。

使用prtvtoc命令查看VTOC标识:

# prtvtoc /dev/rdsk/c0t0d0s0

* /dev/rdsk/c0t0d0s0 partition map

*

* Dimensions:

* 512 bytes/sector

* 63 sectors/track

* 15 tracks/cylinder

* 945 sectors/cylinder

* 8894 cylinders

* 8892 accessible cylinders

*

* Flags:

* 1: unmountable

* 10: read-only

*

* First Sector Last

* Partition Tag Flags Sector Count Sector Mount Directory

0 2 00 1048950 3381210 4430159 /

1 3 01 0 1048950 1048949

2 5 00 0 8402940 8402939

7 8 00 4430160 3972780 8402939 /export/home

使用prtvtoc命令查看EFI标识:

# prtvtoc /dev/rdsk/c3t1d0s0

* /dev/rdsk/c3t1d0s0 partition map

*

* Dimensions:

* 512 bytes/sector

* 2479267840 sectors

* 2479267773 accessible sectors

*

* Flags:

* 1: unmountable

* 10: read-only

*

* First Sector Last

* Partition Tag Flags Sector Count Sector Mount Directory

0 2 00 34 262144 262177

1 3 01 262178 262144 524321

6 4 00 524322 2478727100 2479251421

8 11 00 2479251422 16384 2479267805

从上面可以出,EFI标识写到第34扇区,从34扇区以后才进入硬盘分区。

(2)更改硬盘标识。

将硬盘从VTOC标识更改为EFI标识的方法是:先选定需要更改的硬盘号,然后再键入lable命令,就会出现让你选择标识类型的菜单。过程如下:

# format -e

Searching for disks...done

AVAILABLE DISK SELECTIONS:

1. c1t0d0 <SunW18g cyl 7506 alt 2 hd 19 sec 248>

/sbus@2,0/QLGC,isp@2,10000/sd@0,0

2. c1t1d0 <SunW18g cyl 7506 alt 2 hd 19 sec 248>

/sbus@2,0/QLGC,isp@2,10000/sd@1,0

3. c1t8d0 <SunW18g cyl 7506 alt 2 hd 19 sec 248>

/sbus@2,0/QLGC,isp@2,10000/sd@8,0

4. c1t9d0 <SunW18g cyl 7506 alt 2 hd 19 sec 248>

/sbus@2,0/QLGC,isp@2,10000/sd@9,0

Specify disk (enter its number): 4

selecting c1t9d0

[disk formatted]

format> label

[0] SMI Label

[1] EFI Label

Specify Label type[0]: 1

Ready to label disk, continue? yes

format> quit

完成。

修复坏的硬盘扇区

硬盘故障发生后,我们首先关注的是硬盘上的数据是否丢失。我们可以先将数据备份,再修复硬盘的坏扇区,如果还是不能修复,就需要换一块新的硬盘了。

下面介绍怎样修复坏硬盘扇区。

(1)将文件存档。

如果硬盘坏了,但还可以访问硬盘,那么就把硬盘上的所有文件系统做一下ufsdump。ufsdump命令的用法见第12章。

(2)将硬盘上的文件拷出。

若无法对硬盘运行ufsdump,那么找一个同类型硬盘,联入系统,使用dd命令从坏盘上拷出数据,

例如,从主盘/dev/rdsk/c0t0d0s2拷贝到目的盘/dev/rdsk/c0t2d0s2,使用命令:

# dd if=/dev/rdsk/c0t0d0s2 of=/dev/rdsk/c0t2d0s2 bs=128k

dd的使用详见dd(1M)手册。

(3)分析硬盘扇区错误。

 成为超级用户或授权角色用户。

 卸载故障盘:

# umount /dev/dsk/device-name

 使用format命令:

# format

 选择硬盘:

Specify disk (enter its number):1

selecting c0t2d0:

[disk formatted]

Warning: Current Disk has mounted partitions.

 选择分析菜单:

format> analyze

 键入setup命令设置分析参数:

analyze> setup

Analyze entire disk [yes]? n

Enter starting block number [0, 0/0/0]: 12330

Enter ending block number [2052287, 2035/13/71]: 12360

Loop continuously [no]? y

Repair defective blocks [yes]? n

Stop after first error [no]? n

Use random bit patterns [no]? n

Enter number of blocks per transfer [126, 0/1/54]: 1

Verify media after formatting [yes]? y

Enable extended messages [no]? n

Restore defect list [yes]? y

Create defect label [yes]? y

 使用read命令找到错误的块

analyze> read

Ready to analyze (won’t harm SunOS). This takes a long time,

but is interruptible with Control-C. Continue? y

pass 0

2035/12/1825/7/24

pass 1

Block 12354 (18/4/18), Corrected media error (hard data ecc)

25/7/24

^C

Total of 1 defective blocks repaired.

可见,数据块12345有错误,需要被修复。

(4)下面开始修复错误扇区。

 成为超级用户或授权角色用户。

 使用format命令:

# format

 选择硬盘:

Specify disk (enter its number): 1

selecting c0t3d0

[disk formatted]

format>

 选择repair命令:

format> repair

 键入错误的块的号码:

Enter absolute block number of defect: 12354

Ready to repair defect, continue? y

Repairing block 12354 (18/4/18)...ok.

format>

(5)重新格式化硬盘。

若硬盘上有坏块,则重新格式化有时会解决问题。格式化硬盘的命令是format,其用法和修复扇区错误相似,就是把repair命令换成format命令,详细信息见format(1M)手册。但请记住,格式化硬盘会毁掉磁盘上面的所有数据,格式化完成后还须使用newfs命令重新建立文件系统。

(6)换下旧硬盘。

如果重新格式化和修复坏块都解决不了问题时,就要换下此坏硬盘.
添加新的硬盘

在计算机运行过程中,如果硬盘空间已经不足,或者有个硬盘已经出现坏的扇区,而且修复也失败的情况下,我们就须添加一个新的硬盘,并把坏的硬盘换下。

由于在分区方面有所不同,所以SPARC和x86平台上添加硬盘的步骤稍微有所不同,我们须分别介绍。

添加系统盘和数据盘也有所不同。系统盘上只安装着操作系统,如果坏了,就须重新安装或者从备份介质中恢复。具体恢复步骤我们在第12章中介绍。这里重点讲数据盘的添加。
1.在SPARC平台上增添第2块硬盘

(1)关闭系统,装上新的硬盘。

(2)启动系统,进入超级用户状态。

(3)运行Format命令,查看是否已经发现新的硬盘。

# format

AVAILABLE DISK SELECTIONS:

0. /dev/rdsk/c1t0d0s0 <Sun18G cyl 7506 alt 2 hd 19 sec 248>

/sbus@2,0/QLGC,isp@2,10000/sd@0,0

1. /dev/rdsk/c1t1d0s0 <Sun18G cyl 7506 alt 2 hd 19 sec 248>

/sbus@2,0/QLGC,isp@2,10000/sd@1,0

(4)选择新的硬盘号码,进入硬盘设置菜单,使用下面命令进入分区菜单:

format> partition

(5)查看分区情况:

partition> print

(6)修改分区设置:

partition> modify

(7)写入lalel标识中:

partition>label

(8)离开分区菜单:

partition>quit

(9)保存设置,并退出:

format>save

format>quit

#

(10)使用命令newfs来为每一个分区创建文件系统:

#newfs /dev/rdsk/c?t?d?s?

(11)修改/etc/vfstab文件,使新的硬盘分区可以在系统启动的时候别自动mount。
2.在x86平台上增添第2块硬盘

在x86平台上添加第2块硬盘比起在SPARC平台上稍微复杂些。因为x86平台上有个fdisk分区的概念。fdisk分区是区分Solaris系统分区和其他如DOS分区、Linux分区的,毕竟大多数x86平台都可以运行着多操作系统,而在SPARC平台上就没有这些考虑了。

在fdisk分区之后,只有分给Solaris系统的硬盘部分,我们才可以和在SPARC平台上一样进行盘片的分割。限于篇幅,这部分我们将不再叙述,请参见上面的SPARC部分。

下面我们主要介绍x86的fdisk分区:

format> fdisk

Total disk size is 3498 cylinders

Cylinder size is 1199 (512 byte) blocks

Cylinders

Partition Status Type Start End Length %

========= ====== ====== ===== === ====== ===

1 Active DOS-BIG 1 699 699 20

可以看出原盘只有DOS分区,下面建立Solaris分区:

SELECT ONE OF THE FOLLOWING:

1. Create a partition

2. Specify the active partition

3. Delete a partition

4. Change between Solaris and Solaris2 Partition IDs

5. Exit (update disk configuration and exit)

6. Cancel (exit without updating disk configuration)

Enter Selection: 1

选择1,则可创建分区。

Indicate the type of partition you want to create

1=SOLARIS2 2=UNIX 3=PCIXOS 4=Other

5=DOS12 6=DOS16 7=DOSEXT 8=DOSBIG

9=DOS16LBA A=x86 Boot B=Diagnostic C=FAT32

D=FAT32LBA E=DOSEXTLBA F=EFI 0=Exit?1

键入1,则可选择创建Solaris分区。

Indicate the percentage of the disk you want this partition

to use (or enter \"c\" to specify in cylinders). 80

指出分区的大小百分比。

Should this become the active partition? If yes, it will be

activated each time the computer is or turned on.

Please type \"y\" or \"n\". y

键入y,设定为活动分区。

Total disk size is 3498 cylinders

Cylinder size is 1199 (512 byte) blocks

Cylinders

Partition Status Type Start End Length %

========= ====== ========= ===== === ====== ===

1 DOS-BIG 1 699 699 20

2 Active Solaris2 700 3497 2798 80

SELECT ONE OF THE FOLLOWING:

1. Create a partition

2. Specify the active partition

3. Delete a partition

4. Change between Solaris and Solaris2 Partition IDs

5. Exit (update disk configuration and exit)

6. Cancel (exit without updating disk configuration)

Enter Selection:5

键入5,选择退出fdisk分区设置。

接下来就是划分Solaris分区的盘片了,这里不再叙述。

论坛徽章:
0
3 [报告]
发表于 2008-04-10 06:54 |只看该作者

热插拔设备的管理

本节主要介绍热插拔技术。至于读者的计算机是否支持这项技术,请查阅计算机硬件手册。
热插拔设备管理概述

热插拔技术就是在系统运行的时候可以物理地添加、删除和替换系统组件,系统可以对热插拔组件进行动态的设置。从这个角度来说,系统的资源分配也可以随着热插拔组件的增添和删除而变化。

支持热插拔的组件由板和板上的插卡组成。从逻辑上可以分为三部分:板、板插卡和板插口组成。每个组成部分都有相应的状态,这些状态就是热插拔组件的管理内容。

板的情况

板可以处于以下四种情况之一:unknown(未知)、ok(正常)、failed(故障)或unusable(不可用)。

板插卡状况

板可以处于以下插卡状况之一:configured(已配置)或unconfigured(未配置)。断开连接的板的插卡状况总是未配置的。

板插口状况

一块板可以具有以下三种插口状况之一:empty(空)、disconnected(断开连接)或connected(已连接),如表11-6所示。在插入板时,插口状况总是从空变为断开连接。在拆除板时,插口状况总是从断开连接变为空。

名 称&&说 明
empty
板插口上不存在卡
disconnected
板已从系统总线断开。在不切断电源的情况下,板可以处于断开连接状态。但是,在你将其从插槽拆除前,板一定是断开电源并处于断开连接状态的
connected
板已通电并连接到系统总线。只有在板上的组件处于连接状况后,你才能看到它们
系统管理员通过使用cfgadm命令会显示板和插槽的信息,还可以对它们的状态进行修改和设置。Sun文档声明,使用cfgadm命令可以管理下列设备:

 在SPARC and x86平台上的USB设备;

 在SPARC and x86平台上的SCSI设备;

 在SPARC and x86平台上的PCI设备。

cfgadm命令有下列功能:

 显示系统组件状态;

 测试系统组件;

 改变组件的设置;

 显示组件设置的帮助信息。

需要注意的是,并不是所有的SCSI和PCI控制器都支持热插拔和cfgadm命令。虽然Sun的官方文档上写明cfgadm可以支持x86系统,但笔者在自己的x86上运行却被系统告知配置的高级管理不被支持。看来,Solaris 10还不能支持x86,希望以后的补丁更新盘能够支持这个功能。

SCSI设备的管理

这部分用专门的例子来展示使用cfgadm命令对支持热插拔的SCSI设备的管理。注意,cfgadm命令能否有效取决于你的系统硬件是否支持。下面的测试都是在SPARC平台上进行的。
1.显示系统SCSI设备的信息

显示SCSI控制器的信息:

# cfgadm -l

Ap_Id Type Receptacle Occupant Condition

c0 scsi-bus connected configured unknown

c1 scsi-bus connected configured unknown

显示SCSI控制器c0、c1和附加在控制器上的设备的信息。

# cfgadm -al

Ap_Id Type Receptacle Occupant Condition

c0 scsi-bus connected configured unknown

c0::dsk/c0t0d0 disk connected configured unknown

c0::rmt/0 tape connected configured unknown

c1 scsi-bus connected configured unknown

c1::dsk/c1t3d0 disk connected configured unknown

c1::dsk/c1t4d0 unavailable connected unconfigured unknown
2.SCSI控制器的连接和断开

这里连接和断开是相对于连到系统总线来说的,如果不能连接到总线,控制器和它上面的设备都不能正常工作。

连接命令:# cfgadm -c connect c1

断开命令:# cfgadm -c disconnect c1
3.configured(已配置)或unconfigured(未配置)SCSI控制器

操作系统为板分配功能角色,并加载板及其连接设备所需的设备驱动程序的状态为configured(已配置)状态。系统从逻辑上将板与操作系统分离,并将相关的设备驱动程序置于脱机状态。虽然环境监视仍在进行,但板上的设备还不能为系统所用。此时状态为unconfigured(未配置)状态。

配置命令:# cfgadm -c configure c1

未配置命令:# cfgadm -c unconfigure c1
4.configured(已配置)或unconfigured(未配置)SCSI设备

和上边介绍的只是对象不同,下面适用对于控制器上的设备进行配置。

配置命令:# cfgadm -c configure c1::dsk/c1t4d0

未配置命令:# cfgadm -c unconfigure c1::dsk/c1t4d0
5.在SCSI控制器上增添和删除SCSI设备

增添SCSI设备

(1)使用cfgadm命令,在C1控制器上添加设备,例如:

# cfgadm -x insert_device c1

Adding device to SCSI HBA: /devices/sbus@1f,0/SunW,fas@1,8800000

This operation will suspend activity on SCSI bus: c1

(2)在对话中提示符中,键入y

Continue (yes/no)? y

SCSI bus quiesced successfully.

It is now safe to proceed with hotplug operation.

I/O activity on the SCSI bus is suspended while the hot-plug operation is in

progress.

(3)将新的SCSI设备插上,并等待设备灯亮起。

(4)在对话提示符中,键入y,结束操作。

Enter y if operation is complete or n to abort (yes/no)? y

删除SCSI设备

(1)使用命令删除SCSI设备。

# cfgadm -x replace_device c1::dsk/c1t4d0

Replacing SCSI device: /devices/sbus@1f,0/SunW,fas@1,8800000/sd@4,0

This operation will suspend activity on SCSI bus: c1

(2)在对话的提示符中键入y。

Continue (yes/no)? y

SCSI bus quiesced successfully.

It is now safe to proceed with hotplug operation.

(3)等待SCSI设备灯灭,拔走设备。

(4)在对话的提示符中键入y,结束操作。

Enter y if operation is complete or n to abort (yes/no)? y

论坛徽章:
0
4 [报告]
发表于 2008-04-10 06:54 |只看该作者

USB大容量存储设备

从Solaris 9开始,下面这些大容量的USB存储设备就被支持:

 CD-RW;

 移动硬盘;

 DVD;

 数码照相机;

 ZIP。

所有USB大容量存储设备都是可以移动的设备,Solaris平台的USB设备具有下列特性:

 Solaris平台的USB设备支持DOS或者Windows的文件系统。

 可以友好地使用rmformat命令来代替format命令对大容量的USB存储设备进行分区或者格式化。如果还需要用以前的format命令,请用format-e命令。

 还可以用fdisk命令进行fdisk分区的划分,fdisk分区的性质见本章第11.3节。

 当使用卷管理器(volume management)管理这些设备时,大容量的USB存储设备就会被自动mount到/rmdisk目录,但是需要卷管理器重新启动。

 如果不使用卷管理器,这些大容量的USB存储设备就需要手动mount到系统。比如,一个FAT文件系统的设备就用下面的命令:

mount -F pcfs /dev/dsk/c2t0d0s0:c /mnt

 对于支持热插拔的USB存储设备,只要插上设备,我们就能用prtconf在系统设备层看到它,拔下就不会再出现。

论坛徽章:
0
5 [报告]
发表于 2008-04-10 06:56 |只看该作者

CD和DVD设备的刻录

对于CD和DVD设备,我们可以用cdrw命令在Solaris平台上进行刻录。可以刻录的任务包括下列:

 创建数据CD和DVD;

 创建音频CD;

 从音频CD上复制音频数据;

 复制CD和DVD;

 抹去CD-RW的记录。

如何检查刻录设备

使用cdrw-l来列出这些设备的详细信息。

$ cdrw -l

Looking for CD devices...

Node | Connected Device | Device type

----------------------+---------------------------------------+-----------------

cdrom0 | YAMAHA CRW8824S 1.0d | CD Reader/Writer

如果没有列出,说明这些设备还没有安装好,可以用下面两种方法来安装驱动程序。

(1)执行后重新启动系统的方法:

# touch /reconfigure

# init 6

(2)添加驱动程序后不用重启系统的方法:

# drvconfig

# disks

重新启动vold:

# /etc/init.d/vold stop

# /etc/init.d/vold start

此外,我们还可以检查一下光盘介质是否为空白。下面的例子说明这个光盘是空白的。

$ cdrw -M

Device : YAMAHA CRW8824S

Firmware : Rev. 1.00 (26/04/00)

Media is blank

%

如何进行刻录
1.数据光盘的刻录

ISO 9660文件系统是计算机平台上标准的CD和DVD文件系统。刻录数据CD或DVD都是先将文件生成ISO 9660文件系统,然后再刻录到光盘。

先将要刻录的/home/dubs/ufs_dir文件转换为ISO 9660格式:

$ mkisofs -r /home/dubs/ufs_dir > ufs_cd

Total extents actually written = 56

Total translation table size: 0

Total rockridge attributes bytes: 329

Total directory bytes: 0

Path table size(bytes): 10

Max brk space used 8000

56 extents written (0 Mb)

然后,再将生成的名为ufs_cd的文件刻录到光盘:

$ cdrw -i ufs_cd

Initializing device...done.

Writing track 1...done.

Finalizing (Can take several minutes)...done.
2.多媒体CD的刻录

使用cdrw创建CD时要注意只有专门的文件类型才被支持。这些是*.sun,*.wav,*.cda和*.aur类型文件。如果不是这些文件类型,cdrw命令将忽略它们。

刻录命令也很简单,如将bark.wav和chirp.au两个文件刻录到光盘,就使用下面的命令:

$ cdrw -a bark.wav chirp.au
3.复制CD盘

当你只有一个CD-RW时,在默认的情况下,cdrw命令将先复制源CD的内容到/tmp目录,然后再写到目标CD上。如果你的/tmp目录没有700 MB,就须指定另外一个目录。

完成刻录的步骤如下:

(1)将多媒体CD插入CD-RW驱动器。

(2)建立一个暂存目录。

$ mkdir /music_dir

(3)将源盘内容复制到暂存目录,复制完毕后源盘会自动弹出。

$ cdrw -c -m music_dir

(4)插入一张空白的目的盘,然后按Enter键,复制光盘。

如果你有两个CD-RW驱动器,那就非常简单了。使用下列命令即可完成复制。

$ cdrw -c -s cdrom0 -d cdrom1

论坛徽章:
0
6 [报告]
发表于 2008-04-10 07:17 |只看该作者

Part 2 传统文件系统管理

文件系统是一个目录的结构集合,它的作用是用来定位和存储文件的。以下所讲述的内容就是文件系统。

对于初级读者来说,他们须了解文件系统的类型和Solaris 10在文件系统方面的新特性。本节就介绍这方面的内容。

文件系统类型概述

Solaris 10支持三种类型的文件系统,它们分别是:

 基于磁盘的文件系统;

 基于网络的文件系统;

 虚拟文件系统(也叫伪文件系统)。

UFS--基于BSD快速文件系统的传统UNIX文件系统是Solaris的默认文件系统
HSFS--用于CD-ROM的只读文件系统
PCFS--PC文件系统,可以读写DOS型式磁盘的数据,如FAT32
UDF--DVD文件系统

基于网络的文件系统就是网络文件系统,简称NFS文件系统。
虚拟文件系统大多数是基于内存的文件系统,但是也有部分文件系统是基于硬盘上的。
TMPFS--使用本地内存进行读写的文件系统。在Solaris中的默认应用为/tmp目录
LOFS--循环文件系统(lofs)可创建一个新的虚拟的原文件系统,然后用另一个路径名来存取文件
PROCFS--进程文件系统(procfs)驻留在内存中,表现为/proc目录。在此目录中活动进程号的清单,ps等命令会用到/proc目录中的信息,调试器或其他开发工具也可能通过文件系统调用来访问这些过程的地址和空间
CacheFS--用来改善远程文件系统(NFS)和CD-ROM的读取速度,将读得数据缓存在CacheFS文件系统中
SWAPFS--用mkfile和swap命令建立附加的交换区时,系统核心所用的文件系统

Solaris 10文件系统新特性

与以前的版本比较,Solaris 10在文件系统方面有了新的改进,典型的有以下三个方面。

 默认启用UFS 日志记录功能。在早期的Solaris 版本中,UFS 日志记录功能只能手动启用。

 网络文件系统(NFS)版本从3升级到4。

 Solaris 10在运行64位Solaris内核的系统上支持多TB UFS文件系统。以前,UFS文件系统在64位系统和32位系统上的大小仅限于约1 TB(Tbyte)。现在,所有UFS文件系统命令和公用程序已更新为支持多TB UFS文件系统。

论坛徽章:
0
7 [报告]
发表于 2008-04-10 07:24 |只看该作者

UFS系统文件系统介绍

UFS文件系统几乎是所有UNIX系统的基本文件系统,Solaris当然也不例外。这里主要结合Solaris 10在UFS文件系统方面的新特性,向你介绍UFS文件系统。

UFS文件系统的结构

Solaris 10典型的文件系统类型为UFS文件系统,但它也允许在/etc/default/fs中定义其他文件类型。在Solaris 10上,UFS文件系统驻留在硬盘上,这些硬盘同时具有原始设备接口和块设备接口,这两个接口分别位于/dev/rdsk目录和/dev/dsk目录中。Solaris 10文件系统所创建的每一个分区都在/dev/dsk和/dev/rdsk中有其自己的对应项。一个UFS文件系统的组成包括如下几部分。

 引导块(boot block):在文件系统可引导的情况下,引导块中包含有引导数据。

 超级块(super block):超级块中包含有关i节点的位置、文件系统大小、块数目,以及状态等信息。

 i节点(inode):存储文件系统的文件细节信息。

 数据块(data block):实际存储的文件。

如何建立新的UFS文件系统
1.创建UFS文件系统

为了创建一个新的UFS文件系统,我们首先将磁盘划分为不同的分区(Slie),然后再使用newfs命令在这些分区上创建新的文件系统,最后将这些文件系统安装到根目录中。在第11章设备管理的磁盘管理一节中我们已经介绍了具体方法,这里就不再多说。下面对newfs命令进行介绍。

# newfs [-N] [-b size] [-i bytes] /dev/rdsk/device-name

-N:此参数显示newfs命令的参数信息,并不是真正的要建立一个UFS文件系统。

-b:系统块(block)大小的设定,每个块的大小是4096 或8192 Bytes,默认每块大小是 8192 Bytes。

-i:每个i节点(inode)的字节数,默认i节点的大小是和磁盘大小有关的。

device-name:创建新的文件系统的磁盘设备名。

例如:newfs-b 4096 /dev/rdsk/c0t1d0s0。
2.挂接UFS文件系统

本地或远程文件资源被挂接到根文件层次,看起来就像是一个单一的文件系统,这个连接操作称为“挂接”,可利用mount命令完成。文件资源挂接到根文件层次的目录被称为挂接点。在调用挂接命令前,挂接点必须存在。

命令格式:

mount file_name mount_point

例如,将c0t3d0s0挂接到系统目录/export/home下:

# mount /dev/dsk/c0t3d0s0 /export/home

单独运行不带参数的mount命令将显示当前已挂接的文件资源。

使用/etc/vfstab文件管理文件系统

我们可以用mount命令和umount命令来手工管理文件系统,也可以通过文件系统表(/etc/vfstab)来管理。通过编辑/etc/vfstab文件,系统在启动时可自动地安装在本地的ufs文件系统、必需的nfs文件系统,以及其他的文件系统。

下面介绍/etc/vfstab文件的内容,以及如何编辑和使用该文件。文件系统表是ASSCII文件,注释行以#开头,下面的/etc/vfstab文件说明了系统中有两个硬盘,并安装了两个nfs文件系统说明。

#more /etc/vfstab

#device device mount FS fsck mount mount

#to mount to fsck point type pass at boot options

/dev/dsk/c0t0d0s0 /dev/dsk/c0t0d0s0 / ufs l no -

proc - .proc proc - no -

/dev/dsk/c0t0d0s1 - - swap - no -

swap - /tmp tmpfs - yes -

/dev/dsk/c0t0d0s6 /dev/dsk/c0t0d0s6 /usr ufs 2 no -

/dev/dsk/c0t3d0s7 /dev/dsk/c0t3d0s7 /files7 ufs 2 no -

pluto:/export/man - /usr/man nfs - yes ro,soft

gtxa:/export/man - /usr/man nfs - yes ro.soft

注意,“/”和“/usr”的自动安装(automount)域说明为no,这是因为在mountall命令运行前,系统启动时/和/usr已被安装了,如果将此值定义为yes,则mountall命令试图再去安装这两个已经安装的文件系统。/etc/vfstab文件中的每个域必须有值,若无值(即值为no)则必须填上一个“-”号。

下面详细说明/etc/vfstab文件的域。

Device to mount域,可安装的设备有:

 本地ufs文件系统的块设备(如/dev/dsk/c0t0d0s0);

 远程文件系统的资源名(如nfs文件系统myserver:/export/home);

 磁盘的swap区名(如/dev/dsk/c0t4d0s1);

 /proc目录和proc文件系统;

 hsfs类型的CD-ROM;

 pcfs和ufs类文件系统的软盘dev/diskette,这一域也用于说明swap文件系统。

Device to fsck域对应于文件系统的原始(字符)特别设备(如/dev/dsk/c0t0d0s0),它定义了fsck使用的原始接口,若没有对应的设备时则用“-”号说明,例如,只读文件系统或网络文件系统。

Mount point域,默认的安装点目录(如/usr目录下安装/dev/dsk/c0t4d0s6)。

FS type域,表明的文件系统类型。

fsck pass域,检测文件系统次数,用于决定是否需要检测文件系统。

 当该域是“-”号时不检测文件系统,当该域的值大于1时,则检查文件系统。

 等于0时,则检查非ufs文件系统,而不检查ufs文件系统。

 当fsck作用于多个ufs文件系统,而fsck pass值大于1,并且使用了-op选择项时,fsck会自动以最高的效率并行检测不同盘上的文件系统。

 当fsck pass值为1时,则顺序检测文件系统。

Mount at boot系统启动时,若需mountall命令自动安装文件系统,则为yes,否则为no。请注意,该域与自动安装软件毫无关系。

Mount options安装文件系统的选择项列表,它们以“,”号分隔,“-”号说明无任选项,任选项的值请参见mount(1M)手册。

下面介绍如何修改/etc/vfstab文件,以便挂接(mount)新的文件系统的步骤:

(1)进入超级用户;

(2)用vi等命令编辑/etc/vfstab文件;

(3)加入各项。用空格或Tab键分隔其中每个域,如果某个项没有值,则填上“-”号;

(4)保存该文件;

(5)检查安装点目录是否存在,不存在则建一个;

(6)运行mountall命令。

下面的例子说明了将/dev/dsk/c0t3d0s7盘区作为ufs文件系统安装到/test1目录中,安装任选项(读/写)为默认值,fsck设备是/dev/rdsk/c0t3d0s7字符设备,fsck pass值为2,说明该文件系统不采用顺序方式检测:

#device device mount FS fsck mount mount

#to mount to fsck point type pass at boot options

/dev/dsk/c0t3d0s7 /dev/rdsk/c0t3d0s7 /files1 ufs 2 yes -

文件系统命令和一些文件系统配置文件介绍
1.文件系统管理命令介绍
clri(1M)--清除inode
df(1M)--报告磁盘空间、空闲磁盘块和文件数
ff(1M)--列出一个文件系统的文件名和统计信息
fsck(1M)--检测某个文件系统的完整性,并修复发现的损坏
fsdb(1M)--文件系统调试器
fstyp(1M)--查看文件系统的类型,比如:fstyp /dev/rdsk/cot3doso
labelit(1M)--当文件系统拷贝到磁带上时,列出或提供文件系统的标号(适用于volcopy命令)
mkfs(1M)--建立新的文件系统
mount(1M)--安装文件系统和远程资源
mountall(1M)--安装文件系统表(/etc/vfstab)中说明的全部文件系统
ncheck(1M)--用inode号产生路径名清单
umount(1M)--拆卸文件系统和远程资源
umountall(1M)--拆卸文件系统表说明的全部系统
volcopy(1M)--产生文件系统映像

2.文件系统配置文件

文件系统配置文件对管理文件系统有重要作用
/etc/vfstab--定义被mount到本地的文件系统
/etc/default/fs--定义本地默认文件系统类型,一般默认为ufs系统
/etc/dfs/fstypes--列出远程文件系统的类型
/etc/mnttab==列出当前被mount的文件系统和目录

UFS文件系统的数据一致性和日志记录
1.UFS文件系统数据的一致性

ufs文件系统根据一些文件系统数据(metadata,或称为元数据)来跟踪inode和目录信息,当这引起元数据与磁盘的数据没有适当同步(synochronized)时,就产生了不一致,这时就须修复文件系统。

下面是操作系统突然终止时使文件系统毁坏或产生不一致的几种情况:

 电源出故障;

 系统故障性阻塞(unplugging);

 不正常的关机;

 核心中的软件错误。

文件系统损坏虽然严重,但并不经常发生,系统启动时会自动检测文件系统,大部分情况下能修复检测到的问题。

文件系统检测是用fsck(file system check)程序实现的。fsck命令将已分配的但没有说明其来源的文件和目录放在lost+found目录下,如果该目录不存在,则由fsck建立。如果lost+found中没有足够的空间,fsck也会自动增大其空间。

下列情况发生时一般需要检测文件系统:

 文件系统不能安装;

 正在使用的文件系统产生问题;

 正在使用着的文件系统出现不一致时,控制台窗口会提示出非常醒目的出错信息,严重时甚至会发生系统瘫痪。使用fsck前请详细阅读fsck (1M)手册。

当然,我们也可以自行诊断磁盘分区,查看分区是否有一致性问题。其步骤如下:

(1)进入超级用户或授权角色用户;

(2)键入fsck-m命令来判断文件系统是否有问题,是否需要进一步修复。下例中说明第一个文件系统需要检测,第二个不需要检测:同时也说明磁盘分区c0t0d0s6需要修复。

#fsck -m /dev/rdsk/c0t0d0s6

**/dev/rdsk/c0t0d0s6

ufs fsck:sanity check:/dev/rdsk/c0t0d0s6 needs checking


# fsck-m /dev/rdsk/c0t0d0s7

* */dev/rdsk/c0t0d0s7

* * */dev/rdsk/c0t0d0s7

* ufs fsck:sanity check:/dev/rdsk/c0t0d0s7 okay

说明磁盘分区c0t0d0s7是好的,不需要修复。

诊断完磁盘分区的一致性后,如果发现有问题,可以按下面步骤进行修复。

修复文件系统的步骤:

(1)进入超级用户;

(2)拆卸(umount)有问题的文件系统;

(3)键入fsck命令进行修复。

下面的例子中检测/dev/rdsk/c0t0d0s6并校正其不正确的块计数。

#fsck /dev/rdsk/c0t0d0s6

checkfilesys:/dev/rdsk/c0t0d0s6

*Phase1 - Check Block and Sizes

INCORRECT BLOCK COUNT I=2529(6 should be 2)

CORRECT?y

* * Phase 2-Check Pathnames

* *Phase3- Check Connectivity

* *Phase 4-Check Reference Counts

* *Phase 5_Cylinder Groups

Dynamic 4.3 FFFS

929 files,8928 used.2851 free(75 frags,347 blocks.o.6% fragmentation)

/dev/rdsk/cotoos6 FILE SYSTEM STATE SET TO OKAY

*****FILE SYSTEM WAS MODIFIED ********
2.UFS文件系统日志(logging)

logging功能是UFS文件系统的一个挂接(mount)选项,它可以被设置在包括根目录在内的各个硬盘分区上。logging功能不但易于安装和使用,并且对数据安全非常有用。

Solaris的UFS logging通过使用系统中的空白数据块来工作。所有对文件系统数据(metadata,或称为元数据)的修改都被写在这些空白的区域。这些Metadata包括目录和inode信息,不包括文件中的数据本身。例如,创建文件时,目录结构被修改并且系统为这个新文件分配一个新的inode。以上这些行为被写入logging中。一旦数据的修改行为被写入logging的区域,系统就可以接着对文件系统做其他的操作了。

在后台,存在于logging中的信息将被同步到文件系统中,并自动更新相应的目录和inode,最终完成文件系统的操作。因此,这种做logging并在后台写入数据,比通过随机的I/O访问直接对分布在硬盘上的各种管理信息进行修改的方式速度要快得多。

用来做logging的空间的大小取决于文件系统的大小。每1 GB磁盘分区空间的logging空间为1 MB,最多不超过64 MB。这部分logging空间被循环使用,当log中记录的关于文件系统的修改都被应用于文件系统后,记录的那部分空间就会被清空而重新使用。

通常对于UFS来说,如果操作系统在任何文件系统操作中崩溃,整个文件系统都需要用fsck命令做一致性检查。这个命令的执行可能需要几分钟的时间,因为它须检测所有的metadata和文件的数据,包括当前已经用的空间、未用的、inode的数量等,修复其中不一致的地方以确认文件系统的完整性。当然出现比较大的问题时还需要人工干预。在做检查的过程中有可能会丢失文件,甚至目录。这决定于crash发生时,该操作进行到了哪种程度。如果采用logging功能,情况就会完全不同。因为metadata的修改首先被写在日志空间而不是文件系统中。如果系统崩溃重启后,系统首先会检查logging的数据,以决定在上一次的文件系统中,哪种修改已经做过了,哪种修改即将做,哪种修改正在做。做过的和即将做但还没有做完的操作将被系统从日志中删掉。如果在日志中记录了足够的数据来完成某项操作,该操作就会被继续完成,否则就取消这种操作。熟悉数据库操作的用户会发现这和数据库软件中的事务处理过程非常相似。最终的结果是,文件系统能够最大限度地保持一致,不需要进行彻底的文件系统检测,整个文件系统检测(check)过程只需要花几秒钟时间。

文件系统日志功能从Solaris 7开始就被支持,但直到在Solaris 10版本,系统的所有UFS 文件系统才默认启用日志记录功能。

在Solaris 10中,关闭文件系统日志的方法是在/etc/vfstab文件中只要加上“nologging”属性,然后重启计算机即可。
备份和恢复ufs文件系统
1.备份UFS文件系统

备份是指对文件进行拷贝,用来作为原文件被删除或毁坏时的安全措施。通常做法是将其拷到可移动的介质中。备份文件后可方便地恢复误删的文件,但更重要的是用于处理严重的硬件故障和其他灾难性故障。

备份文件是最关键的系统管理功能之一,按照一定的步骤和计划实现系统文件的备份有下述三个主要原因:

 确保系统瘫痪时文件系统的完整性;

 防止用户文件被误删;

 作为重新安装系统或修复系统的重要保护措施。

当按计划备份文件系统时,应保证能够将备份文件恢复为当前状态。另外,你可能想将备份好的文件系统从一个系统传到另一个系统中作为文档,或将文件保存到可移动的介质上,这样就能够移动或改变系统上的文件。

按计划备份文件需考虑下面几方面的内容:

 用哪个命令备份文件系统;

 用何种介质;

 使用什么备份计划;

 这一系统中哪些文件对用户是至关重要的;

 这些要备份的文件在什么地方:它们是否在一个单独的文件系统中;

 这些文件是否经常变化;

 当文件丢失或损坏时需要多快恢复;

 为备份文件,相关文件系统是否可经常拆卸。

更详细的备份策略请参见联机手册ufsdump(1M)命令中提供的转贮(dump)策略。

下面介绍如何用盒式磁带及ufsdump命令备份文件。

实现完全备份

为了备份完整的文件系统,所有的用户必须退出,并使系统进入单用户方式(磁带设备命名的内容请参见第11章设备管理的磁带设备部分)。

如果磁带设备位于远程计算机上,可以在磁带设备名之前加上远程计算机名。例如:在远程计算机host1上的磁带机名是/dev/rmt/0,则在本机上远程设备名应为host1:/dev/rmt/0。

下列步骤说明如何实现文件系统级(完整)备份:

 键入init s时系统进入单用户方式,这样就保证了备份全部文件系统时没有用户修改文件系统;

 插入磁带;

 键入ufsdump 0 cuf /dev/rmt/0 /dev/dsk/cWtXdYsZ。

任选项0说明的0级备份,也就是完全备份;c任选项说明是盒式磁带;u任选项更新转贮记录;f任选项指定dump文件(逻辑设备名或磁带设备)。

 例12-1 实现完全备份。

# init s

#ufsdump 0 cuf /dev/rmt/0 /dev/dsk/c0t0d0s7

DUMP:Date of this level 0dump:Wed Mar 11 10:16:53 1992

DUMP:Date of last level 0 dump:the epoch

DUMP:Dumping /dev/rdsk/c0t3d0s7(/export/home)to/dev /rmt/0

DUMP:mapping (Pass I)[regular files]

DUMP:estimated 956 blocks (478KB)

DUMP:Writing 63 Kilobyte records

DUMP:dumping(Pass III)[directories]

DUMP:dumping (pass IV)[regular files]

DUMP:level o dump om Wed Mar 11 10:16:53 1993

DUMP:956 blocks (478KB)on 1 volume

DUMP:DUMP IS DONE

#

如果一盒带存不下,则ufsdump命令会提醒你什么时候该换一盒新带。在磁带上标明命令、文件系统名及备份日期等信息。

实现增量备份

用ufsdump命令可指定不同的备份级别,0级代表完全备份,而1~9级代表任意的增量备份。1~9均为区分增量备份的号码,系统管理员可以使用这些号码设计出不同的备份策略,比如,日增量备份,我们可以选一个号码9来表示;周增量备份,选一个8号码来表示;月增量备份,选择一个7号码表示等。当然,还可制定出其他的备份策略,比如:周一到周五可以分别为5,6,7,8,9等级号码,这些都是周增量备份,而周日则用0级完全备份。

现在增量备份步骤如下:

 使系统进入单用户模式;

 进入超级用户;

 将磁带放入磁带机中;

 键入ufsdump [1-9] ucf /dev/rmt/ /dev/rdsk/ctds在ufsdump参数前加上级数,如9级备份,键入9ucf;

 执行完ufsdump命令后取出磁带并贴上标签。
2.恢复UFS文件系统

ufsrestore命令可以将用ufsdump命令备份的文件拷贝恢复到当前工作目录中。我们可以用ufsrestore命令恢复0级备份后,再使用增量备份恢复,以接近或达到故障发生点。当然,也可以使系统恢复到故障发生以前的任意时刻。

下面是恢复文件系统之前需要知道的信息:

 需要哪个带或盘;

 备份文件系统的设备名;

 你使用的磁带设备类型;

 磁带设备名(本地或远程)。

决定使用哪个备份带

在开始恢复文件或文件系统之前,必须决定使用哪一备份磁带,下面是选择备份磁带的考虑步骤:

(1)向用户寻问有关文件或文件系统丢失的日期,或文件还原的大概时间。

(2)如果系统没有完全破坏,就只须增量备份,结合你的备份计划和故障时间,找出适合的备份版本,这个版本不一定是最新的。

(3)如果系统已经破坏,须恢复全部文件系统时,需要最新的0级备份带。或者在一次全部备份的基础上进行几次增量备份,以接近故障的时间点。

恢复全部备份

如果一个硬盘上的文件系统全部损坏,就需要对这块盘进行完全恢复。下面是采用盒式磁带恢复一个文件系统的完整备份的过程。注意,这一过程将用新的文件系统来代替原来存在的文件系统。

(1)进入超级用户;

(2)进入单用户模式,确保没有人使用你将恢复的文件系统;

(3)使用umount来卸载故障盘;

(4)在故障盘上重新建立UFS文件系统;

(5)将新的UFS文件系统盘挂接上;

(6)进入你希望做恢复的目录中;

(7)插入盒式磁带;

(8)使用ufsrestore rvf /dev/rmt/0将文件系统恢复。

 例12-2 硬盘c0t0d0s7的挂接点为/files1,要将此盘做完全恢复。

host%su

Password:

#init s

#umount /files1

#newfs /dev/rdsk/c0t0d0s7

#mount /dev/dsk/c0t0d0s7 /files1

#cd /files1

#ufsrestore rvf /dev/rmt/0

交互式恢复单个文件或目录

恢复单个文件或目录时,将它们存入临时目录(如/var/tmp)是个好方法,经过确认正确无误后才恢复目标目录。下面是交互式恢复文件的步骤:

(1)进入超级用户;

(2)将备份带放入磁带驱动器中;

(3)键入cd /var/tmp,如果你希望将文件存放在其他目录下,则用相应的目录名代替/var/tmp;

(4)键入ufsrestore if /dev/rmt/,一些提示信息和提示号显示出来;

(5)建立要恢复的文件清单;

(6)用ls命令列出一个目录的内容:

 键入cd改变目录;

 将一个目录名或文件名加到将要恢复的文件清单中,键入add;

 若要删除将要恢复的文件清单中的目录名或文件名,则键入delete;

(7)建完清单后,键入extract,ufsrestore会问你用哪一卷;

(8)键入卷号按Enter键,如果只有1卷,键入1并按Enter键,清单中的文件或目录就被取出并恢复到当前工作目录中;

(9)保持当前目录的模式不变,键入setmodes然后键入“n”并按Enter键;

(10)键入quit则显示Shell提示符;

(11)用ls -l命令列出已恢复的文件或目录;

(12)检查文件列表,确保所有文件或目录均被恢复;

(13)用mv命令将文件移到合适的目录中。

 例12-3 从/etc目录中恢复passwd和shadow文件。

# cd /var/tmp

# ufsrestore if /dev/rmt/0

ufsrestore> ls

.:

.:

.sunw/ export/ net/ sbin/ usr/

Sources/ etools/ opt/ scde/ var/

b/ home/ ptools/ set/ vol/

bin kernel/ pkg/ share/

dev/ lib/ platform/ shared/

devices/ lost+found/ proc/ src/

etc/ mnt/ rtools/ tmp/

ufsrestore> cd etc

ufsrestore> add passwd shadow

ufsrestore> setmodes

set owner/mode for “.”? [yn] n

ufsrestore> extract

Extract requested files

You have not read any volumes yet.

Unless you know which volume your file(s) are on you should start

with the last volume and work towards the first.

Specify next volume #: 1

extract file ./etc/shadow

extract file ./etc/passwd

Add links

Set directory mode, owner, and times.

set owner/mode for ‘.’? [yn] n

ufsrestore> quit

# cd etc

# mv passwd /etc

# mv shadow /etc

# ls -l /etc

使用非交互模式从备份带中恢复单个文件(ufsrestore)

下面是从备份带上恢复单个文件的过程:

(1)进入超级用户;

(2)将备份带插入;

(3)键入cd /var/tmp进入/var/tmp目录下,如果要将备份文件恢复到不同的目录中,用相应的目录代替/var/tmp即可;

(4)键入ufsrestore xvf /dev/rmt/n,x任选项说明拷贝文件或目录时是否设置所有者/模式的信息;v任选项说明显示被恢复的文件名;f选项说明磁带设备名;

(5)键入卷号,如果只有1卷,键入“1”,这时文件被恢复到当前工作目录中;

(6)键入“n”,目录的模式保持不变;

(7)键入ls –l文件清单显示出来;

(8)用mv命令将文件移到合适的目录中。

 例12-4 用非交互模式恢复/etc/passwd文件。

# cd /var/tmp

# ufsrestore xvf /dev/rmt/0 ./etc/passwd

Verify volume and initialize maps

Media block size is 126

Dump date: Wed Jul 28 16:13:52 2005

Dumped from: the epoch

Level 0 dump of / on starbug:/dev/dsk/c0t0d0s0

Label: none

Extract directories from tape

Initialize symbol table.

Extract requested files

You have not read any volumes yet.

Unless you know which volume your file(s) are on you should start

with the last volume and work towards the first.

Specify next volume #: 1

extract file ./etc/passwd

Add links

Set directory mode, owner, and times.

Specify next volume #:1

extract file ./etc/passwd

Add links

Set directory mode, owner, and times.

set owner/mode for ‘.’? [yn] n

# cd etc

# mv passwd /etc

# ls -l /etc

UFS文件系统的快照

在12.2.6节中我们介绍了UFS备份和恢复的方法,读者可能已经发现,使用ufsdump备份的时候总需要进入单用户模式,这对于时刻提供服务的主机来说是非常不方便的。下面我们介绍的文件系统快照(Snapshot)就能解决这个问题,它可以在多用户的情况下,让我们进行文件系统备份。

首先,我们来介绍一下快照是什么?

快照(Snapshot)是文件系统的暂存瞬间映像,主要用于备份操作。我们使用fssnap命令会创建一个虚拟设备和一个后备存储文件。这个虚拟设备不论看起来或实际运行都像真实的设备。后备存储文件是位映射文件,该文件中包含进行快照之前的数据的备份。

我们建立快照(Snapshot)就是为了在多用户的情况下备份这个虚拟设备,以便在故障发生之后进行系统恢复。
1.创建和删除UFS快照(Snapshot)

创建UFS快照(Snapshot)

在创建UFS快照(Snapshot)之前,我们必须注意几个问题:

 注意存放后备存储文件的空间要足够大。如果不够大,创建工作就会失败,查看日志就可以发现失败原因;

 最好有个专门的目录来存储后备存储文件;

 你不能在一个文件系统上做这个文件系统的部分目录的UFS快照(Snapshot)。

对于最后一点注意事项,需要解释一下。

如果硬盘空间分配如下:

# df -k /usr

Filesystem kbytes used avail capacity Mounted on

/dev/dsk/c0t0d0s0 3618177 2190002 1391994 62% /

说明/usr与/在一个硬盘分区。当你试图去建立/usr目录的快照时就会出现下列情况:

# fssnap -F ufs -o bs=/snaps/usr.back.file /usr

snapshot error: Invalid backing file path

这个信息告诉我们不能在同一个文件系统上建立这个文件系统的快照。

下面是我们创建UFS快照(Snapshot)的步骤:

(1)成为超级用户或授权角色用户;

(2)使用df-k命令确定有足够的备份空间;

(3)确保目录的后备存储文件名是惟一的;

(4)使用下面命令创建UFS快照(snapshot)。

# fssnap -F ufs -o bs=/backing-store-file /file-system

注意:后备存储文件的快照要位于不同的文件系统。

(5)使用下面的命令来验证快照是否成功创立。

# /usr/lib/fs/ufs/fssnap -i /file-system

 例12-5 创建UFS快照。

创建/usr目录快照:

# fssnap -F ufs -o bs=/var/tmp/usr.back.file /usr

/dev/fssnap/1

下面命令是限定后备存储文件的大小为500MB。

# fssnap -F ufs -o maxsize=500m,bs=/var/tmp/usr.back/usr

/dev/fssnap/1

使用下列命令来显示快照信息:

# /usr/lib/fs/ufs/fssnap -i

Snapshot number : 1

Block Device : /dev/fssnap/1

Raw Device : /dev/rfssnap/1

Mount point : /usr

Device state : idle

Backing store path : /var/tmp/ usr.back.file

Backing store size : 0 KB

Maximum backing store size : Unlimited

Snapshot create time : Thu Jul 01 14:50:38 2004

Copy-on-write granularity : 32 KB

删除UFS快照(Snapshot)

删除UFS快照有两种方法,如果在建立快照时使用了unlink参数,那么可以使用fssnap-d命令将快照和后备存储文件一同删除;如果建立快照时没有使用unlink参数,这个fssnap-d命令只能删除快照,至于后备存储文件还要用rm命令删除。

下面命令是使用unlink参数创建快照的方法:

#fssnap -F ufs -o bs=/var/usr.snap,unlink /usr

删除:

#fssnap -d /usr

Deleted snapshot 1.

如果没有使用unlink参数,接下来还有一步:

#rm usr.snap
2.备份和恢复UFS快照(Snapshot)

备份UFS快照(Snapshot)

创建完快照后,可以用任何标准的Solaris备份命令来备份这个快照。因为这个快照虽然是个只读的虚拟设备,但你可以像对待真正的设备一样备份它。

如果使用ufsdump来备份快照,我们既可以在创建完快照再备份,也可以在创建快照的同时来备份。

下面我们分别进行介绍。

先用ufsdump完全备份/dev/rfssnap/1虚拟设备:

# ufsdump 0ucf /dev/rmt/0 /dev/rfssnap/1

如果要在创建快照的同时备份虚拟设备:

#ufsdump 0ucf /var/usr_snap.dmp `fssnap -F ufs -o bs=/var/usr.snap,unlink /usr`

此外,其他标准的Solaris备份命令,比如tar也能备份,步骤如下:

(1)成为超级用户或授权角色用户。

(2)为快照创建挂接(mount)点,比如:

# mkdir /backups/home.bkup

(3)挂接快照:

# mount -F ufs -o ro /dev/fssnap/1 /backups/home.bkup

(4)进入快照的目录:

# cd /backups/home.bkup

(5)使用tar命令将快照内容备份到磁带上:

# tar cvf /dev/rmt/0 .

恢复UFS快照(Snapshot)

恢复快照和恢复其他的备份文件没有本质区别,请参见12.2.6节中所述,这里不再重复。

多TB UFS文件系统介绍

以前,UFS文件系统在64位系统和32位系统上的大小仅限于约1 TB (1TB=1000G)。

现在,Solaris 10在运行64位Solaris内核的系统上支持多TB UFS文件系统。系统命令和公用程序也已更新为支持多TB UFS文件系统。但需要注意的是,只有UFS文件运行64位内核的系统才支持多TB UFS文件系统。

开始时你可以创建一个小于1 TB的UFS文件系统,然后可以使用newfs -T命令来指定该文件系统以后可增大为一个多TB文件系统。此命令设置索引节点和碎片密度为多TB 文件系统进行相应的伸缩。

多TB UFS文件系统的功能包括:

 可以创建一个容量最大为16 TB的UFS文件系统。

 可以创建一个容量小于16 TB的文件系统,该文件系统以后最大可以增加到16 TB。

 可以在物理磁盘和Solaris卷管理器的逻辑卷上创建多TB文件系统。

 在容量超过1 TByte的文件系统上将默认启用UFS日志记录功能。多TB文件系统将受益于启用UFS日志记录功能而带来的性能提高。多TB文件系统还将受益于日志记录功能的可用性,因为在启用日志记录功能时,fsck命令可能无须运行。

多TB UFS文件系统的局限性包括:

在32位操作系统中,多TB UFS文件不被支持。

 无法在运行32位Solaris内核的系统上安装容量超过1 TB的文件系统。

 无法在运行64位Solaris内核的系统上从一个容量超过1 TB的文件系统进行引导。该局限性使你无法将root (/)文件系统放置在一个多TB文件系统上。

 这些系统不支持大小超过1 TB的单个文件。

 每TB UFS文件系统的最大文件数是1百万。比如4个TB的文件系统,就最多有4百万个文件数。此限制用于节省使用fsck命令检查文件系统所花费的时间。

 在多TB UFS文件系统上设置的最高限额是块大小为1024字节的2 TB。

 使用fssnap命令可以创建多TB UFS文件系统的快照。
1.创建多TB UFS快照

在12.2.7节中介绍过UFS快照,UFS快照的大小是有限制的,每个文件不能大于512 GB。在多TB UFS系统中创建UFS快照,其大小限额也和普通UFS系统一样不能大于512 GB。

需要指出的是,在建立多TB UFS快照时,不论你指定后备存储文件名与否,都将产生多个小于512 GB的文件,而且文件名的后缀为.2,.3等。

 例12-6 建立大小为1.6 TB的后备存储文件。

# fssnap -F ufs -o bs=/var/tmp /data2

/dev/fssnap/0

# /usr/lib/fs/ufs/fssnap -i

Snapshot number : 0

Block Device : /dev/fssnap/0

Raw Device : /dev/rfssnap/0

Mount point : /data2

Device state : idle

Backing store path : /var/tmp/snapshot0

Backing store size : 0 KB

Maximum backing store size : Unlimited

Snapshot create time : Fri Sep 10 13:13:02 2004

Copy-on-write granularity : 32 KB

# ls /var/tmp

snapshot0 snapshot0.2 snapshot0.3 snapshot0.4

本例中,我们没有指定后备存储文件名,系统自己指定了文件名,并将其分为四个文件,这四个文件都是/dada2目录的快照。
2.如何创建多TB UFS文件系统

创建多TB UFS文件系统步骤:

(1)成为超级用户;

(2)在逻辑卷上创建多TB UFS文件系统。

下面是创建1.8T的文件系统。

# newfs /dev/md/rdsk/d99

newfs: construct a new file system /dev/md/rdsk/d99: (y/n)? y

/dev/md/rdsk/d99: 3859402752 sectors in 628158 cylinders of 48 tracks,

128 sectors

1884474.0MB in 4393 cyl groups (143 c/g, 429.00MB/g, 448 i/g)

super-block backups (for fsck -F ufs -o b=#) at:

32, 878752, 1757472, 2636192, 3514912, 4393632, 5272352, 6151072, 702...

Initializing cylinder groups:

........................................................................

super-block backups for last 10 cylinder groups at:

3850872736, 3851751456, 3852630176, 3853508896, 3854387616, 3855266336,

3856145056, 3857023776, 3857902496, 3858781216,

#

(3)校验新的文件系统。

# fsck /dev/md/rdsk/d99

** /dev/md/rdsk/d99

** Last Mounted on

** Phase 1 - Check Blocks and Sizes

** Phase 2 - Check Pathnames

** Phase 3 - Check Connectivity

** Phase 4 - Check Reference Counts

** Phase 5 - Check Cyl groups

2 files, 2 used, 241173122 free (0 frags, 241173122 blocks, 0.0%

fragmentation)

#

(4)Mount新的文件系统。

# mount /dev/md/dsk/d99 /bigdir

# df -h /bigdir

Filesystem size used avail capacity Mounted on

/dev/md/dsk/d99 1.8T 64M 1.8T 1% /bigdir

[ 本帖最后由 云杉上的蝴蝶 于 2008-4-10 07:25 编辑 ]

论坛徽章:
0
8 [报告]
发表于 2008-04-10 07:28 |只看该作者

网络文件系统(NFS)介绍

NFS文件系统介绍

我们称NFS文件系统为网络文件系统,因为它允许客户端通过网络连接来挂接其他系统的磁盘卷。在这里,提供共享磁盘的主机为服务器,挂接服务器磁盘的主机是客户机。客户机可以像对待本地文件系统一样在服务器的共享磁盘上进行诸如修改、删除和创建文件。它很像Windows中的共享文件夹,也有读者觉得NFS和Samba比较相似,因为它们都支持系统间透明文件系统的共享。但是,由于NFS有专门的Solaris内核的支持,因而它有更高的数据吞吐能力。

NFS文件系统是一个基于远程过程调用(RPC)的分布式文件系统结构。NFS利用了远程调用(RPC)技术,该技术使得系统可以很方便地实现对服务器系统过程的远程执行请求。目前,RPC已经得到很多操作系统的支持,包括Solaris,Linux,以及Microsoft Windows。RPC的目的就是对通过网络进行过程的具体连接细节和方法进行抽象。这样,客户端和服务器就无须配备专门的网络代码,就可以进行网络文件的共享了。

在Solaris 2.5以前的版本中,运行的是NFS2。由于它的数据传输采用了不太可靠的UDP协议,所以效果较差。而NFS 3是基于TCP协议的,数据传输比UDP协议更可靠。并且,NFS 3允许NFS服务通过缓存来加快磁盘的读写速度。此外,Solaris 2.6以后还提供了一种新型的NFS支持,这就是WebNFS。作为传统Internet文件共享技术(如FTP)的一种替代技术,WebNFS允许文件系统通过Internet实现共享。另据实验表明,Sun的WebNFS比传统的Web服务器具有更大的带宽,这意味着WebNFS很有可能在将来取代超文本传输协议(HTTP)而成为Web数据传输的标准。

在Solaris 10中,默认安装NFS 4,它比起NFS 3主要有以下改进:

 在NFS V4协议中,文件加锁的实现和以前的NFS协议有很大的不同。为文件加锁的RPC操作从分离的协议移到了核心协议之中,而rpc.lockd,rpc.statd和rpc.mountd在NFS V4中将不再被使用,但它们仍然存在于Solaris 10系统之中,以便支持NFS 3。

 NFS 4.0版的Solaris实现与Kerberos V5完全集成,又称做SEAM,可以提供验证、完整性和保密性。

 使用NFS版本4后,文件将不再在前台文件系统中进行高速缓存。后台文件系统将提供所有文件访问权。并且,由于前台文件系统中没有高速缓存任何文件,因此特定于CacheFS的安装选项(该选项影响前台文件系统)将被忽略。特定于CacheFS的安装选项不适用于后台文件系统。

NFS服务器的设置

要想使NFS服务器能够工作,只需要做两个方面的工作,首先是设定共享的目录,其次是启动NFS服务器。
1.设定、检查和取消共享的目录

设定共享的目录

使用share可以实现文件系统和目录的共享。例如,如果我们希望将host1上的/var/mail目录共享给host2,则在host1上可以使用下列命令:

host1#share -F nfs -o rw=host2 /var/mail

在该例中,“-F nfs”代表“NFS的文件系统”。如果我们还想将该目录共享给host3和host4,可以使用下面的命令:

host1#share -F nfs -o rw=host2:host3:host4 /var/mail

“rw”是“读写”的意思,如果我们只共享一个CD-ROM,则只须共享它的只读权限:

host1#share -F nfs -o ro /cdrom

NFS还有一个真正的特点,就是在将自己的目录共享给客户机时,还能挂接上客户机共享的目录。比如,host1将自己的/var.mail目录共享给了host2,host3和host4,如果此时host2也有共享目录/usr/local/且允许host1挂接,那么host1就可以将/usr/local/挂接到本地。

再举一个share命令的例子,将host1的目录/exprot/home/games共享:

host1# share -F nfs -o ro=@192.168.0.0/16:host2 ,root=host3 /export/home/games

结果表明:192.168.0.0这个B类网的机器和host2主机有读的权限;host3主机的root用户可以对共享资源有超级用户访问权限。但需要说明的是,即使host3主机的root用户可以对共享资源有超级用户访问权限,对共享目录/exprot/home/games也是只读,因为服务器本地权限大于任何share的权限。

Share命令是NFS服务器上的一个重要的命令,该命令还有以下参数。

# share:显示所有可以安装的资源,不管它是否已经被安装。

# share [ -F filesystem ] [ -o options ] [-d description ] pathname-to-resource:指定共享文件。

-F file system type:指定被共享的文件系统类型。

-o options:指定客户对资源访问的类型。

-d description:共享资源的简单描述。当你share命令不带任何参数运行,它就会被显示。

pathname-to-resource:在服务器上共享的资源名字。

-o:指定了允许客户访问共享资源的用户权限。具体如下。

 rw:表示用户可读/写,是默认值。

 rw=client1:client2指定客户端用户可以有读/写权限。可以有很多用户,用冒号分隔。

 ro:表示只读。

 ro=client1:client2 指定用户client1和client2只读。client1可以是用户名,也可以是IP地址,或者一个网段。例如:ro=@192.168.0.0/16。

root=client:client2 指定client1和client2上的root用户对共享资源有超级用户的权限。但是,它们的优先级小于nfs服务器的本地权限。

在终端上运行share命令可以立即生效,但系统重新启动后就会消失。如果将share命令写到/etc/dfs/dfstab配置文件中文件中的话,就可以在启动NFS服务的时候自动加载。写在dfstab配置文件中的格式上面介绍的终端命令行输入是一样的。此外,还可以使用下面两个命令手工加载和卸载。

# shareall:共享所有列在/etc/dfs/dfstab中的共享资源。

# unshareall:取消所有列在/etc/dfs/dfstab中的共享资源。

检查共享目录的设置

# dfshares

用以查看服务器的共享资源。

例如:

host1#share –F nfs –o rw=host2 /var/mail

host1# dfshares

RESOURCE SERVER ACCESS TRANSPORT

Host1:/var/mail host1 - -

详细解释如下:

resource:可被远程调用的资源的主机和路径名。

Server:指定资源的系统名称。

Access:服务器指定的权限,默认是rw,显示为“-”。

Transport:指定共享资源的端口。

# dfmounts命令

显示服务器上查看共享资源被利用的状况。

host1# dfmounts

RESOURCE SERVER PATHNAME CLIENTS

- host1 /var/mail host2, host3, host4

详细解释如下:

resource:共享资料名称。

server pathname:共享资料目录。

Client:连接的客户端。

取消目录的共享

# unshare [ -F nfs ] path-to-resource

-F nfs:指定系统类型,默认。

path-to-resource:指定共享路径。

例如:

# unshare /export/home/games

取消/export/home/games目录共享了。
2.启动和关闭NFS服务器

启动关闭系统默认版本NFS服务器。

启动:# svcadm enable network/nfs/server

关闭:# svcadm disable network/nfs/server

启动和关闭以前版本的NFS服务器。

在/etc/default/nfs配置文件中可以更改默认启动NFS服务器的版本。主要是更改以下两个参数:

NFS_SERVER_VERSMAX=value

NFS_SERVER_VERSMIN=value

如将使用NFS版本3,就将value值改为3。然后再使用svcadm启动服务器。

NFS客户端的设置

要使NFS客户端正常工作,首先须查看客户端的NFS服务是否启动,然后查看NFS服务器的共享目录情况,如果共享目录正常,就可以mount服务器的目录到本地。
1.查看客户端的NFS服务

查看客户端的NFS服务,使用下面命令:

#svcs |grep nfs

如果要启动系统默认版本NFS客户端服务:

# svcadm enable network/nfs/server

关闭服务使用:

# svcadm disable network/nfs/server

如果要启动非系统默认版本的NFS客户端服务,也需要更改/etc/default/nfs配置文件,主要是下面两个参数:

NFS_CLIENT_VERSMAX=value

NFS_CLIENT_VERSMIN=value

例如,如果使用NFS版本3,就将value值改为3。然后在使用svcadm启动客户端服务。
2.检测nfs服务器的共享目录

检查nfs服务器的共享目录就使用下面的命令:

# showmount [ -ade ] <hostname>

-a:显示已经已经使用的目录和来自哪个nfs服务器。

-d:显示已经被远程安装的目录。

-e:显示可以被安装的目录。一般用-e来查看远程主机的共享目录。
3.将共享目录mount到本地

# mount [ -F nfs ] [ -o options ] path-to-resource path-to-local-mount-point

-F nfs:指定共享文件系统,默认的。没必要指定。

-o options:指定选项,如权限。默认rw,可读/写。也可以ro-只读。

path-to-rescource:指定nfs服务器的主机名和共享资源路径。

path-to-local-mount-point:指定共享资源在本地的mount点。

例如:

host2# mkdir /games

host2# mount host1:/export/home/games /games

共享远程主机host1的/export/home/games目录,默认可读写,挂接在本地的/games目录上。

取消共享

# umount [-F nfs] remote-path-to-resource path-to-local-mount-point

-F nfs:默认的文件系统。

remote-path-to-resource:远程主机和共享目录路径,主机和共享目录路径用冒号分隔。

path-to-local-mount-point:本地主机挂点。

例如:

host2# umount host1:/export/home/games /games

取消远程主机host1上的/exprot/home/games这个目录的在本地/games上的共享。

NFS的性能管理

NFS的性能由下列多种因素决定:

 服务器的CPU的速度和个数;

 服务器的物理内存和虚拟内存大小;

 服务器的磁盘速度;

 服务器的系统负载大小;

 网络带宽;

 同时提供服务的客户机的数量;

 域名查询速度。

无论在客户机还是服务器上,我们都可以通过运行nfsstat命令来持续收集性能的统计数据。下面的命令是在服务器端运行的,我们可以看到成功调用和失败调用的数值。

#nfsstat-s

server nfs:

calls badcalls

575637355 3433



使用nfsstat-z命令,可以使上面统计的数据归零。

NFS配置文件介绍

在Solaris 10中,有一些NFS的配置文件,对我们理解和调试出更有效的NFS服务有很大的帮助。下面简单介绍一些比较常用的文件

/etc/default/nfs--列出有关lockd和nfsd进程的设置信息
/etc/default/nfslogd--列出nfslogd进程配置信息
/etc/dfs/dfstab--列出本地资源被共享的信息
/etc/dfs/fstypes--列出远程文件系统的类型
/etc/rmtab--列出被远程客户机mount上的目录
/etc/dfs/sharetab--列出本地和远程主机被共享的资源

NFS文件系统自动挂接

用户使用NFS服务时,使用完远程资源后经常会忘记卸载(umount),这就造成了网络资源的浪费。如果服务器发生了崩溃,还会在客户机上留下一些挂起的进程。自动挂接器(automounter)可以帮助我们解决这个问题,它安装在NFS服务的客户机上,当用户访问远程文件系统时才自动挂接该NFS文件系统,并在文件连续5分钟不使用的情况下自动卸载该NFS文件系统。

这样看起来自动挂接器就像NFS服务的一种延伸,不过在Solaris系统中,它有一个专门的服务名称叫“autofs”。

在介绍autofs服务之前,我们必须先了解“自动挂接器映像”。
1.自动挂接器映像

什么是自动挂接器映像?其实就是本地文件系统目录与远程文件系统目录的对应关系。比如,在本地键入“/staff”目录,系统就会自动将它与远程主机上的“/export/home”目录对应起来。这是个一一对应的关系。如何建立这个对应关系,以及如何管理它,我们下面将会详细进行介绍。

间接映像

间接映像是自动挂接器最常用的一种映像。间接映像文件通常保存在/etc目录下,它的存在形式通常是auto_directory。其中,“directory”是间接映像所负责挂接目录的前缀(不带斜线)。比如,负责挂接远程系统/home目录的间接映像名通常为auto_home。这个auto_home文件就位于客户机的/etc目录下,它的内容是:

host2# /etc/auto_home – home directory map for automounter

user1 host1:/export/home/user1

user2 host1:/export/home/user2

user3 host3:/export/home/user3

间接映像可以确定/home目录是自动控制的。比如本例中,user1,user2和user3分别对应的本地目录是home/user1,home/user2和home/user3。前两项要求自动挂接器分别从服务器host1上挂接/export/home/user1目录和/export/home/user2目录。最后一项则说明/user3目录应该到host3上去挂接。

直接映像

直接映像文件也是在/etc目录下。与间接映像不同的是,它的名称是固定的,叫auto_direct文件名。下面以一个/etc/auto_direct文件内容为例。

host2# /etc/auto_direct -Direct Automount map

/opt/user1 host1:/export/home/user1

/usr/user2 host1:/export/home/user2

/user3 host3:/export/home/user3

当用户访问客户机本地目录/opt/user1,/usr/user2时,所对应的目录分别是host1主机上的/export/home/user1和/export/home/user2。当用户访问客户机本地目录/user3时,对应的是host3主机上的/export/home/user3目录。

主控映像

主控映像就是当autofs服务启动后,通过主控映像控制文件来决定到哪里去找直接映像和间接映像。无论是直接映像还是间接映像,都是通过主控映像文件与autofs服务建立联系的。主控映像文件在/etc目录下,名为auto_master。下面是一个主控文件的内容:

#Master map for automounter

/home auto_home

/- auto_direct

其中,/home为间接映像的目录名。/-表示为直接映像。

设置完这些控制文件后,我们再启动autofs服务,就可以实现NFS的自动挂接了。
2.自动挂接器的启动与停止

启动autofs服务:

# svcadm enable system/filesystem/autofs

关闭autofs服务:

# svcadm disable system/filesystem/autofs

论坛徽章:
0
9 [报告]
发表于 2008-04-10 07:31 |只看该作者

网络文件系统(NFS)介绍

NFS文件系统介绍

我们称NFS文件系统为网络文件系统,因为它允许客户端通过网络连接来挂接其他系统的磁盘卷。在这里,提供共享磁盘的主机为服务器,挂接服务器磁盘的主机是客户机。客户机可以像对待本地文件系统一样在服务器的共享磁盘上进行诸如修改、删除和创建文件。它很像Windows中的共享文件夹,也有读者觉得NFS和Samba比较相似,因为它们都支持系统间透明文件系统的共享。但是,由于NFS有专门的Solaris内核的支持,因而它有更高的数据吞吐能力。

NFS文件系统是一个基于远程过程调用(RPC)的分布式文件系统结构。NFS利用了远程调用(RPC)技术,该技术使得系统可以很方便地实现对服务器系统过程的远程执行请求。目前,RPC已经得到很多操作系统的支持,包括Solaris,Linux,以及Microsoft Windows。RPC的目的就是对通过网络进行过程的具体连接细节和方法进行抽象。这样,客户端和服务器就无须配备专门的网络代码,就可以进行网络文件的共享了。

在Solaris 2.5以前的版本中,运行的是NFS2。由于它的数据传输采用了不太可靠的UDP协议,所以效果较差。而NFS 3是基于TCP协议的,数据传输比UDP协议更可靠。并且,NFS 3允许NFS服务通过缓存来加快磁盘的读写速度。此外,Solaris 2.6以后还提供了一种新型的NFS支持,这就是WebNFS。作为传统Internet文件共享技术(如FTP)的一种替代技术,WebNFS允许文件系统通过Internet实现共享。另据实验表明,Sun的WebNFS比传统的Web服务器具有更大的带宽,这意味着WebNFS很有可能在将来取代超文本传输协议(HTTP)而成为Web数据传输的标准。

在Solaris 10中,默认安装NFS 4,它比起NFS 3主要有以下改进:

 在NFS V4协议中,文件加锁的实现和以前的NFS协议有很大的不同。为文件加锁的RPC操作从分离的协议移到了核心协议之中,而rpc.lockd,rpc.statd和rpc.mountd在NFS V4中将不再被使用,但它们仍然存在于Solaris 10系统之中,以便支持NFS 3。

 NFS 4.0版的Solaris实现与Kerberos V5完全集成,又称做SEAM,可以提供验证、完整性和保密性。

 使用NFS版本4后,文件将不再在前台文件系统中进行高速缓存。后台文件系统将提供所有文件访问权。并且,由于前台文件系统中没有高速缓存任何文件,因此特定于CacheFS的安装选项(该选项影响前台文件系统)将被忽略。特定于CacheFS的安装选项不适用于后台文件系统。

NFS服务器的设置

要想使NFS服务器能够工作,只需要做两个方面的工作,首先是设定共享的目录,其次是启动NFS服务器。
1.设定、检查和取消共享的目录

设定共享的目录

使用share可以实现文件系统和目录的共享。例如,如果我们希望将host1上的/var/mail目录共享给host2,则在host1上可以使用下列命令:

host1#share -F nfs -o rw=host2 /var/mail

在该例中,“-F nfs”代表“NFS的文件系统”。如果我们还想将该目录共享给host3和host4,可以使用下面的命令:

host1#share -F nfs -o rw=host2:host3:host4 /var/mail

“rw”是“读写”的意思,如果我们只共享一个CD-ROM,则只须共享它的只读权限:

host1#share -F nfs -o ro /cdrom

NFS还有一个真正的特点,就是在将自己的目录共享给客户机时,还能挂接上客户机共享的目录。比如,host1将自己的/var.mail目录共享给了host2,host3和host4,如果此时host2也有共享目录/usr/local/且允许host1挂接,那么host1就可以将/usr/local/挂接到本地。

再举一个share命令的例子,将host1的目录/exprot/home/games共享:

host1# share -F nfs -o ro=@192.168.0.0/16:host2 ,root=host3 /export/home/games

结果表明:192.168.0.0这个B类网的机器和host2主机有读的权限;host3主机的root用户可以对共享资源有超级用户访问权限。但需要说明的是,即使host3主机的root用户可以对共享资源有超级用户访问权限,对共享目录/exprot/home/games也是只读,因为服务器本地权限大于任何share的权限。

Share命令是NFS服务器上的一个重要的命令,该命令还有以下参数。

# share:显示所有可以安装的资源,不管它是否已经被安装。

# share [ -F filesystem ] [ -o options ] [-d description ] pathname-to-resource:指定共享文件。

-F file system type:指定被共享的文件系统类型。

-o options:指定客户对资源访问的类型。

-d description:共享资源的简单描述。当你share命令不带任何参数运行,它就会被显示。

pathname-to-resource:在服务器上共享的资源名字。

-o:指定了允许客户访问共享资源的用户权限。具体如下。

 rw:表示用户可读/写,是默认值。

 rw=client1:client2指定客户端用户可以有读/写权限。可以有很多用户,用冒号分隔。

 ro:表示只读。

 ro=client1:client2 指定用户client1和client2只读。client1可以是用户名,也可以是IP地址,或者一个网段。例如:ro=@192.168.0.0/16。

root=client:client2 指定client1和client2上的root用户对共享资源有超级用户的权限。但是,它们的优先级小于nfs服务器的本地权限。

在终端上运行share命令可以立即生效,但系统重新启动后就会消失。如果将share命令写到/etc/dfs/dfstab配置文件中文件中的话,就可以在启动NFS服务的时候自动加载。写在dfstab配置文件中的格式上面介绍的终端命令行输入是一样的。此外,还可以使用下面两个命令手工加载和卸载。

# shareall:共享所有列在/etc/dfs/dfstab中的共享资源。

# unshareall:取消所有列在/etc/dfs/dfstab中的共享资源。

检查共享目录的设置

# dfshares

用以查看服务器的共享资源。

例如:

host1#share –F nfs –o rw=host2 /var/mail

host1# dfshares

RESOURCE SERVER ACCESS TRANSPORT

Host1:/var/mail host1 - -

详细解释如下:

resource:可被远程调用的资源的主机和路径名。

Server:指定资源的系统名称。

Access:服务器指定的权限,默认是rw,显示为“-”。

Transport:指定共享资源的端口。

# dfmounts命令

显示服务器上查看共享资源被利用的状况。

host1# dfmounts

RESOURCE SERVER PATHNAME CLIENTS

- host1 /var/mail host2, host3, host4

详细解释如下:

resource:共享资料名称。

server pathname:共享资料目录。

Client:连接的客户端。

取消目录的共享

# unshare [ -F nfs ] path-to-resource

-F nfs:指定系统类型,默认。

path-to-resource:指定共享路径。

例如:

# unshare /export/home/games

取消/export/home/games目录共享了。
2.启动和关闭NFS服务器

启动关闭系统默认版本NFS服务器。

启动:# svcadm enable network/nfs/server

关闭:# svcadm disable network/nfs/server

启动和关闭以前版本的NFS服务器。

在/etc/default/nfs配置文件中可以更改默认启动NFS服务器的版本。主要是更改以下两个参数:

NFS_SERVER_VERSMAX=value

NFS_SERVER_VERSMIN=value

如将使用NFS版本3,就将value值改为3。然后再使用svcadm启动服务器。

NFS客户端的设置

要使NFS客户端正常工作,首先须查看客户端的NFS服务是否启动,然后查看NFS服务器的共享目录情况,如果共享目录正常,就可以mount服务器的目录到本地。
1.查看客户端的NFS服务

查看客户端的NFS服务,使用下面命令:

#svcs |grep nfs

如果要启动系统默认版本NFS客户端服务:

# svcadm enable network/nfs/server

关闭服务使用:

# svcadm disable network/nfs/server

如果要启动非系统默认版本的NFS客户端服务,也需要更改/etc/default/nfs配置文件,主要是下面两个参数:

NFS_CLIENT_VERSMAX=value

NFS_CLIENT_VERSMIN=value

例如,如果使用NFS版本3,就将value值改为3。然后在使用svcadm启动客户端服务。
2.检测nfs服务器的共享目录

检查nfs服务器的共享目录就使用下面的命令:

# showmount [ -ade ] <hostname>

-a:显示已经已经使用的目录和来自哪个nfs服务器。

-d:显示已经被远程安装的目录。

-e:显示可以被安装的目录。一般用-e来查看远程主机的共享目录。
3.将共享目录mount到本地

# mount [ -F nfs ] [ -o options ] path-to-resource path-to-local-mount-point

-F nfs:指定共享文件系统,默认的。没必要指定。

-o options:指定选项,如权限。默认rw,可读/写。也可以ro-只读。

path-to-rescource:指定nfs服务器的主机名和共享资源路径。

path-to-local-mount-point:指定共享资源在本地的mount点。

例如:

host2# mkdir /games

host2# mount host1:/export/home/games /games

共享远程主机host1的/export/home/games目录,默认可读写,挂接在本地的/games目录上。

取消共享

# umount [-F nfs] remote-path-to-resource path-to-local-mount-point

-F nfs:默认的文件系统。

remote-path-to-resource:远程主机和共享目录路径,主机和共享目录路径用冒号分隔。

path-to-local-mount-point:本地主机挂点。

例如:

host2# umount host1:/export/home/games /games

取消远程主机host1上的/exprot/home/games这个目录的在本地/games上的共享。

NFS的性能管理

NFS的性能由下列多种因素决定:

 服务器的CPU的速度和个数;

 服务器的物理内存和虚拟内存大小;

 服务器的磁盘速度;

 服务器的系统负载大小;

 网络带宽;

 同时提供服务的客户机的数量;

 域名查询速度。

无论在客户机还是服务器上,我们都可以通过运行nfsstat命令来持续收集性能的统计数据。下面的命令是在服务器端运行的,我们可以看到成功调用和失败调用的数值。

#nfsstat-s

server nfs:

calls badcalls

575637355 3433



使用nfsstat-z命令,可以使上面统计的数据归零。

NFS配置文件介绍

在Solaris 10中,有一些NFS的配置文件,对我们理解和调试出更有效的NFS服务有很大的帮助。下面简单介绍一些比较常用的文件

/etc/default/nfs--列出有关lockd和nfsd进程的设置信息
/etc/default/nfslogd--列出nfslogd进程配置信息
/etc/dfs/dfstab--列出本地资源被共享的信息
/etc/dfs/fstypes--列出远程文件系统的类型
/etc/rmtab--列出被远程客户机mount上的目录
/etc/dfs/sharetab--列出本地和远程主机被共享的资源

NFS文件系统自动挂接

用户使用NFS服务时,使用完远程资源后经常会忘记卸载(umount),这就造成了网络资源的浪费。如果服务器发生了崩溃,还会在客户机上留下一些挂起的进程。自动挂接器(automounter)可以帮助我们解决这个问题,它安装在NFS服务的客户机上,当用户访问远程文件系统时才自动挂接该NFS文件系统,并在文件连续5分钟不使用的情况下自动卸载该NFS文件系统。

这样看起来自动挂接器就像NFS服务的一种延伸,不过在Solaris系统中,它有一个专门的服务名称叫“autofs”。

在介绍autofs服务之前,我们必须先了解“自动挂接器映像”。
1.自动挂接器映像

什么是自动挂接器映像?其实就是本地文件系统目录与远程文件系统目录的对应关系。比如,在本地键入“/staff”目录,系统就会自动将它与远程主机上的“/export/home”目录对应起来。这是个一一对应的关系。如何建立这个对应关系,以及如何管理它,我们下面将会详细进行介绍。

间接映像

间接映像是自动挂接器最常用的一种映像。间接映像文件通常保存在/etc目录下,它的存在形式通常是auto_directory。其中,“directory”是间接映像所负责挂接目录的前缀(不带斜线)。比如,负责挂接远程系统/home目录的间接映像名通常为auto_home。这个auto_home文件就位于客户机的/etc目录下,它的内容是:

host2# /etc/auto_home – home directory map for automounter

user1 host1:/export/home/user1

user2 host1:/export/home/user2

user3 host3:/export/home/user3

间接映像可以确定/home目录是自动控制的。比如本例中,user1,user2和user3分别对应的本地目录是home/user1,home/user2和home/user3。前两项要求自动挂接器分别从服务器host1上挂接/export/home/user1目录和/export/home/user2目录。最后一项则说明/user3目录应该到host3上去挂接。

直接映像

直接映像文件也是在/etc目录下。与间接映像不同的是,它的名称是固定的,叫auto_direct文件名。下面以一个/etc/auto_direct文件内容为例。

host2# /etc/auto_direct -Direct Automount map

/opt/user1 host1:/export/home/user1

/usr/user2 host1:/export/home/user2

/user3 host3:/export/home/user3

当用户访问客户机本地目录/opt/user1,/usr/user2时,所对应的目录分别是host1主机上的/export/home/user1和/export/home/user2。当用户访问客户机本地目录/user3时,对应的是host3主机上的/export/home/user3目录。

主控映像

主控映像就是当autofs服务启动后,通过主控映像控制文件来决定到哪里去找直接映像和间接映像。无论是直接映像还是间接映像,都是通过主控映像文件与autofs服务建立联系的。主控映像文件在/etc目录下,名为auto_master。下面是一个主控文件的内容:

#Master map for automounter

/home auto_home

/- auto_direct

其中,/home为间接映像的目录名。/-表示为直接映像。

设置完这些控制文件后,我们再启动autofs服务,就可以实现NFS的自动挂接了。
2.自动挂接器的启动与停止

启动autofs服务:

# svcadm enable system/filesystem/autofs

关闭autofs服务:

# svcadm disable system/filesystem/autofs

论坛徽章:
0
10 [报告]
发表于 2008-04-10 07:50 |只看该作者

ZFS文件系统

ZFS是Solaris 10操作系统中的全新动态文件系统,它的出现,将让人对文件系统的印象焕然一新。ZFS可用于Solaris 10操作系统所支持的所有平台,并且所有现有应用程序都可与它配合运行

ZFS文件系统概述
ZFS文件系统提供了无限制的存储性能,可验证的数据完整性,以及几近零的管理,从而在文件系统中取得了前所未有的突破。

什么是ZFS文件系统

ZFS文件系统的英文名称为Zettabyte File System,也叫动态文件系统(Dynamic File System),是第一个128位文件系统。

在历史上,文件系统就只包含一个设备,所以文件的大小就是设备的大小。由于文件系统有大小的限制,创建一个完整的文件系统是费时且困难的,只能由传统的卷管理产品来帮助我们管理这个过程。

因为ZFS文件系统不包括专门设备,所以它能像创建目录一样容易和快速。它也能与相关联的存储池一样自动增长。

在传统文件系统的/export/home目录下,有多个用户的主目录,它是一个单一的文件系统。ZFS提供文件系统的分层特性,所以它很容易管理多个文件系统,你可以为每个用户创建一个ZFS文件系统来替换单一文件系统。

ZFS是基于存储池的,与典型的影射物理存储设备的传统文件系统不同,ZFS所有在存储池中的文件系统都可以使用存储池的资源。

在ZFS文件系统中,有时我们发现,尽管一个文件系统处于未激活状态,但通过一些诸如df类的工具可改变可用的空间。这是因为相同存储池中的其他文件系统也能使用或释放空间。需要注意的是,可以使用quotas来限制文件系统的最大值,也可以对一个文件系统设定一定的保留空间。用户使用ZFS的方式与使用NFS网络共享类似:多个共享目录mount到一个目录上;而多个文件系统也可以共享一个存储池。

ZFS是事务处理型文件系统。在其他很多文件系统中,事务处理提交给磁盘是不同步的,在没有提交给磁盘之前,有个术语叫“未定的改变”。而“未定的改变”是不计入磁盘的空间、可用空间和涉及空间的。而即便使用fsync(3c)或O_SYNC也不能保障空间的使用信息被立即更新。

ZFS文件系统的特性

ZFS文件系统有以下几个方面的特性。
1.存储池

文件系统历来被构建在一个物理盘上。为了使用多个物理盘并提供数据的冗余,引入了卷管理的概念。只有通过卷管理软件建立的虚拟卷,才能使文件系统可以跨过多个物理硬盘。即使这样,文件系统也没有被修改为直接构建在多个物理盘上。

ZFS和卷管理软件非常不同,它不再创建虚拟卷,而是使用存储池来管理物理的存储,将所有存储设备都放到存储池中。存储池具有存储的特性,并且可以创建文件系统。一个文件系统不能独占设备,而必须和存储池中的所有文件系统共享设备。我们不需要设定文件系统的大小,它是随着存储池空间的增长而自动增长的。当存储池增大后,池中的所有文件系统都能立即使用增加的空间。在很多方面,存储时就像一个虚拟的内存系统。当系统内存增加后,操作系统不能强制调用内存属于哪个进程使用,所有的进程都能使用增加的内存。
2.事务处理

ZFS是事务处理型文件系统,意味着文件系统状态总是和硬盘保持一致。传统文件系统先将数据写到缓存,然后再写到最终的磁盘目录。这个时候如果电源关闭,磁盘中的数据块就会出现不一致。我们以前使用fsck(1M)命令来从头到尾地检测文件系统的状态,并试图修复。这将导致很大的管理工作量,并且也不能保证解决所有问题。在Solaris 10中,文件系统引入了一个概念,即“日志”,它能记录文件系统的活动状态,并能在系统灾难过后重新处理事件。但这也导致了系统的额外开销和新的管理问题。

ZFS事物型文件系统的数据管理模式是“copy on write”,数据永远保持一致。这意味着文件系统在系统突然断电的时候不会再崩溃,也不再需要使用fsck(1M)命令。
3.数据的检查和修复

在ZFS文件系统中,可以使用用户自己选择的算法来检测所有的数据和元数据。传统的文件系统提供了以每个数据块为基础的检测,这在传统文件系统的设计和卷的管理层面上是没有必要的,因为有几个确定的错误模式无法纠正。比如:如果数据块写得正确而位置不对,就可能导致通过检测的数据实际上是不正确的后果。

ZFS文件系统的检测存储了解决诸如此类的失败检测方法,所有被检测的数据都在文件系统层被修复。

另外,ZFS文件系统还提供自我修复数据的能力。ZFS支持存储池的数据冗余,比如镜像和RAID-Z。当发现错误的数据,只需要从正确的拷贝中取出正确的数据进行修复就可以了。

ZFS使用了64位的校验和保护所有数据,可探测并挽救无记载数据崩溃。
4.空前的可扩展性

作为世界上首款128位文件系统,ZFS提供的性能可达32位或64位系统的160亿平方倍。
5.简单的管理模式

ZFS文件系统是分层的。通过文件系统的分层,可以对层的属性、mount点和NFS共享等进行管理。管理员可以对文件系统设定保留和限额、压缩及mount点,还可以容易地创建多个系统快照,或者对单个文件系统进行备份或恢复操作。
6.使用快照和克隆

ZFS文件系统的快照可避免删除数据时出现意外丢失,也可以通过适当的权限把文件系统中的所有文件移动到远程系统,以节省本地ZFS系统空间。生成ZFS的快照是非常容易的。
7.安装文件系统

ZFS结构简单,管理容易。传统文件系统必须在/etc/vfstab文件中添加一行记录。而ZFS文件系统依靠数据集能自动安装和卸载,不再需要编辑/etc/vfstab。
8.卷管理

ZFS不再需要单独的卷管理。但它可以创建包含逻辑卷的存储池,当然这是不被推荐的。ZFS最好使用物理卷设备,使用逻辑卷设备可能会影响性能和可靠性。

ZFS的相关技术术语

在ZFS文档中经常出现的技术术语如下所示。

 checksum:使用加密算法对文件系统数据块进行校验。

 dataset:一些诸如克隆、文件系统、快照和卷等ZFS实体的通用名称。

 Filesystem:包含着标准的POSIX文件系统的数据集。

 Mirror:存储两个或多个磁盘数据拷贝的虚拟设备。如果一个磁盘出现故障,其他数据盘可以提供相同的数据。

 pool:具有分层属性和物理特性的逻辑设备组。数据集被分配到池中。

 RAID-Z:类似RAID-5,是个存储数据及在多个磁盘上进行校验的虚拟设备。

 Snapshot:在某个时间,文件系统或卷的映像。快照是文件系统或卷的只读的拷贝。快照的创建快速而且容易。不过,快照的建立需要消耗存储池的空间。

 clone:和快照一样,是文件系统最初的内容。

 virtual device:在池中的逻辑设备,它可能是物理设备、文件或者一些外设。

 Volume:为了支持传统文件系统而模拟物理设备的数据集。

每个数据集在ZFS命名空间中都有惟一的名称。数据集的名称有下面形式:

pool/path[@snapshot]

 pool:包含数据集的存储池的名称。

 path:数据集的路径。

 snapshot:(可选的)数据集的快照。
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP