AIX 硬盘IO高
本帖最后由 zaokaichen 于 2014-07-16 17:47 编辑AIX 6.1的系统,一打开数据库,内存设置SGA/PGA加起来不到5G,系统有30G内存。
系统马上几个磁盘的读写接近90%几。感觉是IO有问题,但不清楚具体是哪方面。
以下是VMO的设置,各位帮分析下。
OS#vmo -a
ame_cpus_per_pool = n/a
ame_maxfree_mem = n/a
ame_min_ucpool_size = n/a
ame_minfree_mem = n/a
ams_loan_policy = n/a
enhanced_affinity_affin_time = 1
enhanced_affinity_vmpool_limit = 10
force_relalias_lite = 0
kernel_heap_psize = 65536
lgpg_regions = 0
lgpg_size = 0
low_ps_handling = 1
maxfree = 1088
maxperm = 7081746
maxpin = 6549732
maxpin% = 80
memory_frames = 8126464
memplace_data = 2
memplace_mapped_file = 2
memplace_shm_anonymous = 2
memplace_shm_named = 2
memplace_stack = 2
memplace_text = 2
memplace_unmapped_file = 2
minfree = 960
minperm = 393430
minperm% = 5
nokilluid = 0
npskill = 98304
npswarn = 393216
numpsblks = 12582912
pinnable_frames = 6043503
relalias_percentage = 0
scrub = 0
v_pinshm = 0
vmm_default_pspa = 0
wlm_memlimit_nonpg = 1
OS# 通常vmo是最没用的信息,你这还是general的显示
现在iostat,vmstat都比vmo有用。 $ iostat -d 2 5
System configuration: lcpu=16 drives=16 paths=28 vdisks=0
Disks: % tm_act Kbps tps Kb_read Kb_wrtn
hdisk10 0.0 17.9 4.0 36 0
hdisk9 27.9 404.2 41.3 776 36
hdisk13 0.0 0.0 0.0 0 0
hdisk4 0.0 0.0 0.0 0 0
hdisk5 16.9 2182.5 35.3 4376 8
hdisk2 89.1 13256.0 935.9 15156 11472
hdisk12 0.0 13.9 2.5 28 0
hdisk7 0.0 0.0 0.0 0 0
hdisk14 0.0 0.0 0.0 0 0
hdisk8 11.4 195.1 22.9 344 48
hdisk11 0.0 25.9 6.5 4 48
hdisk6 0.0 25.9 5.5 16 36
hdisk3 100.0 17762.3 1497.0 25240 10440
hdisk1 0.0 0.0 0.0 0 0
hdisk0 5.0 73.7 12.4 148 0
cd0 0.0 0.0 0.0 0 0
Disks: % tm_act Kbps tps Kb_read Kb_wrtn
hdisk10 0.0 0.0 0.0 0 0
hdisk9 23.5 862.0 80.5 1080 644
hdisk13 0.0 0.0 0.0 0 0
hdisk4 0.0 0.0 0.0 0 0
hdisk5 0.0 0.0 0.0 0 0
hdisk2 94.5 9890.0 981.0 17340 2440
hdisk12 0.0 0.0 0.0 0 0
hdisk7 0.0 0.0 0.0 0 0
hdisk14 0.0 0.0 0.0 0 0
hdisk8 9.0 1218.0 127.0 1084 1352
hdisk11 0.0 0.0 0.0 0 0
hdisk6 0.0 0.0 0.0 0 0
hdisk3 100.0 14526.0 1450.0 26932 2120
hdisk1 0.0 0.0 0.0 0 0
hdisk0 1.0 12.0 2.0 24 0
cd0 0.0 0.0 0.0 0 0
Disks: % tm_act Kbps tps Kb_read Kb_wrtn
hdisk10 0.5 127.8 18.5 0 256
hdisk9 18.5 373.3 59.9 484 264
hdisk13 0.0 0.0 0.0 0 0
hdisk4 0.0 0.0 0.0 0 0
hdisk5 0.5 12.0 1.5 24 0
hdisk2 99.5 13061.5 1045.5 19188 6984
hdisk12 0.0 0.0 0.0 0 0
hdisk7 0.0 0.0 0.0 0 0
hdisk14 0.0 0.0 0.0 0 0
hdisk8 15.5 451.2 57.4 352 552
hdisk11 1.0 367.3 91.8 0 736
hdisk6 0.0 0.0 0.0 0 0
hdisk3 100.0 13923.9 1246.2 24916 2984
hdisk1 0.0 0.0 0.0 0 0
hdisk0 0.5 18.0 4.5 4 32
cd0 0.0 0.0 0.0 0 0
Disks: % tm_act Kbps tps Kb_read Kb_wrtn
hdisk10 0.0 18.0 4.0 0 36
hdisk9 17.5 579.1 48.9 968 192
hdisk13 0.0 2.0 0.5 0 4
hdisk4 0.0 0.0 0.0 0 0
hdisk5 0.5 16.0 3.0 16 16
hdisk2 99.5 9870.6 863.7 14556 5216
hdisk12 0.0 6.0 1.5 0 12
hdisk7 0.0 0.0 0.0 0 0
hdisk14 0.0 0.0 0.0 0 0
hdisk8 8.5 395.4 68.9 184 608
hdisk11 0.0 175.7 43.9 0 352
hdisk6 0.0 10.0 2.5 4 16
hdisk3 99.5 16711.9 1437.3 26300 7176
hdisk1 0.0 2.0 0.5 0 4
hdisk0 2.0 95.9 21.5 24 168
cd0 0.0 0.0 0.0 0 0
Disks: % tm_act Kbps tps Kb_read Kb_wrtn
hdisk10 0.5 34.0 5.0 68 0
hdisk9 56.0 33546.0 4287.0 32332 34760
hdisk13 0.0 0.0 0.0 0 0
hdisk4 0.0 0.0 0.0 0 0
hdisk5 5.5 830.0 96.0 540 1120
hdisk2 94.0 9144.0 902.5 15624 2664
hdisk12 0.0 0.0 0.0 0 0
hdisk7 0.0 0.0 0.0 0 0
hdisk14 0.0 0.0 0.0 0 0
hdisk8 8.0 3630.0 543.0 3164 4096
hdisk11 0.0 32.0 8.0 0 64
hdisk6 0.0 80.0 13.0 60 100
hdisk3 100.0 14636.0 1390.5 24000 5272
hdisk1 0.0 0.0 0.0 0 0
hdisk0 0.0 0.0 0.0 0 0
cd0 0.0 0.0 0.0 0 0
$
$ vmstat 3 5
System configuration: lcpu=16 mem=31744MB
kthr memory page faults cpu
----- ----------- ------------------------ ------------ -----------
rb avm frerepipofr srcyin sycs us sy id wa
4 23 7898816 10342 01258 27476 117984 0 2179 3945 6588 30 11 29 30
1 29 7898725 10175 0 5 0 26915 32915 0 3572 6514 9163 18 11 35 36
2 16 78922439966 0 0 0 20560 30653 0 4291 6245 11865 16 11 39 35
5 14 7898255 10508 0 4 0 26422 91660 0 4612 4214 11249 18 11 36 35
7 11 7897052 10270 0 8 0 22476 51065 0 2947 5776 8435 149 38 38
$ 两台AIX连接同一存储,都是raid5,但就一台写是另一台的2分之一,读是另一台的十分之一。但不清楚是哪里引起的读这么慢。 接近100%不是问题,长期在100%才是问题,因为它不能101%的忙
目前看到的信息不够,topas的结果有吗 去数据库抓top sql吧,估计又是没索引在全表读数据。
另外sga,pga分大点,25G内存闲着干嘛。
还有看看多少块磁盘的raid group,几个raid group。猜想是6-8块盘,都在一个group里,磁盘io也就这个速度了。 连接同样的存储、同样的raid5, 其中一台是另一台的写速度的二分之一,读速度的十四分之一。 IO存在较大的问题,但不确认是哪方面引起。 raid group中盘太少了,数据分布的问题,都有可能。 回复 1# zaokaichen
看看lv的分布情况,估计是没有做条带化,io优化不太好 同一raid group里做条带没用,但按照磁盘忙闲,猜测不止一个raid group,还是能分散一下的。另外有时候还需要隔离处理,吧redolog单独提出来放到特别的raid1 group里,根本不做raid,拿裸盘过去,只要注意db mirror的redolog在别的盘上就行。
不过这个场景里面好像是iops不够,差不多150MB/s就满负荷了,按1400的iops算,raid group里面的盘绝对不会多于8,很有可能在5块以内。
页:
[1]