免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
最近访问板块 发新帖
查看: 3567 | 回复: 9

[性能调优] AIX 硬盘IO高 [复制链接]

论坛徽章:
0
发表于 2014-07-16 17:46 |显示全部楼层
本帖最后由 zaokaichen 于 2014-07-16 17:47 编辑

AIX 6.1的系统,一打开数据库,内存设置SGA/PGA加起来不到5G,系统有30G内存。
系统马上几个磁盘的读写接近90%几。感觉是IO有问题,但不清楚具体是哪方面。


以下是VMO的设置,各位帮分析下。

OS#vmo -a
             ame_cpus_per_pool = n/a
               ame_maxfree_mem = n/a
           ame_min_ucpool_size = n/a
               ame_minfree_mem = n/a
               ams_loan_policy = n/a
  enhanced_affinity_affin_time = 1
enhanced_affinity_vmpool_limit = 10
           force_relalias_lite = 0
             kernel_heap_psize = 65536
                  lgpg_regions = 0
                     lgpg_size = 0
               low_ps_handling = 1
                       maxfree = 1088
                       maxperm = 7081746
                        maxpin = 6549732
                       maxpin% = 80
                 memory_frames = 8126464
                 memplace_data = 2
          memplace_mapped_file = 2
        memplace_shm_anonymous = 2
            memplace_shm_named = 2
                memplace_stack = 2
                 memplace_text = 2
        memplace_unmapped_file = 2
                       minfree = 960
                       minperm = 393430
                      minperm% = 5
                     nokilluid = 0
                       npskill = 98304
                       npswarn = 393216
                     numpsblks = 12582912
               pinnable_frames = 6043503
           relalias_percentage = 0
                         scrub = 0
                      v_pinshm = 0
              vmm_default_pspa = 0
            wlm_memlimit_nonpg = 1
OS#

论坛徽章:
0
发表于 2014-07-17 03:53 |显示全部楼层
通常vmo是最没用的信息,你这还是general的显示

现在iostat,vmstat都比vmo有用。

论坛徽章:
0
发表于 2014-07-17 10:15 |显示全部楼层
$ iostat -d 2 5

System configuration: lcpu=16 drives=16 paths=28 vdisks=0

Disks:        % tm_act     Kbps      tps    Kb_read   Kb_wrtn
hdisk10          0.0      17.9       4.0         36         0
hdisk9          27.9     404.2      41.3        776        36
hdisk13          0.0       0.0       0.0          0         0
hdisk4           0.0       0.0       0.0          0         0
hdisk5          16.9     2182.5      35.3       4376         8
hdisk2          89.1     13256.0     935.9      15156     11472
hdisk12          0.0      13.9       2.5         28         0
hdisk7           0.0       0.0       0.0          0         0
hdisk14          0.0       0.0       0.0          0         0
hdisk8          11.4     195.1      22.9        344        48
hdisk11          0.0      25.9       6.5          4        48
hdisk6           0.0      25.9       5.5         16        36
hdisk3         100.0     17762.3     1497.0      25240     10440
hdisk1           0.0       0.0       0.0          0         0
hdisk0           5.0      73.7      12.4        148         0
cd0              0.0       0.0       0.0          0         0

Disks:        % tm_act     Kbps      tps    Kb_read   Kb_wrtn
hdisk10          0.0       0.0       0.0          0         0
hdisk9          23.5     862.0      80.5       1080       644
hdisk13          0.0       0.0       0.0          0         0
hdisk4           0.0       0.0       0.0          0         0
hdisk5           0.0       0.0       0.0          0         0
hdisk2          94.5     9890.0     981.0      17340      2440
hdisk12          0.0       0.0       0.0          0         0
hdisk7           0.0       0.0       0.0          0         0
hdisk14          0.0       0.0       0.0          0         0
hdisk8           9.0     1218.0     127.0       1084      1352
hdisk11          0.0       0.0       0.0          0         0
hdisk6           0.0       0.0       0.0          0         0
hdisk3         100.0     14526.0     1450.0      26932      2120
hdisk1           0.0       0.0       0.0          0         0
hdisk0           1.0      12.0       2.0         24         0
cd0              0.0       0.0       0.0          0         0

Disks:        % tm_act     Kbps      tps    Kb_read   Kb_wrtn
hdisk10          0.5     127.8      18.5          0       256
hdisk9          18.5     373.3      59.9        484       264
hdisk13          0.0       0.0       0.0          0         0
hdisk4           0.0       0.0       0.0          0         0
hdisk5           0.5      12.0       1.5         24         0
hdisk2          99.5     13061.5     1045.5      19188      6984
hdisk12          0.0       0.0       0.0          0         0
hdisk7           0.0       0.0       0.0          0         0
hdisk14          0.0       0.0       0.0          0         0
hdisk8          15.5     451.2      57.4        352       552
hdisk11          1.0     367.3      91.8          0       736
hdisk6           0.0       0.0       0.0          0         0
hdisk3         100.0     13923.9     1246.2      24916      2984
hdisk1           0.0       0.0       0.0          0         0
hdisk0           0.5      18.0       4.5          4        32
cd0              0.0       0.0       0.0          0         0

Disks:        % tm_act     Kbps      tps    Kb_read   Kb_wrtn
hdisk10          0.0      18.0       4.0          0        36
hdisk9          17.5     579.1      48.9        968       192
hdisk13          0.0       2.0       0.5          0         4
hdisk4           0.0       0.0       0.0          0         0
hdisk5           0.5      16.0       3.0         16        16
hdisk2          99.5     9870.6     863.7      14556      5216
hdisk12          0.0       6.0       1.5          0        12
hdisk7           0.0       0.0       0.0          0         0
hdisk14          0.0       0.0       0.0          0         0
hdisk8           8.5     395.4      68.9        184       608
hdisk11          0.0     175.7      43.9          0       352
hdisk6           0.0      10.0       2.5          4        16
hdisk3          99.5     16711.9     1437.3      26300      7176
hdisk1           0.0       2.0       0.5          0         4
hdisk0           2.0      95.9      21.5         24       168
cd0              0.0       0.0       0.0          0         0

Disks:        % tm_act     Kbps      tps    Kb_read   Kb_wrtn
hdisk10          0.5      34.0       5.0         68         0
hdisk9          56.0     33546.0     4287.0      32332     34760
hdisk13          0.0       0.0       0.0          0         0
hdisk4           0.0       0.0       0.0          0         0
hdisk5           5.5     830.0      96.0        540      1120
hdisk2          94.0     9144.0     902.5      15624      2664
hdisk12          0.0       0.0       0.0          0         0
hdisk7           0.0       0.0       0.0          0         0
hdisk14          0.0       0.0       0.0          0         0
hdisk8           8.0     3630.0     543.0       3164      4096
hdisk11          0.0      32.0       8.0          0        64
hdisk6           0.0      80.0      13.0         60       100
hdisk3         100.0     14636.0     1390.5      24000      5272
hdisk1           0.0       0.0       0.0          0         0
hdisk0           0.0       0.0       0.0          0         0
cd0              0.0       0.0       0.0          0         0
$

$ vmstat 3 5

System configuration: lcpu=16 mem=31744MB

kthr    memory              page              faults        cpu   
----- ----------- ------------------------ ------------ -----------
r  b   avm   fre  re  pi  po  fr   sr  cy  in   sy  cs us sy id wa
4 23 7898816 10342   0  12  58 27476 117984   0 2179 3945 6588 30 11 29 30
1 29 7898725 10175   0   5   0 26915 32915   0 3572 6514 9163 18 11 35 36
2 16 7892243  9966   0   0   0 20560 30653   0 4291 6245 11865 16 11 39 35
5 14 7898255 10508   0   4   0 26422 91660   0 4612 4214 11249 18 11 36 35
7 11 7897052 10270   0   8   0 22476 51065   0 2947 5776 8435 14  9 38 38
$

论坛徽章:
0
发表于 2014-07-17 16:52 |显示全部楼层
两台AIX连接同一存储,都是raid5,但就一台写是另一台的2分之一,读是另一台的十分之一。但不清楚是哪里引起的读这么慢。

论坛徽章:
1
荣誉版主
日期:2011-11-23 16:44:17
发表于 2014-07-17 19:09 |显示全部楼层
接近100%不是问题,长期在100%才是问题,因为它不能101%的忙

目前看到的信息不够,topas的结果有吗

论坛徽章:
0
发表于 2014-07-18 04:20 |显示全部楼层
去数据库抓top sql吧,估计又是没索引在全表读数据。

另外sga,pga分大点,25G内存闲着干嘛。

还有看看多少块磁盘的raid group,几个raid group。猜想是6-8块盘,都在一个group里,磁盘io也就这个速度了。

论坛徽章:
0
发表于 2014-07-18 15:17 |显示全部楼层
连接同样的存储、同样的raid5, 其中一台是另一台的写速度的二分之一,读速度的十四分之一。 IO存在较大的问题,但不确认是哪方面引起。

论坛徽章:
0
发表于 2014-07-19 04:39 |显示全部楼层
raid group中盘太少了,数据分布的问题,都有可能。

论坛徽章:
0
发表于 2014-07-21 16:16 |显示全部楼层
回复 1# zaokaichen


    看看lv的分布情况,估计是没有做条带化,io优化不太好

论坛徽章:
0
发表于 2014-07-22 08:14 |显示全部楼层
同一raid group里做条带没用,但按照磁盘忙闲,猜测不止一个raid group,还是能分散一下的。另外有时候还需要隔离处理,吧redolog单独提出来放到特别的raid1 group里,根本不做raid,拿裸盘过去,只要注意db mirror的redolog在别的盘上就行。

不过这个场景里面好像是iops不够,差不多150MB/s就满负荷了,按1400的iops算,raid group里面的盘绝对不会多于8,很有可能在5块以内。
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP