免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
最近访问板块 发新帖
查看: 1484 | 回复: 3
打印 上一主题 下一主题

请教关于mysql的优化 [复制链接]

论坛徽章:
0
跳转到指定楼层
1 [收藏(0)] [报告]
发表于 2005-11-06 21:10 |只看该作者 |倒序浏览
手头上有个系统,mysql的记录大概达到几千万的级别,每日新增几百万条记录。可以将过时的记录清除,但库中要保存的记录肯定有几千万条,未来会过亿。现时已经分为100个表,但由于select,insert,update都非常频繁,现时show processlist看,经常出现lock表的情况。已经做了一部分select的cache,但是update和insert与及一部select还是不可避免。现时觉得压力很大,应该怎样去优化呢?现时用的表类型是myisam的,当频繁select,insert,update的时候,无可避免经常出现lock表的情况。我想到的优化的方法有以下几个,大家觉得哪个好一点呢?或者还有什么其它建议。
1、将表类型由myisam转为innodb。innodb是行级锁的,可能会解决频繁锁表的问题。但是据以前我的实验证明,innodb无论是insert,select,update的速度,都比不上myisam,尤其是insert,差得很远,这样虽然不锁表,但速度是否会变得更慢呢?
2、在同一台机装多个mysql,分别listen多个端口。这样可以分更多的表,比如分为1000个,将锁表的机率再调低。
3、将update和insert打平,限制并发的粒度。如将update和insert都放到N个队列中,由一些独立的线程专门去做update和insert工作。这样可以避免频繁地update和insert 。
4、换成文件系统,不用DB。但是如果是差不多一亿个小文件,一台机占一亿个inode,无论是维护等各方面都不是一件容易的事情。
5、换其它DB,感觉mysql好像有点力不从心了。另外,这个系统的表结构已经经过了高度优化,单纯从表结构方面想,很难再优化了。

论坛徽章:
0
2 [报告]
发表于 2005-11-06 22:11 |只看该作者
1. 做成master/slave,master专用于写,slave专用于读,不过实时性会稍微差一些
2. 换成Berkeley DB试试看
LZ可以根据实情做具体分析。

论坛徽章:
0
3 [报告]
发表于 2005-11-07 10:17 |只看该作者
需要用到的数据都在几千万左右,这些数据都是“新”的。
做成master/slave的话,同样存在写lock表的问题。
伯克利DB不太敢用,了解不算太深,呵呵。

论坛徽章:
62
2016科比退役纪念章
日期:2016-06-28 17:45:06奥兰多魔术
日期:2015-05-04 22:47:40菠菜神灯
日期:2015-05-04 22:35:07菠菜神灯
日期:2015-05-04 22:35:02NBA季后赛大富翁
日期:2015-05-04 22:33:34NBA常规赛纪念章
日期:2015-05-04 22:32:032015年亚洲杯纪念徽章
日期:2015-04-14 16:54:452015年亚洲杯之朝鲜
日期:2015-03-19 23:03:16明尼苏达森林狼
日期:2015-03-16 21:51:152015小元宵徽章
日期:2015-03-06 15:57:202015年迎新春徽章
日期:2015-03-04 09:55:282015年辞旧岁徽章
日期:2015-03-03 16:54:15
4 [报告]
发表于 2005-11-07 10:24 |只看该作者
原帖由 xgyxgy 于 2005-11-7 10:17 发表
需要用到的数据都在几千万左右,这些数据都是“新”的。
做成master/slave的话,同样存在写lock表的问题。
伯克利DB不太敢用,了解不算太深,呵呵。



做成master/slave的话,就不会存在写lock表的问题。
看你系统需要什么要的检索方式,象邮件一样完全使用
文件系统也是好方法
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP