免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
最近访问板块 发新帖
楼主: jake8
打印 上一主题 下一主题

mysql 单表,过4g,1千w多行数据,问题。  关闭 [复制链接]

论坛徽章:
0
61 [报告]
发表于 2008-10-27 16:53 |只看该作者
我这边的mysql也到了单表到2G快了,我这边所处理的方案是建议主从服务器,一台主二台从的,主服务器全是写入,更新,删除数据操作。二台从服务器只管使用查询操作。
这是第一步,其次就是分表,分表方案有二种,一种是表结构完全一样,按时间来拆分。还有一种是方案是表结构打散,把多内容的进行分离,不过按照大容量的数据来讲还是第一种好一些,当然有能力不怕累,可以将两种方案结合起来做。

我是mysql新手,嘿嘿,现在才来,别见怪啊,有很多东西我都不懂

论坛徽章:
0
62 [报告]
发表于 2008-11-10 11:27 |只看该作者

请问各位mysql的表怎么来优化

我一个小说站的数据章节表已经达到了100多万条数据,运行起来特别的缓慢,服务器cpu很不稳定,在20%-80%左右,请问有没有什么好的方法,可以提速的,具体是该表应该怎么赖优化?

论坛徽章:
0
63 [报告]
发表于 2008-11-10 11:46 |只看该作者
小说站要看你的表结构的,具体的情况具体来分析,你也可以选择生存缓存来缓解一下压力

论坛徽章:
0
64 [报告]
发表于 2009-01-20 11:19 |只看该作者

回复 #65 堕落的人生 的帖子

我们的数据分析库单表有26,100,000条记录了,根据时间(月份)进行分区,但是由于mysql 分区功能现在有很多Bug,现在也在担心中.如果相关Bug不能得到解决.只有考虑换数据库了(最长的统计分析Sql语句,跨若干个分区查询,已经需要十几分钟了),即使是event-sceduler,感觉也不好.不知道有哪位可以提点建议.谢谢!

[ 本帖最后由 rock0018 于 2009-1-20 11:21 编辑 ]

论坛徽章:
0
65 [报告]
发表于 2009-01-21 16:47 |只看该作者
我们公司的MYSQL数据库共20多G了,记录都十几亿了。
对于海量级别的数据,必须要考虑数量分裂的方法,分拆成多台数据库。如果主要以读为主(例如论坛),也可以考虑主从方式。但是当写的量大的时候,单台机器是无论如何都顶不住的

论坛徽章:
0
66 [报告]
发表于 2009-03-06 09:27 |只看该作者
个人认为mysql跑千万级的数据量是没有问题的  现在我的数据在700万左右,还是可以的

论坛徽章:
0
67 [报告]
发表于 2009-03-06 14:05 |只看该作者
原帖由 七星剑客 于 2008-2-14 14:35 发表


这只能说明你孤陋寡闻。
我公司有用MYSQL正在跑上亿条记录的表,几千万条数据的表有十多个,目前来说运行良好。 大数据要从架构上解决问题,比如可以实行读写分离等操作,使用多台从服务器来提高读性能。  ...



就是就是,严重支持。上亿的多了去了。

论坛徽章:
0
68 [报告]
发表于 2009-03-06 16:27 |只看该作者
唉,今天心情不好…
MD,近一年来经常说这句话……

论坛徽章:
0
69 [报告]
发表于 2009-03-06 16:29 |只看该作者
我之前用MySQL跑过60G的单DB,一天还要更新一次数据,所以MySQL还是挺强大的,关键看你怎么搞……

论坛徽章:
0
70 [报告]
发表于 2009-03-06 17:39 |只看该作者
公司的数据单表将近1KW条,2G
没做拆分,只有索引优化过,4核CPU+4g内存,没生成过慢记录
慢记录设置2秒
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP