计划近期对一套VCS cluster进行系统升级 solaris 9 -> solaris 10 cluster有2个节点 A and B 计划是先把服务切到A ,对B进行格盘安装,VCS是单节点安装 ./installer -installonly 安装完成之后,把原来备份的VCS配置文件复制回来,但是VCS还是无法启动。。 难道必须2个节点一起安装才行?
计划近期对一套VCS cluster进行系统升级 solaris 9 -> solaris 10\r\n\r\ncluster有2个节点 A and B\r\n\r\n计划是先把服务切到A ,对B进行格盘安装,VCS是单节点安装 ./installer -installonly\r\n\r\n安装完成之后,把原来备份的VCS配置文件复制回来,但是VCS还是无法启动。。\r\n\r\n难道必须2个节点一起安装才行?
请教下,我的测试tracker server 192.168.4.253 group1 中2个storage 192.168.4.252 nginx+mod_fastdfs 192.168.4.254 nginx+mod_fastdfs 2个问题 1 假设上传文件较大,上传到192.168.4.252 此时还没没有同步到192.168.4.254 那么如何保证用户请求不落在192.168.4.254 我这边想在4.252和4.254之前搞一个nginx+upstream 分发请求到252、254 2 我从存储节点上下载文件的时候,存储节点和tracker server是否有数据交互? 看到 n...
as we know, puppet c/s模型时,可以同时管理很多的client节点, 有一点,对于同步,解析执行不成功的节点,有没有一种比较合适的方式,实现飞信或是邮件的通知反馈呢。 有简单了解puppet的report, foreman dashboard都可以提供一种web方式的信息反馈, 只怪自己愚笨,仍在努力学习中,没有解决……
一个组里有两台storage节点,如果storage节点的一台服务器坏了,根据源文件同步的方式,在增加storage节点,数据同步可能造成部分文件不同步,怎么办?
-- NDB Cluster -- Management Client -- ndb_mgm> show Connected to Management Server at: mgm:1186 Cluster Configuration --------------------- [ndbd(NDB)] 2 node(s) id=2 @192.168.3.237 (mysql-5.1.44 ndb-7.1.3, Nodegroup: 0, Master) id=3 @192.168.3.238 (mysql-5.1.44 ndb-7.1.3, Nodegroup: 0) [ndb_mgmd(MGM)] 1 node(s) id=1 @192.168.3.240 (mysql-5.1.44 ndb-7.1.3) [mysqld(API)] 1 node...