上次安装了集群后,一段时间没有时间写个测试文章,今天有空就写了篇初级测试的文章,如果大家还想知道不同情况下postgres集群的处理方法,可以留言给我!!!
本文来自:http://blog.csdn.net/lengzijian/article/details/7729380
先来模拟下主从库关闭,看看数据的同步情况:
1.重启主节点:
方式①:./pg_ctl stop -D ../data/ |
waiting for server to shut down............................................................... Failed pg_ctl: server does not shut down HINT: The "-m fast" option immediately disconnects sessions rather than waiting for session-initiated disconnection. |
方式②./pg_ctl stop -D ../data/ -m fast |
重启主节点后,对集群功能没有影响 |
方式③:kill -9 8581 8582 8584 8585 8586 8587 8589 8597 8669 |
向其中一台从节点插入一条数据; (这里理论上是可读,但是为了方便展示还是插入一条) insert Failed:ERROR: cannot execute INSERT in a read-only transaction 启动主节点,插入一条数据,并验证集群功能:
集群功能完好! |
2.关闭从节点
关闭方式①:./pg_ctl stop -D ../data_bac/ -m fast |
插入主节点一条数据,再打开从节点,查看数据是否同步。
数据同步成功。 |
关闭方式②:kill -9 19971 19972 19973 19974 19975 19976 |
插入二条数据后;正常启动子节点,查看数据是否同步:
可以看到自己点意外死亡情况,重启后会同步数据。 |
3. 在插入过程中杀死主节点
关闭方式①:./pg_ctl stop -D ../data_bac/ -m fast |
用单线程方式,插入100000数据,并在中途按方式①,关闭主节点;重启后查看主库和从库数据是否一致: 1. 当断开后,查看两个从库的数据量都为5719
2. 重启主数据库,查看数据量:
发现数据没有丢失,为了验证正确性,我们验证10个线程每个线程100000并发时,没有丢数据情况发生。 |
关闭方式②:kill -9 19971 19972 19973 19974 19975 19976 |
查看从库数据量:
启动主库,查看主库数据量:
可以发现主库和从库数据量不等,有人可能会说丢数据,先别下太早的结论,我们再来看下从库数据量是否有变化:
我们可以认为,当主节点意外死亡时,主库wal日志还没有发送到从库主机,使得主从库数据不同步,但是重启主库后,主库会把没有传递的wal日志重发,再次同步数据。 |
上面是我模拟的一些集群会遇到的情况,目前只能想到这么多,如果有建议可以留言。
原文链接:https://www.f2er.com/postgresql/196503.html