Zpool исчезает при перезагрузке кластера Solaris или отключении питания
У меня есть следующие настройки
Oracle Solaris 10 -> 5.10 Generic_147147-26 sun4v sparc
Oracle Database 11g Enterprise Edition, выпуск 11.2.0.1.0 - 64-разрядная версия
Oracle Solaris Cluster 3.3u2 для Solaris 10 sparc
Oracle Solaris Cluster Geographic Edition 3.3u2 для Solaris 10 sparc
Я установил Oracle Solaris 10 с ZFS. У меня есть пул для /oradata. Когда я перезагружаюсь / отключаю питание, мой кластерный пул ZFS исчезает из-за того, что кластер не может запустить ресурс / группу баз данных oracle. вручную
zpool import db
clrg online ora-rg
...
в чем может быть причина?
единственное, что я знаю, db zpool, пул импортируется с ресурсом ora-has, который я создал, как показано ниже (с опцией Zpools)
# /usr/cluster/bin/clresourcegroup create ora-rg
# /usr/cluster/bin/clresourcetype register SUNW.HAStoragePlus
# /usr/cluster/bin/clresource create -g ora-rg -t SUNW.HAStoragePlus -p Zpools=db ora-has
# zpool status db
pool: db
state: ONLINE
scan: none requested
config:
NAME STATE READ WRITE CKSUM
db ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
c0t2d0 ONLINE 0 0 0
c0t3d0 ONLINE 0 0 0
errors: No known data errors
Booting in cluster mode
impdneilab1 console login: Apr 21 17:12:24 impdneilab1 cl_runtime: NOTICE: CMM: Node impdneilab1 (nodeid = 1) with votecount = 1 added.
Apr 21 17:12:24 impdneilab1 sendmail[642]: My unqualified host name (impdneilab1) unknown; sleeping for retry
Apr 21 17:12:24 impdneilab1 cl_runtime: NOTICE: CMM: Node impdneilab1: attempting to join cluster.
Apr 21 17:12:24 impdneilab1 cl_runtime: NOTICE: CMM: Cluster has reached quorum.
Apr 21 17:12:24 impdneilab1 cl_runtime: NOTICE: CMM: Node impdneilab1 (nodeid = 1) is up; new incarnation number = 1429629142.
Apr 21 17:12:24 impdneilab1 cl_runtime: NOTICE: CMM: Cluster members: impdneilab1.
Apr 21 17:12:24 impdneilab1 cl_runtime: NOTICE: CMM: node reconfiguration #1 completed.
Apr 21 17:12:24 impdneilab1 cl_runtime: NOTICE: CMM: Node impdneilab1: joined cluster.
Apr 21 17:12:24 impdneilab1 in.mpathd[262]: Successfully failed over from NIC nxge1 to NIC e1000g1
Apr 21 17:12:24 impdneilab1 in.mpathd[262]: Successfully failed over from NIC nxge0 to NIC e1000g0
obtaining access to all attached disks
1 ответ
Дорогой все, что я нашел свой ответ
https://community.oracle.com/thread/3714952?sr=inbox
Поведение ожидается с кластерами с одним узлом в конфигурации геокластера:
Если весь кластер выходит из строя, а затем возвращается, ожидаемое поведение заключается в том, что Geo Edition останавливает группы защиты на локальном кластере при загрузке. Причина этого заключается в том, что поглощение могло быть произведено или хранилище / данные могут быть неповрежденными или недоступными (если основной сайт испытал полный сбой, хотя узлы кластера вернулись, это не означает, что хранилище / данные целы и готовы взять на себя ту роль, которую сайт имел до провала). Это та же самая причина, по которой мы требуем auto_start_on_new_cluster=false для приложений RGS, которые добавляются в группу защиты. После перезагрузки кластера пользователь должен вмешаться и выполнить запуск или выполнить процедуру восстановления после сбоя по мере необходимости.