Riak all_nodes_down ошибка, но они до

Я построил кластер Riak на трех компьютерах Raspberry Pi. vm.args а также app.config файлы дважды проверяются на каждом узле (статические IP-адреса верны).

Все узлы действительны:

# ./riak-admin member-status 
================================= Membership ==================================
Status     Ring    Pending    Node
-------------------------------------------------------------------------------
valid       0.0%     32.8%    'riak@192.168.8.214'
valid       0.0%     32.8%    'riak@192.168.8.215'
valid     100.0%     34.4%    'riak@192.168.8.59'
-------------------------------------------------------------------------------
Valid:3 / Leaving:0 / Exiting:0 / Joining:0 / Down:0

И они все

# ./riak-admin ring_status  
================================== Claimant ===================================
Claimant:  'riak@192.168.8.59'
Status:     up
Ring Ready: true

============================== Ownership Handoff ==============================
Owner:      riak@192.168.8.59
Next Owner: riak@192.168.8.214

Index: 0
  Waiting on: [riak_kv_vnode,riak_pipe_vnode]

(... skipping index's)

-------------------------------------------------------------------------------
Owner:      riak@192.168.8.59
Next Owner: riak@192.168.8.215

(... skipping index's)

-------------------------------------------------------------------------------

============================== Unreachable Nodes ==============================
All nodes are up and reachable

Я могу пропинговать каждый узел на порту Риака, и он возвращает OK, Проблема заключается в следующем: если я добавлю значение простого ключа, он возвращает all_nodes_down ошибка.

Например, здесь я пытаюсь приписать значение Allo к ключам hellofr:

# curl -XPUT http://192.168.8.59:8098/riak/hello/fr -d ‘Allo’
Error:
all_nodes_down

Перед созданием кластера, когда у меня был только один узел, я добавил этот ключ, используя localhost, и смог получить его без проблем или ошибок.

Я просмотрел списки рассылки на basho.com, и кажется, что эта ошибка возникает, когда кольцо неверно, например, если администратор меняет имя узла-заявителя без очистки кольца и т. Д., Но это не мой случай. Кольцо было очищено на каждом узле перед настройкой и запуском Riak. Я не опытный системный администратор, и я абсолютно новичок во всем, что касается распределенных систем, поэтому, если у кого-то есть идея или предложение, поделитесь.

Редактировать:

Предложение из официальной документации Riak:

http://docs.basho.com/riak/latest/ops/running/recovery/errors/

Check riak-admin member-status and ensure that all expected nodes in the cluster are of valid Status

Как вы можете видеть на моем riak-admin member-status результат команды, все узлы перечислены как valid,

1 ответ

Наряду с тем, что сказал Джо о проверке логов в /var/log/riakпроверьте эти команды:

  • riak-admin transfer-limit - убедитесь, что это не так 0,
  • riak-admin transfers - повторяйте эту команду, используя GNU watch каждые 5 секунд или около того, чтобы убедиться, что передачи происходят. Если нет, проверьте файлы журнала на наличие ошибок.
Другие вопросы по тегам