OpenStack Redundant Ceph/Cinder Storage Architecture

Привет сообщество Serverfault,
В настоящее время я разрабатываю кластер OpenStack. Часть, в которой я сейчас застрял, - это архитектура хранения.

Я думал о создании двух избыточных кластеров Ceph в разных стойках с другим предохранителем и ИБП. Все идет нормально. Дело в том, что Openstack Cinder связывается по сети с Ceph. Даже если у меня есть резервные коммутаторы, что делать, если маршрутизатор / шлюз сети Ceph выходит из строя. Итак, для достижения полной избыточности мне нужны два избыточных шлюза, я прав?

Я сделал абстрактный образ того, что я пытаюсь сделать: Архитектура хранения

Слева вы можете увидеть узлы OpenStack Compute, каждый из которых подключен через две отдельные ссылки 10GE к каждому коммутатору. Эти коммутаторы подключены через магистраль 2x 10GE к каждому из выделенных кластерных коммутаторов Ceph, которые связаны друг с другом, поэтому узлы Ceph могут связываться друг с другом для обеспечения избыточности. Обратите внимание, что даже когда я использовал разные цвета, вся эта топология сети находится в одной VLAN.

С моей точки зрения, все может выйти из строя, и кластер все еще будет работать нормально. Но что, если шлюз сети хранения данных выйдет из строя? Тогда, я думаю, это будет работать до тех пор, пока коммутатор кэширует записи MAC ARP, но по истечении срока действия кластера происходит сбой. Есть ли у меня какие-либо предложения, как сделать кластер полностью избыточным и оптимизировать его?

Я сосредоточен только на компоненте хранения OpenStack, поэтому узлы Compute еще не подключены к сетевому узлу или сети управления.

Спасибо

1 ответ

Для части CEPH вашего вопроса: CEPH использует карту CRUSH, чтобы решить, где хранятся объекты, которые вы можете настроить. Маркировка OSD с помощью стойки, к которой они принадлежат, и предотвращение сохранения копий одного и того же объекта в одной и той же стойке на самом деле довольно распространены. Подробнее об этом смотрите здесь. Поэтому вам не нужны два отдельных кластера CEPH. Для конфигурации сети узлы CEPH должны находиться в "сети кластера", доступной из ваших узлов Cinder, и иметь частную сеть кластера, которая используется для репликации между экранными меню.

Что касается Cinder: Да, если Cinder выходит из строя, вы теряете доступ. Поэтому вы захотите развернуть Cinder в конфигурации высокой доступности.

Другие вопросы по тегам