Текущие решения для создания единого образа системы
Я проектирую кластер для небольшого научно-исследовательского института. Поскольку для наших вычислений требуется большой объем памяти, я ищу решение, которое позволит нашим приложениям получить доступ ко всей памяти, распределенной по разным узлам. Доступ должен быть «прозрачным», поскольку мы не хотим изменять используемые программы, поэтому такие решения, как RDMA, исключаются. По этой причине также желателен прозрачный доступ к другим ресурсам, таким как GPGPU, хранилище, ввод-вывод и процессоры на разных узлах.
Я знаю, что существуют аппаратные реализации, соединяющие узлы напрямую через каналы UPI между процессорами, например HPE Superdome и Atos BullSequana. Существуют также программные решения, реализующие виртуализацию для агрегации, такие как ScaleMP и TidalScale, которые соединяют узлы, используя обычное соединение Ethernet, а также прогнозирование использования памяти ИИ для повышения производительности.
Подобный вопрос был задан здесь некоторое время назад, а именно. Альтернатива ScaleMP?, но похоже, что с того времени рынок сильно изменился.
У меня есть два вопроса:
- Какова разница в производительности между аппаратными и программными решениями, особенно с точки зрения задержек при доступе к памяти?
- Доступны ли в настоящее время какие-либо другие аппаратные или программные решения, обеспечивающие описанную функциональность?