Распределенное хранилище
На моем факультете университета мы собираемся обновить компьютеры нашей студенческой лаборатории (около 25-30 машин). Машины будут работать под управлением Linux.
Одна вещь о новых машинах состоит в том, что они имеют огромные (1 ТБ) жесткие диски (мы их не просили, но в любом случае в наши дни вы не можете найти значительно более дешевые диски!)
В настоящее время домашние каталоги пользователей хранятся на центральном файловом сервере и монтируются через nfs.
Итак, вопрос в том, можем ли мы использовать всю эту емкость диска? Я бы подумал о
- расширение нашего центрального хранилища файлов, или
- репликация домашних каталогов для более быстрого доступа.
Основная проблема заключается в том, что лабораторные машины не гарантированно будут постоянно работать.
Просматривая этот сайт, я читал о GlusterFS и AFS.
GlusterFS, кажется, имеет много друзей и является хорошим решением общего назначения.
А как насчет AFS? Я читал, что у него проблемы с производительностью, есть опыт?
2 ответа
Я был там, не желая "тратить" то, что кажется хорошим хранилищем. Это не "хорошо", это дурацкое поручение, пытающееся использовать это хранилище как что-либо кроме локального. Система должна будет хранить полную копию всего на каждой машине, так как она никогда не будет знать, какую машину планируется включить / выключить. Один только трафик репликации окажет заметное влияние на вашу сеть.
Если вы действительно хотите использовать эти диски, извлеките их из рабочих станций (PXE загружает рабочие станции) и используйте диски в сети SAN (есть много причин, чтобы использовать диски потребительского уровня в сети SAN тоже!)
Вы смотрели на файловую систему CEPH http://ceph.com/ceph-storage/
Кроме того, о кэшировании, если вы действительно этого хотите, - вы можете попробовать CacheFS, вот хорошая статья о http://www.c0t0d0s0.org/archives/4727-Less-known-Solaris-Features-CacheFS.html