Почему после расширения массива zfs в Linux передается неправильно?
Я обновил диски в массиве Raidz с 4 накопителями на сервере NAS, и массив автоматически расширился до нового размера. При тестировании скоростей передачи с сервера NAS сейчас я наблюдаю, что при выполнении больших операций чтения с чтением производительность низкая, изо всех сил пытаюсь подняться выше 10 МБ / с, хотя iotop и zpool iostat могут сообщать об очень больших числах до 500 МБ / с. Что может привести к этому странное поведение? Поскольку я обновлял массив, я также могу заметить, что он работает одинаково, независимо от того, есть 4 устройства в сети или понижен до 3.
Сервер подключен к одному гигабитному сетевому соединению и может насытить его одним диском, используя ext4
1 ответ
Я обнаружил, что когда я экспериментировал с настройками кэша, чтобы посмотреть, что произойдет, я оставил основной кэш выключенным, что может привести к тому, что реальный ввод-вывод будет намного больше, чем логический ввод-вывод из-за
[приложение] читает файл, получает 4k (размер страницы?) данных и обрабатывает их, затем читает следующие 4k и т. д.
ZFS, однако, не может читать только 4k. Он читает 128k (размер записи) по умолчанию. Поскольку кеша нет (вы его отключили), остальные данные выбрасываются.
128k / 4k = 32
32 x 2,44 ГБ = 78,08 ГБ