Почему после расширения массива zfs в Linux передается неправильно?

Я обновил диски в массиве Raidz с 4 накопителями на сервере NAS, и массив автоматически расширился до нового размера. При тестировании скоростей передачи с сервера NAS сейчас я наблюдаю, что при выполнении больших операций чтения с чтением производительность низкая, изо всех сил пытаюсь подняться выше 10 МБ / с, хотя iotop и zpool iostat могут сообщать об очень больших числах до 500 МБ / с. Что может привести к этому странное поведение? Поскольку я обновлял массив, я также могу заметить, что он работает одинаково, независимо от того, есть 4 устройства в сети или понижен до 3.

Сервер подключен к одному гигабитному сетевому соединению и может насытить его одним диском, используя ext4

1 ответ

Решение

Я обнаружил, что когда я экспериментировал с настройками кэша, чтобы посмотреть, что произойдет, я оставил основной кэш выключенным, что может привести к тому, что реальный ввод-вывод будет намного больше, чем логический ввод-вывод из-за

[приложение] читает файл, получает 4k (размер страницы?) данных и обрабатывает их, затем читает следующие 4k и т. д.

ZFS, однако, не может читать только 4k. Он читает 128k (размер записи) по умолчанию. Поскольку кеша нет (вы его отключили), остальные данные выбрасываются.

128k / 4k = 32

32 x 2,44 ГБ = 78,08 ГБ

с форумов FreeBSD

Другие вопросы по тегам