Как узнать правильный размер подкачки для Linux-машин hadoop

Мы используем много кластеров Hadoop

на данный момент мы используем размер свопа - 16G

   free -g
                  total        used        free      shared  buff/cache   available
   Mem:            125           1         123           0           0         123

   Swap:            15           0          15

но, как известно, подкачка очень медленная память, которая на самом деле использует диск

в некоторых компонентах hadoop, таких как сервер zookeeper, своп должен быть отключен!!!

но у меня есть ощущение, что в Hadoop своп машины должен быть минимальным

Я думаю, что мне нужно уменьшить его до 4G,

но я хочу получить больше мнений

0 ответов

Другие вопросы по тегам