Как узнать правильный размер подкачки для Linux-машин hadoop
Мы используем много кластеров Hadoop
на данный момент мы используем размер свопа - 16G
free -g
total used free shared buff/cache available
Mem: 125 1 123 0 0 123
Swap: 15 0 15
но, как известно, подкачка очень медленная память, которая на самом деле использует диск
в некоторых компонентах hadoop, таких как сервер zookeeper, своп должен быть отключен!!!
но у меня есть ощущение, что в Hadoop своп машины должен быть минимальным
Я думаю, что мне нужно уменьшить его до 4G,
но я хочу получить больше мнений