Apache Tomcat задыхается после 300 подключений
У нас есть веб-сервер apache перед Tomcat, размещенный на EC2, тип экземпляра очень большой с 34 ГБ памяти.
Наше приложение имеет дело с большим количеством внешних веб-сервисов, и у нас есть очень паршивый внешний веб-сервис, который реагирует на запросы в часы пик почти 300 секунд.
В часы пик сервер блокирует около 300 процессов httpd. ps -ef | grep httpd | wc -l =300
Я гуглил и нашел множество предложений, но, похоже, ничего не работает. Ниже приведены некоторые настройки, которые я сделал, которые взяты непосредственно из онлайн-ресурсов.
Я увеличил пределы максимального соединения и максимальных клиентов как в Apache, так и в Tomcat. вот детали конфигурации:
// апач
<IfModule prefork.c>
StartServers 100
MinSpareServers 10
MaxSpareServers 10
ServerLimit 50000
MaxClients 50000
MaxRequestsPerChild 2000
</IfModule>
//Кот
<Connector port="8080" protocol="org.apache.coyote.http11.Http11NioProtocol"
connectionTimeout="600000"
redirectPort="8443"
enableLookups="false" maxThreads="1500"
compressableMimeType="text/html,text/xml,text/plain,text/css,application/x-javascript,text/vnd.wap.wml,text/vnd.wap.wmlscript,application/xhtml+xml,application/xml-dtd,application/xslt+xml"
compression="on"/>
//Sysctl.conf
net.ipv4.tcp_tw_reuse=1
net.ipv4.tcp_tw_recycle=1
fs.file-max = 5049800
vm.min_free_kbytes = 204800
vm.page-cluster = 20
vm.swappiness = 90
net.ipv4.tcp_rfc1337=1
net.ipv4.tcp_max_orphans = 65536
net.ipv4.ip_local_port_range = 5000 65000
net.core.somaxconn = 1024
Я пробовал многочисленные предложения, но тщетно.. как это исправить? Я уверен, что сервер m2xlarge должен обслуживать больше запросов, чем 300, возможно, у меня неправильная конфигурация.
Сервер блокируется только в часы пик и при наличии 300 одновременных запросов, ожидающих ответа от [300 секундной задержки] веб-службы.
Я просто следил за TCP-соединениями с помощью netstat
я нашел около 1000 соединений в состоянии TIME_WAIT, понятия не имею, что это будет означать с точки зрения производительности, я уверен, что это должно добавить к проблеме.
Выход ТОП
8902 root 25 0 19.6g 3.0g 12m S 3.3 8.8 13:35.77 java
24907 membase 25 0 753m 634m 2528 S 2.7 1.8 285:18.88 beam.smp
24999 membase 15 0 266m 121m 3160 S 0.7 0.3 51:30.37 memcached
27578 apache 15 0 230m 6300 1536 S 0.7 0.0 0:00.03 httpd
28551 root 15 0 11124 1492 892 R 0.3 0.0 0:00.25 top
Output of free -m
total used free shared buffers cached
35007 8470 26536 0 1 61
8407 26599
15999 15 15984
output of iostat
avg-cpu: %user %nice %system %iowait %steal %idle
26.21 0.00 0.48 0.13 0.02 73.15
Device: tps Blk_read/s Blk_wrtn/s Blk_read Blk_wrtn
sda1 14.36 4.77 329.37 9005402 622367592
sdb 0.00 0.00 0.00 1210 48
Также в пиковое время существует около 10-15 тыс. TCP-соединений с мембранным сервером [локальный]
НЕКОТОРЫЕ ОШИБКИ В LOGJK MODJK, я надеюсь, что это проливает некоторый свет на проблему..
[Wed Jul 11 14:39:10.853 2012] [8365:46912560456400] [error] ajp_send_request::jk_ajp_common.c (1630): (tom2) connecting to backend failed. Tomcat is probably not started or is listening on the wrong port (errno=110)
[Wed Jul 11 14:39:18.627 2012] [8322:46912560456400] [error] ajp_send_request::jk_ajp_common.c (1630): (tom2) connecting to backend failed. Tomcat is probably not started or is listening on the wrong port (errno=110)
[Wed Jul 11 14:39:21.358 2012] [8351:46912560456400] [error] ajp_get_reply::jk_ajp_common.c (2118): (tom1) Tomcat is down or refused connection. No response has been sent to the client (yet)
[Wed Jul 11 14:39:22.640 2012] [8348:46912560456400] [error] ajp_get_reply::jk_ajp_common.c (2118): (tom1) Tomcat is down or refused connection. No response has been sent to the client (yet)
~
Worker.properties
workers.tomcat_home=/usr/local/tomcat/
worker.list=loadbalancer
worker.tom1.port=8009
worker.tom1.host=localhost
worker.tom1.type=ajp13
worker.tom1.socket_keepalive=True
worker.tom1.connection_pool_timeout=600
worker.tom2.port=8109
worker.tom2.host=localhost
worker.tom2.type=ajp13
worker.tom2.socket_keepalive=True
worker.tom2.connection_pool_timeout=600
worker.loadbalancer.type=lb
worker.loadbalancer.balanced_workers=tom1,tom2
worker.loadbalancer.sticky_session=True
worker.tom1.lbfactor=1
worker.tom1.socket_timeout=600
worker.tom2.lbfactor=1
worker.tom2.socket_timeout=600
// решаемые
Спасибо всем за ценные предложения. Я пропустил настройки maxThreads для разъема AJP 1.3. Теперь все кажется под контролем.
Я также начал бы смотреть на даже основанные серверы, такие как nginx.
9 ответов
Рассмотрите возможность настройки асинхронного прокси-сервера, такого как nginx
или же lighttpd
перед апачем. Apache обслуживает контент синхронно, поэтому работники блокируются, пока клиенты не загрузят сгенерированный контент полностью (подробнее здесь). Настройка асинхронного (неблокирующего) прокси-сервера обычно значительно улучшает ситуацию (я использовал для уменьшения числа одновременно работающих рабочих Apache с 30 до 3-5, используя nginx
в качестве внешнего прокси).
Я подозреваю, что ваша проблема в Tomcat, а не Apache, из журналов, которые вы показали в любом случае. Когда вы получаете сообщение об ошибке "110" при попытке подключиться к tomcat, это указывает на то, что у вас есть очередь подключений, ожидающих обработки, которые больше не могут вписаться в настройку прослушивания для сокета прослушивания в tomcat.
From the listen manpage:
The backlog parameter defines the maximum length the queue of pending
connections may grow to. If a connection request arrives with
the queue full the client may receive an error with an indication
of ECONNREFUSED or, if the underlying protocol supports
retransmission, the request may be ignored so that retries succeed.
Если бы мне пришлось угадывать, я бы заподозрил, что подавляющее большинство HTTP-запросов, когда сервер "задыхается", блокируется, ожидая, что что-то вернется из tomcat. Могу поспорить, что если вы попытаетесь получить какой-то статический контент, напрямую обслуживаемый apache (вместо того, чтобы быть прокси-сервером tomcat), это сработает, даже если его обычно "задыхается".
К сожалению, я не знаком с tomcat, но есть ли способ манипулировать настройками параллелизма?
О, и вам, возможно, придется также рассмотреть возможность того, что внешние сетевые службы ограничивают число подключений, которые он делает с вами, до 300, поэтому не имеет значения, сколько манипулирования параллелизмом вы выполняете на своей лицевой стороне. если практически каждое ваше соединение зависит от ответа внешних веб-сервисов.
В одном из ваших комментариев вы упомянули, что данные устаревают через 2 минуты. Я бы посоветовал кэшировать ответ, полученный от этой службы, на две минуты, чтобы уменьшить количество одновременных подключений, которые вы подключаете к внешней веб-службе.
Первым шагом для устранения этой проблемы является включение mod_status в Apache и изучение его отчета - пока вы этого не сделаете, на самом деле вы идете вслепую. Это не праведно.;-)
Второе, что нужно упомянуть (мне самим не нравятся ответы на вопросы, которые я не задавал, но...), это использование более эффективных и специальных интерфейсных серверов, таких как nginx
,
Кроме того, вы точно restart
апач, или просто graceful
Ly перезагрузил это?:)
Я знаю, что это старая история, но у меня есть 2 замечания.
Для Директивы ServerLimit существует жестко заданное ограничение. http://httpd.apache.org/docs/2.2/mod/mpm_common.html вы увидите, что это максимум 20000/200K.
Существует жесткое ограничение ServerLimit 20000, скомпилированное в сервер (для prefork MPM 200000). Это предназначено, чтобы избежать неприятных эффектов, вызванных опечатками.
2-ой Очевидно, nodybo упомянул, что установка этих 2 на один - очень плохая идея:
net.ipv4.tcp_tw_reuse=1
net.ipv4.tcp_tw_recycle=1
это означает, что вы снова используете время ожидания, знаете что? сервер может общаться с неправильным клиентом при большой нагрузке.
Я нашел очень хорошую статью, объясняющую это, но - это французский язык;-) http://vincent.bernat.im/fr/blog/2014-tcp-time-wait-state-linux.html
Для любого вида корпоративного развертывания prefork MPM - едва ли не худший выбор, который вы можете сделать: он поглощает ресурсы, как никто другой, а перезапуск потоков занимает ВСЕГДА по сравнению с другими MPM.
По крайней мере, переключитесь на рабочий MPM (apache 2.2 и выше) или - еще лучше - обновите до текущей стабильной версии 2.4.2 с ее стандартным событием MPM.
Обе они легко справятся с тысячами одновременных подключений с минимальными издержками.
Возможно, у пользователя Apache не хватает разрешенных файловых дескрипторов? Вы вообще не упомянули их в своем посте. Сколько файловых дескрипторов в настоящее время может иметь Apache?
очень большой с 34 ГБ памяти.
Большое железо не способ масштабировать веб-серверы, вы просто перемещаете узкие места вокруг. Но даже при таком большом количестве памяти я подозреваю, что 50000 подключений продвигают то, на что способна система, особенно если:
В часы пик сервер заглушает около 300 процессов httpd
Было бы полезно, если бы вы объяснили, что вы подразумеваете под "дросселями сервера".
Также очень странно иметь такой высокий предел для соединений, но очень низкий предел для гистерезиса (мин / макс запасных серверов).
Хотя приведенный вами фрагмент ошибок не показывает контрольного числа "слишком много открытых файлов", я бы начал с просмотра количества дескрипторов открытых файлов и настроек ulimit.
Это больше похоже на комментарий, но не могу, так как у меня меньше репутации. Наткнулся на точно такую же проблему, как @john titus.
Мы сделали разъем AJP MaxThreads
близко к нашему пределу потока Apache, чтобы решить проблему.
Для мониторинга этого мы искали SYN_SENT
Справка по статусу порта netstat с помощью команды netstat на нашем порту AJP.
netstat -an | grep :8102 | grep SYN_SENT | wc -l
Это снизилось до 0, что всегда было большим числом до ограничения MaxThread, установленного в AJP Connector.