Самый эффективный способ обслуживать менее 10 HTTP-запросов в день с использованием cgi
Наша компания управляет более чем сотней серверов, и мы хотели бы "запрашивать" у этих серверов основную информацию об использовании один или два раза в день, используя http. Информацию об использовании можно легко найти с помощью сценария Perl CGI, и мы хотели бы иметь интерфейс http, чтобы упростить создание сценариев и их тестирование. Кажется излишним иметь apache или даже nginx+fcgiwrap для обслуживания одного или двух запросов в день. Мы думали об использовании openbsd-inetd (который уже установлен на всех серверах) для запуска веб-сервера, который мог бы легко передать запрос сценарию perl cgi. Какие есть хорошие альтернативы для этого?
3 ответа
Рассматривали ли вы возможность использования центрального веб-сервера с помощью пользовательских сценариев SSH на запрашиваемых серверах?
Во многих средах SSH в любом случае используется для удаленного управления. SSH предлагает опцию автоматического выполнения определенной локальной команды для соединения, аутентифицированного с указанным ключом.
ИМХО, это вариант, который стоит серьезно рассмотреть, развернут ли SSH в любом случае.
Если вы пишете Perl-скрипт, просто посмотрите на Catalyst, http://mojolicio.us/ или Dancer. Они представляют собой микро-фреймворк, способный прослушивать порт для обслуживания нескольких HTTP-запросов. Таким образом, вы не будете вынуждены устанавливать веб-сервер перед вашим скриптом.
Я использовал скрипт для сбора данных, архивирования и отправки архива через scp (ключ публикации ssh auth) на сервер журналов.