Как заблокировать URL, которые запрашивают robots.txt в lighttpd?

У нас есть выделенный сервер разработки, который запускает только тестовые приложения PHP в публичной сети.
У нас настроена сеансовая аутентификация для сайта.

Проблема в том, что в журнале доступа robots.txt зарегистрировано 404 файла.
Итак, мы хотим заблокировать / игнорировать эти запросы на lighttpd, чтобы сэкономить пропускную способность.

Как мы можем добиться этого в lighttpd/1.4.31?

0 ответов

Другие вопросы по тегам