Влияние на сервер общих общих файлов на сотнях сайтов

Я работаю на клиента, использующего выделенный сервер HostGator с сотнями сайтов на нем. Поскольку между ними будет несколько общих файлов, я собираюсь сделать следующее:

  1. создание ОБЩЕЙ папки в / home /, которая содержит универсальные файлы
    /Главная
    ... site1
    ... site2
    ... site3
    ... site4
    ... ОБЩИЙ
    ........universal.css
    ........universal.js
    ........universal.php
    ... site999
    ... site1000

  2. Добавление скрипта на каждый сайт, который использует PHP include(); указывая на соответствующий файл в каталоге COMMON.
    <?php
    include("../../../COMMON/universal.php");
    ?>

Таким образом, я смогу вносить изменения в код на всех сайтах одновременно.

Теперь основной вопрос: как что-то подобное влияет на сервер? Эти сайты никогда не будут иметь большой трафик, но их буквально сотни. Это такой основной вопрос, но 1000 запросов на один и тот же файл совпадают с 1000 запросов, распределенных по сотням файлов?

3 ответа

Решение

На самом деле, какой вид одновременного доступа к любому файлу вы ожидаете? Из вашего описания я был бы очень удивлен, если к какому-либо конкретному файлу обращаются больше, чем пара, если экземпляры в любой момент времени. Эта нагрузка, вероятно, будет еще меньше из-за различных уровней кэширования, которые есть в большинстве систем. Короче говоря, я действительно не думаю, что у вас будут проблемы, даже если все сайты достаточно заняты.

включают в себя ("../../../COMMON/universal.php");

Нет!!!!

Никогда не используйте относительные пути для включаемых файлов!

добавьте COMMON к пути включения PHP (вы можете сделать это в php.ini, в.htaccess или в верхней части каждого сценария PHP, например,

<?php
ini_set('include_path',ini_get('include_path').':/home/COMMON:');

Должно быть в порядке, тем более что это будет в основном только для чтения. Правильно?:)

Другие вопросы по тегам