Влияние на сервер общих общих файлов на сотнях сайтов
Я работаю на клиента, использующего выделенный сервер HostGator с сотнями сайтов на нем. Поскольку между ними будет несколько общих файлов, я собираюсь сделать следующее:
создание ОБЩЕЙ папки в / home /, которая содержит универсальные файлы
/Главная
... site1
... site2
... site3
... site4
... ОБЩИЙ
........universal.css
........universal.js
........universal.php
... site999
... site1000Добавление скрипта на каждый сайт, который использует PHP
include();
указывая на соответствующий файл в каталоге COMMON.<?php
include("../../../COMMON/universal.php");
?>
Таким образом, я смогу вносить изменения в код на всех сайтах одновременно.
Теперь основной вопрос: как что-то подобное влияет на сервер? Эти сайты никогда не будут иметь большой трафик, но их буквально сотни. Это такой основной вопрос, но 1000 запросов на один и тот же файл совпадают с 1000 запросов, распределенных по сотням файлов?
3 ответа
На самом деле, какой вид одновременного доступа к любому файлу вы ожидаете? Из вашего описания я был бы очень удивлен, если к какому-либо конкретному файлу обращаются больше, чем пара, если экземпляры в любой момент времени. Эта нагрузка, вероятно, будет еще меньше из-за различных уровней кэширования, которые есть в большинстве систем. Короче говоря, я действительно не думаю, что у вас будут проблемы, даже если все сайты достаточно заняты.
включают в себя ("../../../COMMON/universal.php");
Нет!!!!
Никогда не используйте относительные пути для включаемых файлов!
добавьте COMMON к пути включения PHP (вы можете сделать это в php.ini, в.htaccess или в верхней части каждого сценария PHP, например,
<?php
ini_set('include_path',ini_get('include_path').':/home/COMMON:');
Должно быть в порядке, тем более что это будет в основном только для чтения. Правильно?:)