Лучшие практики для общего доступа к файлам?

Таким образом, у нас есть общий файловый ресурс, который был запущен около 10 лет назад и начался с наилучшими намерениями. Но теперь он раздутый, там есть файлы, которые никто не знает, кто их туда поместил, трудно найти информацию, и так далее. Вы, наверное, знаете проблему. Так что мне интересно, что люди делают в этой ситуации. Кто-нибудь знает о приличной программе, которая может пройти через общий доступ к файлам и найти файлы, к которым еще не прикасались? Дубликаты файлов? Любые другие предложения по устранению этого беспорядка?


Ну, общий доступ к файлам на основе Windows, и это почти более 3 ТБ. Есть ли какая-нибудь утилита, которая может составлять некоторые отчеты для меня. Нам нравится идея найти что-то старше 6 месяцев, а затем отправить его в архив, единственная проблема заключается в том, что такой большой файловый ресурс может быть очень трудно сделать вручную.

9 ответов

Мы советуем клиентам "выжечь землю" и начать все заново.

Мне еще предстоит увидеть хорошее решение, которое работает без участия заинтересованных сторон, не связанных с ИТ. Лучший сценарий, который я когда-либо видел, - это Заказчик, у которого руководство определило "стюардов" различных областей данных и делегировало контроль над группами AD, которые контролируют доступ к этим общим областям этим "стюардам". Это сработало очень, очень хорошо, но потребовало некоторой подготовки со стороны "стюардов".

Вот то, что я знаю, не работает:

  • Называя отдельных пользователей в разрешениях. Используйте группы. Всегда. Каждый раз. Безошибочно. Даже если это группа из одного пользователя, используйте группу. Рабочие роли меняются, происходит смена.
  • Разрешение не-ИТ-пользователям изменять разрешения. В конечном итоге вы получите "компьютерный Вьетнам" (участвующие стороны имеют "добрые" намерения, никто не может выйти, и все проигрывают).
  • Наличие слишком грандиозных идей о разрешениях. "Мы хотим, чтобы пользователи могли писать файлы здесь, а не изменять файлы, которые они уже написали" и т. Д.

Вещи, которые я видел, работают (некоторые хорошо, другие не очень хорошо):

  • Опубликовать "карту", ​​указывающую, где должны храниться различные типы данных, обычно по функциональной области. Это хорошее место, чтобы проводить интервью с различными отделами и узнавать, как они используют общие файлы.
  • Подумайте о "обратном биллинге" за использование пространства или, по крайней мере, регулярно публикуйте "таблицу лидеров" пользователей пространства департамента.
  • Я упомянул имена групп исключительно в разрешениях?
  • Разработайте план для областей данных, которые "растут без границ", чтобы перевести старые данные в "автономное" или "близлежащее" хранилище. Если вы позволите данным расти бесконечно, это сделает ваши резервные копии бесконечными.
  • Планируйте какие-то тенденции использования пространства и увеличения папок. Вы можете использовать коммерческие инструменты (кто-то упомянул Tree Size Professional или SpaceObServer от JAM Software), или вы можете написать что-то разумное, эффективное с помощью программы du и некоторого скриптового клея.
  • Сегмент файловых ресурсов на основе "SLA". Вы могли бы подумать о том, чтобы иметь "критически важную для бизнеса" долю, которая пересекает границы департаментов, и "хорошо иметь работающую, но не критическую" долю. Идея состоит в том, чтобы разделить критически важные для бизнеса ресурсы для резервного копирования, восстановления и обслуживания. Необходимость забрать бизнес для восстановления 2 ТБ файлов из резервной копии, когда все, что действительно требовалось для ведения бизнеса, - это около 2 ГБ файлов, - это немного глупо (и я вижу, что это происходит).

Я согласен с Эваном, что начинать сначала - хорошая идея. За прошедшие годы в моей нынешней компании я выполнил 4 "миграции файлов", и каждый раз, когда мы настраивали новую структуру и копировали (некоторые) файлы, создавали резервные копии старых общих файлов и переводили их в автономный режим.

Одна вещь, которую мы сделали во время нашей последней миграции, может сработать для вас. У нас была несколько похожая ситуация с тем, что мы называли нашим "общим" диском, где каждый мог читать, писать и удалять. За эти годы там накопилось много всего, так как люди делились вещами между группами. Когда мы переехали на новый файловый сервер, мы создали новый общий каталог, но мы ничего не скопировали в него для пользователей. Мы оставили старый Common на месте (и назвали его Old Common), сделали его доступным только для чтения и сказали всем, что у них есть 30 дней, чтобы скопировать все, что они захотят, в новые каталоги. После этого мы спрятали каталог, но мы могли бы его скрыть по запросу. Во время этой миграции мы также работали со всеми отделами, создавали новые общие каталоги и помогали людям идентифицировать дубликаты.

Мы годами использовали Treesize, чтобы выяснить, кто использует дисковое пространство. Мы недавно пробовали Spacehound, и некоторым из моих коллег это нравится, но я продолжаю возвращаться в Treesize.

После нашей последней миграции мы попытались создать структуру архива, которую люди могли бы использовать самостоятельно, но она не очень хорошо работала. У людей просто нет времени следить за тем, что активно, а что нет. Мы смотрим на инструменты, которые могут выполнять архивирование автоматически, и в нашем случае будет работать периодическое перемещение всех файлов, которые не были затронуты в течение 6 месяцев, в другой общий ресурс.

На 3TB у вас, вероятно, много огромных ненужных файлов и дублированного барахла. Один полезный метод, который я нашел, - это выполнить поиск, начиная с файлов> 100 МБ (я мог бы даже подняться до 500 МБ в вашем случае), а затем снять его. Это делает работу по поиску реальных космических отходов более управляемой.

Возможно, вы захотите просто архивировать все, что старше шести месяцев, в другой ресурс и следить за доступом к файлам в этом ресурсе. Файлы, к которым имеется постоянный доступ, вы можете поместить обратно на основной сервер.

Другой вариант - это что-то вроде Google Search Appliance. Таким образом, вы можете позволить приложению Google разумно определять, что ищут люди, когда они что-то ищут, и оно будет "архивироваться", размещая менее доступные документы ниже на странице поиска.

На нашем файловом сервере Windows 2003 R2 мы используем встроенную функцию отчетов File Resource Monitor, он отправляет вам наименее используемые списки файлов вместе с другими отчетами.

Моим первым заказом было бы использовать корпоративный файловый менеджер / анализатор / репортер / что угодно, что вы хотите позвонить, например TreeSize Professional или SpaceObServer. Вы можете видеть, где находятся файлы, сортировать по данным о создании, дате доступа и множеству других критериев, включая статистику по типам и владельцам файлов. SpaceObServer может сканировать различные файловые системы, включая удаленные системы Linux/UNIX через SSH-соединение. Это может дать вам большую видимость вашей коллекции файлов. Оттуда вы можете "Разделяй и властвуй".

Я перемещаю все существующие данные в новую общую папку только для чтения: если конечный пользователь должен обновить файл, он может скопировать его на новый новый общий диск.

Таким образом, все старые вещи остаются доступными, но я могу вычеркнуть расписание резервного копирования.

Кроме того, один раз в год я удаляю папки (после проверки работоспособности архива), которые не обновлялись / не использовались в течение 3 лет.

Я думаю, что лучшее решение - это перейти на новый диск. Если число людей, получающих доступ к этой папке, разумно, спросите их и выясните, какие части действительно необходимы. Переместите их в новую папку. Затем предложите всем использовать новую акцию. Через некоторое время снеси старую акцию. Посмотрите, кто кричит, а затем переместите эти данные в новый общий ресурс. Если никто не просит что-то в течение 3-6 месяцев, вы можете безопасно удалить или заархивировать его.

Возможно, первый шаг - понять масштаб проблемы. Сколько места занято файловым ресурсом? Сколько файлов мы говорим?

Если вам повезет, вы обнаружите, что определенные части общего файлового ресурса следуют соглашениям об именах, либо для каждого пользователя, для каждого бизнес-процесса или для каждого отдела. Это может помочь вам выполнить задачу сортировки файлов.

В худшем случае вы можете отключить все это от сети и подождать, чтобы посмотреть, кто жалуется. Тогда вы можете узнать, кто они и для чего они его использовали. (Зло, но это работает.)

Другие вопросы по тегам