Как заставить Google обновлять индекс вашего сайта после восстановления после взлома?
У меня есть веб-сайт, который я взял на себя в качестве веб-мастера. Он был в WordPress и был взломан, и на сайт были вставлены тысячи спам-страниц. Эти страницы были проиндексированы Google, и в итоге появилось сообщение " Этот сайт может быть взломан " в результатах поиска.
Я перенес сайт на другую CMS и убедился, что он чистый, добавил его в Инструменты для веб-мастеров, и новые страницы были проиндексированы - проблема в том, что Google только что добавил новые страницы на старые страницы СПАМА. Сайт маленький - не более 100 страниц, но по поиску site:example.org
Я получаю " Около 368 000 результатов ".
Инструменты Google для веб-мастеров отправляют сообщение: робот Googlebot обнаружил значительное увеличение количества URL-адресов на http://example.org/ которые возвращают ошибку 404 (не найдена). Это может быть признаком сбоя или неправильной конфигурации, что может быть плохим для пользователя. Это приведет к тому, что Google удалит эти URL из результатов поиска. Если эти URL не существуют вообще, никаких действий не требуется.
Прошло более месяца, но эти тысячи 404 ошибок все еще регистрируются в Инструментах Google для веб-мастеров.
Я попытался выполнить поиск по форумам, и до сих пор мой единственный вариант - полностью удалить сайт из индекса Google, а затем добавить его заново. Я не хочу этого отключения, потому что мы полагаемся на поисковый трафик, чтобы найти сайт.
Любые идеи о том, как удалить эти 404 не найденные страницы из индекса Google - все 368 000 из них.
2 ответа
Вы пытались отправить карту сайта в Google.
Попросите Google пересмотреть ваши URL-адреса. Если вы недавно добавили или внесли изменения в страницу на своем сайте, вы можете попросить Google (повторно) проиндексировать ее с помощью функции Fetch as Google.
Функция "Запрос индексации" в Fetch as Google - это удобный метод для простого запроса индексации для нескольких URL; если у вас есть большое количество URL для отправки, проще отправить карту сайта. вместо. Оба метода примерно одинаковы с точки зрения времени отклика.
От: https://support.google.com/webmasters/answer/6065812?hl=en
Если это не сработает, если эти URL имеют одинаковый путь, попробуйте добавить эти URL в robot.txt в правило запрета.
User-agent: *
Disallow: /common_path_indexed/
Вы можете попробовать добавить 301
перенаправляет на те страницы, чтобы они указывали на вашу главную страницу. Это может ускорить истечение срока действия взломанных страниц.