Спасение сайтов - это кропотливая работа. Первым делом сайт скачивается с помощью программ Teleport Pro или Wget.

Дальнейшие действия зависят от того, с какого бесплатного хостинга был скачан сайт. Сайту, скачанному с Яндекс.Народ (домены вида site.narod.ru), потребуется очистка каждой html страницы от добавленного для показа рекламных баннеров посетителям сайтов специального кода. Рекламный код был добавлен новым владельцем Народа - компанией UCOZ.

Рекламный код может быть вставлен выше тега <html> и (или) в содержимое тега-контейнера <head> … </head>.

Смело удаляйте строки следующего вида:

В особенности подключаемые JavaScript с внешними ссылками вроде:
<script type="text/javascript" src="http://s206.ucoz.net/"></script>

Если в JavaScript скриптах, размещенных прямо на странице, <script type="text/javascript"> …  </script> встречается что-то со словом UCOZ, тоже удаляйте. Полностью, включая открывающий и закрывающий теги.

В эпоху Web 1.0 при создании сайтов использование JavaScript библиотек не носило массовый характер. Это важно учитывать. JavaScript использовался и тогда, но это были простые скрипты. К сожалению, нету простого способа как отличить нужный скрипт от рекламного. Тут потребуются базовые знания JavaScript и опыт.

Также в самом конце страницы может попасться gif-картинка с надписью вроде "hosted by ucoz", "основано на технологиях UCOZ ", "сайт управляется системой UCOZ" и т.д. Тоже смело удаляйте следующий код типа:

<!-- copyright (i5) --><div align="center"><a href="http://www.ucoz.ru/" title="Создать сайт бесплатно"><img style="margin:0;padding:0;border:0;" alt="Hosted by uCoz" src="http://s206.ucoz.net/img/cp/9.gif" width="80" height="15" title="Hosted by uCoz" /></a><br /></div><!-- /copyright -->

Очистив все html страницы от рекламных скриптов. Половина дела сделана. Следующий этап - проверка внутренних ссылок. Особое внимание обратите на регистры букв. Помните об регистрозависимости ссылок. page.html и Page.html – это разные файлы. Если возможно – делаем все ссылки строчными (малыми) буквами. Не забываем также поступить с названиями файлов. Удалённые UCOZом страницы и файлы ищите при помощи Web Archive (ищите копии ДО 2013 года ! ). Тут вам на помощь придёт скрипт для языка Ruby wayback_machine_downloader. В крайнем случае можете попробовать сообщить автору сайта о планируемом восстановлении (чаще всего посредством электронной почты, указанной на сайте (лучше, если будет указан почтовый ящик вида user@yandex.ru, user@mail.ru, так как другие ящики могут быть неактивны по причине "смерти" сервера или домена)).

На некоторых сайтах могут возникнуть проблемы с определением кодировки (вплоть до того, что может отсутствовать специальный meta-тег). Если на сайте разные страницы используют разные кодировки, советуем перевести страницы либо в Windows-1251 (для лучшего отображения в браузерах эпохи Web 1.0), либо в UTF-8.

Примеры meta-тега, содержащего информацию о используемой кодировке:

Также иногда могут скачиваться вместе с сайтом и директории с названиями типа "Gh5hNHdgvj5", которые тоже могут содержать рекламные скрипты, которые чаще всего имеют аналогичные названия. Удаляйте и их. НЕ ПЕРЕПУТАЙТЕ ИХ С НУЖНЫМИ ФАЙЛАМИ И ПАПКАМИ! После удаления зайдите на всякий случай в корзину и выполните поиск файлов с расширениями .htm, .html. Необходимые файлы восстановите.

И только после того, как проверены все внутренние ссылки, можно считать спасение сайта завершенным.

Виды поддоменов отреставрированных сайтов:

site.abrbus.ru - сайты с narod.ru
site-c.abrbus.ru - сайты с chat.ru
site-n.abrbus.ru - сайты с newmail.ru (nm.ru, hotmail.ru)
site-by.abrbus.ru - сайты с by.ru

Скачивание сайта целиком на примере двух программ: Teleport Pro и Wget

Teleport Pro

1. Скачиваем и устанавливаем программу Teleport Pro.
2. Далее создаём новый проект:

3. Далее выбираем указанный на картинке пункт ("С сохранением структуры")

4. Вписываем в верхнюю строку адрес нужного нам сайта:

5. Выбираем указанный пункт ("Скачать все файлы")

6. Нажимаем "Готово" и сохраняем проект.

7. Запускаем скачивание сайта.

Wget

1. Скачиваем и распаковываем архив с утилитой wget.
2. Запускаем: Пуск - Выполнить - cmd (Windows)


3. Рекомендуем вам следующие параметры:

-r - рекурсивная передача файлов
-l xxx - количество файлов, которое хотите скачать
-k - создание внутренних ссылок для просмотра сайта на ПК
-P c:/sites/ - директория, в которую нужно сохранить сайт
-erobots=off - игнорирование файла robots.txt

4. Набираем команду для скачивания сайта с нужными параметрами (в конце - адрес сайта)

5. Нужный вам сайт успешно скачан.