GNU/Linux. Скопировать сайт из Вебархива |
Автор: admin Просмотров: 7594 Комментарии:
Добавлен: 18 ноября 2016
Обновлено: 10.10.2024 - 00:27
Есть вполне нормальное решение для восстановления сайтов из Вебархива под GNU/Linux и Unix - wayback_machine_downloader
1) устанавливает Ruby
aptitude install ruby
2) устанавливаем саму программу
gem install wayback_machine_downloader
3) качаем
wayback_machine_downloader -t 20140208070453 site.ru
4)загрузчик определяет количество страниц, выводит их на консоль и скачивает в папку ~/websites
Опцией timestamp можно отметить снапшот (конкретный или самый последний)
Опции wayback_machine_downloader
-d, --directory PATH Каталог для сохранения скачанных файлов. По умолчанию это ./websites/ плюс домен скачанного сайта.
-f, --from TIMESTAMP Только файлы или после поддерживаемого снапшота, например 20060716231334
-o, --only ONLY_FILTER Ограничить скачивание URL адресов, соответствующих этому фильтру. Используйте // для фильтрации регулярными выражениями.
-a, --all Расширить загрузку до скачивания файлов ошибок (40x и 50x) и перенаправлений (30x)
-c, --concurrency NUMBER Количество различных файлов для одновременного скачивания
-p, --maximum-snapshot NUMBER Максимальное число snapshot страниц для рассмотрения
-l, --list Только список ссылок в формате json c временными метками архива
-v, --version Отобразить версию
------------------------
ТРИО теплый пол отзыв
Заработок на сокращении ссылок
Earnings on reducing links
Код PHP на HTML сайты
Категория: Управление сайтом
Комментарии |