GNU/Linux. Скопировать сайт из Вебархива |
Автор: admin Просмотров: 7576 Комментарии:
Добавлен: 18 ноября 2016
Обновлено: 10.10.2024 - 00:27
Есть вполне нормальное решение для восстановления сайтов из Вебархива под GNU/Linux и Unix - wayback_machine_downloader
1) устанавливает Ruby
aptitude install ruby
2) устанавливаем саму программу
gem install wayback_machine_downloader
3) качаем
wayback_machine_downloader -t 20140208070453 site.ru
4)загрузчик определяет количество страниц, выводит их на консоль и скачивает в папку ~/websites
Опцией timestamp можно отметить снапшот (конкретный или самый последний)
Опции wayback_machine_downloader
-d, --directory PATH Каталог для сохранения скачанных файлов. По умолчанию это ./websites/ плюс домен скачанного сайта.
-f, --from TIMESTAMP Только файлы или после поддерживаемого снапшота, например 20060716231334
-o, --only ONLY_FILTER Ограничить скачивание URL адресов, соответствующих этому фильтру. Используйте // для фильтрации регулярными выражениями.
-a, --all Расширить загрузку до скачивания файлов ошибок (40x и 50x) и перенаправлений (30x)
-c, --concurrency NUMBER Количество различных файлов для одновременного скачивания
-p, --maximum-snapshot NUMBER Максимальное число snapshot страниц для рассмотрения
-l, --list Только список ссылок в формате json c временными метками архива
-v, --version Отобразить версию
------------------------
ТРИО теплый пол отзыв
Заработок на сокращении ссылок
Earnings on reducing links
Код PHP на HTML сайты
Я уже пять лет не занимаюсь сайтом, так как работаю по 12 часов. Образование у меня среднее, и по этому нет нормальной работы. Если бы сайт приносил по 100$ в месяц, я бы добавлял по 50 статей каждый месяц. Если отправите пожертвования, я оставлю Ваши имена и фамилии в списке благодетелей !
Bitcoin: 1AP3JCZVFpHzZwcAyNztbrbFFiLdnKbY1j
Litecoin LfHXHz4k6LnDNNvCodd5pj9aW4Qk67KoUD
Dogecoin D9HHvKNFZxRhjtoh6uZYjMjgcZewwiUME9
Есть также другие кошельки.
Категория: Управление сайтом
Комментарии |