Скрыть объявление
Здравствуйте Гость! Не нашли ответа на свой вопрос? Зарегистрируйтесь на форуме, чтобы стать полноценным участником сообщества и задайте свой вопрос! Вам обязательно помогут!

Как скачать сайт из вебархива бесплатно

Тема в разделе "Сайтостроение, настройка и технические вопросы", создана пользователем Gandis, 14 авг 2017.

  1. Gandis

    Gandis Пользователь

    Сообщения:
    61
    Симпатии:
    7
    Пол:
    Мужской
    Решил написать небольшой мануал, как можно скачать сайт из вебархива, данный способ является полностью бесплатным и никакие онлайн сервисы и платные программы нам не понадобятся. И судя по вопросам на форуме, как поисковики относятся к статьям из вебархива, многим он пригодится.

    Не смотря на то, что существует множество онлайн инструментов и программ для восстановления сайтов из вебархива, таких как Httrack, мы будем использовать небольшой скрипт на Ruby, который лежит на github, он абсолютно бесплатный.

    Все будем делать с нашего компьютера с помощью пары утилит.

    Для того чтобы выкачать сайт из вебархива, сайт должен иметь "слепок", который работоспособный, в противном случае выкачать сайт с вебархива не получится.

    Так как мы все будем делать на своем компьютере под управлением ОС Windows, то необходимо установить ruby с официального сайта.

    1. Загрузите и установите Ruby в соответствии с характеристиками вашей операционной системы (32 или 64 бит).

    Как-скачать-сайт-из-вебархива-бесплатно.jpg

    Скрытое содержание::
    ****Скрытый контент: Для просмотра вам нужно иметь 5 сообщений(-ия).**
    2. После установки, появится командная строка с Ruby, запускаем от имени администратора

    3. Устанавливаем саму утилиту с github такой командой:

    Скрытое содержание::
    ****Скрытый контент: Для просмотра вам нужно иметь 5 сообщений(-ия).**
    4. Теперь идем в вебархив и берем данные нужного нам слепка

    Например, нам нужен архив Яндекса, открываем нужную нам дату и убеждаемся, что страницы в вебархиве открываются, полный url будет выглядеть так:

    Скрытое содержание::
    ****Скрытый контент: Для просмотра вам нужно иметь 5 сообщений(-ия).**
    Берем из url:

    Скрытое содержание::
    ****Скрытый контент: Для просмотра вам нужно иметь 5 сообщений(-ия).**
    Взятые данные из url подставляем в нашу команду для скачивания, выглядеть это будет так:

    Скрытое содержание::
    ****Скрытый контент: Для просмотра вам нужно иметь 5 сообщений(-ия).**
    Прописываем эту команду в открытой ранее консоли Ruby.

    Если сайт в архиве работоспособный, то видим как через несколько секунд, начнется загрузка сайта к нам на компьютер.

    Ждем пока сайт скачается.

    Скаченный сайт можно найти по такому пути:

    Скрытое содержание::
    ****Скрытый контент: Для просмотра вам нужно иметь 5 сообщений(-ия).**
    Но, бывает так, что сайт может находиться и по такому пути:

    Скрытое содержание::
    ****Скрытый контент: Для просмотра вам нужно иметь 5 сообщений(-ия).**
    В таком случае, после скачивания, нужно скопировать/вырезать папку с сайтом, например на рабочий стол и уже открывать с рабочего стола, так как сайт не откроется, если открывать из системной папки.

    Если вы продвинутый пользователь, то можете использовать и другие команды по работе со скриптом, которые можно увидеть на github в описании к скрипту.

    Скрытое содержание::
    ****Скрытый контент: Для просмотра вам нужно иметь 5 сообщений(-ия).**
    Со скриптом можно работать как на Windows, так и на Mac или Linux (возможно позже допишу команды, хотя в описании к скрипту они все имеются).

    P.s За возможные опечатки и ошибки в тексте, тапками не кидайтесь, я не копирайтер)
     
    Master и Звездочет нравится это.
  2. Master

    Master Пользователь

    Сообщения:
    35
    Симпатии:
    4
    Пол:
    Мужской
    Что-то новенькое или я просто не встречал такой способ выкачки сайта из вебархива? А кстати, скачивает полностью, как и через онлайн сервисы, на выходе архив с файлами? Если так, то платные программы и сервисы не нужны, поставил на скачку и спать лег, утром скаченный сайт в папочке.
     
  3. Владимир Дружко

    Владимир Дружко Пользователь

    Сообщения:
    19
    Симпатии:
    4
    Спасибо за статью, я в начале думал что вручную надо сохранять каждую страничку, а здесь такой подробный способ автоматизации, добавил статью в закладки, буду пробовать когда появится свободное время.
     
  4. Gandis

    Gandis Пользователь

    Сообщения:
    61
    Симпатии:
    7
    Пол:
    Мужской
    Не совсем новенькое, думаю 2016 год, с таким способом и принципом работой, есть и онлайн сервисы по скачке сайта из вебархива. Но, большинство из них платные. Поэтому, думаю, если есть возможность скачивать сайты из вебархива бесплатно и сразу к себе на компьютер, то, почему бы и не использовать данный способ).

    Руками сохранять эта рабская работа, я не знаю, как у вас терпения и времени хватало. Я раньше пользовался платными программами и сервисами, но если большие объемы, выходило дороговато. Сам долго искать как можно выкачивать и все таки нашел.
     
  5. Руслан

    Руслан Пользователь

    Сообщения:
    27
    Симпатии:
    3
    Пол:
    Мужской
    Лично я сам ни разу не сталкивался с такой необходимостью, но знаю на работе у нас системный администратор над этим делом пару дней ковырялся. И как раз таки он именно делал сохранение каждой страницы отдельно.
     
  6. Валентина

    Валентина Интересующийся

    Сообщения:
    13
    Симпатии:
    3
    Пол:
    Женский
    Это конечно хорошо когда рядом есть человек всецело разбирающийся во всем этом. Я помню мне нужно было самостоятельно скачать сайт из веб архива, так вот бесплатных вариантов я найти не смогла. Так что пришлось бросить эту затею.
     
  7. Yaroslav Li

    Yaroslav Li Интересующийся

    Сообщения:
    5
    Симпатии:
    1
    Пол:
    Мужской
    Получилось у кого восстановить таким способом?
     
  8. Gandis

    Gandis Пользователь

    Сообщения:
    61
    Симпатии:
    7
    Пол:
    Мужской
    Ну если я написал инструкцию, значит получилось. Скачивается все с вебархива и потом правится. Главное, чтобы в архиве сайт открывался по ссылкам.
     
  9. Стефан

    Стефан Пользователь

    Сообщения:
    18
    Симпатии:
    3
    Пол:
    Мужской
    Подскажите, пожалуйста, а как искать неработающие сайты в вебархиве? https://seorunet.com/threads/kak-najti-nerabotajuschie-sajty-v-vebarxive.379/
    Как скачать статьи из вебархива ваша инструкция помогла, но трудность в поиске неработающих доменов, которые есть статьи в архиве.
     
  10. wadko

    wadko Интересующийся

    Сообщения:
    5
    Симпатии:
    1
    Пол:
    Мужской
    Спасибо за подробный мануал!
     
  11. Gandis

    Gandis Пользователь

    Сообщения:
    61
    Симпатии:
    7
    Пол:
    Мужской
    Пожалуйста. Рад что вам помогло.
     
  12. peripatetic

    peripatetic Интересующийся

    Сообщения:
    1
    Симпатии:
    0
    Пол:
    Мужской
    Подскажите, пожалуйста, а как искать неработающие сайты в вебархиве?
     
  13. Gandis

    Gandis Пользователь

    Сообщения:
    61
    Симпатии:
    7
    Пол:
    Мужской
  14. Kotten

    Kotten Интересующийся

    Сообщения:
    2
    Симпатии:
    0
    Пол:
    Мужской
    Очень полезная статья, день убил прежде чем на этот шедевр наткнулся
     
Черновик сохранён Черновик удалён
Загрузка...
Похожие темы
  1. Matilda
    Ответов:
    0
    Просмотров:
    10
  2. Matilda
    Ответов:
    0
    Просмотров:
    10
  3. Matilda
    Ответов:
    0
    Просмотров:
    10
  4. Matilda
    Ответов:
    0
    Просмотров:
    11
  5. Matilda
    Ответов:
    0
    Просмотров:
    11