Скрыть объявление
Здравствуйте Гость! Не нашли ответа на свой вопрос? Зарегистрируйтесь на форуме, чтобы стать полноценным участником сообщества и задайте свой вопрос! Вам обязательно помогут!

Как скачать сайт из вебархива бесплатно

Тема в разделе "Сайтостроение, настройка и технические вопросы", создана пользователем Gandis, 14 авг 2017.

  1. Gandis

    Gandis Пользователь

    Сообщения:
    95
    Симпатии:
    7
    Пол:
    Мужской
    Решил написать небольшой мануал, как можно скачать сайт из вебархива, данный способ является полностью бесплатным и никакие онлайн сервисы и платные программы нам не понадобятся. И судя по вопросам на форуме, как поисковики относятся к статьям из вебархива, многим он пригодится.

    Не смотря на то, что существует множество онлайн инструментов и программ для восстановления сайтов из вебархива, таких как Httrack, мы будем использовать небольшой скрипт на Ruby, который лежит на github, он абсолютно бесплатный.

    Все будем делать с нашего компьютера с помощью пары утилит.

    Для того чтобы выкачать сайт из вебархива, сайт должен иметь "слепок", который работоспособный, в противном случае выкачать сайт с вебархива не получится.

    Так как мы все будем делать на своем компьютере под управлением ОС Windows, то необходимо установить ruby с официального сайта.

    1. Загрузите и установите Ruby в соответствии с характеристиками вашей операционной системы (32 или 64 бит).

    Как-скачать-сайт-из-вебархива-бесплатно.jpg

    Скрытое содержание::
    ****Скрытый контент: Для просмотра вам нужно иметь 5 сообщений(-ия).**
    2. После установки, появится командная строка с Ruby, запускаем от имени администратора

    3. Устанавливаем саму утилиту с github такой командой:

    Скрытое содержание::
    ****Скрытый контент: Для просмотра вам нужно иметь 5 сообщений(-ия).**
    4. Теперь идем в вебархив и берем данные нужного нам слепка

    Например, нам нужен архив Яндекса, открываем нужную нам дату и убеждаемся, что страницы в вебархиве открываются, полный url будет выглядеть так:

    Скрытое содержание::
    ****Скрытый контент: Для просмотра вам нужно иметь 5 сообщений(-ия).**
    Берем из url:

    Скрытое содержание::
    ****Скрытый контент: Для просмотра вам нужно иметь 5 сообщений(-ия).**
    Взятые данные из url подставляем в нашу команду для скачивания, выглядеть это будет так:

    Скрытое содержание::
    ****Скрытый контент: Для просмотра вам нужно иметь 5 сообщений(-ия).**
    Прописываем эту команду в открытой ранее консоли Ruby.

    Если сайт в архиве работоспособный, то видим как через несколько секунд, начнется загрузка сайта к нам на компьютер.

    Ждем пока сайт скачается.

    Скаченный сайт можно найти по такому пути:

    Скрытое содержание::
    ****Скрытый контент: Для просмотра вам нужно иметь 5 сообщений(-ия).**
    Но, бывает так, что сайт может находиться и по такому пути:

    Скрытое содержание::
    ****Скрытый контент: Для просмотра вам нужно иметь 5 сообщений(-ия).**
    В таком случае, после скачивания, нужно скопировать/вырезать папку с сайтом, например на рабочий стол и уже открывать с рабочего стола, так как сайт не откроется, если открывать из системной папки.

    Если вы продвинутый пользователь, то можете использовать и другие команды по работе со скриптом, которые можно увидеть на github в описании к скрипту.

    Скрытое содержание::
    ****Скрытый контент: Для просмотра вам нужно иметь 5 сообщений(-ия).**
    Со скриптом можно работать как на Windows, так и на Mac или Linux (возможно позже допишу команды, хотя в описании к скрипту они все имеются).

    P.s За возможные опечатки и ошибки в тексте, тапками не кидайтесь, я не копирайтер)
     
    Master и Звездочет нравится это.

  2. Master

    Master Пользователь

    Сообщения:
    55
    Симпатии:
    4
    Пол:
    Мужской
    Что-то новенькое или я просто не встречал такой способ выкачки сайта из вебархива? А кстати, скачивает полностью, как и через онлайн сервисы, на выходе архив с файлами? Если так, то платные программы и сервисы не нужны, поставил на скачку и спать лег, утром скаченный сайт в папочке.
     
  3. Владимир Дружко

    Владимир Дружко Пользователь

    Сообщения:
    19
    Симпатии:
    4
    Спасибо за статью, я в начале думал что вручную надо сохранять каждую страничку, а здесь такой подробный способ автоматизации, добавил статью в закладки, буду пробовать когда появится свободное время.
     
  4. Gandis

    Gandis Пользователь

    Сообщения:
    95
    Симпатии:
    7
    Пол:
    Мужской
    Не совсем новенькое, думаю 2016 год, с таким способом и принципом работой, есть и онлайн сервисы по скачке сайта из вебархива. Но, большинство из них платные. Поэтому, думаю, если есть возможность скачивать сайты из вебархива бесплатно и сразу к себе на компьютер, то, почему бы и не использовать данный способ).

    Руками сохранять эта рабская работа, я не знаю, как у вас терпения и времени хватало. Я раньше пользовался платными программами и сервисами, но если большие объемы, выходило дороговато. Сам долго искать как можно выкачивать и все таки нашел.
     
  5. Руслан

    Руслан Пользователь

    Сообщения:
    27
    Симпатии:
    3
    Пол:
    Мужской
    Лично я сам ни разу не сталкивался с такой необходимостью, но знаю на работе у нас системный администратор над этим делом пару дней ковырялся. И как раз таки он именно делал сохранение каждой страницы отдельно.
     
  6. Валентина

    Валентина Интересующийся

    Сообщения:
    13
    Симпатии:
    3
    Пол:
    Женский
    Это конечно хорошо когда рядом есть человек всецело разбирающийся во всем этом. Я помню мне нужно было самостоятельно скачать сайт из веб архива, так вот бесплатных вариантов я найти не смогла. Так что пришлось бросить эту затею.
     
  7. Yaroslav Li

    Yaroslav Li Интересующийся

    Сообщения:
    5
    Симпатии:
    1
    Пол:
    Мужской
    Получилось у кого восстановить таким способом?
     
  8. Gandis

    Gandis Пользователь

    Сообщения:
    95
    Симпатии:
    7
    Пол:
    Мужской
    Ну если я написал инструкцию, значит получилось. Скачивается все с вебархива и потом правится. Главное, чтобы в архиве сайт открывался по ссылкам.
     
  9. Стефан

    Стефан Пользователь

    Сообщения:
    79
    Симпатии:
    3
    Пол:
    Мужской
    Подскажите, пожалуйста, а как искать неработающие сайты в вебархиве? https://seorunet.com/threads/kak-najti-nerabotajuschie-sajty-v-vebarxive.379/
    Как скачать статьи из вебархива ваша инструкция помогла, но трудность в поиске неработающих доменов, которые есть статьи в архиве.
     
  10. wadko

    wadko Интересующийся

    Сообщения:
    5
    Симпатии:
    1
    Пол:
    Мужской
    Спасибо за подробный мануал!
     
  11. Gandis

    Gandis Пользователь

    Сообщения:
    95
    Симпатии:
    7
    Пол:
    Мужской
    Пожалуйста. Рад что вам помогло.
     
  12. peripatetic

    peripatetic Интересующийся

    Сообщения:
    1
    Симпатии:
    0
    Пол:
    Мужской
    Подскажите, пожалуйста, а как искать неработающие сайты в вебархиве?
     
  13. Gandis

    Gandis Пользователь

    Сообщения:
    95
    Симпатии:
    7
    Пол:
    Мужской
  14. Kotten

    Kotten Интересующийся

    Сообщения:
    2
    Симпатии:
    0
    Пол:
    Мужской
    Очень полезная статья, день убил прежде чем на этот шедевр наткнулся
     
  15. n8634

    n8634 Интересующийся

    Сообщения:
    5
    Симпатии:
    1
    Смотреть освобождающиеся домены, пробивать их по вебархиву. Есть очень старые сайты с 2004-2005 годов. Сейчас кризис, фирмы закрываются, домены с сайтами бросаются.
     
    Gandis нравится это.
  16. антон4567

    антон4567 Интересующийся

    Сообщения:
    3
    Симпатии:
    0
    Пол:
    Мужской
    очень круто. хочу попробовать
     
  17. 4145445

    4145445 Интересующийся

    Сообщения:
    3
    Симпатии:
    0
    Пол:
    Мужской
    Очень помогли, пасиб..

    Буду пробовать
     
  18. iliaastahov58

    iliaastahov58 Интересующийся

    Сообщения:
    5
    Симпатии:
    0
    Пол:
    Мужской
    Буду пробовать. Спасибо за статью.
     
  19. svv1972

    svv1972 Интересующийся

    Сообщения:
    2
    Симпатии:
    0
    Пол:
    Мужской
    Сегодня нашёл очень хороший домен,проверил его и оказалось что Тиц высокий и статьи на нем уникальные.
    Так вот, хочу скачать его из веб архива,но тем что написано выше,не получается.
    Что еще может есть для вытягивания сайта из архива?
     
  20. Gandis

    Gandis Пользователь

    Сообщения:
    95
    Симпатии:
    7
    Пол:
    Мужской
    Если в вебархиве сайт рабочий и по ссылкам там переходит то, скачать можно все.

    Вы попробуйте выбрать более раннюю дату и по самому сайту по ссылкам покликайте, если все переходит, то скачает.

    Возможно, вы просто допустили ошибки в командах.
     
Черновик сохранён Черновик удалён
Загрузка...