Тарифы Услуги Сим-карты

Web archive org как открыть. Как добыть уникальный контент из вебархива

Приветствую, дорогие читатели блога. Хотите узнать, как получать информацию о том, что было на любом сайте год назад или месяц назад, а сегодня уже удалено? Тогда читаем статью и применяем знания на практике. Покажу как увидеть старые записи сайта которые булм скрыты владельцем.

Наверняка есть немало людей, кто задумывался над тем, как посмотреть архив сайта в Интернете. Эта возможность пригодится каждому, кто ведет свой ресурс уже долгие годы, у кого сайтов несколько, кто хочет восстановить старый сайт. Как ни странно, такая возможность существует, и уже давно.

Archive.org – архив всех веб-сайтов Интернета, действующая как онлайн-библиотека. Начало деятельности проекта датируется 1996 годом, а место еговозникновения – Сан-Франциско. В то время сервис был не просто уникальным, но и практически бесполезным для многих, ведь Интернет был очень слабо распространен, а сайтов существовало всего ничего.

С распространением Всемирной Сети Архив приобрел большую популярность и стал своеобразной машиной времени, поскольку позволял просматривать даже уже не существующие веб сайты.

Сейчас библиотека Archive.org располагает огромным пространством для хранения данных и предлагает свободный доступ к файлам для всех желающих. К 2017 году в библиотеке содержится уже почти 90 миллиардов веб-страниц, но несмотря на это узнать данные о любом сайте можно практически мгновенно, введя его адрес в строку поиску.

Когда и почему сайт попадает в архив сайтов Интернета

После создания сайта он может попасть в Archive.org либо сразу, либо через некоторое время, а бывает, что даже действующего сайта там нет. Условия попадания вашего Интернет-ресурса в Архив следующие:

  • отсутствие в файле robots.txt команды на запрет его индексации

(User-agent:ia_archiver

Disallow: /);

  • наличие на ресурсе ссылок на поисковые системы или популярные сервисы;
  • переход на сайт с помощью поисковиков других пользователей.
Как можно использовать архиватором

В Archive.org сохраняются:

  • текстовые материалы;
  • аудиофайлы;
  • видеофайлы;
  • фото и картинки;
  • ссылки.

Архив позволяет:

  • Изучить всю историю своего сайта. Если информация на нем периодически обновляется и сайт содержит десятки страниц, порой бывает сложно найти какую-либо информацию. Здесь как раз архив сайтов Интернета придет на помощь.
  • Восстановить сам сайт или некоторые его страницы, если вы не делали резервные копии.
  • Найти уникальный контент для своего сайта. Правда, этот самый контент можно брать только с уже не существующих ресурсов, поскольку то, что представлено на действующих, как известно, не будет уникальным. К тому же, нужно знать адрес сайта, чтобы найти его и взять какую-либо информацию в архиве.

Инструкция по работе с Archive.org

Принцип работы сервиса Archive.org очень прост. Чтобы найти данные о каком-либо сайте, нужно лишь указать его адрес в строке WaybackMachine (Webarchive Machine).

Рассмотрим архив сайта на примере моего блога.. Жмем Enter.

Примечание. Если мы не сразу вставляем адрес, а печатаем, под строкой поиска появляются другие сайты с похожими названиями. Эта функция полезна, например, если вы забыли название разыскиваемого ресурса.

Открывается страница с данными. Под названием сайта видим информацию о том, сколько раз был заархивирован сайт и когда. Как видно, первая архивация произошла 18 июня 2014 года, а последняя – 2 октября 2016. Эти даты никак не связаны с изменениями, происходящим на самом сайте, ибо, когда будет производиться архивация, определяет сам WebArchive .

Чтобы более подробно рассмотреть все изменения или увидеть первоначальный вид сайта, просто выбираем год, а затем нажимаем в календаре число и месяц.

Нажмем на самую старую дату. Система переведет нас в сам блог, где будет виден его первоначальный интерфейс и содержимое. Дизайн я тоже некоторых элементов менял, а вот самые первые статьи сейчас уже затерялись и найти их сразу будет не так-то просто.

Таким образом можно посмотреть все изменения, когда-либо произошедшие в блоге, либо найти нужную информацию.

Как найти уникальный контент с помощью Webarchive Machine

Возможность просмотра архива старых сайтов дает возможность любому человеку использовать данные, которые на нем были, не опасаясь за неуникальность. Дело в том, что после «смерти» сайта его контент уже не проверяется поисковыми системами, а значит, он снова уникален, и остается проблема лишь поиска этих самых сайтов.

Если вы хотите взять контент с вашего старого ресурса или сайта, которым вы пользовались, но который уже не существует, проблем не возникнет, ведь вы наверняка помните адрес. Ну, а если намереваетесь искать среди всех «умерших» сайтов, можно воспользоваться специальными сервисами, где приводятся списки с освободившимися доменами, то есть с адресами сайтов, которых уже нет.

Я открыл один из таких сервисов, скопировал первый домен и вбил в строке WaybackMachine в Archive.org, но никакого результата это не дало. Такая же история повторилась и с четырьмя последующими доменами. Наконец, поиск по шестому адресу открыл информацию о сайте.

То, что Arcgive.org открывает не все «мертвые» сайты, может быть связано с несколькими причинами. Так, возможно, домен был приобретен, но сам сайт так никогда и не был наполнен каким-либо контентом. Именно так дело обстоит с большинством доменных имен, представленных в списках освобождающихся. Еще одна причина – создатель сайта удалил свой ресурс с самого Архива. Такое тоже может быть.И наконец, возможно, сайта вообще не было в Веб Архиве.

Итак, нам удалось все-таки найти «мертвый» сайт, информацию с которого можно считать. Как видим, сайт существует с 1999 года, и за все время по нему сделано 269 архивов.

Мы можем открыть ресурс и взять оттуда информацию. Для этого, как и в случае с действующими сайтами, просто выбираем любую дату. Данное действие откроет главную страницу в том виде, в котором она была к той дате, которую мы выбрали. Если здесь ничего полезного нет, следует проверить и другие даты.

После того, как полезный контент найден, обязательно следует предварительно проверить его на уникальность, поскольку, во-первых, кто-то до вас уже мог его использовать, а во-вторых, возможно, он все еще отслеживается поисковиками.

Как восстановить сайт с помощью Archive.org

Те, кто давно ведут сайты, знают о том, что нужно периодически делать его резервное копирование. А вот те, кто об этом не подумал, могут столкнуться с проблемой утери веб-страниц или потери функциональности целого сайта. В этом случае Архив снова придет на помощь, но, если у вас ресурс с большим количеством страниц, восстановление займет очень много времени. Еще одна проблема, которая может возникнуть, связана с возможностью утери некоторой доли информации или искажением дизайна.

Если вы все же решили восстановить свой сайт с помощью Archive.org, нужно будет проводить операции с каждой страницей, отсюда и трата времени.

Итак, для восстановления сайта нам нужно заменить внутреннюю ссылку страницы на оригинальную. Если мы посмотрим в адресной строке,ссылка будет иметь вид: http://web.archive.org/web/20161002194015/http://сайт/, то есть информацию с такой страницы нельзя будет просто скопировать.

Чтобы такая возможность появилась, можно просто вручную убирать начало ссылок, но, когда страниц сотни, это становится довольно кропотливым занятием. Поэтому мы будем использовать возможность самого Архива заменять ссылки. Для этого в адресной строке после набора цифр вставляем «id_» и жмем Enter. То есть вместо первоначальной ссылки в строке должно быть: http://web.archive..

Теперь ссылка оригинальная и можно просто копировать тексты, картинки и прочие файлы из исходного кода Архива. Такую же операцию проводим и с другими страницами сайта. Конечно, даже такой вариант займет много времени, но, если нет резервных копий, по-другому восстановить сайт вряд ли получится.

Как удалить сайт с Archive.org

Большинство создателей сайтов хотят, чтобы их ресурс попал в Архив, но бывают и случаи, когда, напротив, нужно сделать так, чтобы он либо не попал туда, либо удалился. Сам InternetArchive предлагает для этого очень простой метод. Нужно лишь задать команду для робота сервиса о том, что сайт не нужно включать в Архив, то есть написать в robots.txt следующее:

User-agent: ia_archiver
Disallow: /

Таким образом, создание архива всех сайтов – это помощь для многих пользователей Интернета в поиске информации и восстановлении старых ресурсов. Именно с целью сохранения информации и был создан Archive.org, и именно поэтому он сохраняет архивы сайтов, которые существуют в настоящий момент, и предоставляет возможность использовать данных с «мертвых» или заброшенных ресурсов.

Надеюсь, материл, был полезен и вы не забудете сделать репост статьи и подписаться на рассылку блога. Всех благ -))).

С уважением, Галиулин Руслан.

Февраль 16, 2015 16 комментариев

Для начала пару слов о WebArchive. Это глобальный архив интернет сайтов. Боты вебархива периодически обходят глобальную паутину и сохраняют на свои сервера все что смогли найти. Потом это все хранится для потомков 😉

Скачиваем список освобождающихся доменов в зоне.ru Можно брать и другие зоны, но там не так много доменов…

Полученный файл открываем с помощью Excel и жмем «ctrl+F», в поиске вводим ключевое слово, в моем примере это «Forex».

Нажали «найти все» и перед нами появился список нужных ячеек

Теперь нужно получить из этого списка сайты в архиве.

Вот и все, найденные страницы в вебархиве, через сервис или программу, мы мониторим уже глазками и ищем в куче файлов страницу со статьями или главную. Обязательно проверяйте домен на работоспособность, так как владельцы могли уже успеть продлить его.

Сервис показывает количество документов в вебархиве, цифры ниже 10 нас не интересуют. Старайтесь проверять как можно бОльшие цифры. К примеру, недавно я нашел сайт в вебархиве, нужной мне тематики, с 22000 документов, ох я и накопал оттуда хороших статеек!

Вот так выглядят файлы в вебархиве.

Стараемся попасть на сайте на главную страницу или найти карту сайта. Далее методично открываем статьи и проверяем их на уникальность. Я делаю это антиплагиатором от eTXT.

Второй способ, которым ищу именно я. Суть остается прежней, просто я беру домены .

Самый жирный плюс этого сервиса в том, что мы можем пройтись по разным датам, а не качать домены освобождающиеся только в один день. Чем дальше по датам мы уходим, тем больше вероятность того, что домены не продлили.

В это сервисе все проще — выбираем дату, жмем Ctrl+A — копируем все что есть на странице и вставляем в NotePad++, так же жмем Ctrl+F и вводим нужный нам ключ и жмем — Найти ВСЕ в текущем документе.

После поиска это выглядит так:

Вот и все =) Советую вам не париться с эксель и работать в нотпаде, а так же юзать сервис доменов по датам. Данным способом я нашел больше сотни отличных и уникальных статей на нужную мне тематику. На эти статьи, если бы я их заказал, у меня бы ушла не одна тысяча рублей… Всем благ и большого профита!

В сети есть масштабный проект, который, не получая с этого дохода, выполняет очень важную роль - сохраняет архивы сайтов , видео, аудио и печатной продукции.

Это - web.archive.org - глобальный проект с, казалось бы, невыполнимой миссией - создание архива всех сайтов, когда либо размещенных в интернете. Причем, сайты сохраняются не в виде скриншотов, а в виде полноценно работающих веб-страниц со всеми ссылками, картинками и стилевым оформлением (CSS) . Причем, для каждого сайта за время его существования в сети в этом архиве может накопиться и по несколько сотен копий, датированных разными этапами жизни ресурса.

Как можно использовать архив сайтов интернета

Чем же может быть полезен данный webarchive ?

  1. Во-первых, вы можете погрузиться в приятную ностальгию путешествуя по вашему сайту многолетней давности. Проследить историю изменений можно будет для любого другого ресурса интернета (в посте представлены скриншоты для статей про уже умерший Апорт именно из это вебархива, да и скриншоты, иллюстрирующие эволюцию главной страницы Яндекса , имеют тоже самое происхождение).
  2. Но это не все. Если страница добавленного вами в закладки сайта не открывается, то вы, конечно же, можете попробовать вытащить ее из кеша Яндекса или Гугла (читайте подробнее про то, как лучше искать в Google). Но если ресурс недоступен уже очень давно, то такие мертвые ссылки нигде кроме archive.org открыть уже будет не возможно (правда, и там его может не оказаться по описанным чуть ниже причинам).
  3. Так же, если вы по каким-либо фарс-мажорным обстоятельствам не делали бэкап (резервное копирование) вашего сайта , то данный web-archive будет единственной возможностью восстановить свой сайт . Имеется возможность очистить все ссылки от привязки к web.archive.org и сделать их прямыми именно для вашего ресурса (читайте об этом ниже).
  4. Ну, и последнее, что приходит в голову - поиск уникального контента . Если вы не способны сами создавать уникальный контента для сайта (писать статьи), то здесь вы сможете ими разжиться, правда, усилия приложить все равно придется. Суть такова, что многие сайты умирают и становятся недоступны вместе с имеющимся на них контентом.

    Отыскав такие ресурсы вы сможете вытащить тексты из интернет-архива и разместить их у себя, предварительно проверив их на уникальность . Таким образом вы не занимаетесь плагиатом и не нарушаете авторские права (копирайт) , но искать в вебархиве многим может показаться очень уж трудоемкой задачей.

Онлайн сервис Webarchive ведет свою историю аж с 1996 года. Поставленная перед проектом задача казалась невыполнимой даже с учетом того, что сайтов на то время в интернете было значительно меньше, чем сейчас (на несколько порядков). По началу, сайты архивировались не очень часто, но со временем, повышая мощности хранилищ, Веб-архив стал делать все больше и больше слепков сайтов.

Сам себя этот веб-архив занес в базу лишь в 1997 году и выглядела его главная страница тогда так:

Сейчас на все про все (включая аудио, видео и отсканированные книги) у этой некоммерческой организации задействовано дисковое пространство чудовищных размеров, измеряемое десяткой с пятнадцатью нулями байт. Сайт имеет зеркала в различных дата центрах, а сам проект с недавних пор получил официальный статус библиотеки. Если рассматривать только архив страниц сайтов, то их уже там насчитывается около ста миллиардов (тут учитываются все слепки страниц когда-либо снятые и сохраненные).


По архивам можно перемещаться и с помощью временной шкалы расположенной вверху страницы, где вертикальными черными черточками отмечены имеющиеся для этого сайта слепки. Иногда, веб-архивы могут быть битыми, тогда придется открыть ближайший к нему слепок.

Щелкнув по голубому кружочку мы можем увидеть ссылки на несколько архивов, отличающихся временем их снятия.

Возможно, что это делается во избежании потери данных за счет неизбежной порчи жестких дисков в хранилищах. Перейдя к просмотру одного из веб-архивов, вы увидите копию своего (в данном примере моего) сайта с работающими внутренними ссылками и подключенным стилевым оформлением. Правда, не идеально работающим.

Например, кое-что из дизайна у меня все же перекосило и боковое меню работающее на ДжаваСкрипте полностью исчезло:

Но это не столь важно, ибо в исходном коде страницы с web.archive.org это меню, естественно, присутствует. Однако, просто так скопировать текст этой страницы к себе на сайт взамен утерянной не получится. Почему? Да потому что путешествие внутри сайта из прошлого будет возможно лишь в случае замены всех внутренних ссылок на те, что генерит Webarchive (в противном случае вас перебросило бы на современную версию ресурса).

Понятно, что можно будет вручную отсечь вступительную часть ссылок (http://web.archive.org/web/20111013120145/), получив таким образом рабочий вариант. Можно этот процесс даже автоматизировать с помощью инструмента поиска и замены редактора Notepad , но еще проще будет воспользоваться встроенной в этот сервис возможностью замены внутренних ссылок на оригинальные .

Для этого копируете адрес страницы с нужным слепком вашего сайта (из адресной строки браузера - начинается с http://web.archive.org/). Он будет иметь примерно такой вид:

И вставляете в него конструкцию «id_» в конце даты (20111013120145), чтобы получилось так:

Теперь измененный адрес обратно возвращаете в адресную строку браузера и жмете на Enter. После этого страница c архивом вашего сайта обновится и все внутренние ссылки станут прямыми. Можно будет копировать текст статьи из исходного кода вебархива.

Понятно, что восстановление таким образом огромного сайта займет чудовищное количество времени, но когда другого варианта нет, то и такой покажется манной небесной. К тому же, страдают невозвратной потерей контента обычно только начинающие вебмастера, у которых этого самого контента было мало, а более-менее опытные сайтовладельцы, уж не раз обжигавшиеся на подобных вещах, делают бэкапы файлов и базы по пять раз на дню.

Если вы захотите увидеть все страницы вашего (или чужого) сайта, которые содержатся в недрах этого мастодонта, то вам нужно будет вставить в адресную строку браузера следующий адрес и нажать Enter:

Вместо моего домена можно использовать свой. На открывшейся странице вы получите возможность наложить фильтр в предназначенной для этого форме:

Как вытянуть из Webarchive уникальный контент для сайта

Описанный ниже способ лично я не использовал, но чисто теоретически все должно работать. Саму идею я почерпнул на этом молодом ресурсе , где и были описаны все шаги. Принцип метода состоит в том, что каждый день умирают и никогда не возрождаются десятки сайтов.

Причин этому может быть много и большинство из почивших в бозе ресурсов никакой особой ценности в плане контента никогда и не представляли. Но из всякого правила бывают исключения и нужно будет всего-навсего отделить зерна от плевел. Главное чтобы исчезнувшие сайты с более-менее удобоваримым контентом были бы представлены в Web Archive, хотя бы одной копией.

Т.к. после смерти контент этих сайтов постепенно выпадет из индекса поисковых систем, то взяв его из интернет-архива вы, по идее, станете его законным владельцем и первоисточником для поисковых систем. Замечательно, если будет именно так (есть вариант, что еще при жизни ресурса его нещадно могли откопипастить). Но кроме проблемы уникальности текстов, существует проблема их отыскания.

Во-первых, нам нужен список сайтов, которые скоро умрут или уже померли . Автор метода предлагает скачать с сайта регистратора доменных имен Nic.ru список освобождающихся или уже освободившихся доменов .

Что примечательно, в последней колонке этого списка (его можно открыть в Excel) будет отображаться количество архивов, созданных для каждого сайта в Web Archive (правда, проверить наличие домена в веб-архиве можно и в ряде онлайн сервисов, например, на этом или на этом).

Список буржуйских доменных имен, освобождающихся или уже освободившихся, предлагается скачать по этой ссылке . Ну, а дальше просматриваем содержимое сайтов, которое сохранил Web Archive и пытаемся найти что-то стоящее. Потом проверяем уникальность этих материалов (ссылку приводил чуть выше) и в случае удачи публикуем их на своем ресурсе, либо продаем в какой-нибудь бирже контента .

Да, способ муторный и мною лично не проверенный. Но, думаю, что при некоторой степени автоматизации и обмозговывания он может давать неплохой выхлоп. Наверное, кто-нибудь уже это поставил на поток. А вы как думаете?