При помощи утилиты Site-Auditor Вы сможете быстро собрать данные, необходимые для оценки видимости сайта в Рунете.
Одним кликом Вы получите все необходимые данные из основных поисковых сервисов, используемых в российском сегменте Интернета, а именно: Яндекс, Рамблер, Апорт, а также в наиболее популярных международных сервисах Google и Yahoo.
Кроме того, в случае, если на анализируемом сайте будет обнаружен счетчик Рамблер ТОП100, утилита соберет данные о количестве посетителей и просмотренных страниц за последние 7 дней. Если будут обнаружены счетчики иных статистических систем, то на них будут даны ссылки.
В данный момент система определяет наличие следующих, наиболее популярных счетчиков статистики:
Рамблер Top100,
Mail.ru,
LiveInternet (RAX),
SpyLog,
HotLog.
Утилита позволяет получить позиции сайта в выдаче Яндекс, Рамблер и Google по выбранному списку запросов (семантическому ядру).
Все собираемые данные сохраняются на вашем компьютере и позволяют Вам отслеживать историю изменений.
В нижней части окна утилиты находиться информационное поле, в котором отображаются объявления и новости по SEO тематике. Это позволит Вам всегда быть в курсе последних новостей и событий, происходящих на рынке SEO услуг.
Экспресс-анализ
В разделе "Экспресс-Анализ" Вы можете собрать основные данные о текущем уровне оптимизации сайта.
Проведение исследования выполняется следующим образом. В верхней части окна программы находится поле http://, в которе Вам нужно ввести адрес исследуемого сайта. По нажатию кнопки Проверить программа производит сбор данных.
С помощью программы Вы можете получить следующую информацию об анализируемом сайте:
Индексы цитирования Яндекса - ТИЦ и Google - PageRank;
Количество страниц, проиндексированных поисковыми системами Яндекс, Рамблер, Google, Апорт и Yahoo.
Количество ссылок на сайт, обнаруженных поисковыми системами Google, Яндекс, Yahoo.
Данные о наличии сайта в каталогах Яндекс, Рамблер Top100, Апорт и DMOZ.
Если на сайте будут обнаружены счетчик Рамблер Top100, утилита соберет данные о количестве посетителей и просмотренных страниц за последние 7 дней.
Если будут обнаружены счетчики статистических систем Top.Mail.ru, LiveInternet (Rax), SpyLog, HotLog, то будут даны ссылки на страницы этих поисковых систем.
Одновременно со сбором данных производится анализ титульной страницы сайта на наличие на странице следующих тегов и блоков информации:
HEADER — содержит заголовок ответа сервера. В случае, если в процессе получения ответа произошло перенаправление сайта (HTTP Redirect), на кнопке HEADER появится признак R. При клике на кнопку в информационном окне будут показаны заголовки, выданные web-сервером при перенаправлении и выдаче страницы. Для получения дополнительной информации по заголовку можно воспользоваться внешним сервисом HTTP Header.
TITLE — показывает содержимое тега <title>. На кнопке в скобках отображается кол-во символов содержимого тега.
KEYWORDS — показывает содержимое тега <meta keywords>. На кнопке в скобках отображается кол-во символов содержимого тега.
DESCRIPTION — показывает содержимое тега < meta description>. На кнопке в скобках отображается кол-во символов содержимого тега.
ROBOTS.TXT — показывает содержимое файла robots.txt. В случае, если в файле обнаружено правило, полностью запрещающее индексацию сайта (Disallow: /), на кнопке выводится предупреждение в виде восклицательного знака.
A — показывает содержимое тегов <a>. На кнопке в скобках отображается общее количество обнаруженных ссылок и количество ссылок, на внешние сайты. Домены третьего уровня, за исключением www, считаются внешним.
H — показывает содержимое найденных тегов c <h1> по <h6>. На кнопке отображаются только найденные номера тегов. Так текст кнопки H 146 означает, что на титульной странице обнаружены теги <h1>, <h4> и <h6>. При клике на кнопку содержимое тегов будет показано в информационном окне в порядке возрастания номера тега.
NOINDEX — показывает содержимое тега <noindex>. В тексте кнопки в скобках показывается количество обнаруженных тегов.
STRONG, B - показывает содержимое тегов <strong> и <b>. При клике на кнопку в информационном окне будет показано, сначало содержимое тегов <strong>, затем <b>.
EM, I — показывает содержимое тегов <em> и <i>. При клике на кнопку в информационном окне будет показано, скачало содержимое тегов <em>, затем <i>.
Текстовое окно, в которое производится выдача информации по кнопке, при необходимости может быть увеличено с помощью кнопки
Выпадающее меню Внешние сервисы позволяет провести дополнительный анализ сайта:
WHOIS — позволяет получить информацию о владельце домена и времени регистрации (возрасте) сайта.
Traceroute (RU) и Traceroute (COM) — позволяет дать оценку времени прохождения IP-пакета до анализируемого сайта в российском сегменте Интернета и для зарубежных посетителей.
WayBack Machine — уникальный сервис, позволяющий увидеть историю развития сайта.
HTTP Header — позволяет детально изучить заголовоки http-ответа сервера с дополнительной информацией: что означает та или иная строка в заголовке.
График загрузки — предоставляет детальную информацию по времени загрузки всех элементов титульной страницы сайта. Позволяет выявить узкие места и повысить скорость ответа сайта.
Поиск дубликатов — позволяет обнаружить в сети сайты, похожие на анализируемый.
В левой части экрана находятся список проанализированных сайтов и история прошедших проверок. При выборе из списка сайта, в соответсвующих полях показываются данные, полученные в ходе последней проверки. При выборе даты отображаются данные, полученные на момент выбранной даты.
Настройки
В окне настроек на вкладке Данные перечислено, какие виды данных требуется собирать при анализе сайта. Если какие-то данные собирать не требуется, то их можно исключить из обработки и тем самым ускорить сбор информации. Для этого требуется снять пометку с соответствующих чекбоксов.
На вкладке Копирование Вы можете указать, какие именно данные требуется копировать в буфер обмена при нажатии кнопки копировать в буфер.
Кроме того, можно выбрать тип разделителя строк для удобства копирования в документы разных форматов. Так для копирования в MS Excel следует выбирать "\n", а для копирования таблицы, находящейся в MS Word в качестве разделителя строк следует выбирать "\t".
Подбор запросов
Данный сервис позволяет составить список целевых запросов (семантическое ядро) для исследуемых сайтов.
Для этого в поле "Проверить запросы" нужно указать список слов или фраз, близких к тематике сайта.
После нажатия кнопки Проверить утилита получит список поисковых запросов, которые пользователи задавали в поисковом сервисе Рамблер в течение прошедшего месяца и которые содержат слова, указанные в поле "Проверить запросы". Частота запросов обозначает, сколько раз их задавали в течение последних 30 дней.
После того, как список запросов будет загружен в поле "Варианты запросов", Вы можете отметить интересующие Вас запросы и скопировать их в список "Выбранные запросы" нажатием кнопки Выбрать или двойным щелчком мыши.
Если в список "Выбранные запросы" попал ненужный вариант запроса, его можно удалить, выбрав его и нажав кнопку , которая появляется в правом нижнем углу списка в момент выбора запроса. Так же удалить ненужный запрос можно двойным щелчком мыши.
Удерживая клавиши Ctrl или Shift, в списке можно одновременно выбирать сразу несколько строк.
После того, как список "Выбранные запросы" окончательно сформирован, его можно скопировать нажатием кнопки Перенести в раздел "Видимость сайта". При этом также происходит переход в раздел "Видимость сайта".
Если Вам необходимо проверить видимость сайта для уже существующего семантического ядра, частоту которого повторно проверять не требуется, список запросов можно перенести напрямую из поля «Проверить запросы» в раздел «Видимость сайт», нажав кнопку «Скопировать запросы», находящуюся справа от поля.
Видимость сайта
Сервис "Видимость сайта" позволяет получить сводный отчет о положении анализируемого сайта в результатах поиска Яндекса, Рамблера и Google по выбранным поисковым запросам.
Для сбора информации о позициях необходимо нажатием кнопки Перенести скопировать список выбранных запросов, сформированный в разделе "Подбор запросов", указать URL анализируемого сайта и нажать кнопку Проверить.
После окончания сбора данных в списке отобранных запросов будут указаны позиции сайта в результатах поиска поисковых систем.
Если рядом с числом, обозначающим номер позиции, находиться точка, это означает, что ссылка из результатов поиска введет на титульную страницу анализируемого сайта.
При щелчке мышью на номер найденной позиции открывается окно браузера, в которое загружается страница, ссылка на которую была найдена в результатах поиска.
В левой части экрана находятся список проанализированных сайтов и история прошедших проверок. При выборе одного из сайтов в соответствующих полях показываются данные, полученные в ходе последней проверки. При выборе даты, показываются данные, полученные на момент выбранной даты.
Если возникла необходимость отредактировать список запросов, необходимо нажать кнопку Редактировать список запросов. При этом текущий список будет скопирован в поле "Выбранные запросы" в раздел "Подбор запросов". Там его можно редактировать, как это описано в разделе "Подбор запросов
Чтобы упростить ориентирование во все более разрастающемся Интернете, была разработана система DNS (Domain Name System - система именования доменов сети). Дело в том, что каждому компьютеру или компьютерной сети, подключенной к Интернету, назначается уникальная последовательность цифр, называемая IP-адресом.
IP-адрес состоит из четырех чисел, от 0 до 255 каждое, например 198.105.232.001. Зная IP-адрес, пользователь одного компьютера с легкостью находит другой компьютер в Интернете, и может к нему подключиться, если у него есть на это соответствующие права. Все просто, когда вам нужно получать доступ к одному-двум компьютерам, но если их количество переваливает за десяток или даже за сотню, а, тем более, если вам необходимо сообщать определенный IP-адрес многим людям, ситуация становится поистине кошмарной.
Избавиться от подобных проблем помогает система имен DNS. Она позволяет заменять цифровые IP-адреса на благозвучные буквенные, например: «microsoft.com» или «yandex.ru». Как же работает DNS? Все Интернет-пространство можно разделить на несколько групп, называемых «доменными зонами». Эти зоны называются доменами первого уровня. Разделение по зонам может проводиться как по географическому, так и по тематическому признаку. Географическая доменная зона определяет расположение компьютера в том или ином государстве. Вот несколько примеров географических доменов первого уровня: ru - Россия, fr - Франция, uk - Великобритания, jp - Япония, su - бывший Советский Союз. Тематические доменные зоны группируют компьютеры по информации, содержащейся на них, либо по типу организаций, ими владеющих, вне зависимости от их географического расположения.
Два компьютера, зарегистрированные в одной тематической доменной зоне, могут находиться в противоположных концах земного шара. Вот примеры тематических доменных зон: com - коммерческое предприятие, net - что-то связанное с сетевыми технологиями, edu - образовательное учреждение, info - информационный проект, gov - государственное учреждение, biz - бизнес-проект, mil - военная организация. Несмотря на обилие доменных зон, далеко не все из них пользуются большой популярностью. Основная часть компьютеров в Интернете зарегистрирована в доменных зонах com и net. Некоторые доменные зоны используются и вовсе не по прямому назначению. Например, островное государство Тувалу стало обладателем географической доменной зоны tv, которую сейчас облюбовали организации, так или иначе связанные с телевидением: телеканалы, производители бытовой техники, киноделы, рекламщики и прочие...
Каждая доменная зона делится на поддомены, или домены второго уровня, и каждому из этих поддоменов присваивается свое имя, например совпадающее с названием организации, владеющей доменом. Это имя приписывается к имени домена верхнего уровня слева, в виде суффикса, и отделяется точкой. Например, в имени microsoft.com строка com означает доменную зону, а суффикс microsoft - имя домена второго уровня. Как нетрудно догадаться, по этому адресу находится сеть, принадлежащая корпорации Microsoft. Однако сеть корпорации Microsoft весьма велика, поэтому каждый домен второго уровня, в свою очередь, может делиться еще на несколько подподдоменов, или доменов третьего уровня. Это записывается так - mail.microsoft.com. В этом примере mail - это суффикс домена третьего уровня. Такое деление может продолжаться до бесконечности, но обычно ограничивается доменами третьего-четвертого уровня.
Общее руководство и контроль над доменными зонами, осуществляет организация ICANN (The Internet Corporation for Assigned Names and Number - Интернет-ассоциация по выдаче имен и чисел). Она передает полномочия на выдачу адресов в той или иной доменной зоне другим организациям и следит за соблюдением основных правил. Организации, уполномоченные выдавать доменные адреса в той или иной доменной зоне, торгуют доменными адресами второго уровня. То есть, если кто-то хочет, чтобы у его компьютера в Интернет был адрес vasya-pupkin.com, он должен обратиться к организации, выдающей доменные имена в зоне com. Затем попросить зарегистрировать в ней домен второго уровня vasya-pupkin, предоставить IP-адрес своего компьютера в Сети и, разумеется, уплатить некоторую сумму денег. В результате, компьютер Васи в Интернете можно будет отыскать не только по малопонятному набору цифр IP-адреса, но и по звучному текстовому адресу.
При желании, одному IP-адресу можно сопоставить даже несколько доменных имен, например vasya-pupkin.com и vasiliy.ru. Адреса в Российской доменной зоне выдает организации РосНИИРОС, Российский НИИ развития общественных сетей.
Современный Интернет представляет собой сложнейшую систему из тысяч компьютерных сетей, объединенных между собой. Состоит эта система из двух основных элементов: узлов сети Интернет и соединяющих их информационных магистралей. Узлом Интернета называют любое устройство, имеющее свой IP-адрес и подключенное к Сети. Несмотря на кажущуюся мешанину межкомпыотерных соединений и отсутствие централизованного руководства, Интернет имеет определенную иерархическую структуру.
В самом низу иерархии находится многочисленная армия конечных пользователей. Часто не имеющие даже постоянного IP-адреса подключаются к Интернету по низкоскоростным каналам. Тем не менее, пользователи являются одними из основных потребителей услуг Сети и главными «спонсорами» коммерческой части Интернета. Причем на одного «физического» пользователя, т. е. реального человека, пользующегося услугами Сети, может приходиться несколько пользователей «логических», т. е. различных подключений к Интернету.
Так, кроме компьютера, возможность подключения к Интернету может иметь мобильный телефон, карманный компьютер, бытовая техника, автомобиль и даже кондиционер. Конечные пользователи подключаются к компьютерам Интернет-провайдера, или, как их еще называют, ISP (Internet Service Provider - провайдер Интернет). ISP - это организация, основная деятельность которой связана с предоставлением услуг Интернета пользователям.
У провайдера есть своя компьютерная сеть, размеры которой могут варьироваться от сотен десятков узлов в нескольких городах до многих тысяч, раскиданных по целому континенту. Эта сеть называется магистральной сетью, или бэкбоном (от слова backbone - стержень, магистраль). Сети отдельных провайдеров соединяются между собой и другими сетями. Среди ISP есть «монстры», которые обеспечивают соединение между собой сетей различных стран и континентов, являясь своего рода «провайдерами для провайдеров». Весь этот конгломерат компьютерных сетей и образует то, что называется Интернетом.
Особняком стоят DNS-серверы - компьютеры, отвечающие за функционирование системы DNS. Для подключения конечных пользователей к ISP служат так называемые «точки доступа» - компьютеры или специальные устройства, содержащие оборудование для подключения «извне».
Подключившись к точке доступа провайдера, пользователь становится частью магистральной сети провайдера и, соответственно, получает доступ к ее ресурсам, а также к ресурсам сетей, соединенных с бэкбоном провайдера, т. е. ко всему Интернету. Кроме конечных пользователей, к сети провайдеров подключаются различного рода серверы, или «хосты» (от слова host - хозяин). Это узлы сети, на которых работает программное обеспечение, обеспечивающее практически все услуги, предоставляемые сетью Интернет.
Создавая свой php движок для нового сайта, я, как и всегда не захотел выполнять нудную работу сам и поэтому такое задание как подбор ключевых слов к каждой странице сайта доверил php скрипту, который написал меньше чем за полчаса.
Конечно, многие могут сказать, что поисковики не учитывают мета теги keywords и description, и вовсе незачем голову морочить проблемой подбора ключевых слов, но учитывают или нет, это известно только администраторам поисковых машин. В частности, я недавно проводил эксперимент, в котором участвовало три пары сайтов, на каждой паре сайтов был один и тот же контент, но на одном из сайтов каждой пары были прописаны keywords и description. И что вы думаете, через месяц, все три сайта с keywords и description были выше в выдаче Яндекса, чем их двойники без этих мета тегов. (Примечание: сайты были оптимизированы под абсолютно не конкурентные запросы и не имели бэклинков).
Принцип работы php скрипта, основной задачей которого является “на лету” подбирать к тексту ключевые слова (keywords), заключается в разделении всего текста на слова и занесение их в массив. Из исходного текста сначала удаляются все знаки препинания, затем слова помещаются в массив и каждому слову присваивается число его повторений в тексте. После заполнения массива слова упорядочиваются по количеству повторений, и в качестве результатов берется верхушка массива – 15-25 самых часто употребляемых слов.
А вот и сам исходный код этого php-скрипта для подбора ключевых слов:
Пользоваться данным php классом очень просто, создаете экземпляр класса функцией new а потом вызываете внутреннюю функцию get_keywords(), класса Counter. Вот наглядный пример использования этого класса:
В переменной $content должен содержатся основной текст страницы, для которой создаются ключевые слова. И еще, полученная строка содержит только ключевые слова, без мета тегов. Скачать данный php класс для подбора ключевых слов в zip архиве вы можете здесь.
Добавление сайта в каталоги уже давно и прочно вошло в список наиболее важных инструментов раскрутки и продвижения сайта в сети интернет. Сегодня мы расскажем о том, как с наилучшим результатом добавить свой сайт в каталоги. Есть два пути, при котором регистрация в каталогах влияет на посещаемость Интернет-ресурса:
Во-первых, каталоги предназначены для людей – в них человек может найти сайты по интересующей тематике. Среди таких посетителей каталогов есть и Ваши потенциальные клиенты. Таким образом, это Ваша реклама в каталоге. Примерами таких, приводящих посетителей, каталогов, является Яндекс.Каталог, рейтинг Рамблер.Top100, MAIL.ru и много других. Эти каталоги посещают миллионы пользователей ежедневно.
Во-вторых, любая поисковая система при ранжировании сайтов в выдаче по поисковому запросу учитывает количество и качество ссылок на ресурс, это так называемые индексы цитирования. У каждой поисковой системы он свой. У Яндекса - тИЦ (тематический индекс цитирования, применяется для ранжирования сайтов в Яндекс.Каталоге; можно увидеть на "денежке") и вИЦ (внутренний индекс цитирования, применяется для ранжирования сайтов в поисковой выдаче; не разглашается), у Google - PR (PageRank), у Апорта - ИЦ.
PageRank (PR) – рассчитывается для каждой веб-страницы отдельно, и определяется PageRank’ом (цитируемостью) ссылающихся на нее страниц. Своего рода замкнутый круг. Главная задача заключается в том, чтобы найти критерий, выражающий важность страницы. В случае с PageRank таким критерием была выбрана теоретическая посещаемость страницы.
тИЦ – тематический индекс цитирования – рассчитывается для сайта в целом и показывает авторитетность ресурса относительно других, тематически близких ресурсов (а не всех сайтов Интернета в целом). ТИЦ используется для ранжирования сайтов в каталоге Яндекса.
вИЦ – взвешенный индекс цитирования – аналог PageRank, применяемый поисковой системой Яндекс. Значения ВИЦ нигде не публикуются и известны только Яндексу. Поскольку узнать ВИЦ нельзя, следует просто помнить, что у Яндекса есть собственный алгоритм оценки «важности» страниц.
Добавляя свой сайт в каталог, Вы создаете дополнительную ссылку на него и повышаете таким образом свой индекс цитирования.
Стоит помнить, что просто повышая ИЦ, тИЦ, PR Вы мало чего добьетесь . Думаю, многие наблюдали ситуацию, когда на первой странице выдачи Яндекса вперед выходят сайты, имеющие меньший тИЦ, да и PR, чем у тех, кто занимает более низкие позиции. Для того чтобы использовать регистрацию в каталогах максимально эффективно, необходимо принять во вниманию ссылочное ранжирование. Дело в том, что этот фактор зачастую перевешивает многие другие, влияющие на место в поисковой выдаче.
Каким же образом действует ссылочное ранжирование? Формат гипертекста позволяет «на гиперссылке» ставить произвольный текст. Совпадение текста ссылок со словами поискового запроса (а особо точного вхождения) повышает Ваши позиции в выдаче.
Заметим также, что по низкочастотным запросам поисковики иногда выдают проиндексированные ими страницы каталогов со ссылкой на Ваш ресурс.
Таким образом, перед тем как регистрировать сайт в каталогах, составьте список запросов, по которым Вы хотели бы, чтобы Вас находили в поисковых системах. Для этого можно воспользоваться службами Подбора слов Яндекс.Директа и Статистикой поисковых запросов Рамблера.
Затем составьте несколько названий для Вашего сайта с использованием выбранных Вами ключевых слов. При этом учтите, что оптимальным будет использование словосочетаний, а не только отдельных слов, найденных Вами в статистике. Эти названия будут размещены на ссылке из каталога на Ваш сайт! Использование при регистрации в каталогах несколько названий позволит Вам использовать разные ключевые слова и избежать «превышения лимита» ссылок с одинаковым текстом, которые не учитываются поисковиками.
Названия должны быть осмысленными. Это обусловлено двумя причинами: во-первых, в последнее время поисковые системы очень плохо учитывают ссылки с перечислением ключевых слов через запятые. Во-вторых, большинство каталогов размещают ссылки после предварительной модерации. Те каталоги, которые следят за своим содержанием, с большой вероятностью откажут в размещении такой ссылки либо скорректируют ее на свое усмотрение, а как правило, ссылки именно с этих, серьезно модерируемых каталогов, имеют наибольший вес.
Адрес сайта указывать не обязательно, однако его присутствие в названии повышает Вашу узнаваемость среди многих других конкурентов. Еще раз повторю: не стоит перечислять ключевые слова через запятую, большое количество альтернативных названий позволит Вам использовать все выбранные Вами ключевые слова и даст значительно больше эффекта.
Выбирая рубрики, выбирайте наиболее подходящие. Зачем? Страница из подходящего раздела каталога получается самой подходящей с точки зрения «тематического» цитирования – это раз. Если раздел не подходит, модератор каталога (который тоже человек), может, не вдаваясь в подробности, просто отклонить сайт. Это два.
Для увеличения скорости выбора рубрик используйте Поиск. Обратите внимание на следующее: расставляйте слова в списке, начиная с наиболее подходящих, а затем по убыванию соответствия. В некоторых случаях, когда сложно предугадать, в каком склонении стоит слово в названии рубрики, используйте слова без окончаний. Иногда одно и то же слово может писаться по-разному. Учитывайте и это.
На заметку:
Обязательное условие успешной регистрации в каталогах и поисковиках - правильное описание ресурса и подбор ключевых слов. Иначе эффективность регистрации будет чрезвычайно мала.
Подача заявки на регистрацию еще вовсе не означает, что ресурс будет обязательно зарегистрирован. На это существует масса причин: неподходящая специализация каталога, некорректно составленное описание сайта, выбор неправильной категории, "заморочки" модераторов и проч. В среднем при хорошей предрегистрационной подготовке сайта, ресурс в течение месяца проходит регистрацию в 70-80% каталогов, куда была подана заявка.
Хочется немного осветить вопрос индексации сайта основными поисковиками (к которым относятся грозный и страшный Яндекс, рвущийся к лидерству уже и на просторах русскоязычного поиска Google, скатывающийся назад Рамблер, “всемирный” соперник Гугла Yahoo, ну и непонятно зачем все еще существующий Апорт ).
Проще всего рассмотреть скорость индексации на примере данного сайта. Сайту нет еще даже месяца, поэтому интересна динамика попадания страниц сайта в индекс (выдачу) поисковиков. Немного удивило то, что уже в день появления сайта на просторах всемирной сети (именно физического появления, т.е. момента, когда данные сайта стали доступны) Google каким-то образом успел проиндексировать несколько десятков страниц, и это при том, что сайт в “Google для вебмастеров” не вносился, вручную в Google не добавлялся, на сайт вообще была всего одна ссылка, правда на главной странице более-менее посещаемого (в том числе роботами) мини-портала .
Также в тот же день этот сайт был добавлен в Яндекс.вебмастер - якобы это ускоряет индексацию Яндексом. Как выяснилось - не ускоряет… вообще, складывается впечатление, что хоть какие-то обновления в базе Яндекса происходят раз в неделю, обычно в выходные, при том робот шарит по сайту стабильно - но почему-то на выдачу это никак не влияет.
Следом за Гугле, буквально через день, сайт заметил Яху, примерно столько же страниц - около 60. Несмотря на отстутствие в первые дни sitemap.xml (сейчас в нем чуть более 1600 страниц), Гугле уже за первую неделю проиндексировал более 500 страниц, а через 2.5 недели в базе было 1.5 тысячи страниц, то есть почти весь сайт. Примерно в это же время первые несколько страниц (а именно 4) появились в выдаче Яндекса - впечатляющая скорость. Да, сайт в первый же день был зарегистрирован в каталоге-рейтинге Рамблера, и через пару дней там появился, а вот в выдаче Рамблера до сих пор нет ни одной страницы (код счетчика стоит на каждой странице), Рамблер в этом плане отстает даже от Апорта, в котором уже есть несколько десятков страниц.
Яху меня несколько раз впечатлял скоростью индексации ссылок на сайт - показывал некоторые бэклинки буквально через час-два после их появления, просмотр бэклинков на Яндекс.вебмастер тоже немного порадовал - несмотря на то, что Яндекс знает всего 4 страницы сайта, но тем не менее он уже знает около 20 ссылок на сайт - то есть примерно 70% на данный момент… что не так уж плохо.
Ну вот собственно пока и все, надеюсь из этого коротенького обзора можно сделать кое-какие выводы о скорости попадания сайта в индекс (выдачу) основных поисковиков.
я знал о борьбе Яндекса с белыми каталогами, но если честно - не подозревал о масштабах этой борьбы… А столкнулся я с этой проблемой (а именно “проблемой белых каталогов”) в связи с созданием нескольких новых сайтов и желанием на старте “нахаляву” немного им поднять ТИЦ. Нахаляву - то есть просто регистрируя новый сайт в белых каталогах, работа конечно крайне скучная и нудная, но простая и не требует затрат.
Для чего существуют белые каталоги? Думаю, не открою секрета, если скажу - для поднятия ТИЦ (то есть для поисковиков, а не для людей как бы, вот поэтому Яндекс и банит белые каталоги, особенно те, которые уж очень явно сделаны не для людей).
А чтоб белый каталог был полезен для этого самого поднятия, прямую ссылку с него должен увидеть Яндекс. А если каталог отсутствует в индексе Яндекса, зачем в нем регистрироваться? Есть, конечно, еще и другие поисковики, тот же Гугле, Рамблер, но все-таки большинство усилий SEO направлено именно на Яндекс.
С учетом всего этого я внимательно проверял каждый каталог или рейтинг перед регистрацией, чтобы не выполнять напрасную работу. И вот к какому тоскливому выводу я пришел - большинство подборок и списков белых каталогов оказались абсолютно бесполезны! Беру из списка первые 10-15 каталогов и проверяю такие параметры - ТИЦ, Google PR, наличие в индексе Яндекса и Гугла (кол-во страниц в выдаче).
Итог множества проверок такой: примерно 10-20% каталогов вообще мертвы, то есть просто давно заброшены и не работают, 70-80% имеют ТИЦ, какой-то PR и проиндексированы Google, но! в выдаче Яндекса либо 0 страниц, либо 1-2 - вот и приплыли… и только в среднем 1 из 10 каталогов жив и здравствует… Но это тоже зависит от подборки - в некоторых списках из первых 30-40 каталогов я не находил ни одного рабочего и полезного каталога (не “нулевки”).
Совершенно забавные данные я получил по одному из каталогов (видно, что ранее он был довольно продвинут) - каталог фигурировал под названием “Самый большой интернет каталог”, так вот в индексе Google оказалось 237000 страниц этого каталога! А в Яндексе - 0 (ноль), но Яндекс ТИЦ равен 375 - не так уж плохо, зато Google PR - ноль! вот с таким я столкнулся первый раз, но это уже за торговлю ссылками.
Попадались каталоги с ТИЦ более 1000, но отсутствующие в выдаче Яндекса.
Буквально сегодня видел (и не раз) рекламу в Бегуне - “Регистрируем в 4500 каталогов! Быстрая раскрутка, недорого! Вы сразу получите PR3 и ТИЦ +30?. Вдумываясь в текст, понимаешь истинный смысл - их 4.5 тыщи каталогов дадут вам прирост ТИЦ всего 30! ну а PR3 вообще никак не связано с регистрацией в каталогах - это достигается просто грамотной внутренней перелинковкой сайта, к примеру два наших сайта, запущенные в 2007 году, при первом же апе Google получили PR3, бэклинков к этому времени почти не было, ТИЦ тоже был почти нулевой. Хотя сейчас вроде Google ужесточает раздачу PR, теперь возможно получить “тройку” сразу будет непросто, по крайней мере многие сайты во время прошлого апдейта Google PR получили падение ПР, но опять-таки - большинство из них имели продажные ссылки.
В общем, делаем выводы - стоит ли регистрироваться в белых каталогах, стоит ли пользоваться услугами “оптовых регистраторов”, и как выбирать каталоги для регистрации. Регистрироваться вслепую - напрасно тратить время.
“Яндекс” предупреждает: покупные ссылки перестанут оказывать влияние на положение сайта в списке выдачи поисковика, а продавцов ожидают вполне реальные наказания - в том числе, понижение в выдаче.
Не секрет, что многие сайты находятся на высоких местах в списке выдачи именно из-за большого объема проплаченной “ссылочной массы”. Ранее, разработчики поисковика говорили о негативном отношении к проплаченным ссылкам, да и “страшилок” про падения в выдаче хватало. Однако теперь сотрудники “Яндекса” предупредили официально: “Покупка ссылок опасна для вашей рекламной кампании”, - и конкретизировали, к кому эти предупреждения относятся.
Как пишут разработчики поиска в разделе “Яндекс.Вебмастер”, “мы приняли меры для уменьшения влияния SEO-ссылок с наиболее популярных сайтов Рунета. Мы планируем и далее выявлять подобные ссылки, а также принимать все меры к тому, чтобы сайты, продающие ссылки, потеряли способность влиять таким способом на ранжирование”. Сотрудники “Яндекса” намерены предпринять все усилия, чтобы в ближайшем будущем покупка ссылок с сайтов не влияла на повышение ранга сайта-покупателя. Продавцам придется несладко - как говорят разработчики, “мы не гарантируем, что ранг сайтов, продающих ссылки, не понизится”.
Судя по тому, что тема удостоилась отдельного упоминания, в ближайшее время большинству тех, кто пользуется услугами оптимизаторов, стоит готовиться к уменьшению количества клиентов. И начинать постепенно использовать иные способы продвижения сайта в Интернете, помимо покупки ссылок.
Для многих вебмастеров SEO (search engine optimization, оптимизация для поисковой машины) - это не что иное, как просто набор трюков и методик, которые несомненно должны поднимать их сайт в рейтингах всех поисковиков. Такое отношение к SEO может и дает временные результаты, тем не менее, здесь содержится большой недостаток: правила постоянно меняются.
Алгоритмы поисковых машин постоянно меняются, как, например, антивирусное программное обеспечение. Ведь в мире постоянно появляются новые вирусы, поэтому они и должны постоянно совершенствовать и вносить коррективы в свои программы. Аналогично обстоит дело и с поисковиками: все в этом мире быстро меняется, а интернет-сфера еще быстрее.
Тем не менее, существует определенный набор правил, по которым поисковики ранжируют сайты, которых должен придерживаться каждый вебмастер в нелегком процессе поисковой оптимизации. Конечно, нет 100% гарантии, что все это работает сейчас или уже появились новые правила игры, но идея остается прежней. Меняются лишь детали, как говорится.
Но если мы не можем применить для оптимизации стандартный набор правил, то что же нам делать? Выход здесь в том, что не нужно всеми силами стараться разобраться в хитростях работы поисковой машины, а просто понять каким образом они работают. У этих самых хитростей есть своя логика работы, которую довольно просто вычислить, что и является их недостатком.
Так что же на самом деле необходимо?
Для достижения высоких позиций в рейтинге (да еще на долгое время) следует понимать, что поисковый робот - это в своем роде живое существо. Конечно, я при этом не имею ввиду, что у них есть мозги, пусть это останется для писателей-фантастов. Тем не менее их поведение и способы работы во многом похожи на работу этого самого мозга.
А теперь остановимся на рассмотрении некоторых функций их "мозга". В общем можно сказать, что им присуща такая специфика, как (если принять интернет за мир с множеством дорог) ходить различными путями, следуя указаниям установленных знаков и собирая всевозможную информация об этой дороге. Затем они направляют собранную информацию группе серверов, которые уже по своим специфическим алгоритмам определяют ее важность для внесения в свои базы.
По каким принципам работают эти алгоритмы? Для начала они создаются людьми, которые прекрасно разбираются в принципах работы интернета и информации, которая в нем содержится. А так как всемирная паутина постоянно изменяется, то эти самые люди и вносят необходимые коррективы в поисковые алгоритмы. По своей сути поисковую машину следует рассматривать, как существо, которое постоянно собирает информацию, сохраняет ее, а потом сортирует исходя из ее важности и с большим удовольствием отсеивает ненужную. Только вот как это она делает и исходя из каких принципов - толком не ясно.
Присмотримся поближе
Понимание того, что из себя представляет поисковая машина на самом деле, попытаемся выяснить в сравнении с анатомией человека. Пусть машина и не дышит, но она содержит много схожего, что необходимо ей для ее виртуальной жизни. А состоит она из следующего:
Легкие: Данный орган у поисковой машины, как и большинство жизненно важных органов, расположены внутри огромных data-центров (сервера, специально предназначенные для хранения информации). Как и организме человека, легкие мы не считаем очень важным органом, тем не менее понимаем, что без них не обойтись и нужно поддерживать их здоровыми.
Руки и ноги: Представим себе, что руки и ноги поисковой машины не что иное, как ссылки на ресурсы, которые она щедро выдает по запросу пользователя. С помощью этого органа мы можем найти все, что нам нужно и получить указатель в виде ссылки на необходимый ресурс. Также, как и тело человека изначально было создано для движения и исследования окружающего мира, аналогично и поисковые машины изначально запрограммированы исследовать всемирную паутину.
Глаза: Глазами поисковой машины являются так называемые пауки (еще их называют роботами или краулерами). Эти самые пауки постоянно просматривают интернет для поиска новых сайтов и следят за изменениями на уже проиндексированных. В данном случае пауки "ползают" по страничкам сайта по его внутренним ссылкам (как по путям), аналогично человеку, который на своем пути видит множество дорог для своего передвижения. К счастью для нас, поисковые роботы движутся по оптико-волоконным проводам, вот поэтому они могут путешествовать по интернету со скоростью света. Это-то и позволяет им посетить все интернет-странички, которые попадаются им на пути.
Мозг: Мозг поисковой машины выполняет те же функции, что и мозг человека: содержит целый набор функций для управления организмом своего хозяина. Также у мозга должен быть свой инстинкт, который должен знать о работе и постоянно контролировать все органы и системы. Вот поэтому поисковой машине никак не обойтись без этого самого мозга, который ей и помогает выжить в этом враждебном мире (пусть в чем-то и виртуальном).
Инстинкт: С помощью инстинкта поисковые машины имеют набор ключевых функций, таких как просматривание сайтов и фильтрация данных, которые нужно или не нужно индексировать. Они запрограммированы игнорировать некоторые типы файлов, не соответствующих определенным критериям. Как мне кажется, в инстинкте поисковой машины главное - это механизм или алгоритм, с помощью которого она индексирует сайты.
Знания: Поисковые машины прекрасно осведомлены о всех тонкостях индексации сайтов. Те знания, которыми они владеют, идут далеко впереди знаний всех пользователей, вебмастеров и оптимизаторов. Поисковая машина знает множество методов сортировки, представления данных, и, естественно, еще и имеет свой специфический набор хитростей и уловок.
Пока поисковый робот путешествует по интернету и индексирует веб-странички, параллельно он отсылает обратно в свой data-центр собранные им данные. Именно в этом центре данные обрабатываются согласно алгоритмов, а спам-фильтры отсеивают ненужное.
Подобно тому, как мы анализируем информацию из статьи в газете согласно своему видению мира, так и поисковики обрабатывает и ранжируют данные в строгом соответствии со своими законами и пониманием работы интернета.
Изучение: Так как поисковая машина ранжирует веб-странички согласно своему видению и пониманию законов функционирования интернета, а эти правила постоянно изменяются, то поисковые алгоритмы постоянно изменяются. Вот тут-то как раз и нужен механизм адаптации или самообучения поисковика.
В то же время, наряду в способностях просматривать странички, поисковые роботы должны уметь определять и наказывать попытки запрещенной раскрутки сайта. При этом благосклонно относится к честным вебмастерам и оптимизаторам.
Вот примеры тех областей, в которых поисковые машины так часто любят менять свои алгоритмы:
* Определения релевантности контента того сайта, на который она нашла ссылку;
* Способность обнаруживать информацию, которая содержится в новых типах данных, к примеру, базы данных, flash и т.п.
* Понимание нечестных методов раскрутки сайтов, таких как размещение "невидимого" текста, ссылок и т.п. Данные технологии рассматриваются поисковой машиной как спам, а пойманные на этом ресурсы попадают в так называемый "черный список";
* Изучение полученных данных, выявление недостатков в индексации, что приводит в действие механизм изменения алгоритма в сторону более эффективного определения релевантности сайта.
Способность к изучению и адаптации к окружающему интернет-пространству изначально закладывается при разработке алгоритмов работы поисковой машины. Ну и, само собой, остается актуальной до следующего обновления алгоритма.
От теории к практике
Все, о чем было сказано выше, касалось лишь аспектов работы поисковой машины. А вот как эти знания применить для раскрутки сайта? Все дело в том, что для правильного выбора стратегии раскрутки необходимо хорошо понимать, каким образом работает эта самая поисковая машина: собирает информацию, ранжирует сайты и т.д.
В свое время, когда одним из основных методов раскрутки было размещение большого количества ключевых слов на страницах сайта, многие вебмастера создавали целые сообщества из сайтов, дабы взаимным обменом ссылок достичь высоких позиций в рейтингах. А вот работает ли эта тактика сегодня? Работает, только результат скорее всего будет временным и краткосрочным.
Ведь поисковая машина, как и человек, хочет выжить в агрессивной окружающей среде. Поэтому, если результаты их работы будут плохими (а вот как раз нечестные методы раскрутки часто ведут к выдаче ненужной посетителю информации), то они медленно, но уверенно перестанут существовать. А ведь при постоянно растущей конкуренции эволюционировать крайне необходимо.
Для примера, пользователю значительно удобнее и проще найти сайт с множеством контента, который ему необходим. Как правило, на таких сайтах он часто обновляется, что позволяет сайту быть актуальным. Поэтому делайте выводы.
Немаловажным моментом остается и обмен ссылками. В данном вопросе намечается тенденция к снижению релевантности обратных ссылок, а обмен ссылками между сайтами разных тематик и вовсе малоэффективен. Но если же вы все же решите поставить обратные ссылки, то обязательно убедитесь, что они ведут на родственные по тематике сайты.
Данная стратегия хорошо работает как для привлечения посетителей, так и для повышения релевантности сайта. Ведь многие пользователи переходят из сайта на сайт по внутренним ссылкам. А если они еще и стоят на авторитетном и посещаемом ресурсе, то это только дополнительный плюс.
И напоследок...
Сам собою напрашивается вывод делать ставку на будущее. И отношение к поисковой машине как живому организму (пусть и в общих чертах) поможет выбрать правильную тактику. Вот когда она в очередной раз придет на ваш сайт, то "накормите" ее вкусным новым контентом, новыми разделами и она обязательно еще к вам вернется. А вот негостеприимных сайтов они не любят, как и быть обманутыми нечестными хозяевами. У роботов память отменная...
Для получения целевых посетителей на ваш сайт необходимо иметь представление о факторах позиционирования сайта в поисковых результатах определенной поисковой машины. Под позиционированием подразумевается расположение сайта в выдаче по определенному поисковому запросу.
Как показывает статистика, основная часть посетителей переходит по сайтам, расположенным лишь на первой странице результатов выдачи. К тому же большинство из них предпочитают первые два сайта.
Логично, что если ваш сайт будет во второй десятке, то посетителей будет намного меньше. Таким образом, продвижение сайта нацелено на позиционирование сайта именно в первой десятке выдачи, а лучше – пятерке, идеально – тройке.
Рассмотрим наиболее важные факторы, которые влияют на позиционирование сайта.
Первым делом страница сайта, которая попадает в поисковую выдачу, должна соответствовать поисковому запросу. Для этого в ее содержании должны присутствовать слова поискового запроса и соблюдаться их процентное соотношение к остальному тексту.
Но это хоть и важный фактор, но не главный. Ведь можно создать большое количество страниц под определенные фразы. Пусть они даже будут нечитаемые для человека, но для поисковой машины они будут в самый раз.
Поэтому в последнее время все более важным для продвижения сайта является наличие достаточно большого количества ссылок, которые на него ведут. При этом важно, чтобы ссылки были со сходных по тематике ресурсов, не были взаимными и в тексте ссылки были нужные для владельца сайта ключевые слова.
Еще ссылки очень важны для эффективной раскрутки в такой поисковой системе, как Google. Ее алгоритмы оценивают авторитет сайта на основе ссылок на его с других сайтов, авторитет которых тоже очень важен.
Но недостаточно взять и купить, к примеру, 10000 ссылок с ключевым словом "раскрутка сайтов" и быть уверенным, что по этому запросу ваш сайт будет на первом месте и долгое время.
В последнее время поисковые машины совершенствуют свои алгоритмы на предмет неестественных или покупных ссылок. Поэтому быстрый рост их количества может быть расценен как обман поисковой машины и велика вероятность бана. Тогда сайт вообще может быть исключен из поисковой машины.
По этой причине важно выбрать ту организацию по раскрутке и продвижению сайтов, которая сможет провести наращивание входящих ссылок на сайт с гарантией соблюдения правил всех главных поисковых машин.
Обратите внимание на нашу фирму, которая имеет большой опыт раскрутки сайтов, которая имеет большой опыт раскрутки сайтов. На нашем сайте вы можете также прочитать отзывы наших клиентов.
Начну эту статью о SEO с простого. На тему о величине частоты употребления ключевых слов написаны, наверное, уже десятки статей и “полезных советов”, но все еще довольно часто встречаются сайты, тексты на которых явно написаны людьми, никогда таких советов не читавших. К сожалению, тенденция к неграмотному составлению набирает своих оборотов.
На различных форумах часто задают вопрос: “Какой является оптимальная частота употребления ключевого слова или фразы?”
Тут однозначино ответа нету. Ответы вариьруются и в сторону уменьшения и увеличени процента ключевых слов. Некоторые рекомендуют 2%, иные специалисты предлагают остановиться на 4-6%. Смелые гуру утверждают, что даже 10% не станут перебором.
Важно запомнить главную деталь: тексты должны быть написаны для читателя. Перенасыщение текста несколькими часто повторяющимися ключевыми фразами заставляет читателя чесать затылок, удивляясь столь кривому тексту. Я не думаю, что после этого ему еще раз захочется посетить ваш ресурс, занести в избранное или порекомендовать своим друзьям. Получить же значительные преференции от поисковых систем столь примитивным способом сегодня сложно.
Поэтому можно порекомендовать формулировать задачу к каждому отдельному тексту следующим образом - выделяется главный запрос и несколько опциональных. В тексте запрос употребляется только в случаях его органичного вхождения в контекст.
Привлекательность контента в деле сбора низкочастотников состоит в том, что для поисковой системы не обязательно наличие словосочетания в исходном виде поискового запроса. Может использоваться другой падеж, другой порядок слов, а в выдаче все будет выглядеть как положено. Думаю, общая идея вам понятна. Да и поисковики уже научились более-менее корректно работать со всей морфологией языка.
Не стоит перегружать текст видоизмененными ключевиками-мастодонтами. Тут уже происходит искуственное завышение частоты ключевых слов. Такие методы раскрутки уж очень не любят поисковики, зачастую помечая (для начала) сайт, а потом и вовсе переставая его индексировать.Употребление фразы “оптимизация и продвижение сайта в интернете” 5-7 раз в различных падежах в тексте объемом в полторы-две тысячи знаков не возбуждает. Ни читателя, ни поисковые системы.
Будьте настоящими. Это мгновенно оценят Ваши читатели и… не удивляйтесь, поисковые машины.