google search что это такое
Что такое Google Search Console: для чего используется
Что такое Google Console?
Как мы уже сказали Гугл Консоль – это сервис компании Google, с помощью которого Вы видите, как Сайт представлен в поиске Google, а так же Search Console поможет Вам оптимизировать сайт при необходимости. Это всё равно что продвижение сайта в поисковой системе Яндекс, только сервис Google Search Console работает абсолютно бесплатно.
Вам даже не обязательно регистрироваться для работы с этим сервисом. Но всё-таки, лучше создать учётную запись в Консоль, потому что так Вы сможете видеть, как сервис «читает» сайт и какие именно решения он принимает для продвижения позиций.
Для чего используется Google Search Console?
Итак, мы разобрались, что из себя представляет сервис Google Search Console, теперь разберёмся, для чего же его используют. С помощью Консоли вы сможете увидеть:
Но это не единственное предназначение. Google Console активно пользуются люди такой профессии, как SMM-специалисты, которым в работе над правильным восприятием продаваемого товара помогает функция Консоли, как отслеживание трафика посещения сайта в результате оптимизации.
Использование этого сервиса так же очень помогает в работе администраторам сайта и веб-разработчикам. Ведь для разработки и поддержки стабильной работы сайта необходима постоянная защита от взломов, устранение неполадок и ошибок при загрузке, в чём и помогает Консоль. Так же, сервис покажет Вам, что происходит с сайтом в момент технических работ и выявит некоторые повреждения, если он будут.
Как добавить сайт в панель Google Console
Для добавления Сайта в панель Гугл Консоли рекомендуем использовать одну учетную запись для работы с Гугл. Если Вы уже в курсе как работает Google Analytics и подключили эту систему к сайту, то удобнее добавить систему Консоли на свой сайт под тем же аккаунтом, или же просто создать, если он отсутствует.
Для добавления сайта в Консоль копируем ссылку сайта и вставляем ее в окно «Добавить ресурс», затем нажимаем кнопку «продолжить». Следующий шаг – подтверждение прав на управление сайта.
Как настроить Google Search Console?
Теперь, после добавления сайта в Консоль, необходимо сделать основные настройки. Так как все параметры выставляются по умолчанию, то мы сделаем только обязательные настройки.
Заходим в раздел «Настройка сайта» и указывает зеркало «WWW», если оно имеется. Как правило, система автоматически настраивает зеркало Сайта, но всё же рекомендуем сделать это самому. Чтобы указать зеркало, нужно подтвердить права на сайт.
Ещё один важный момент в настройке – связь Консоли с Гугл Аналитикой. Эта настройка поможет получать более подробную информацию о трафике и частоте посещений в отчётах. При успешной попытке связи этих сервисов Вам должно прийти сообщение о подтверждении операции.
Если у Вас несколько аккаунтов в Google, которыми вы тоже регулярно пользуйтесь, Вам нужно добавить ссылку этого аккаунта, как добавление пользователя. Так Вы будете иметь полный доступ к данным и изменять их как и в Консоли так и в Аналитике. Так же Вы можете связать не только свой аккаунт, но и другие источники работы с сайтом, например мобильное приложение.
Гугл Консоль – эффективный сервис и помощник в анализе сайта и его оптимизации. Конечно, Консоль Вам не сделает SEO продвижение сайтов в поисковых системах, но тем не менее найдет причину в снижении посещений и пути решения этого. Но для этого нужно регулярно проверять настройки и вносить изменения, так как это позволит сервису вовремя выявлять ошибки на сайте.
Google Search Console: руководство для начинающих вебмастеров
От того, как ранжируется ваш сайт на поиске Google, напрямую зависит его посещаемость. На позиции в выдаче влияет релевантность контента поисковому запросу, скорость загрузки страниц, поведенческие сигналы, наличие технических ошибок и многие другие факторы. Получить полную картину эффективности ресурса на Google-поиске можно с помощью Search Console.
Рассказываем, как работать с этим сервисом и использовать его отчеты для оптимизации сайта.
Google Search Console — бесплатный инструмент для вебмастеров и SEO-специалистов, который показывает, как Google сканирует и представляет сайт в результатах поиска.
Какие задачи можно решить с помощью информации в Google Search Console:
Авторизуемся в Google, переходим в Google Search Console и для начала выбираем тип ресурса, который нужно добавить. От этого зависят способы, которыми можно подтвердить права на него.
Доступно два варианта:
Как подтвердить права на доменной ресурс
Вводим домен или субдомен:
Подтверждаем права собственности на домен. Для этого копируем запись TXT и добавляем ее в конфигурацию DNS своего домена. Кликаем «Подтвердить».
Как подтвердить права на ресурс с префиксом в URL
Выбираем доступный способ подтверждения прав:
Другие способы подтверждения. Можно добавить тег HTML в код главной страницы, добавить в код главной страницы фрагмент кода analytics.js или gtag.js., использовать аккаунт Диспетчера тегов, добавить записи DNS в конфигурацию домена.
Если нужно добавить в Search Console еще один ресурс, разворачиваем список напротив надписи «Ресурс» и выбираем «Добавить ресурс»:
Далее повторяем процедуру верификации.
После добавления ресурса в Search Console открывается доступ к его инструментам и отчетам. Остановимся на каждом и опишем функционал.
Разворачиваем список напротив «Ресурс» и выбираем нужный ресурс:
После этого попадаем на главную страницу, где представлен отчет «Обзор». Это общий отчет по основным показателям.
Разделы отчета «Обзор»:
Улучшения. Сколько страниц сайта проиндексированы без ошибок, а сколько — с ошибками.
Получить подробные данные по каждому пункту можно двумя способами: перейти в соответствующий раздел меню («Эффективность», «Обзор» или «Улучшения») или кликнуть «Открыть отчет» в строке таблицы.
Это ключевой отчет для SEO-специалистов. В старой версии Search Console его аналогом был отчет «Анализ поисковых запросов».
Из отчета можно узнать:
В верхней части отчета находится линейный график, на котором отображается динамика кликов и показов за последние 3 месяца. Также указывается средний CTR и средняя позиция сайта на поиске.
По умолчанию на графике представлены только клики и показы:
На график можно добавить показатели среднего CTR и/или средней позиции сайта.
Например, добавим на график показатель CTR. Для отображения показателя поставим галочку в блоке «Средний CTR»:
Также в отчете «Эффективность» можно задать статистику за другой период. Для этого нажимаем «Дата: за последние 3 месяца»:
Указываем нужный период:
В результате мы получим график за последние 12 месяцев:
В Search Console можно посмотреть статистику по конкретному запросу или слову, которое должен содержать запрос. Для этого воспользуемся фильтром.
Допустим, мы хотим посмотреть статистику по всем запросам, которые содержат слово «завод». Для этого кликаем на «+Новый»:
В меню выбираем пункт «Запрос»:
Выбираем фильтр «Запросы, содержащие». Ниже пишем слово «завод» и применяем изменения:
Получаем линейный график по ключевым запросам, содержащим слово «завод»:
Внизу находится таблица с подробной статистикой за три месяца по всем словам, которые содержат слово «завод»:
Из таблицы мы видим, что больше всего кликов было по запросу «ярославский завод композитов». Больше всего показов было по запросу «завод композитных материалов».
Посмотрим, с каких устройств пользователи переходили на сайт по запросам, которые содержат слово «завод композитных материалов». Для этого перейдем на вкладку «Устройства»:
Из таблицы мы видим, что большинство пользователей переходили с десктопных устройств — 26 кликов. Но переходы с мобильных устройств также были — всего 9 кликов.
Воспользуемся фильтром, чтобы посмотреть по каким запросам ранжируется страница. Для этого нажимаем на «+Новый» и в меню выбираем «Страница»:
В выпадающем списке выбираем «Точный URL» и указываем адрес:
Внизу отчета появится список запросов, по которым эта страница ранжируется на поиске Google:
Указанная страница ранжируется по шести запросам. Больше всего показов было по запросу «композитная арматура купить». Ни по одному из запросов не было кликов.
Переходим к таблице со статистикой по запросам. Нажимаем на значок фильтра и в выпадающем меню выбираем пункт «CTR»:
Отфильтруем запросы, у которых CTR меньше 10%. Кликаем на «Готово»:
Получаем список всех запросов с низким CTR:
Из результатов видно, что по многим запросам не было кликов. Поэтому они имеют нулевой CTR.
Проверка URL показывает, попала ли страница в индекс. Аналогичная функция в старой версии Search Console — «Посмотреть как Googlebot».
Для выполнения проверки вводим URL в строку поиска:
Система выполнит проверку:
По результатам проверки мы видим, что никаких ошибок не обнаружено: URL есть в индексе Google, страница оптимизирована для мобильных устройств.
Зачем нужно использовать проверку URL:
Ускорить переиндексацию. Если произошло обновление страницы (например, изменились цены, ассортимент, описание товара, описание компании и т. д.), то также можно запросить индексирование повторно.
Устранить ошибки. В ходе проверки URL система может обнаружить ошибки. Для получения подробной информации нажимаем «Изучить просканированную страницу»:
Здесь можно посмотреть HTML-код страницы (вкладка «HTML»). Перейдем на вкладку «Скриншот», чтобы посмотреть, как видит страницу Google.
Оказывается, Google видит эту страницу совсем не так как пользователь. Для уточнения причин переходим на вкладку «Подробнее»:
Причина в том, что при индексации не все ресурсы страницы удалось загрузить. Также обнаружены две ошибки кода JavaScript.
В отчете «Покрытие» содержится информация о количестве проиндексированных страниц и ошибках. Аналогичный инструмент в предыдущей версии Search Console назывался «Статус индексирования».
Перейдем на вкладку «Покрытие». Здесь мы видим, что 98 страниц проиндексировано Google без ошибок. Исключено из поиска 113 страниц.
Посмотрим отчет о проиндексированных страницах. Для этого устанавливаем галочку в блоке «Страницы без ошибок».
Внизу в разделе «Сведения» отображается информация о типе проверки и количестве страниц. Нажимаем на ссылку «Страница без ошибок»:
Попадаем в отчет, в котором показывается, какие страницы и когда были проиндексированы:
Аналогичным образом узнаем о страницах, исключенных из индекса. Устанавливаем галочку в блоке «Исключено»:
Переходим в раздел «Сведения». Там указано сколько страниц:
Посмотрим отчет по страницам, которые просканированы роботом Google, но еще не попали в индекс. Для этого нажимаем на нужную строку:
Из этого отчета можно посмотреть URL страницы и дату сканирования. Например, мы видим что последняя в таблице страница была просканирована более двух месяцев назад, но так и не попала в индекс.
Кликаем два раза по этой строке — справа откроется окно с подробностями по данному URL.
Проверим блокировку URL в robots.txt:
Проверка не обнаружила директив, которые запрещают индексацию страницы.
Для ускорения процесса индексации URL запросим индексирование. Для этого нажимаем «Проверить URL»:
Проверка показывает, что URL нет в индексе. Нажимаем «Запросить индексирование»:
После этих действий Google проверит возможность индексирования страницы. Если никаких ошибок не будет обнаружено, то страница попадет в индекс.
Для ускорения индексации, а также передачи поисковому роботу информации о последнем обновлении и приоритетности обхода страниц составляется xml-карта сайта. Отправить карту сайта для сканирования гуглоботом и выявления возможных ошибок можно через Search Console в разделе «Файлы Sitemap».
Для добавления карты сайта вносим ее адрес в поисковую строку и нажимаем «Отправить»:
В блоке «Файлы на проверке» можно посмотреть информацию о добавленной карте. Здесь отображается тип файла, дата его отправки, статус, дата последней обработки, количество выявленных URL.
Для получения более подробной информации о проверке кликаем на любое место в строке с данными:
Из отчета видно, что все URL успешно обработаны. Ошибки, предупреждения или исключения отсутствуют.
Если обнаружены ошибки, посмотрите отчет об индексировании. Это важно, потому что все страницы в карте сайта должны быть проиндексированы.
С помощью этого инструмента Search Console можно временно (примерно на 6 месяцев) удалить из результатов поиска Google URL, текущее описание страницы или ее кешированную версию.
Покажем, как временно удалить URL. Перейдем в раздел «Удаление» — вкладка «Временные удаления». Нажимаем кнопку «Создать запрос»:
Вводим URL, выбираем опцию «Удалить только этот URL» и подтверждаем свои действия:
Готово! Временно можно удалить конкретную страницу или целую папку.
Из отчета «Основные интернет-показатели» можно узнать, насколько эффективно работают страницы сайта для ПК и мобильных устройств. Источник данных — отчет об удобстве пользования браузером Chrome. Этот отчет приобрел особую значимость в связи с введением Google новых факторов оценки качества сайта — Core Web Vitals. Это три показателя, которые потенциально будут влиять на ранжирование ресурса в Google:
Данные по всем трем показателям и представлены в этом отчете.
Важно: вы не сможете посмотреть здесь данные о скорости загрузки для отдельной страницы. Данные сгруппированы по статусу, показателям и группам URL. Задача отчета — получить полную картину эффективности ресурса в целом и устранить неполадки. Узнать о скорости загрузки конкретного URL можно с помощью сервиса PageSpeed Insights.
Перейдем в раздел «Основные интернет-показатели». Здесь представлены данные о количестве:
Посмотрим подробнее отчет по основным интернет-показателям страниц сайта для ПК. Для этого кликнем на «Открыть отчет»:
В отчете URL сгруппированы по следующим параметрам:
Из нашего отчета видно, что в течение трех месяцев неэффективных URL-адресов обнаружено не было. Но есть рекомендации по увеличению скорости загрузки страниц.
В разделе «Сведения» представлена информация о рекомендациях, проверках и тенденциях. В столбце «Статус» мы видим рекомендацию по увеличению скорости. Для получения более развернутых сведений кликаем по этой строке:
После работ по оптимизации страницы проверим в Search Console, устранена ли проблема. Для этого нажимаем «Проверить исправление»:
Проверка занимает до 28 дней. Но система не сможет ее выполнить, если на странице будет низкая посещаемость.
Отчет предоставляет информацию о том, какие страницы сайта не оптимизированы под мобильный трафик.
Вверху отображается число страниц, которые неудобно просматривать на мобильных устройствах. Мы видим, что на 8 страницах обнаружено 2 проблемы. На 38 страницах проблем не обнаружено.
По умолчанию на графике отображаются данные только по ошибкам. Установим галочки напротив показателей «Страница без ошибок» и «Показы». Так мы можем отследить в динамике количество просмотров с мобильных устройств:
Ниже в разделе «Сведения» указаны ошибки.
В нашем случае их две (и они самые распространенные):
Также к ошибкам относятся: слишком мелкий шрифт, не задано значение метатега viewport, в метатеге viewport не задано значение device-width.
Для получения более подробной информации об ошибке кликаем на нужную строку:
В открывшемся отчете перечислены URL страниц, на которых обнаружена ошибка:
После оптимизации страницы можно проверить, решена ли проблема:
Не знаете, с чего начать оптимизацию сайта под мобильные устройства? Изучите гайд по Mobile First — часть 1, часть 2, часть 3.
Для тех, кто внедрил на сайте технологию ускоренных AMP-страниц, в Search Console есть специальный отчет для отслеживания их эффективности. Он показывает, какие AMP-страницы сайта проиндексированы Google, и выявляет ошибки.
Как и многие отчеты в Search Console, этот состоит из двух частей — диаграммы и таблицы. На диаграмме наглядно показано количество страниц с ошибками, предупреждениями и без ошибок. В табличной части представлена информация о конкретных проблемах: URL не найден или заблокирован в robots.txt, размер изображения меньше рекомендуемого и другие (полный перечень возможных ошибок — здесь).
Из этой группы отчетов можно узнать, какие данные для расширенных результатов Google смог найти в контенте страниц, и есть ли в этих данных ошибки.
Search Console поддерживает отчеты о таких типах расширенных результатов: строки навигации, товар, логотип, вакансии, набор данных, мероприятие, видео и другие (полный список — здесь). Эти типы робот определяет по наличию в коде страницы определенного вида микроразметки.
О том, как самостоятельно внедрить микроразметку Schema.org, мы писали в этой статье, OpenGraph — в этой. А здесь рассказали о синтаксисе JSON-LD, который Google рекомендует использовать для разметки данных.
Покажем принцип организации данных на примере отчетов «Строки навигации» и «Продукты».
Перейдем в раздел «Строки навигации». В верхней части отчета мы видим диаграмму и три вкладки: «Ошибка», «Без ошибок, есть предупреждения», «Страница без ошибок». Ниже представлена таблица с подробной расшифровкой типа проблем и количества элементов, в которых найдены ошибки или есть предупреждения.
Чтобы посмотреть примеры URL с ошибкой, нужно кликнуть на строку таблицы.
Как работает Google Поиск (информация для начинающих)
Google получает информацию из разных источников. Вот некоторые из них:
В этой статье речь пойдет только о контенте, размещенном на веб-страницах. Формирование результатов поиска по веб-страницам проходит в три этапа:
Сканирование
Сначала нужно найти страницы, опубликованные в интернете. Поскольку их официального реестра не существует, роботу Google приходится постоянно искать новые страницы и добавлять их к списку уже известных. О некоторых страницах известно, потому что робот Google посещал их раньше. А переходя по размещенным на них ссылкам, робот может находить новые страницы. Кроме того, владелец сайта может сам отправить в Google файл Sitemap со списком страниц, которые нужно сканировать. Наконец, если вы создали свой сайт с помощью специального сервиса, например Wix или Blogger, то этот сервис может самостоятельно сообщать Google, что нужно просканировать добавленные или измененные вами страницы.
Обнаружив URL страницы, робот Google посещает ее (сканирует), чтобы узнать, что на ней опубликовано. При этом он анализирует как текстовый, так и нетекстовый контент, а также общий дизайн – это позволяет ему определять, где именно страница должна появляться в результатах поиска. Чем точнее будут классифицированы материалы вашего сайта, тем лучше мы сможем сопоставлять их с поисковыми запросами пользователей.
Как повысить эффективность сканирования
Индексирование
После обнаружения страницы нужно выяснить, какого рода контент на ней размещен. Этот процесс называется индексированием. Он заключается в том, что Google анализирует контент страницы, а также систематизирует найденные на ней изображения и встроенные видео. Полученная информация сохраняется в индексе Google – огромной базе данных, занимающей много (очень много) компьютеров.
Как повысить эффективность индексирования
Ранжирование и показ результатов
Когда пользователь вводит запрос, Google ищет в своем индексе наиболее подходящие результаты, учитывая такие факторы, как местоположение, язык, тип устройства пользователя (компьютер или телефон) и т. д. Например, результаты по запросу «ремонт велосипедов» будут различаться в зависимости от того, находитесь вы в Париже или в Гонконге. Ранжирование выполняется по нашим алгоритмам, и Google не повышает рейтинг страниц за плату.
Как повысить рейтинг страницы
Более подробная информация
Если вы хотите узнать о принципах работы Поиска как можно больше, изучите наше углубленное руководство.
Except as otherwise noted, the content of this page is licensed under the Creative Commons Attribution 4.0 License, and code samples are licensed under the Apache 2.0 License. For details, see the Google Developers Site Policies. Java is a registered trademark of Oracle and/or its affiliates.
Как работает Google Поиск?
Как работает Google Поиск, основные алгоритмы обновлений
В наше время поисковые системы, в частности Google, напоминают «витрину» Интернета и являются наиболее важным каналом распространения информации в цифровом маркетинге. С помощью глобальной рыночной доли, которая составляет более 65% по данным за январь 2016 года, Google явно доминирует в поисковой индустрии. Хотя компания официально не раскрывает степень своего роста, к 2012 году было подтверждено, что их инфраструктура обслуживает около 3 миллиардов поисковых запросов в день.
Google.com глобально занял звание сайта номер 1 в Alexa Top 500 Global Sites. Учитывая эти цифры, владельцам собственных веб-страниц особенно важно иметь хорошую видимость своих сайтов поисковой системой.
Но не смотря на такую всеобщую популярность Google, знаете ли вы, как он действительно работает и что это за панды, пингвины, калибри?
Чем нужнее становится Google для современного маркетинга, тем важнее понимать функции поиска и алгоритмы обновлений, которые оказывают непосредственное влияние на ранжирование результатов. Moz предполагает, что Google изменяет свои алгоритмы по 600 раз за год. Многие из этих изменений и связанные с ними факторы ранжирования держатся в секрете. И только о крупных обновлениях объявляют публично.
В этой статье мы рассмотрим основы функциональности поисковой системы и объясним основные обновления алгоритма Google, начиная с 2011 года. Выведем также стратегии, следуя которым можно идти в ногу с изменениями поисковой системы. Так что читайте дальше…
Как работает Google?
Своим появлением поисковые системы напрочь изменили привычный для нас способ сбора информации. Интересует ли вас обновление данных фондового рынка или вы хотите найти лучший ресторан в районе, либо пишете академический отчет об Эрнесте Хемингуэе — поисковик даст ответ на все запросы. В 80 годы ответы на вопросы потребовали бы посещения местной библиотеки. Теперь же все решается в течении миллисекунды с использованием алгоритмических полномочий поисковика.
В этом отношении главная цель поисковой системы заключается в том, чтобы максимально быстро найти уместную и актуальную информацию, как ответ на введенные поисковые термины, также называемые ключевыми словами. Поэтому центральным аспектом для любой поисковой системы, желающей выдать действительно полезный результат, является понятие цели поиска, того, как именно люди ищут.
Результат работы Google можно сравнить с интернет-каталогом, отобранным с помощью рейтинговой системы на основе алгоритмов. Более конкретно алгоритм поиска можно описать как «нахождение элемента с заданными свойствами среди списка элементов».
Давайте теперь подробнее рассмотрим привлеченные процессы сканирования, индексирования и позиционирования.
Сканирование
Сканирование может быть описано, как автоматизированный процесс систематического изучения общедоступных страниц в Интернете. Проще говоря, во время этого процесса Google обнаруживает новые или обновленные страницы и добавляет их в свою базу. Для облегчения работы он использует специальную программу. «Googlebots» (можно встретить альтернативные названия: «боты» или «роботы») посещают список URL-адресов, полученных в процессе прошлого сканирования и дополненных данными карты сайта, которую предоставляют веб-мастера и анализируют их содержание. При обнаружении ссылок на другие страницы во время посещения сайта, боты также добавляют их в свой список и устанавливают систематические связи. Процесс сканирования происходит на регулярной основе в целях выявления изменений, изъятия «мертвых» ссылок и установления новых взаимосвязей. И это при том, что только по данным на сентябрь 2014 года насчитывается около миллиарда веб-сайтов. Можете себе представить сложность такой задачи? Тем ни менее, боты не посещают абсолютно каждый сайт. Чтобы попасть в список проверяемых, веб-ресурс должен быть рассмотрен, как достаточно важный.
Индексация
Индексация — процесс сохранения полученной информации в базе данных в соответствии с различными факторами для последующего извлечения информации. Ключевые слова на странице, их расположение, мета-теги и ссылки представляют особый интерес для индексации Google.
Для того чтобы эффективно хранить информацию о миллиардах страниц в базе данных поисковой системы, Google использует крупные центры обработки данных в Европе, Азии, Северной и Южной Америке. В этих центрах, как было подсчитано, на основе энергопотребления Google в 2010 году, работает около 900,000 серверов.
Основная цель процесса индексации: быстро реагировать на поисковой запрос пользователя. Его как раз мы и будем обсуждать на следующей стадии.
Обработка
Когда пользователь вводит запрос, Google производит в базе данных поиск, подходящий под условия и алгоритмически определяет актуальность содержания, что выводит к определенному рейтингу среди найденных сайтов. Логично, что результаты, которые считаются более релевантными для пользователя поисковой системы, намеренно получают более высокий ранг, чем результаты, которые имеют меньше шансов обеспечить адекватный ответ.
Хотя Google и не выпустил официальных данных об этом, компания подтверждает, что использует более 200 факторов для определения релевантности и значимости конкретной страницы.
Естественно, всем веб-разработчикам важно знать, каковы факторы ранжирования, которые влияют на позицию страницы в поисковой выдаче. Иногда Google дает определенные намеки, объявив важные изменения в обновлениях своих алгоритмов.
Все вышеописанные процессы сканирования, индексирования и позиционирования можно изобразить с помощью такой схемы:
Теперь, когда у вас есть базовое понимание того, как работает Google, рассмотрим основные обновления алгоритмов поиска, начиная с 2011 года.
Обновление алгоритмов начиная с 2011
Как вы и сами понимаете, Google никогда не будет публично раскрывать свои алгоритмы поиска и факторы ранжирования результатов. Это было бы равносильно тому, чтоб компания Coca-Cola выкладывала рецепты своей знаменитой газировки в Интернет. Тем ни менее, Google желает улучшать уровень пользовательского опыта и обеспечивать самые лучшие результаты поиска. Для того, чтобы уменьшить внедряемый контент в результатах поиска, компания хочет проинформировать веб-мастеров о том, когда и как изменились главные стандарты качества отбора. Поэтому вполне вероятно, что перед проведением крупного обновления алгоритма, последует анонс на Google Webmaster Central Blog.
Итак, давайте рассмотрим основные обновления, которые были осуществлены, начиная с 2011 года:
Panda
Обновление Panda впервые было представлено в конце февраля 2011 года. После было выпущено достаточно много его апдейтов, на данный момент текущая версия: 4.2. Обновление можно рассматривать, как значительное улучшение алгоритма поиска, потому что оно нацелено на повышение качества контента веб-сайтов. Основная идея заключается в том, что оригинальные сайты с авторским контентом в поисковой системе должны занять место выше, чем страницы с низким качеством, повторяющие то, что уже и так известно или же являющиеся копиями других сайтов. Обновление Panda установило новый базовый уровень стандартов качества:
Page Layout (Top Heavy)
Обновление, впервые выпущенное в январе 2012 года, предусматривает наказание сайтов, которые используют слишком много рекламы в верхней части страницы или делают ее чрезмерно агрессивной, отвлекающей от основного содержания. Это спровоцировано большим количеством жалоб от пользователей, которым бывало сложно найти нужную информацию и приходилось долго прокручивать страницу вниз. Данным обновлением Google призывает веб-мастеров размещать содержимое сайта в центре внимания. В этом отношении большое число рекламы мешает удобству усвоения информации.
Penguin
Был выпущен в апреле 2012 года. Новый алгоритм, направленный на борьбу с поисковым спамом. Сайты, которые использовали спам-методы, были значительно понижены в рейтинге или вовсе удалены из него.
Ещё одной особенностью Penguin является способность анализировать ссылочную массу.
Pirate
С обновлением Pirate, которое было введено в августе 2012 года, Google снизил рейтинг сайтов, нарушающих авторские права и интеллектуальную собственность. Для измерения этих нарушений, Google использует систему запросов о нарушении авторских прав, основанную на Digital Millenium Copyright Act. Правообладатели могут применять инструмент, чтобы сообщить и удалить содержание сайта плагиаторов из базы данных Google.
Exact Match Domain(EMD)
Выпущено в сентябре 2012 года и направлено на борьбу с доменами, похожими на MFA.
MFA(made-for-adsense) – домен, который создан специально для контекстно-медийной системы Google. Обычно такой домен предназначен для какого-то одного запроса (или семейства запросов) и на нем установлен Google Adsense. Пользователь, попавший на этот домен, не видит ничего, кроме рекламы и в итоге либо закрывает сайт, либо переходит дальше по контекстному объявлению. После выпуска алгоритма EMD, сайты, содержащие в доменном имени запрос, были изъяты или очень существенно понижены в рейтинге.
Payday Loan
Выпущен в июне 2013 года и направлен на уменьшение страниц, которые содержат переспамленные запросы. Такие запросы часто используются веб-мастерами для продвижения страниц определенной тематики.
Обновление было запущенно в связи с многочисленными жалобами, в которых говорилось, что даже после внедрения Panda и Penguin чистота выдачи оставляла желать лучшего.
Рассмотрим это обновление на обычном примере. Допустим, вам нужно купить дверь. Если ввести запрос, Google выдаст фотографии дверей. Из них: 2-3 страницы, где непосредственно можно купить двери, 3-4 сайта компаний-производителей дверей и 2-3 сайта о том, как выбрать и поменять дверь. Если бы не было обновления Payday Loan, вы бы увидели 15-20 запросов на одну тематику (к примеру, где купить дверь).
Критерии, по которым происходит отбор таких сайтов, Google раскрывать не хочет, но данный алгоритм явно упростил жизнь пользователям поисковой системы.
Hummingbird
С сентября 2013 года Google реализовал замену алгоритма поиска, которая была названа Hummingbird. Основные обновления, как Panda и Penguin, были интегрированы с этим новым алгоритмом. Имя Hummingbird выбрали в качестве синонима для описания гибкости, точности и скорости нового обновления.
Вместо того, чтобы возвращать точные ответы на запросы, используя введенные пользователем ключевые слова (как это было раньше), Google интерпретирует намерения и контекст поиска. Цель состоит в том, чтобы понять смысл поискового запроса пользователя и возвращать соответствующие результаты. Это означает, что точные совпадения ключевых слов становятся менее важными в пользу поиска намерения. В качестве примера: если вы вводите запрос «погода», то вряд ли ожидаете получить полное объяснение самого термина. Скорее в данном случае имеются в виду погодные условия. Что-то наподобие:
Pigeon
Обновление Pigeon впервые выпущено в июле 2014 года. Основное внимание в нем уделяется результатам геозависимого поиска. Расстояние и местоположение пользователя являются ключевыми параметрами ранжирования, чтобы обеспечить точность результата. Это обновление тесно связано с Google Maps. Например:
Mobilegeddon
Было выпущено в апреле 2015 года. Это обновление влияет только на мобильный поиск, оно дает преимущество страницам, дружественным к мобильным устройствам.
В текущем состоянии, обновление не влияет на результаты поиска со стационарных компьютеров или планшетов. В отличие от Panda или Penguin, алгоритм работает в режиме реального времени.
Существует специальный тест, с помощью которого веб-мастера могут проверить совместимость своего сайта с мобильными устройствами. Также можно использовать отчеты о мобильном юзабилити в Google Webmaster Tools, только они могут работать с задержкой.
Как идти в ногу с изменениями алгоритмов?
Обсуждение основных обновлений алгоритмов за последние годы, вероятно ставит перед вами вопрос, как не отставать от этих изменений? Основная задача Google — постоянно двигаться в направлении обеспечения самого высокого качества и надежности ответов на пользовательские запросы. В то время как технические особенности могут модифицироваться, широкая стратегия вряд ли изменится.
Поскольку поведение человека постоянно меняется, задача Google также адаптировать свои алгоритмы согласно изменениям. К примеру, «Mobilegeddon» было введено в качестве реакции на растущую тенденцию поисков с мобильных устройств.
Главное — это понимание того, кто ваши клиенты. Сосредоточенность на реальных потребностях этих клиентов имеет фундаментальное значение для того, чтобы идти в ногу с изменениями.
Итак, если вы — веб-программист, вам особенно важно быть в курсе изменений алгоритмов поиска Google. Вот подборка нескольких полезных ресурсов, которые могут помочь оставаться в курсе событий:
Google Webmaster Central Blog — ваш главный источник для официальных новостей и обновлений, на нем довольно часто впервые объявляли об алгоритмических изменениях.
Moz Google Algorithm Change History — в этой базе данных Moz опубликовал каждое из заметных изменений алгоритма и обновлений начиная с 2000 года.
Search Engine Land – один из наиболее важных онлайн журналов для SEO и SEM. В нем есть целый раздел об обновлениях алгоритмов Google с соответствующими статьями.
Search Engine Roundtable – также включает в себя интересный раздел об обновлениях алгоритмов.
Mozcast — это визуальное представление об изменениях алгоритмов в виде сводки погоды.
Algoroo — инструмент, который отслеживает результаты поиска колебания вокруг 17000 ключевых слов в связи с изменением алгоритма. Очень полезный сайт для обнаружения немедленных обновлений.
Сохраняя традицию. Вот тут можно найти первоисточник.