Поисковое продвижение — один из этапов промоутирования сайта (то есть, улучшения его позиций в поисковой выдаче, прирост количества клиентов и повышение доходности проекта).
Немного цифр: за 2020 год количество запросов обрабатывает Google Search, прогнозируется в районе 2 трлн. А это 5,5 миллиарда осуществляемых запросов ежедневно.
На любой запрос пользователя найдутся сотни тысяч ссылок с ответом, а наиболее соответствующие запросу будут находиться в начале выдачи. Вывод сайта в ТОП и есть конечный результат этого процесса.
Сам по себе поисковые алгоритмы сайт не видят. Недостаточно написать текст и сделать HTML/CSS верстку. Необходимо провести полноценный search engine optimization.
SEO — комплексная внутренняя и внешняя поисковая оптимизация ресурса для улучшения взаимодействия между поисковыми роботами и пользователями.
SEO простыми словами — работа над сайтом изнутри (приведение структуры (каталога товаров, услуг, фильтры) в понятный и удобный пользователю вид, оптимизация метатегов, текста и изображений под запрос посетителя) и снаружи (наращивание ссылочного профиля — чем больше других сайтов с хорошей репутацией ссылается на ваш, тем лучше его распознают поисковые системы и тем выше позицию занимает в выдаче. Т. е. после вбивания запроса в поиск сайт оказывается не на 10 странице выдачи, а ближе к 1й, и пользователи посещают его чаще. Подробнее про партнерскую программу по SEO читайте на страницах нашего специализированного сайта.
Чтобы пользователи увидели сайт, его должны найти и проверить работы.
Процесс состоит из 3 этапов для Google:
- Сканирование. На этом этапе краулери обходят сайты и ищут обновленные или новые общедоступные страницы. Программы не знают, как их искать, поэтому либо они наталкиваются на новые, или переходят уже из существующих (как правильно расставить все ответы страниц, чтобы боты правильно сканировали обновления на сайте, мы писали здесь). Частота и количество извлеченных страниц зависят от специального алгоритма. Процедура выполняется постоянно, и в это время боты также проявляют страницы, которые не работают. Все найденное заносится в базу данных, но пересматривают работы далеко не каждый сайт. Всего используется два типа краулерів: для обычной и мобильной версии.
- Индексирование. После сканирования Googlebot интерпретирует содержимое страницы (теги, картинки, видео, текст, ключи), и внесет информацию в свой поисковый индекс.
- Формирование выдачи. После ввода запроса поисковая система обращается к огромной базе данных и выбирает релевантные результаты. Они зависят от локации, языка, прежних запросов, типа устройства и других алгоритмов (вместе более 200 факторов ранжирования).
Принцип работы поиска у конкурента похож, но алгоритмы ранжирования несколько отличаются. Есть самые распространенные факторы, на которые в первую очередь стоит обратить внимание:
- скорость загрузки сайтов влияет на рост количества конверсий т. я. страницы долго грузятся, увеличивают показатель отказов;
- новизна публикаций – чем свежее информация, тем выше она может появиться;
- LSI слова помогают различить значения одинаковых слов (зАмок – замОк);
- объемные статьи считаются более уместными для пользователя (подробнее раскрывают тему);
- наличие ключа в Title и Description способны повлиять на кликабельность;
- авторитетные доноры способны увеличить авторитет акцептора в глазах метрик ранжирования;
- оригинальные экспертные сведения имеют вес больше, чем нужно скопировать;
- наличие мобильной версии;
- наличие мультимедиа;
- структурированный контент легче воспринимать и продвигать тоже;
- наличие HTTPS;
- понятная структура сайта;
- наличие страницы “Политика компании” или “Конфиденциальность и условия использования“;
- и др..
Методы оптимизации
Чтобы товар желали купить онлайн, сайт должен быть понятным и простым в навигации. Клиентов отталкивает долгий процесс покупки и отсутствие форм связи. Даже длинная ответ в чате может стать причиной увеличения числа отказов. SEO оптимизация направлена на устранение внутренних и внешних недостатков площадки.
Поисковые системы стараются бороться с сеошниками и их методами. Нелегальные способы продвинуться быстро, но это влечет за собой песимізацію ресурса и как следствие упадок в цифрах (касается и клиентов, и прибыли). Гугл держит свои метрики оценки в секрете, стараясь ориентироваться на потребности пользователей, и постоянно вносит новые изменения + корректирует существующие алгоритмы оценки сайтов.
Яндекс в этом смысле более прозрачный. Но у него более жесткие требования к уникальности и наполненности текстов ключами.