10 советов ☑ по технической seo оптимизации

Если вы серьёзно относитесь к своему сайту, если вы нацелены на результат, то вам просто необходимо знать — о минимальных настройках технической seo оптимизации. В этой статье собраны самые необходимые советы по которым можно проверить и улучшить технически свой веб-сайт. Итак поехали.

Что такое техническое SEO?

Техническая SEO оптимизация относится к улучшению скрытых настроек веб-сайта, с целью повышения его позиций в поисковых системах. Цель — сделать веб-сайт быстрее и легче для сканирования, и понимания поисковыми системами — это краеугольные камни технической оптимизации. Часто бывает, что техническое SEO это то, что забывают сделать в первую очередь, или вообще забывают, тогда, как хорошие страницы просто закрыты от индексации.

Читайте: все подробности про оптимизацию сайта seo-текстами ➠

Почему надо оптимизировать свой сайт технически?

Яндекс, Google и другие поисковые системы хотят показывать своим пользователям наилучшие результаты по их запросам. Вы, наверное, не раз слышали такое: “этот тупой Гугл… куда он меня привёл…” или “что он мне нашёл, я не это искал…” так вот такие разговоры им не нужны. Поэтому прежде показа, чтобы так тупо не ошибаться, предварительно, поисковые роботы сканируют и оценивают веб-страницы, по разным параметрам. Некоторые факторы основаны на ранее собранных данных, как например, скорость загрузки страницы. Другие, помогают поисковым роботам понять, о чем наши страницы, это то, что, среди прочего, делают структурированные данные. Таким образом, улучшая технические настройки, вы помогаете поисковым системам сканировать и понимать ваш сайт. Если вы делаете это хорошо, вы можете получить приз — более высоким рейтинг сайта или даже попасть в 10 лучших сайтов.

Пренебрежение этим может сработать и наоборот: если вы делаете серьезные технические ошибки на своем сайте, и они могут стоить вам слишком дорого. Вы можете пополнить ряды тех, кто полностью запретил поисковым системам сканировать свой сайт, случайно добавив косую черту, в неправильном месте, в файле robots.txt.

Но и то заблуждение, если вы все силы сосредоточите на технических деталях веб-сайта, вместо того чтобы думать об этом проще. Веб-сайт должен работать хорошо — быть быстрым, понятным и простым в использовании - в первую очередь для ваших пользователей. К счастью, создание прочной технической основы часто совпадает с заботой о пользователях и поисковых системах.

Какие же это технические характеристики хорошо оптимизированного сайта?

Технически оптимизированный веб-сайт — быстр для пользователей и легко сканируется роботами поисковых систем. Правильная техническая настройка помогает поисковым системам понять, о чем сайт, и предотвращает путаницу, вызванную, например, дублированием контента. Более того, он не отправляет ни посетителей, ни поисковых роботов в тупиковые уголки своего сайта, по нерабочим ссылкам. Сейчас мы кратко рассмотрим некоторые важные характеристики технически оптимизированного веб-сайта.

#1. Быстрый сайт

В настоящее время веб-страницы должны загружаться быстро. Люди нетерпеливы и не хотят ждать, пока откроется страница. Уже в 2016 году исследование Google показало, что 53% мобильных посетителей сайта уйдут, если веб-страница не откроется в течение 3 секунд. Так что, если ваш сайт работает медленно, люди разочаровываются и переходят на другой сайт, и вы пропустите весь этот трафик.

Поисковые системы знает, что медленные веб-страницы ведут к отрицательному опыту пользователей. Поэтому они предпочитают веб-страницы, которые загружаются быстрее. Таким образом, медленная веб-страница также оказывается ниже в результатах поиска, чем ее более быстрый эквивалент, что приводит к еще меньшему трафику.

Что можно сканировать поисковым системам?

Поисковые системы используют роботов для сканирования сайтов, ещё раз, сайты не попадают в руки людей, сайты обрабатывают только роботы. Роботы следуют по ссылкам, чтобы обнаружить контент на вашем сайте. Понятная внутренняя структура приведёт к тому, что они поймут, какое содержимое представлено на вашем сайте.

Но есть и другие способы управления роботами. Например, вы можете запретить им сканировать определенный контент, если вы не хотите, чтобы они туда заходили. Вы также можете разрешить им сканировать страницу, но запретить им показывать эту страницу в результатах поиска, или не переходить по ссылкам на этой странице.

#2. Файл Robots.txt

Вы можете указать направления для роботов на своем сайте, используя файл robots.txt. Это мощный инструмент, с которым нужно обращаться осторожно. Как мы упоминали в начале, небольшая ошибка может помешать роботам сканировать (важные части) вашего сайта. Иногда люди непреднамеренно блокируют файлы CSS и JS своего сайта в файле robot.txt. Эти файлы содержат код, который сообщает браузерам, как должен выглядеть ваш сайт, и как он работает. Если эти файлы заблокированы, поисковые системы не могут определить, правильно ли работает ваш сайт.

В общем, я рекомендую по-настоящему погрузиться в robots.txt, если вы хотите узнать, как он работает. Или, может быть, даже лучше, пусть разработчик сделает это за вас!

#3. Мета-теги файла robots

Метатег robots - это фрагмент кода, который вы не увидите на странице сайта в качестве посетителя. Это директивы для поисковых роботов находящиеся в исходном коде в так называемом разделе заголовка страницы. Роботы читают их при поиске страницы. В нем они найдут информацию о том, что им нужно делать с содержимым страницы.

Если вы хотите, чтобы роботы поисковых систем сканировали страницу, но по какой-то причине не пускали ее в результаты поиска, вы можете сообщить об этом с помощью метатега robots. С помощью метатега для роботов вы также можете указать им сканировать страницу, но не переходить по ссылкам на странице.

#4. На сайте много мертвых ссылок

Мы узнали, что медленные сайты разочаровывают. Что может быть еще более раздражающим для посетителей, чем медленная страница, так это переход на страницу, которая вообще не существует. Если ссылка ведет на несуществующую страницу на вашем сайте, люди увидят страницу с ошибкой 404. На ней может и закончится положительное восприятие вашего сайта.

Более того, поисковые системы тоже не любят находить эти страницы с ошибками. И они имеют тенденцию находить даже больше мертвых ссылок, чем посетители, потому что они следуют за каждой ссылкой, на которую наталкиваются, даже если она скрыта.

К сожалению, большинство сайтов имеют (по крайней мере) некоторые мертвые ссылки, потому что веб-сайт постоянно работает: люди делают страницы и удаляют страницы. К счастью, есть инструменты, которые могут помочь вам найти неработающие ссылки на вашем сайте. Такие как Screaming Frog SEO Spider например.

Чтобы предотвратить создание неработающих ссылок, вы всегда должны перенаправлять URL-адрес страницы при её удалении. В идеале вы бы перенаправили её на новую страницу, которая заменяет старую страницу.

#5. Не путать поисковые системы с дублированным контентом

Если у вас есть один и тот же контент на нескольких страницах вашего сайта — или даже на других сайтах — поисковые системы могут запутаться. Потому что, если эти страницы показывают одинаковое содержимое, спрашивается, какое из них они должны показывать в поиске? В результате, они могут оценить все страницы с одинаковым контентом, как низкокачественные.

К сожалению, вы можете столкнуться с проблемой дублирования контента, даже не подозревая об этом. По техническим причинам разные URL могут показывать один и тот же контент. Для посетителя это не имеет никакого значения, но для поисковой системы это имеет значение; они будут видеть тот же контент по-другому URL.

К счастью, есть техническое решение этой проблемы, с помощью так называемого элемента канонической ссылки. Вы можете указать исходную страницу — или страницу, которую вы хотели бы видеть в поисковых системах, присвоив ей статус главной. В Yoast SEO для WordPress вы можете легко установить канонический URL для страницы. Это поможет предотвратить проблемы с дублирующимся содержимым, о котором вы могли даже не знать.

#6. Ваш сайт безопасен

Технически оптимизированный сайт — это безопасный сайт. Обеспечьте безопасность вашего сайта для пользователей, чтобы гарантировать их конфиденциальность, это является основным требованием в настоящее время. Есть много вещей, которые вы можете сделать, чтобы сделать ваш на (WordPress) безопасным веб-сайтом, и одна из самых важных вещей — внедрение HTTPS.

HTTPS (HyperText Transfer Protocol Secure) — это расширение протокола HTTP. Оно позволяет существенно снизить риск перехвата персональных данных посетителей (логины, пароли, номера банковских карт и т. д.), а также избежать подмены контента, в том числе рекламы, при загрузке сайта. Подробнее в Яндекс

HTTPS гарантирует, что никто не сможет перехватить данные, которые передаются между браузером и сайтом. Так, например, если люди заходят на ваш сайт, их учетные данные в безопасности. Для этого вам понадобится так называемый SSL-сертификат для реализации HTTPS на вашем сайте. Яндекс и Google признают важность безопасности и поэтому сделали внедрение HTTPS положительным сигналом: безопасные сайты имеют более высокий рейтинг, чем небезопасные эквиваленты.

Вы можете легко проверить, является ли ваш сайт HTTPS безопасным в большинстве браузеров. В левой части панели поиска вашего браузера вы увидите замок, если это безопасно. Если вы видите слова «небезопасно», вам (или вашему разработчику) есть над чем поработать!

#7. Структурированные данные

Структурированные данные помогают поисковым системам лучше понять ваш сайт, контент, или даже ваш бизнес. С помощью структурированных данных вы можете указать поисковым системам, какой товар или услугу, вы предлагаете на вашем сайте. Кроме того, это даст вам возможность указать всевозможные подробности о своих  товарах и услугах.

Поскольку существует всеми признанный, единый формат описаний Schema.org, в котором вы должны представлять эту информацию, поисковые системы могут легко найти и понять ее. Это помогает им разместить ваш контент в более развёрнуто в широком представлении.

Применение структурированных данных может принести вам больше, чем просто лучшее понимание поисковыми системами. Это также делает ваш сниппет более привлекательным для переходов на сайт, добавляя звезды, и дополнительные детали, которые выделяются и выглядят богаче в результатах поиска.

#8. Карта сайта XML

Проще говоря, карта сайта XML представляет собой список всех страниц вашего сайта. Она служит дорожной картой для поисковых систем на вашем сайте. С её помощью вы можете быть уверенны в том, что поисковые системы не пропустят ни одного важного контента на вашем сайте. Карта сайта XML часто классифицируется по постам, страницам, тегам или другим пользовательским типам постов и включает в себя количество изображений и дату последнего изменения для каждой страницы.

В идеале веб-сайт не нуждается в XML-карте сайта. Если у него есть внутренняя структура ссылок, которая хорошо связывает весь контент, роботам это не понадобится. Однако не все сайты имеют отличную структуру, и наличие XML-карты сайта не принесет никакого вреда. Поэтому я всегда советую иметь карту сайта XML на вашем сайте.

#9. Мета данные Title и Description

Мета данные Title и Description описывают содержимое страницы для поисковых роботов, из этой же информации поисковые системы формируют сниппет. Часто случается что меда данные либо полностью отсутствуют на страницах, либо дублируются для многих страниц, что понижает качество сайта в глазах поисковых систем.

Таким образом весьма важно следить и заполнять метаданные Title и Description. Яндекс уведомляет об этом: «На многих страницах вашего сайта отсутствуют или некорректно заполнены мета-теги Description. Это может негативно повлиять на представление сайта в результатах поиска.«

#10. Международные сайты используют hreflang

Если ваш сайт ориентирован более чем на одну страну или страны, в которых говорят на одном и том же языке, поисковым системам нужна небольшая помощь, чтобы понять, к каким странам или языку вы пытаетесь обратиться. Если вы им поможете, они могут показать людям ваш сайт для своей области в результатах поиска.

Теги Hreflang помогут вам сделать это. Вы можете определить для какой страны и для какого языка она предназначена. Это также решает возможную проблему дублированного контента: даже если ваш сайт для России показывает одинаковый и для Казахстана, ПС будут знать, что он написан для другого региона.

Хотите узнать больше?

Вот вы узнали, что это такое техническая SEO оптимизация в двух словах. Это уже много, и даже достаточно, чтобы исправить грубые ошибки веб сайта. Впрочем, это далеко не все улучшения, касающиеся технической стороны SEO, об этом можно рассказать гораздо больше! И в этом вам поможет практическое применение этих советов и новые публикации нашего блога.

100%
Актуальность

Если Вы согласны или не согласны с содержанием данного материала, просим Вас оставить свой отзыв или проголосовать.

Остались вопросы? Задайте его удобным для вас способом:

Наши контакты:

+7 (925) 370-97-50

+7 (968) 453-66-17

support@webmaster18.ru

Сделаем вместе лучшим интернет!

  • Актуальность
1 Комментарий
  1. Алевтина говорит

    Да, иногда попадаются уникальные шедевры, особенно после того как сайт передавали из рук в руки. Там и Robots.txt, и Title, и Description, всё «уникальное», каждый Вебмастер… ну как мог.

Оставьте ответ

Добавить свой вопрос!

Вы получите уведомление по Email, когда вам ответят/обновят!

+ = Ответьте вы человек или спам-робот?