SEO оптимизация сайта

Базовая оптимизация сайта

Что такое базовое SEO? Многие при разработке нового сайта хотят получить готовый сайт с базовым SEO. При этом, мало кто из них понимает, что такое базовая оптимизация. Разбор списка работ по базовой оптимизации в статье.

Многие при разработке нового сайта хотят получить красивый и оптимизированный сайт. И часто это звучит так: «Нам нужен современный сайт с базовой SEO оптимизацией». При этом, мало кто из них понимает, что такое базовая оптимизация и какие работы в неё входят.

Базовая оптимизация сайта — это первичные обязательные работы по сайту для оптимизации сайта под поисковые системы Яндекс, Google и пр. Базовое SEO нужно для корректной индексации и показа сайта в поисковой выдаче.

Некачественные услуги базовой оптимизации

Из-за того, что многие клиенты не понимают, что из себя представляет базовое SEO, различные веб-студии иногда предлагают работы, которые не относятся к рекомендациям поисковых систем, а зачастую и вовсе могут привести к некорректной индексации сайта.

А иногда, веб-студия не имеет даже в штате SEO-специалиста, который должен составить ТЗ и проконтролировать корректное внедрение всех работ по базовой оптимизации.

Как итог, все работы базовой оптимизации таких веб-студий сводятся к «добавить». А про настройку всех инструментов забывают.

Какие популярные работы могут предложить некомпетентные «специалисты»?

  1. Установка бесплатных SEO-плагинов. Сам по себе плагин бесполезен, если не настроить его. Важно иметь опыт работы с подобными плагинами, чтобы корректно его настроить. Установить и забыть – так не работает;
  2. Добавление сайта в Яндекс.Вебмастер и Google Search Console. Иногда предлагают и Mail.ru. А что дальше? Важно понять, что добавление сайта в вебмастера поисковых систем ничего не даст без настройки этих вебмастеров;
  3. Добавление файлов robots.txt и sitemap.xml. Безусловно это нужно делать, но нужно эти файлы корректно сформировать. Для каждого сайта и каждой CMS системы следует прописывать индивидуальные рекомендации. Обычные веб-студии, не имеющие опыта в SEO-оптимизации, не смогут это сделать правильно;
  4. Подключение веб-аналитики: Яндекс.Метрика и Google Analytics. Сами по себе коды аналитики только собирают данные посетителей. Важно не только их установить, но и настроить цели, подготовить нужные отчеты данных;
  5. Установка мета-тегов без сбора семантики. Мета-теги Title, Description нужно устанавливать, но они должны быть релевантными. То есть, соответствовать поисковым запросам. Сбор поисковых запросов – важная часть базовой оптимизации. Для базовой оптимизации достаточно собрать по каждой услуге или товару по 3-5 запросов, чтобы понимать, каким образом сформировать мета-теги.

Правильная базовая оптимизация

В «Цифровом элементе» есть свой SEO-отдел. Каждый SEO-специалист принимает активное участие в развитие проекта от начала до конца.

Как проходит процесс базовой оптимизации у нас:

  1. В самом начале проводится аудит сайта заказчика. По итогу аудита выявляется список работ по базовой оптимизации. Аудит является неотъемлемой частью базового SEO, т.к. именно он дает понимание, что нужно сделать и сколько на это потребуется времени. Подробнее о аудите.
  2. На основании выявленных проблем в аудите составляется ТЗ по каждому пункту аудита и отдается в отдел разработки. Часть работ, касающихся поисковой выдачи, выполняются SEO-специалистом. Все рекомендации внедряются в течение месяца под контролем начальника отдела разработки и начальника SEO-отдела;
  3. Когда все работы успешно выполнены, мы проводим повторный аудит для выявления возможных ошибок, недоработок. И устраняем их до момента открытия индексации сайта поисковыми роботами.

Что входит в базовую оптимизацию

1. Аудит

1.1. Анализ статистических показателей доменного имени. В процессе анализа нужно обратить внимание на текущее состояние домена, расположение хостинга сайта, нахождение домена под фильтром поисковых систем. При переносе нового сайта на боевой домен может возникнуть ситуация, что сайт находится под фильтром и хостинг расположен в Лондоне, а компания находится в Москве. Важно присутствие компании в регионе, где планируется спрос на её услуги.

Подробнее о фильтрах поисковых систем в нашей статье.

1.2 Анализ скорости работы сайта. Как для мобильной версии, так и версии для компьютеров. А помимо этого нужно проверить сайт на стрессоустойчивость – стойкость хостинга на момент наплыва посетителей. В этой статье мы рассказываем о влиянии скорости загрузки на сайт.

1.3. Проверяем корректность формирования фавикона (favicon) — иконки сайта в поисковой выдаче. Иконка является частью бренда компании и влияет на её узнаваемость. Подробнее о привлечении дополнительного внимания в поисковой выдаче можно почитать в нашей статье.

1.4. Анализ файла robots.txt. Этот файл говорит о том, что не нужно сканировать поисковому роботу. Неправильно формирование этого файла может добавить «мусорных» страниц (админка, корзина и пр.) или страниц технического характера в поисковую выдачу. Для каждого сайта должен быть персонализированный robots.txt. Нельзя сказать заранее, какие директивы стоит прописать в файл.

1.5. Анализ HTML карты сайта. Когда ресурс очень большой, может понадобиться HTML карта сайта — она упрощает понимание структуры сайта пользователям. Она не является обязательной, но может сэкономить время пользователям.

1.6. Анализ XML карты. XML карта должна содержать все необходимые ссылки для поискового робота, которые нужно проиндексировать. Содержание этого файла влияет на индексацию страниц, поэтому важно указать все ссылки, которые нужно обойти поисковому роботу. Подробнее о XML карте можно почитать в нашей статье.

1.7. Анализ валидности HTML кода. Валидация HTML – это проверка соответствия HTML-кода определенным правилам и стандартам. Если ошибок нет, то сайт будет корректно отображаться в любых браузерах, а поисковому роботу будет проще понять, что это за элемент на сайте. Поисковые системы отдают предпочтение сайтам с валидным HTML-кодом.

1.8. Анализ корректной обработки 404 ошибки. Важно, чтобы 404 ошибка обрабатывалась в каждом разделе корректно, иначе в поисковую выдачу могут попасть лишние страницы или страницы-дубли, которых не должны быть там. Подробнее о 404 ошибке можно почитать в нашей статье.

1.9. Анализ SSL сертификата. Защищенное соединение (HTTPS) важно для поисковых систем. Так они смогут понять, что сайт не будет подвержен различным атакам мошенников, которые могут украсть ваши данные при заполнении и отправки форм обратной связи или оплаты покупок онлайн.

1.10. Анализ на наличие дублей страниц. Содержит в себе полноценный анализ дублей страниц, как с технической точки зрения, так и с контентной. Подробнее о дублях страниц читайте в нашей статье.

1.11. Анализ спама. Проверяем нет ли спама в виде перечисления ключевых слов или повторов одного и того же текста на страницах сайта. При разработке сайта с нашей стороны мы не допускаем такое, т.к. обычно наполнением сайта занимается заказчик.

1.12. Анализ использования Flash и Javascript в навигации сайта. Поисковые роботы сканируют страницы сайта посредством установленных ссылок на сайте, то есть через навигацию. Если вы используете Flash или Javascript, то это может затруднить сканирование сайта.

1.13. Анализ использования noindex и nofollow. Конструкции noindex и nofollow позволяют запретить индексацию некоторых частей сайта поисковым роботам. И важно открыть те части, которые должны сканироваться поисковыми роботами или наоборот – закрыть.

Например, некоторые внешние ссылки стоит закрывать от поисковых роботов. Изначально это было придумано для закрытия индексации ссылок в комментариях от пользователей, чтобы поисковой робот не обращал внимание на ссылки, размещенные в комментариях.

И поисковые роботы по-разному смотрят на эти конструкции: тег noindex используется роботом Яндекса, а атрибут nofollow – роботом Google.

1.14. Анализ скрытого текста. Поисковые системы негативно относятся к сайтам, которые пытаются манипулировать ранжированием, скрывая текст и делая его видимым только для поисковых роботов. Например, сделать белый текст на белом фоне – это также является скрытым текстом. Такие сайты рискуют попасть под фильтр поисковых систем.

1.15. Проверка отсутствия рекламы. Показывать рекламу можно, но, если вы сами так решили. При разработке сайта с нашей стороны мы гарантируем отсутствие рекламы, но, если сайт разработали не мы, этот пункт будет обязательный.

1.16. Анализ корректности внутренних ссылок. Внутренние ссылки могут быть некорректными: вести на редиректы или на 404 ошибки — битые ссылки, или быть не относительными). Из-за этого страдает ссылочный вес страницы. Ссылочный вес учитывает поисковая система, чтобы понимать, какая страница является имеет значительный вес.

Например, большинство страниц сайта ссылаются на главную страницу посредством навигации, именно поэтому главная страница имеет больший вес по сравнению с другими страницами сайта и привлекает больше всего посетителей.

1.17. Анализ мета-тегов Title, Description. Первичная оценка установки мета-тегов. Проверить где отсутствуют или дублируются. А после сбора первичного семантического ядра их можно сформировать и установить. Главное, чтобы была возможность смены мета-тегов через административную часть сайта без привлечения разработчиков.

1.18. Оценка оптимизации графики. В рамках базовой оптимизации важно, чтобы изображения на сайте были оптимизированы. Как правило, неоптимизированные изображения сильно замедляют загрузку страниц из-за их «большого» веса. Рекомендуемый вес изображения – до 300 КБ, при наличии нескольких изображений – до 100 КБ. А вообще, чем меньше, тем лучше.

Читать статью  Внешняя оптимизация сайта

Используйте плагины fancybox или подобные, которые позволяют загружать изображение в увеличенном виде только при взаимодействии с изображением. Таким образом, пользователю не потребуется загружать качественное изображение сразу, а лишь тогда, когда он захочет его посмотреть в увеличенном виде.

1.19. Анализ атрибутов ALT и TITLE для изображений. У каждого изображения должны быть атрибуты ALT и TITLE. С помощью атрибута ALT поисковой робот быстрее поймет, что изображено на картинке, не прибегая к анализу с помощью нейросети, а атрибут TITLE поможет понять пользователю, если он наведен на неё мышь.

1.20. Добавление и настройка вебмастера поисковой системы Яндекс. Ничего сложного там нет, пройдитесь по пунктам навигации вебмастера и увидите, что все настройки достаточно простые, а результат настройки – это отсутствие ошибок индексации сайта. Перейти в вебмастер Яндекс

1.21. Добавление и настройка вебмастера поисковой системы Google. Более простой вебмастер, нежели от Яндекс и все элементы — как на ладони. Настраивать, по большому счету, там практически нечего, но анализ данных поможет больше понять текущие ошибки в микроразметки, адаптивности сайта и пр. моменты индексации. Перейти в вебмастер Google

1.22. Анализ микроразметки Open Graph. Микроразметка Open Graph позволяет формирования превью ссылки в социальных сетях и мессенджерах. Подробнее о Open Graph.

1.23. Анализ микроразметки Schema.org. Микроразметка Schema.org позволяет формировать расширенное описание в поисковой выдаче. Подробнее о Schema.org.

1.24. Анализ настройки счетчиков статистики. Проверка наличия счетчиков Яндекс.Метрики и Google Analytics и составления списка работ по их настройке. Настроить нужно цели, отчеты, сегменты, которые интересно просматривать, данные, которые будет фильтровать метрика и пр.

Дальнейшая аналитика счетчиков метрики — это отдельная большая работа, которая требует определенных знаний. Рекомендуем прочитать, на что обратить внимание при анализе Яндекс.Метрики.

1.25. Проверка наличия вирусов. При разработке сайта с нашей стороны мы гарантируем отсутствие вирусов, но, если сайт разработали не мы, этот пункт будет обязательный.

1.26. Тестирование кроссбраузерности. Сайт должен корректно отображаться и работать в браузерах Mozilla, Chrome, Opera и Safari. При разработке сайта с нашей стороны, мы проверяем это еще на этапе разработки, но, если сайт разработали не мы, этот пункт будет обязательный.

1.27. Анализ мобильной версии сайта. Наличие мобильной версии сайта и её корректная работа – важная часть имиджа компании. Без мобильной версии сложно представить, как сайтом будут пользоваться люди со смартфоном или планшетом. При разработке сайта с нашей стороны мы также проверяем это на этапе разработке, но, если сайт разработали не мы, этот пункт будет обязательный.

Важно не только наличие мобильной версии и её корректная работа, но и аудитория, которая будет ей пользоваться. Сама по себе адаптивная версия может быть неудобна или непонятна простому пользователю, поэтому акцентируйте внимание на построение правильной и удобной для своей аудитории мобильной версии.

1.28. Анализ корректной работы форм обратной связи, форм заказа. Формы должны давать обратную связь и корректно работать. При разработке сайта с нашей стороны мы также проверяем это на этапе разработке, но, если сайт разработали не мы, этот пункт будет обязательный.

1.29. Проверка наличия аффилированных сайтов. Аффилированные сайты – это ресурсы, которые были определены поисковыми системами, как сайты одной фирмы. Когда сайты попадают под этот критерий, продвижение обоих ресурсов в поисковых системах будет затруднительно. И даже базовая оптимизация не поможет ранжироваться обоим ресурсам по одним и тем же поисковым запросам.

1.30. Проверка и анализ настройки Яндекс.Справочник и Google Мой бизнес. Важно, чтобы карточка организации на картах поисковых систем соответствовала компании, её услугам и товарам. Как добавить организацию в эти сервисы читайте в нашей статье.

1.31. Анализ текстового контента на сайте. Проверка уникальности каждого текста на сайте и оценка содержания каждого заголовка. Дополнительно, нужно проверить иерархию H1-H6 заголовков. Заголовки H1-H6 — важный текстовый элемент, который помогает поисковому роботу определить смысл последующего текста и её структуру.

1.32. Анализ мультиязычности. Проверка правильной установки мультиязычности сайта. В head следует добавить альтернативные версии доступные на другом языке. Если сайт доступен на другом языке, а таких тегов нет, то их нужно установить.

2. Сбор семантического ядра

2.1. Формирование списка запросов. Подбор запросов согласно тематики и бизнеса. Анализ спроса согласно услугам и товарам. Подробнее о сборе семантического ядра читайте в нашей статье.

2.2. Обработка и кластеризация получившегося списка запросов. Чистка списка от «левых» и не подходящих запросов. При использовании программы KeyCollector или подобных, в список запросов могут попасть запросы, которые вам не будут нужны.

2.3. Распределение запросов по группам, а групп – по страницам. И получаем для каждой страницы свой список запросов, по которым можно продвигаться. Конечно, это далеко не проработанная семантика, но она должна являться неким фундаментом для дальнейшей проработки структуры сайта и услуг или товаров в целом.

2.4. Подготовка рекомендаций по изменению структуры сайта. Бывает так, что сайт разработали, а базовую оптимизацию нужно делать уже после. Исходя из сбора семантики может потребоваться корректировка структуры сайта. В идеале, конечно же, разработку нового сайта нужно планировать с предпроектного обследования, где заранее разрабатывается необходимая структура для сайта. Подробнее у наших менеджеров.

Но, как правило, изменение структуры – трудоемкая задача. Поэтому её изменение потребует длительного времени.

3. Внедрение

На каждом сайте можно найти что подправить, доработать. И каждый раз — это разный список работ.

Только после аудита становится понятно, что нужно доработать, но из-за того, что заранее нельзя предугадать конечный список работ, нельзя сказать стоимость доработки всех пунктов.

Поэтому, внедрение рекомендаций оценивается отдельно и запускаются в работу после согласования с клиентом.

Заключение

Мы рассмотрели основные пункты базовой поисковой оптимизации сайта и надеемся, что у вас сложилось понимание, что базовая оптимизация – это непростое, но достаточно понятное дело. К работе над минимальным SEO потребуется опыт и внимательность.

В нашем портфолио уже многие сайты получили базовую оптимизацию после разработки и отлично себя показывают после переноса сайта на боевое доменное имя. Закажите базовую оптимизацию прямо сейчас и получите максимальное соответствие рекомендациям поисковых систем.

Мне нравится

Мне не нравится

Базовая оптимизация сайта

Многие при разработке нового сайта хотят получить красивый и оптимизированный сайт. И часто это звучит так: «Нам нужен современный сайт с базовой SEO оптимизацией». При этом, мало кто из них понимает, что такое базовая оптимизация и какие работы в неё входят. Базовая оптимизация сайта — это первичные обязательные работы по сайту для оптимизации сайта под поисковые системы Яндекс, Google и пр. Базовое SEO нужно для корректной индексации и показа сайта в поисковой выдаче. Некачественные услуги базовой оптимизации Из-за того, что многие клиенты не понимают, что из себя представляет базовое SEO, различные веб-студии иногда предлагают работы, которые не относятся к рекомендациям поисковых систем, а зачастую и вовсе могут привести к некорректной индексации сайта. А иногда, веб-студия не имеет даже в штате SEO-специалиста, который должен составить ТЗ и проконтролировать корректное внедрение всех работ по базовой оптимизации. Как итог, все работы базовой оптимизации таких веб-студий сводятся к «добавить». А про настройку всех инструментов забывают. Какие популярные работы могут предложить некомпетентные «специалисты»? Установка бесплатных SEO-плагинов. Сам по себе плагин бесполезен, если не настроить его. Важно иметь опыт работы с подобными плагинами, чтобы корректно его настроить. Установить и забыть – так не работает; Добавление сайта в Яндекс.Вебмастер и Google Search Console. Иногда предлагают и Mail.ru. А что дальше? Важно понять, что добавление сайта в вебмастера поисковых систем ничего не даст без настройки этих вебмастеров; Добавление файлов robots.txt и sitemap.xml. Безусловно это нужно делать, но нужно эти файлы корректно сформировать. Для каждого сайта и каждой CMS системы следует прописывать индивидуальные рекомендации. Обычные веб-студии, не имеющие опыта в SEO-оптимизации, не смогут это сделать правильно; Подключение веб-аналитики: Яндекс.Метрика и Google Analytics. Сами по себе коды аналитики только собирают данные посетителей. Важно не только их установить, но и настроить цели, подготовить нужные отчеты данных; Установка мета-тегов без сбора семантики. Мета-теги Title, Description нужно устанавливать, но они должны быть релевантными. То есть, соответствовать поисковым запросам. Сбор поисковых запросов – важная часть базовой оптимизации. Для базовой оптимизации достаточно собрать по каждой услуге или товару по 3-5 запросов, чтобы понимать, каким образом сформировать мета-теги. Правильная базовая оптимизация В «Цифровом элементе» есть свой SEO-отдел. Каждый SEO-специалист принимает активное участие в развитие проекта от начала до конца. Как проходит процесс базовой оптимизации у нас: В самом начале проводится аудит сайта заказчика. По итогу аудита выявляется список работ по базовой оптимизации. Аудит является неотъемлемой частью базового SEO, т.к. именно он дает понимание, что нужно сделать и сколько на это потребуется времени. Подробнее о аудите. На основании выявленных проблем в аудите составляется ТЗ по каждому пункту аудита и отдается в отдел разработки. Часть работ, касающихся поисковой выдачи, выполняются SEO-специалистом. Все рекомендации внедряются в течение месяца под контролем начальника отдела разработки и начальника SEO-отдела; Когда все работы успешно выполнены, мы проводим повторный аудит для выявления возможных ошибок, недоработок. И устраняем их до момента открытия индексации сайта поисковыми роботами. Что входит в базовую оптимизацию 1. Аудит 1.1. Анализ статистических показателей доменного имени. В процессе анализа нужно обратить внимание на текущее состояние домена, расположение хостинга сайта, нахождение домена под фильтром поисковых систем. При переносе нового сайта на боевой домен может возникнуть ситуация, что сайт находится под фильтром и хостинг расположен в Лондоне, а компания находится в Москве. Важно присутствие компании в регионе, где планируется спрос на её услуги. Подробнее о фильтрах поисковых систем в нашей статье. 1.2 Анализ скорости работы сайта. Как для мобильной версии, так и версии для компьютеров. А помимо этого нужно проверить сайт на стрессоустойчивость – стойкость хостинга на момент наплыва посетителей. В этой статье мы рассказываем о влиянии скорости загрузки на сайт. 1.3. Проверяем корректность формирования фавикона (favicon) — иконки сайта в поисковой выдаче. Иконка является частью бренда компании и влияет на её узнаваемость. Подробнее о привлечении дополнительного внимания в поисковой выдаче можно почитать в нашей статье. 1.4. Анализ файла robots.txt. Этот файл говорит о том, что не нужно сканировать поисковому роботу. Неправильно формирование этого файла может добавить «мусорных» страниц (админка, корзина и пр.) или страниц технического характера в поисковую выдачу. Для каждого сайта должен быть персонализированный robots.txt. Нельзя сказать заранее, какие директивы стоит прописать в файл. 1.5. Анализ HTML карты сайта. Когда ресурс очень большой, может понадобиться HTML карта сайта — она упрощает понимание структуры сайта пользователям. Она не является обязательной, но может сэкономить время пользователям. 1.6. Анализ XML карты. XML карта должна содержать все необходимые ссылки для поискового робота, которые нужно проиндексировать. Содержание этого файла влияет на индексацию страниц, поэтому важно указать все ссылки, которые нужно обойти поисковому роботу. Подробнее о XML карте можно почитать в нашей статье. 1.7. Анализ валидности HTML кода. Валидация HTML – это проверка соответствия HTML-кода определенным правилам и стандартам. Если ошибок нет, то сайт будет корректно отображаться в любых браузерах, а поисковому роботу будет проще понять, что это за элемент на сайте. Поисковые системы отдают предпочтение сайтам с валидным HTML-кодом. 1.8. Анализ корректной обработки 404 ошибки. Важно, чтобы 404 ошибка обрабатывалась в каждом разделе корректно, иначе в поисковую выдачу могут попасть лишние страницы или страницы-дубли, которых не должны быть там. Подробнее о 404 ошибке можно почитать в нашей статье. 1.9. Анализ SSL сертификата. Защищенное соединение (HTTPS) важно для поисковых систем. Так они смогут понять, что сайт не будет подвержен различным атакам мошенников, которые могут украсть ваши данные при заполнении и отправки форм обратной связи или оплаты покупок онлайн. 1.10. Анализ на наличие дублей страниц. Содержит в себе полноценный анализ дублей страниц, как с технической точки зрения, так и с контентной. Подробнее о дублях страниц читайте в нашей статье. 1.11. Анализ спама. Проверяем нет ли спама в виде перечисления ключевых слов или повторов одного и того же текста на страницах сайта. При разработке сайта с нашей стороны мы не допускаем такое, т.к. обычно наполнением сайта занимается заказчик. 1.12. Анализ использования Flash и Javascript в навигации сайта. Поисковые роботы сканируют страницы сайта посредством установленных ссылок на сайте, то есть через навигацию. Если вы используете Flash или Javascript, то это может затруднить сканирование сайта. 1.13. Анализ использования noindex и nofollow. Конструкции noindex и nofollow позволяют запретить индексацию некоторых частей сайта поисковым роботам. И важно открыть те части, которые должны сканироваться поисковыми роботами или наоборот – закрыть. Например, некоторые внешние ссылки стоит закрывать от поисковых роботов. Изначально это было придумано для закрытия индексации ссылок в комментариях от пользователей, чтобы поисковой робот не обращал внимание на ссылки, размещенные в комментариях. И поисковые роботы по-разному смотрят на эти конструкции: тег noindex используется роботом Яндекса, а атрибут nofollow – роботом Google. 1.14. Анализ скрытого текста. Поисковые системы негативно относятся к сайтам, которые пытаются манипулировать ранжированием, скрывая текст и делая его видимым только для поисковых роботов. Например, сделать белый текст на белом фоне – это также является скрытым текстом. Такие сайты рискуют попасть под фильтр поисковых систем. 1.15. Проверка отсутствия рекламы. Показывать рекламу можно, но, если вы сами так решили. При разработке сайта с нашей стороны мы гарантируем отсутствие рекламы, но, если сайт разработали не мы, этот пункт будет обязательный. 1.16. Анализ корректности внутренних ссылок. Внутренние ссылки могут быть некорректными: вести на редиректы или на 404 ошибки — битые ссылки, или быть не относительными). Из-за этого страдает ссылочный вес страницы. Ссылочный вес учитывает поисковая система, чтобы понимать, какая страница является имеет значительный вес. Например, большинство страниц сайта ссылаются на главную страницу посредством навигации, именно поэтому главная страница имеет больший вес по сравнению с другими страницами сайта и привлекает больше всего посетителей. 1.17. Анализ мета-тегов Title, Description. Первичная оценка установки мета-тегов. Проверить где отсутствуют или дублируются. А после сбора первичного семантического ядра их можно сформировать и установить. Главное, чтобы была возможность смены мета-тегов через административную часть сайта без привлечения разработчиков. 1.18. Оценка оптимизации графики. В рамках базовой оптимизации важно, чтобы изображения на сайте были оптимизированы. Как правило, неоптимизированные изображения сильно замедляют загрузку страниц из-за их «большого» веса. Рекомендуемый вес изображения – до 300 КБ, при наличии нескольких изображений – до 100 КБ. А вообще, чем меньше, тем лучше. Используйте плагины fancybox или подобные, которые позволяют загружать изображение в увеличенном виде только при взаимодействии с изображением. Таким образом, пользователю не потребуется загружать качественное изображение сразу, а лишь тогда, когда он захочет его посмотреть в увеличенном виде. 1.19. Анализ атрибутов ALT и TITLE для изображений. У каждого изображения должны быть атрибуты ALT и TITLE. С помощью атрибута ALT поисковой робот быстрее поймет, что изображено на картинке, не прибегая к анализу с помощью нейросети, а атрибут TITLE поможет понять пользователю, если он наведен на неё мышь. 1.20. Добавление и настройка вебмастера поисковой системы Яндекс. Ничего сложного там нет, пройдитесь по пунктам навигации вебмастера и увидите, что все настройки достаточно простые, а результат настройки – это отсутствие ошибок индексации сайта. Перейти в вебмастер Яндекс 1.21. Добавление и настройка вебмастера поисковой системы Google. Более простой вебмастер, нежели от Яндекс и все элементы — как на ладони. Настраивать, по большому счету, там практически нечего, но анализ данных поможет больше понять текущие ошибки в микроразметки, адаптивности сайта и пр. моменты индексации. Перейти в вебмастер Google 1.22. Анализ микроразметки Open Graph. Микроразметка Open Graph позволяет формирования превью ссылки в социальных сетях и мессенджерах. Подробнее о Open Graph. 1.23. Анализ микроразметки Schema.org. Микроразметка Schema.org позволяет формировать расширенное описание в поисковой выдаче. Подробнее о Schema.org. 1.24. Анализ настройки счетчиков статистики. Проверка наличия счетчиков Яндекс.Метрики и Google Analytics и составления списка работ по их настройке. Настроить нужно цели, отчеты, сегменты, которые интересно просматривать, данные, которые будет фильтровать метрика и пр. Дальнейшая аналитика счетчиков метрики — это отдельная большая работа, которая требует определенных знаний. Рекомендуем прочитать, на что обратить внимание при анализе Яндекс.Метрики. 1.25. Проверка наличия вирусов. При разработке сайта с нашей стороны мы гарантируем отсутствие вирусов, но, если сайт разработали не мы, этот пункт будет обязательный. 1.26. Тестирование кроссбраузерности. Сайт должен корректно отображаться и работать в браузерах Mozilla, Chrome, Opera и Safari. При разработке сайта с нашей стороны, мы проверяем это еще на этапе разработки, но, если сайт разработали не мы, этот пункт будет обязательный. 1.27. Анализ мобильной версии сайта. Наличие мобильной версии сайта и её корректная работа – важная часть имиджа компании. Без мобильной версии сложно представить, как сайтом будут пользоваться люди со смартфоном или планшетом. При разработке сайта с нашей стороны мы также проверяем это на этапе разработке, но, если сайт разработали не мы, этот пункт будет обязательный. Важно не только наличие мобильной версии и её корректная работа, но и аудитория, которая будет ей пользоваться. Сама по себе адаптивная версия может быть неудобна или непонятна простому пользователю, поэтому акцентируйте внимание на построение правильной и удобной для своей аудитории мобильной версии. 1.28. Анализ корректной работы форм обратной связи, форм заказа. Формы должны давать обратную связь и корректно работать. При разработке сайта с нашей стороны мы также проверяем это на этапе разработке, но, если сайт разработали не мы, этот пункт будет обязательный. 1.29. Проверка наличия аффилированных сайтов. Аффилированные сайты – это ресурсы, которые были определены поисковыми системами, как сайты одной фирмы. Когда сайты попадают под этот критерий, продвижение обоих ресурсов в поисковых системах будет затруднительно. И даже базовая оптимизация не поможет ранжироваться обоим ресурсам по одним и тем же поисковым запросам. 1.30. Проверка и анализ настройки Яндекс.Справочник и Google Мой бизнес. Важно, чтобы карточка организации на картах поисковых систем соответствовала компании, её услугам и товарам. Как добавить организацию в эти сервисы читайте в нашей статье. 1.31. Анализ текстового контента на сайте. Проверка уникальности каждого текста на сайте и оценка содержания каждого заголовка. Дополнительно, нужно проверить иерархию H1-H6 заголовков. Заголовки H1-H6 — важный текстовый элемент, который помогает поисковому роботу определить смысл последующего текста и её структуру. 1.32. Анализ мультиязычности. Проверка правильной установки мультиязычности сайта. В head следует добавить альтернативные версии доступные на другом языке. Если сайт доступен на другом языке, а таких тегов нет, то их нужно установить. 2. Сбор семантического ядра 2.1. Формирование списка запросов. Подбор запросов согласно тематики и бизнеса. Анализ спроса согласно услугам и товарам. Подробнее о сборе семантического ядра читайте в нашей статье. 2.2. Обработка и кластеризация получившегося списка запросов. Чистка списка от «левых» и не подходящих запросов. При использовании программы KeyCollector или подобных, в список запросов могут попасть запросы, которые вам не будут нужны. 2.3. Распределение запросов по группам, а групп – по страницам. И получаем для каждой страницы свой список запросов, по которым можно продвигаться. Конечно, это далеко не проработанная семантика, но она должна являться неким фундаментом для дальнейшей проработки структуры сайта и услуг или товаров в целом. 2.4. Подготовка рекомендаций по изменению структуры сайта. Бывает так, что сайт разработали, а базовую оптимизацию нужно делать уже после. Исходя из сбора семантики может потребоваться корректировка структуры сайта. В идеале, конечно же, разработку нового сайта нужно планировать с предпроектного обследования, где заранее разрабатывается необходимая структура для сайта. Подробнее у наших менеджеров. Но, как правило, изменение структуры – трудоемкая задача. Поэтому её изменение потребует длительного времени. 3. Внедрение На каждом сайте можно найти что подправить, доработать. И каждый раз — это разный список работ. Только после аудита становится понятно, что нужно доработать, но из-за того, что заранее нельзя предугадать конечный список работ, нельзя сказать стоимость доработки всех пунктов. Поэтому, внедрение рекомендаций оценивается отдельно и запускаются в работу после согласования с клиентом. Заключение Мы рассмотрели основные пункты базовой поисковой оптимизации сайта и надеемся, что у вас сложилось понимание, что базовая оптимизация – это непростое, но достаточно понятное дело. К работе над минимальным SEO потребуется опыт и внимательность. В нашем портфолио уже многие сайты получили базовую оптимизацию после разработки и отлично себя показывают после переноса сайта на боевое доменное имя. Закажите базовую оптимизацию прямо сейчас и получите максимальное соответствие рекомендациям поисковых систем.

Читать статью  SEO-отчеты для заказчика: что важно указывать и как это делаем мы

Россия , Челябинская область , Челябинск , ул. Энтузиастов, 2, оф. 200 Телефон: +7 (351) 220-45-35

SEO оптимизация сайта

SEO аудит сайта

Внешняя SEO оптимизация – под внешней оптимизацией сайта понимают наращивание ссылочной массы.

Сейчас, когда ведётся постоянная борьба поисковиков с некачественными ссылками, необходимо повышать качество внешних ссылок.

К качественным ссылкам можно отнести:

  • Хорошие тематические интернет-ресурсы
  • Регистрацию в поисковых системах и профильных интернет-каталогах
  • Активность на интернет-ресурсах, таких как Facebook, ВКонтакте, Яндекс Дзен

Что такое SEО оптимизация

SEO (Search Engine Optimization, SEO) – это комплекс мер по оптимизации сайта и отдельных его страниц, проводимый для поднятия позиций сайта в выдаче поисковых систем по определённым фразам, называемым ключевыми фразами, с целью увеличения сетевого траффика, с целью поиска потенциальных клиентов или покупателей для коммерческих сайтов, расширения круга читателей для информационных сайтов, с последующей монетизацией.

Чем выше сайт находится в результатах поиска, тем большее количество пользователей получает информацию о товарах и услугах, предоставленных на сайте той или иной компании. Для новостных и информационных сайтов – это увеличение количества читателей.

Факторы влияющие на SEO оптимизацию

На сегодняшний день существует более 800 факторов, влияющих на позиции сайтов в поисковой выдаче, но наиболее существенным фактором всё равно остаётся CTR.

Что такое CTR

CTR – это соотношение количества показов отдельной страницы сайта в поисковой выдаче к количеству кликов этой страницы. То есть, чем интереснее страница, чем она более посещаема, тем выше она будет находиться в результатах поиска.

Тем не менее, алгоритмы поисковиков постоянно совершенствуются, поэтому важнейшим фактором для SEO является постоянное совершенствование технического состояния сайта.

Работы по SEO оптимизации можно разделить на внешнюю и внутреннюю оптимизацию.

Читать статью  Оптимизация верстки

Внутренняя SEO оптимизация

Внутренняя SEO оптимизация – это комплекс работ, направленных на улучшение функционала сайта, на соответствие сайта современным техническим требованиям, предъявляемым к сайтам, а именно:

— Повышение релевантности страниц сайта за счет работ по созданию современного контента (релевантность – это соответствие содержимого страницы её названию), т.е. повышение качества самого содержимого страницы

— Оптимизация изображений на сайте

— Создание вспомогательных страниц для увеличения внутренней ссылочной массы

— Устранение технических ошибок (дубли страниц, битые ссылки, увеличение скорости загрузки сайта)

— Улучшение внутренней структуры ресурса ( Robots.txt , Sitemap.xml )

— Создание целей на сайте, с последующим их отслеживанием при помощи Яндекс.Метрики

— Повышение производительности сайта за счёт установки более современной версии PHP

— Ускорение сайта за счёт использования КЭШ

— Повышение безопасности сайта за счёт установки защищенного режима SSL ключа, то есть использование https протокола вместо устаревшего протокола http

— Добавление форм обратной связи, форм записи на приём, связи с социальными сетями и WhatsApp

— Создание личного кабинета клиента сайта

— Применение эквайринга – оплаты товаров и услуг банковскими картами

Внутренняя SEO оптимизация – это максимально трудоемкий процесс, поскольку её необходимо производить постоянно, чтобы соответствовать всем современным требованиям, которые поисковики предъявляют к сайтам на сегодняшний день.

Внешняя SEO оптимизация

История SEO

Зарождение до 1998 года
Ссылочный период (1998-2009)
Эра Матрикснет
Бессылочный период (с 2012 года)
Современное SEO
Зарождение до 1998 года

SEO столько же лет, сколько и Интернету. Поскольку поисковые алгоритмы были крайне несовершенны, то и найти что-то полезное было крайне сложно. На первые места в поисковой выдаче попадали самые неинтересные статьи, а извлечь из них полезную информацию было невозможно. Это были даже не статьи, а наборы ключевых слов вперемешку с ключевыми фразами. Это происходило в середине 90-х годов. В Интернете главную роль играли Yahoo и Рамблер.

Ссылочный период (1998-2009)

В 1998 году Google положил начало ссылочному периоду. Он внедрил ссылочный алгоритм PageRank: “Кукушка хвалит петуха за то, что хвалит он кукушку”. Сайты тут же начали обмениваться ссылками. Наступила эра увеличения перекрёстных ссылок. Чем с большего количества ресурсов шло ссылок на сайт, тем больше этот сайт продвигался в поисковых системах. В 1999 году Яндекс ввел алгоритм с использованием ТИЦ (Тематический индекс цитирования).

Совершенно очевидно, что в этот период интернет-поиск стал бурно развиваться, но вместе с частичным упорядочением в интернет-выдаче стало появляться очень много нетематических статей.

Например, на запрос “Аренда автомобилей” показывался сайт по теме “Ремонт часов”.

SEO стало очень доходным бизнесом. Все обменивались ссылками. Поняв это, создатели алгоритмов разрезали их пополам. То есть, если кто-то с высоким ТИЦ ссылался на вас, то это «плюс» вам, а ему, наоборот, «минус». Произошло это в 2005 году. В это же время, и даже чуть раньше, началась эра создания сайтов-помоек, исключительной задачей которых была простановка ссылок с них на другие ресурсы. И продолжалось это до 2009 года.

Эра Матрикснет

В 2009 году Яндекс вводит новый алгоритм машинного обучения Матрикснет, который позволяет учитывать поведенческий фактор пользователя и использовать его в ранжировании и показе в выдаче. С 2009 года SEO требует большего трудолюбия и изучения алгоритмов поисковых роботов. В каждом конкретном случае требуется разный подход.

Бессылочный период (с 2012 года)

24 апреля 2012 года Google вводит алгоритм Penguin, который изучает качество внешних ссылок. В случае если на сайт ведёт множество ссылок с некачественных ресурсов, Google просто блокирует этот сайт.

В мае 2015 года Яндекс вводит алгоритм “Минусинск”, который позволяет определить качество внешних ссылок на сайт и так же блокирует сайты с некачественными ссылками.

Покупка ссылок стала не только бесполезным занятием, а более того – вредным.

Современное SEO

К 2016 году большинство SEO-специалистов окончательно убедились в бесполезности покупных ссылок. Современное SEO – это, прежде всего, улучшение качества контента, постоянная работа над сайтом с целью его усовершенствования, создания максимально грамотных и технологичных, скоростных сайтов с чистым кодом и современным, релевантным контентом.

Источник https://d-element.ru/about/blog/bazovaya-optimizatsiya/

Источник https://yurcom.ru/seo-optimizatsiya-sayta/

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *