Рубрика «seo» - 24

SEO аудит своими руками

На фотографии — чеклист самолета Cessna: в какие положения нужно установить переключатели перед запуском двигателя, допустимые полетные параметры и так далее. Пилот не в первый раз видит этот список. Выучить — раз плюнуть. Но мозг может перезаписывать информацию, создавая ложные воспоминания, но при этом при «запросе» данные будут помечены как «верные». А вот напечатанное на бумаге не изменяется, поэтому ей можно доверять на 100%. SEO — это не управление самолетом с сотней человек на борту. Потерять можно всего-то несколько десятков тысяч рублей (если, например, начать продвижение с закрытыми от индексации в robots.txt страницами). Но не проще ли потратить 5-10 минут на проверку и убедиться, что все сделано правильно?..

Современные алгоритмы ранжирования поисковых систем учитывают тысячи факторов, однако среди них можно выделить важнейшие. SEO-аудит позволяет понять, готов ли сайт к продвижению, соответствует ли он этим критериям. Не все разработчики понимают, что ресурс может нормально выглядеть и работать, но при этом иметь некоторые критичные недостатки.

Все перечисленные ниже ошибки типичны, мы обобщили их по опыту тысяч аудитов реальных проектов. С проверками сайтов и рекомендациями по доработке вы также можете ознакомиться в нашем блоге.

Читать полностью »

Не стоит забывать, что пресс-релиз — это не только информация для СМИ, но еще и мощный инструмент поисковой оптимизации, особенно если вы знаете, как этот инструмент работает. И так, 5 основных фишек, которые помогут повысить SEO-эффективность ваших пресс-релизов.

image
Читать полностью »

Настраиваем NGINX для мультиязычных сайтов
Уже давно считается хорошим тоном отдавать контент сайта на языке, предпочитаемым пользователем. Некоторые сервера определяют язык по месту нахождения пользователя с помощью модулей геолокации, остальные берут настройки браузера. Языковые предпочтения пользователя часто сохраняются в cookie, и затем используются при повторном визите.

Какой метод определения языка пользователя подходит лучше – вопрос достаточно спорный. Мой личный ранг значимости языковой информации (в порядке убывания): cookie, настройки браузера, регион.

Для поисковых систем, социальных сетей и прочих агрегаторов информации важно знать, на каком языке должна быть проиндексирована или загружена страница, например в качестве миниатюры в хронику фейсбука. Это значит, что ссылка должна однозначно указывать на язык.

Распространенные варианты кодирования языковой информации о ресурсе следующие:

  • каждая языковая версия на отдельном субдомене, например en.example.com, ru.example.com
  • язык ресурса указывается в префиксе URI, например example.com/en/, example.com/ru
  • язык ресурса указывается в GET параметре, например example.com?lang=en, example.com?lang=ru

Первый вариант наиболее радикальный, каждая языковая версия сайта рассматривается как отдельный ресурс. Могут возникнуть сложности с SSL сертификатом, необходимо заранее предусмотреть все возможные варианты в SAN DNS Host Name, или заказать сертификат с маской, например *.example.com.

Второй вариант наиболее практичный, выбор языка входит в URI, значит, не будет проблем с индексацией и копированием ссылки.

Третий вариант выглядит менее привычно, требует дополнительной логики при добавлении остальных GET параметров и может смутить пользователя при копировании ссылки. Не самый лучший вариант для публичных ссылок.
image
Я расскажу о реализации второго варианта на базе сервера NGINX. При минимальных изменениях можно применить описанные настройки и для первого варианта.
Читать полностью »

Изучая выдачу в поиске по блогам Яндекса, обнаружил, что рассылки фирмы индексируются и вываливаются в поиск через стену ВКонтакте.
В каждом сообщении была уникальная ссылка, которая автоматически авторизовала на сайте. Абсолютно любой человек мог получить доступ к профилю.
Читать полностью »

Приветствую!
Сегодня я бы хотел рассказать про свой проект, старт которому был дан еще в 2008 году. С тех пор многое поменялось, как в архитектуре хранения данных, так и в алгоритмах обработки информации.

Речь пойдет о сервисе для SEO специалистов и/или рядовых вебмастеров. BotHunter является системой пассивного наблюдения (в реальном режиме времени) за юзерагентами на вашем сайте. Примеры интерфейсов см. ниже, либо в DEMO аккаунте на сайте системы (в demo режиме ограниченный функционал). Читаем далее

Инструмент контроля за поведениеем роботов на вашем сайте

Читать полностью »

Недавно Мэтт Каттс, один из ведущих экспертов Google, сообщил о том, что алгоритм поиска в скором времени будет изменен. После выдачи примерно четырех результатов поиска с какого-либо домена второго уровня, количество ссылок на этот же домен на последующих страницах будет ограничено. Читать полностью »

Создание контента и защита от копирования

“Content is king” — сказал в 1996-м Билл Гейтс. Но он говорил о маркетинговом аспекте (контент — то, что люди покупают), а при работе с поисковыми системами необходимо учитывать еще и технический (контент — то, что позволяет пробиться на первые места в выдаче по определенным поисковым запросам). К счастью, алгоритмы поисковиков уже перешли от пещерной стадии потребления заклинаний типа «кондиционер купить недорого цена установка кондиционеры hitachi» к цивилизованным требованиям к текстам веб-страниц.

В этой статье мы постараемся описать современные предпочтения поисковых систем и подводные камни, с которыми столкнется практически каждый владелец сайта при наполнении страниц текстами и прочим контентом.Читать полностью »

Пока компьютер не начнет думать как человек, он не сможет отличить плохой сайт от хорошего… так, как это сделал бы человек. На самом деле поисковые системы имеют в своих арсеналах методики сбора и анализа данных, с помощью которых кремниевые мозги легко затыкают за пояс знатоков из мяса.

Сразу оговоримся — под «хорошим» сайтом мы имеем в виду «достойный занять место в поисковой выдаче по конкретному ключевому запросу», не будем погружаться в дебри эстетики сайтостроения.

Итак, если не вдаваться в детали, сейчас в поисковых системах комплексно применяется три подхода: ранжирование страниц по авторитетности (пример — принесший Google популярность алгоритм PageRank), поведенческие факторы (анализ действий реальных посетителей реальных сайтов) и машинное обучение (пример — «Матрикснет» Яндекса, который обучает алгоритмы оценками выборок специалистами-асессорами, ну и по сути увязывает и уравновешивает первые два подхода).

Ранжирование по авторитетности на ранних этапах развития интернета работало очень хорошо, но в дальнейшем «слишком математическая» природа такого подхода позволила оптимизаторам применять фокусы, использующие найденные в ходе экспериментов слабости системы. Качество выдачи страдало, поисковики вводили поправки, дополнительные формулы и коэффициенты, фильтры и санкции, но по-настоящему крупный прорыв был сделан, когда появилась возможность ранжировать сайты на основе предпочтений их реальных живых посетителей. Анализ поведенческих факторов объективнее любых личных пристрастий (как экспертных, так и профанных), поскольку работает с предпочтениями большой выборки целевой аудитории.
Читать полностью »

В блоге для веб-мастеров инженеры Google подготовили и выложили два руководства разной степени сложности для тех, кто еще не знаком с базовыми методами оптимизации под поисковую машину Google.

Надо сразу сказать, что первое руководство действительно для новичков — профессионалы вряд ли обнаружат там нечто секретное и таинственное. Любопытно только то, что в Google не поленились и подготовили соответствующий одностраничный PDF-документ сразу в 13 языковых редакциях, включая и русский (английская версия). При этом документ (А4) выглядит визуально привлекательно и информативно, так что его можно распечатать и повесить в офисе, если вдруг возникнет необходимость в напоминании банальностей.

Второй документ более серьезного уровня и уже только на английском языке. Он довольно подробно и с примерами описывает различные «best practices» вроде создания уникальных заголовков веб-страниц, заполнения мета-тегов или улучшения структуры URL. Забрать документ можно отсюда.
Читать полностью »

Как известно закрытие ссылок от индексации поисковых роботов, дело важное и нужное.
Очень часто это необходимо непосредственно для того, чтобы уменьшить количество внешних ссылок на свой сайт.

Я не буду рассматривать все причины, по которым нужно и важно закрывать ссылки. Но, если Вы хотите сохранить ссылочный вес своего сайта, не превратить сайт в линкопомойку и зарабатывать на биржах ссылок, то данное решение будет как раз кстати. Так, например, сервис труслинк не размещает ссылки на тех страницах, на которых имеется более двух ссылок. Поэтому лишние ссылки необходимо закрыть, особенно, если Вы подключите еще 1-2 биржи, кроме него, что вполне оправдано, т.к. никогда не знаешь, откуда придет доход. Я не знаю, условий других бирж, но все они не рекомендуют иметь на сайте как можно меньше внешних ссылок.

Кроме прочего Важно сохранять ссылочный вес сайта, тк. этот момент будет не маловажным для сохранения и поднятия позиций ТИЦ и PR. От этого зависит как цена ссылки, так и спрос на размещения самих ссылок на биржах, как минимум.

Так же, учитывая тот факт, что у многих развивается паранойя на данную тему, данное решение будет крайне необходимо, тк. позволит сэкономить время (которое уходит на вырезание ссылок), нервы, а также литры валерьянки.

В-общем, чтобы облегчить жизнь себе и другим, я написал небольшое решение, позволяющее сделать все это вставкой небольшого кода, суть которого привести все ссылки на странице к следующему виду.

<noindex><a rel="nofollow" href="http://адрес ссылки">Текст ссылки</a></noindex>

Вручную такое делать довольно затруднительно, поэтому

Читать полностью »


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js