- PVSM.RU - https://www.pvsm.ru -

Как стать экспертом для поисковых систем

Не так давно я познакомился с описанием E-A-T алгоритма от Google [1], который расшифровывается как «Expertise, Authoritativeness, Trustworthiness» (экспертность, авторитетность, достоверность). И мне, как автору, который пишет для разных сайтов стало интересно — насколько я сам соответствую критериям этого алгоритма и могу ли повлиять на текущую ситуацию. Тем более, что некоторые заготовки в виде открытой гугл таблицы для учета и мониторинга собственных публикаций LynxReport [2] уже были.

Как стать экспертом для поисковых систем - 1

Google Таблицы → Node.js → Google Charts → Сайт-визитка → Топ-3 место в поиске ФИО + специализация

На основании данных таблицы я решил дополнить сайт-визитку, сведениями о публикациях, которые бы генерировались автоматически. Что я хотел получить:

  1. Актуальную сводку публикаций, расположенную на временной шкале Google Charts [3].
  2. Автоматическую генерацию выходных данных и ссылок на статьи из гугл таблицы в html версию визитки.
  3. PDF версии статей со всех сайтов, из-за опасений закрытия некоторых старых сайтов в будущем.

Как получилось можно посмотреть здесь [4]. Реализовано на платформе Node.js с использованием Bootstrap, Google Charts и Google Таблицы для хранения исходных данных.

Исходные данные о публикациях в Google Spreadsheet

Гугл-таблица LynxReport: учёт публикаций [5] содержит все исходные данные и аналитику по публикациям. Я поддерживаю актуальность сведений на вкладке «Данные», вручную вписывая новые ссылки на статьи, остальное скачивается по большей части автоматически.

Как стать экспертом для поисковых систем - 2

Часть таблицы LynxReport: учёт публикаций [5] с исходными данными

Актуальные данные по просмотрам и комментариям подгружаются через формулы.

Например, чтобы получить количество просмотров со страниц Хабра в ячейке гугл таблиц используется формула:

=IF(
ISNUMBER(IMPORTXML(D6, "//*[@class='post-stats__views-count']"))
,
SUBSTITUTE(
IMPORTXML(D6, "//*[@class='post-stats__views-count']")
,",",".")
,
value(SUBSTITUTE(SUBSTITUTE(
IMPORTXML(D6, "//*[@class='post-stats__views-count']")
,"k","")
,",","."))*1000
)

Формулы это не самый быстрый вариант и для того, чтобы получить несколько сотен позиций приходится ждать около получаса. После окончания загрузки можно видеть все цифры как на скриншоте ниже. Они дают ответы какие темы популярны, а какие нет.

Как стать экспертом для поисковых систем - 3

Часть таблицы LynxReport: учёт публикаций [5] с аналитикой

Считывание данных из Таблицы и преобразование в формат Google Charts

Чтобы трансформировать эти сводные данные из гугл таблицы в сайт-визитку [4] мне надо было преобразовать данные в формат временной шкалы Google Charts [3].

Как стать экспертом для поисковых систем - 4

Получившаяся временная шкала Google Charts на сайте-визитке [4]

Для того, чтобы корректно отрисовать такой график данные должны быть организованы следующим образом:

Как стать экспертом для поисковых систем - 5

Данные для Google Charts на сайте-визитке [4] в html виде

Чтобы выполнять все преобразования автоматически я написал под Node.js скрипт, который доступен на GitHub [6].

Если вы не знакомы с Node.js, то в своей предыдущей статье я подробно расписал как можно воспользоваться скриптом под разными системами:

  1. Windows
  2. macOS
  3. Linux

Ссылка с инструкциями здесь [7]. Принцип аналогичен.

Как стать экспертом для поисковых систем - 6

Работа скрипта по преобразованию в нужный формат данных и генерации pdf версий статей с сайтов [6] (все строки обрабатываются мгновенно — я специально поставил задержку, чтобы записать это видео)

Для того считывать данные из гугл таблицы в автоматическом режиме я пользуюсь авторизацией по ключу [8].

Получить этот ключ можно в консоли управления проектами гугла [9]:

Как стать экспертом для поисковых систем - 7

Учетные данные в Google Cloud Platform

После завершения работы скрипта должны сгенерироваться два текстовых файла с html данными графиков и все pdf копии онлайн статей.

Данные из текстовых файлов я импортирую в html код сайта-визитки.

Генерация pdf копий статей с сайтов

При помощи Puppeteer [10]сохраняю текущий вид статей вместе со всеми комментариями в pdf виде.

Если не ставить задержку, то несколько десятков статей по списку можно сохранить в виде pdf файлов всего за несколько минут.

А задержка нужна для того чтобы на некоторых сайтах (например на Т—Ж [11]) успели подгрузиться комментарии.

Результаты

Поскольку написание скрипта затевалось с целью большего соответствия поисковым алгоритмам, то оценить результаты можно воспользовавшись поиском.

Поиск по имени и фамилии + указание специализации в обоих случаях возвращает ссылки на мои статьи и даже сайт-визитку:

В выдаче Яндекса [12]:

Как стать экспертом для поисковых систем - 8

В выдаче Гугла [13]:

Как стать экспертом для поисковых систем - 9

Пока что не могу решить — стоит ли регистрировать отдельное доменное имя, если визитка empenoso.github.io и так находится на верхних строчках поиска?

Вместо заключения

  1. Возможно, эта статья заставит кого-то задуматься о том, как он выглядит в интернете.
  2. Возможно, эта статья поможет кому-то наладить учёт и организацию публикаций.
  3. Исходный код скрипта расположен на GitHub [6].

Автор: Михаил Шардин [14]

17 августа 2020 г.

Автор: Михаил Шардин

Источник [15]


Сайт-источник PVSM.RU: https://www.pvsm.ru

Путь до страницы источника: https://www.pvsm.ru/javascript/356028

Ссылки в тексте:

[1] E-A-T алгоритма от Google: https://www.google.ru/search?q=google+expertise+authoritativeness+trustworthiness+EAT

[2] открытой гугл таблицы для учета и мониторинга собственных публикаций LynxReport: https://habr.com/ru/post/485594/

[3] на временной шкале Google Charts: https://developers.google.com/chart/interactive/docs/gallery/timeline?hl=ru

[4] можно посмотреть здесь: https://empenoso.github.io/

[5] LynxReport: учёт публикаций : https://docs.google.com/spreadsheets/d/123I74Ys0WtAl6DQx8uExYC6AEbB-6w9FMQisNfmuWBo/edit#gid=0

[6] доступен на GitHub: https://github.com/empenoso/LynxReport

[7] инструкциями здесь: https://habr.com/ru/post/506720/#NodeJS

[8] авторизацией по ключу: https://theoephraim.github.io/node-google-spreadsheet/#/getting-started/authentication?id=api-key

[9] в консоли управления проектами гугла: https://console.cloud.google.com/apis/credentials

[10] Puppeteer : https://developers.google.com/web/tools/puppeteer?hl=ru

[11] например на Т—Ж: https://journal.tinkoff.ru/moex-bond-search/

[12] Яндекса: https://yandex.ru/search/?text=%D0%BC%D0%B8%D1%85%D0%B0%D0%B8%D0%BB%20%D1%88%D0%B0%D1%80%D0%B4%D0%B8%D0%BD%20%D1%80%D0%B0%D0%B7%D1%80%D0%B0%D0%B1%D0%BE%D1%82%D1%87%D0%B8%D0%BA&lr=50

[13] Гугла: https://www.google.ru/search?ie=UTF-8&q=%D0%BC%D0%B8%D1%85%D0%B0%D0%B8%D0%BB%20%D1%88%D0%B0%D1%80%D0%B4%D0%B8%D0%BD%20%D0%B8%D0%BD%D0%B2%D0%B5%D1%81%D1%82%D0%BE%D1%80

[14] Михаил Шардин: https://www.facebook.com/mikhail.shardin

[15] Источник: https://habr.com/ru/post/515316/?utm_source=habrahabr&utm_medium=rss&utm_campaign=515316