O seu período de teste terminou!
Para acesso total à funcionalidade, pague uma subscrição premium
SE
Strong SEO | Сильное СЕО
https://t.me/seregaseo
Idade do canal
Criado
Linguagem
Russo
-
ER (semana)
-
ERRAR (semana)

Заметки по интернет-маркетингу, лайф-хаки и личный блог | @sc00d - автор

Mensagens Estatísticas
Repostagens e citações
Redes de publicação
Satélites
Contatos
História
Principais categorias
As principais categorias de mensagens aparecerão aqui.
Principais menções
Não foram detectadas menções significativas.
Encontrado 40 resultados
Немного лайфстайл контента, по мотивам "Сколько сеошников качаются, ток Отец ну может еще Адищев". Коллеги сказали, что выложить не стрем =)

Примерно половина сеошников, которых я знаю, ходят в зал.
Это один из самых доступных способов борьбы со стрессом, последствиями сидячего образа жизни и т.д. Пруфов о пользе полный пабмед.

Первое видео: июль прошлого года, жим 150*1

Второе видео: прошлая неделя, жим 140*1, но на видео вторая проходка (одноповторные подходы с предельным весом) с этим весом, т.к. в первый раз оператор камеру забыл включить)

Вес 81-82 кг. Фармы нет, да и креатин-то забываю пить 4 дня из 7

На прямой скамье рекорд был 140 (в 19 лет и повторно в 30 лет), но видео не снимал. Сейчас на прямой почти не жму - плечи жалко.

Норм форму как у отца сделать не получается - так хоть жимом можно похвалиться
26.03.2025, 15:29
t.me/seregaseo/212
26.03.2025, 15:29
t.me/seregaseo/211
Диапазоны Googlebot обновились: https://developers.google.com/search/apis/ipranges/googlebot.json


Добавились:


"ipv6Prefix": "2001:4860:4801:96::/64"

"ipv4Prefix": "66.249.74.192/27"

***

Зачем и кому это может быть нужно - писал тут https://t.me/seregaseo/180
19.03.2025, 09:04
t.me/seregaseo/210
17.03.2025, 11:05
t.me/seregaseo/208
17.03.2025, 11:05
t.me/seregaseo/207
Обзор расширения "Meta Tags SEO Extractor 🐸"

Скачать можно по ссылке:
https://chromewebstore.google.com/detail/meta-tags-seo-extractor/eeklobedkgjdfjbmmepdgpilolflbidp?authuser=0&hl=r
u

✅ Что оно делает:

— Можно в два клика копировать списки URL'ов, Title, Мета-описаний из SERP'a
— Можно в два клика спарсить у сайтов из SERPa Title, Description, H1-H3. В таком случае открывается каждый сайт по очереди и парсится, за прогрессом можно наблюдать в поле со статусом.

Работает и под Google и под Яндекс (в последнем можно сразу указать регион или LR-код вручную). Можно работать как в основном профиле, так и открывать выдачу в инкогнито.

❓Зачем оно вам?

Пример 1. Периодически в чатах спрашивают: "чем спарсить H2-H3" со страниц. Вот оно - бесплатное решение. Заголовки нужны, например, для составления ТЗ копирайтеру/AI без функционала парсинга Web.

Пример 2. Для текстовых анализаторов, которые сами не умеют в парсинг выдачи. Тот же миратекст не парсит Google. Тут можно легко получить список сайтов из топа.

Пример 3. Для составления Title, Description удобно спарсить данные у топа и взять лучшее со всех.

📋 Инструкция

Инструкция по применению
1️⃣ Нажмите на иконку расширения для открытия боковой панели
2️⃣ Выберите поисковую систему (Google или Яндекс)
3️⃣ Введите ключевое слово для поиска
4️⃣ Для Яндекса выберите регион поиска или введите LR-код
5️⃣ Нажмите "Открыть поиск в инкогнито"
6️⃣ В открывшемся окне нажмите на иконку расширения для доступа к инструментам
7️⃣ Используйте кнопку "Собрать данные с текущей страницы" для сбора информации с поисковой выдачи
8️⃣ Используйте кнопки T/D/L для копирования заголовков, описаний и URL-адресов из сниппетов поисковой выдачи
9️⃣ Нажмите "Собрать данные по ссылкам" для парсинга мета-тегов с найденных сайтов
🔟 Используйте кнопки T/D/H1/H2/H3 для копирования данных

Расширение собирает только органические результаты поиска, исключая рекламные блоки и специальные элементы.

Если вам понравилось расширение - поставьте ему в веб сторе ⭐️⭐️⭐️⭐️⭐️
17.03.2025, 11:05
t.me/seregaseo/209
Можно ли защититься от такого рефспама, просто включив в настройках счетчика "Принимать данные только с указанных адресов"?

На 100% нет, но это усложнит задачу спамерам. Им придется парсить базу: домен; id метрики. Зная домен и ID счетчика, который на нем установлен, можно отправлять запрос, подставляя в качестве URL адрес с корректным хостом (т.е. отправляя на условный счетчик mail.ru страницу mail.ru/lol/ и это норм проходит "проверку" по адресу).

Но тут уже парсить надо, а не просто всему диапазону хиты пробрасывать так что может "Принимать данные только с указанных адресов" и поможет сейчас.


*** Жалко удалять, потребовалось бы для более сложных случаев:


Как обойти проверку Яндекса, если бы защита работала лучше (проверялось бы откуда отправляется запрос):

Вариант 1)

Открывается сайт, забирается ID счетчика метрики (Ya._metrika.getCounters()[0].id) и отправляется хит, находясь на этом сайте. Можно автоматизировать процесс, например: Playwright/Selenium, зенкой/басом, и даже фрогом вроде сейчас можно.

Вариант 2) Может быть быстрее как минимум для повторных рассылок за счет уже имеющейся базы

- Парсим ID счетчиков метрики на нужных нам сайтах (с учетом GTM'ов и разных авторских решений проще исполнять JS на страницах и вытаскивать, например так - Ya._metrika.getCounters()[0].id). Сохраняем в табличку: хост;id

- Нужен локально запущенный веб-сервер (как самый простой вариант пусть это будет Apach + PHP, легче всего поставить готовую сборку - Open Server Panel / Denwer)

- В хосты прописываем себе нужные домены с привязкой к 127.0.01

- Пишем простой скрипт, который редиректит нас на один из URL'ов из таблички, получает текущий URL, ищет в табличке соответствующий ему ID счетчика метрики и выполняет JS-скрипты:

1) Инициализация счетчика с нужным ID

2) Проброс нужных нам хитов в нужный ID

Выполняется редирект на следующий домен
13.03.2025, 09:05
t.me/seregaseo/206
12.03.2025, 15:37
t.me/seregaseo/204
Чтобы спамить не только в сайты, но и поисковые запросы нам нужна "устаревшая сигнатура" - https://yandex.ru/support/metrica/objects/hit-url-title-referer.html

Нужно передать в реферер строку из поисковой выдачи с нужным запросом, пример:

ym(ID_счетчика_жертвы, 'hit', 'адрес_страницы_можно_любой', 'спамим_допом_в_заголовки_страниц','https://www.yandex.ru/search/?text=%D0%9F%D0%BE%D0%B4%D0%BF%D0%B8%D1%81%D1%8B%D0%B2%D0%B0%D0%B9%D1%82%D0%B5%D1%81%D1%8C+%D0%BD%D0%B0+%D0%BA%D0%B0%D0%BD%D0%B0%D0%BB+Strong+SEO');
12.03.2025, 15:37
t.me/seregaseo/205
ym(XXXXXX, 'hit', url[, options]);


ym(ID_счетчика_куда спамим, 'hit', 'ваш_сайт');

https://yandex.ru/support/metrica/objects/hit.html

секрет "магии" с Илоном Маском

***

Пояснение (если оно кому-то нужно):

— Не стоит галочка "Принимать данные только с указанных адресов" у "жертв" в настройках счетчика ЯМ

— Заголовки про Маска тянутся с тех страниц, которыми спамят

— Отправляем хит на чужой счётчик с нашими URL'ами и спамим чужие метрики

Цель - получить переходы на https://digital.lordfjlm.ru/, чтобы предположительно накрутить подсказку (?) в гугле по запросу Elon Musk либо видео ютуба закинуть в тренды (?), либо налить кликов на какой-то сайт из топа по запросу.

UPD: уже спамят кинопоиском, похоже пиарят расширение
12.03.2025, 13:26
t.me/seregaseo/203
Традиционная рубрика обновления диапазонов Googlebot - https://developers.google.com/search/apis/ipranges/googlebot.json

Зачем и кому это может быть нужно - писал тут https://t.me/seregaseo/180


Добавились:

"ipv6Prefix": "2001:4860:4801:4c::/64"
"ipv6Prefix": "2001:4860:4801:52::/64"
"ipv6Prefix": "2001:4860:4801:56::/64"

"ipv4Prefix": "66.249.66.128/27"
"ipv4Prefix": "66.249.66.224/27"
"ipv4Prefix": "66.249.68.128/27"


***

По историческому WS тикет оставил, говорят, что починят

***

Канал Strong SEO
12.03.2025, 09:02
t.me/seregaseo/202
12.03.2025, 09:02
t.me/seregaseo/201
Исторический вордстат как минимум с субботы отдает кривые данные (нули) за февраль по практически всем запросам. Причем данные фактически у него есть, видно, если переключиться на агрегацию по дням/неделям, но по месяцам отдаются нули.

Сервисы, которые его парсят (seo-utils, например) тоже возвращают нули, как минимум в историческом.

***

Выше новый пост про парсинг API YWM - https://t.me/seregaseo/197
10.03.2025, 11:02
t.me/seregaseo/200
10.03.2025, 10:00
t.me/seregaseo/198
10.03.2025, 10:00
t.me/seregaseo/197
📈 Собираем позиции сайта в Яндексе 💰 бесплатно

Топвизор разработали классный интерфейс, удобные выгрузки и т.д., но опросить СЯ, скажем, федерального магазина мебели по всем поддоменам - довольно дорого. Особенно с учетом участившегося подъема цен.

В качестве одной из альтернатив я вижу парсинг ЯВМ API (как вторая альтернатива конечно же A Parser).

➕ Плюсы парсинга API YWM:
— Бесплатно
— Позиции честнее чем в Топвизоре (за счет получения средней позиции за сутки из персонализированных выдач разных реальных юзеров)
— Данные есть по всем ключам, по которым страница ранжировалась или могла ранжироваться, а не только тем, по которым вы настроили опрос
— Есть данные не только по позициям, но и по: Кликам, CTR, Спросу, Показам.
— Данные можно обрабатывать/использовать по-своему под разные задачи, в отличии от готовых сервисов.

➖ Минусы:
— Данные доступны только за период в 14 дней.
— Данные поступают с лагом в N дней (по-разному, обычно через 2-4 дня)
— В ЯВМ есть готовая выгрузка в XLS, если у вас мало хостов (сайтов, с учетом поддоменов), то можете просто качать оттуда и не париться: выгружать раз в 2 недели и матчить их, если требуется история, хотя формат там из коробки ну такой себе.

Про скрипт

🔗 https://github.com/sc00d/YWM-monitoring-query-analytics/blob/main/ywm-query-monitoring-data-extracter.py

Когда в работе проекты на сотни поддоменов, то качать файлы через вебинтерфейс - сомнительно. Для таких случаев накидал скрипт, который забирает по API доступные данные для всех или указанных хостов. Скрипт собирает данные и сохраняет в CSV файл или базу sqllite,

У CSV порог входа нулевой, а для мелких-средних проектов его хватит. Да и импортировать потом данные из CSV в любую БД легко. + Удобно для отладки на старте.

Запуск скрипта можно поставить на крон или просто не забывать его запускать раз в неделю-две.

Настройки

Из обязательных параметров - только ваш токен (инструкция как добыть его). Остальные настройки опциональны.

Если массив с HOST_ID не задан (задается массивом, там же можно задать свой набор регионов для каждого host_id), то в выгрузке будут данные по всем доступным хостам, кроме тех, которые перечислены в EXCLUDED_HOSTS (тоже массив).

Есть режим сбора данных как для всего хоста сразу (так на 2-3 порядка быстрее) - тогда вместо URL в таблице будет только домен, так и с учетом URL'ов (тогда на выходе будут данные по URL'ам)

Скрипт от Ed

Отличия от похожего решения от Ed (откуда позаимствовал ряд идей, его решение работало хорошо, просто под мои задачи не идеально подходит)

1) Адаптация к сбору данных сразу по куче хостов (поддоменов/отдельных сайтов) - мне критично

2) Возможность многократно ускорить процесс сбора данных, отказавшись от статистики по URL. В случае с сотнями поддоменов + лимитами API - критично (для меня). Берем 200 поддоменов умножаем их на 200 посадочных - минимум 40к запросов против минимальных 200.

3) Возможность продолжить получение данных с того места, где остановились

4) Порог входа ниже:
- user_id получается на автомате
- список хостов тоже может сам забрать
- выгрузка в CSV = легко для работы тем, кому БД не нужна
- Простая настройка (достаточно быть хотя бы опытным пользователем ПК, хотя бы на windows). Вставить в Юпитер Ноутбук, поменять настройки и нажать Run

Для запуска нужен питон (впрочем, кому надо - может попросить переписать AI/своих разрабов на PHP или любой другой язык). Если боитесь питона - то просто загуглите Anaconda (дистрибутив Python), в нем нас интересует Jupyter Notebook, с ним запуск скриптов на питоне - одно удовольствие. Просто создать новый Notebook, копирнуть-вставить код, поменять настройки на свои и нажать Run

Текущий пост - скорее просто заметка, чем готовый продукт. Скрипт пока не полностью оттестирован (норм так оброс функционалом пока пост писал), но работает. С учетом того, что данные устаревают - лучше начать собирать их уже сейчас.

В планах написать скрипт/скрипты для обработки этих данных для создания таблички с позициями (некий аналог топвизору на гугл таблицах) или импортировать данные в какую-нибудь BI

***
Канал Strong SEO
10.03.2025, 10:00
t.me/seregaseo/199
Подборка лучших постов на канале


🔗 Линкбилдинг

— Подсветка внешних ссылок на странице, позволяет быстро найти размещение - https://t.me/seregaseo/77

— Изумительное расширение для ручной проверки индексабельности страниц - https://t.me/seregaseo/72

— Лягушка вместо платного линкчекера - https://t.me/seregaseo/185




Авторские скрипты

— Подсветка своих сайтов и рекламы в Яндексе - https://t.me/seregaseo/163

— Подсветка своих сайтов и рекламы в Google - https://t.me/seregaseo/167

— Собираем позиции сайта в Яндексе бесплатно - https://t.me/seregaseo/199




🔥 Другое

— Мониторинг доступности сайта - https://t.me/seregaseo/91

— Набор для комфортного просмотра Ютуба - https://t.me/seregaseo/101

— Открытие сегмента по текущей странице в GSC - https://t.me/seregaseo/125

— Расширения для дополнения интерфейса GSC - https://t.me/seregaseo/156

— ВПР с нечетким поиском - https://t.me/seregaseo/74

— Фильтрация фраз в топвизоре - https://t.me/seregaseo/10
5.03.2025, 14:22
t.me/seregaseo/196
5.03.2025, 10:56
t.me/seregaseo/192
5.03.2025, 10:56
t.me/seregaseo/195
5.03.2025, 10:56
t.me/seregaseo/191
5.03.2025, 10:56
t.me/seregaseo/190
5.03.2025, 10:56
t.me/seregaseo/193
Доработал Regex'ы:

— Адаптировал под кучу извращений в верстке;

— Теперь корректно извлекаются ссылки для поддоменов, не только для www;

— Корректная работа со ссылками на http & https версии;

— Добавлена поддержка сразу нескольких доменов и зон во всех Regex'ах.

***

Прикладываю готовый конфиг для лягушки (версия 20.2, но должен норм открываться в более поздних).

Буду признателен за репост)


***
Канал Strong SEO
5.03.2025, 10:56
t.me/seregaseo/194
3.03.2025, 16:32
t.me/seregaseo/187
3.03.2025, 16:32
t.me/seregaseo/188
3.03.2025, 16:32
t.me/seregaseo/186
3.03.2025, 16:32
t.me/seregaseo/189
🐸 Лягушка, которая заменит вам 💰 платный Линкчекер

Мой подход (простая в реализации версия) для проверки наличия ссылок, а также индексабельности (доступности страниц для индексации)

Для чего это?

Повышать эффективность линкбилдинга.

1) Перестать платить за гарантированно неработающие ссылки (скрин 4). Актуально в первую очередь для крауда, сабмиттов, но проблемы находятся и на донорах с бирж.

2) Для выяснения причин, почему ссылки не в индексе. Более эффективный подход, чем просто гонять индексатором до бесконечности то, что проиндексировано быть не может.

3) Оценка живости ваших ссылок.

Сам подход

В Screaming Frog, ставим настройки:

Скрин 1:
— Always Follow Redirects = true // если урл редиректит, то переходим по редиректу
— Always Follow Canonicals = true // если указан каноничным другой адрес - краулим его
— User Agent = Googlebot (Smartphone) // опционально, плюсы - пытаемся обнаружить подмену контента по UA, минусы - сайт может для фейковых ботов отдавать ошибочный код ответа или другой контент (кейсов хватает), тут выбор зависит от конкретной выборки.

Скрин 2:
Идем в Custom Extraction, там заполняем Regex'ы*:

*В регулярках заменить домен на свой, доменную зону тоже, если она отличается.

URL:

<(?:a|A)[^>]*href=(?:"|')[\s]*(http[^"']*(?:askgamblers)\.(?:com|by|ru)[^"']*)(?:"|')[^>]*>

Анкор:

<(?:a|A)[^>]*href=(?:"|')\s*https?:\/\/(?:www\.)?(?:[a-zA-Z0-9-]+\.)*askgamblers\.(?:com|by|ru)[^"']*(?:"|')[^>]*>((?:(?!<\/a>).|\n)*?)<\/(?:a|A)>

Img Alt:

]*href=["']https?:\/\/(?:www\.)?askgamblers\.com[^"']*["'][^>]*>(?:(?!<\/a>).)*?]*alt=["']([^"']+)["'][^>]*>(?:(?!<\/a>).)*?<\/a>

Атрибуты ссылки (nofollow, ugc, sponsored):

]*href=["']https?://(?:www\.)?askgamblers\.(?:com|by|ru)[^"']+["'][^>]*?\brel=["']([^"']*?\b(?:ugc|nofollow|sponsored)\b[^"']*?)["'][^>]*>


Далее загружаем список ссылок для проверки, жмем "Start". Индексабельность = Indexability status, а на вкладке Custom Extraction проверка наличия ссылок, анкоров (включая img alt), атрибутов

***

Пока собирался писать видео на эту тему @wood2man в своем канале уже выкладывал таблицу, для проверки наличия ваших ссылок на донорах.

Плюсы у моего решения:

— Проверяется индексабельность страниц. Способов закрыть страницу со ссылкой много, далеко не только кодом ответа. Разработчики фрога определяют проблему если не всегда, то почти всегда. Можно и самостоятельно добавить все проверки в свое решение, но это время на отладку разных кейсов, их там хватает.

— Многопоточность, можно запускать хоть в 100 потоков и быстро парсить объемы. Нет ограничений гугла.

— User Agent получается нужный нам (Googlebot т.е.). Часть площадок скрывают ссылки по UA.

— Вы не палите свои ссылки Google, ведь все знают, что он следит за содержимым ваших гугл-таблиц =)

Минусы

— Если вы в РФ и стоит блокировка по этому ГЕО, то часть сайтов может быть недоступна - VPN в помощь. Актуально больше для буржа + доноры, заблоченные РКН (зона .ua, например, на моем провайдере недоступна полностью)

— Если сайт закрыт от ботов с помощью клаудфлера/антибота/другой капчей/анализатором до отдачи контента - фрог скажет, что ссылки нет. Но тут и сторонние решения вернут некорректный результат в большинстве случаев (не уверен, что есть вообще норм сервис на рынке в этом плане).

— Если сайт закрыт от фейкового гуглбота - вернется чаще всего ошибочный код ответа.

Вывод:

Проверяем так только те страницы, где получился корректный ответ (код 200 + наличие Title для надежности, иначе могла сработать защита от парсинга). Но и это огромная помощь при проверке объемов. Страницы, где ссылок не нашлось или вернулся код ответа не 200 - лучше посмотреть ручками. Либо писать свое улучшенное решение.

Более продвинутая версия этого подхода - разработка скрипта с хранением в БД списка страниц со ссылками, автоматическая проверка по расписанию, алерты при пропаже ссылок/закрытие страницы от индесации/смене анкора. Также можно научиться обходить клаудфлер и аналоги тем же апарсером / использованием браузерного движка.
Но работать можно и с этим.


***
Канал Strong SEO
3.03.2025, 16:32
t.me/seregaseo/185
Приходите на лучшие стримы про SEOшку
уже сегодня)
2.03.2025, 09:53
t.me/seregaseo/183
Завтра в 21 по МСК планируйте отбросить все дела, чтобы узнать:
— как я встретил нашу Яну на конференции в Минске
— как анализировать конкурентов по мнению Айрата
— кто крутит больше всех Яшку по информации Пиксель плюса
— сколько доктор максов дает доктор макс SEO стратегии на Графах знаний

и многие другие новости и публикации SEO-сообщества за неделю на SEO-стриме 02 https://youtube.com/live/dk2obUaLzDg?feature=share
2.03.2025, 09:53
t.me/seregaseo/184
не будь как та CDN

https://developers.google.com/search/apis/ipranges/googlebot.json

Снова обновили диапазоны
26.02.2025, 08:59
t.me/seregaseo/182
Спасибо гуглу, за то, что есть о чем писать на канал

https://developers.google.com/search/apis/ipranges/googlebot.json - диапазоны обновились, есть смысл пополнить вайты в клоаках/валидаторах ботов в логах/фаерволах и т.д. если там конечно нет автопополнения, но мне спокойней еще и ручками вайты обновить
12.02.2025, 09:06
t.me/seregaseo/180
ставить с церквей на гэмблу - это бездуховно, говорили они

pbn со ссылкой на ру недвижку
11.02.2025, 12:02
t.me/seregaseo/179
29.01.2025, 13:14
t.me/seregaseo/177
Давно #кейсы не выкладывал. Особо ничего интересного - последние года 3 одни и те же проекты в работе. По ним все норм, пример - строительная компания, писал про нее в конце 2022 - https://t.me/seregaseo/54.

— Первые два скрина - Google (позиции + клики);
— Третий - позиции в Яндексе (лайв, не XML);
— Четвертый - траф без роботов за 2 года.

Хороший продукт + хорошая компания + хорошая seoшка = норм результат
29.01.2025, 13:14
t.me/seregaseo/178
29.01.2025, 13:14
t.me/seregaseo/175
29.01.2025, 13:14
t.me/seregaseo/176
Обновились диапазоны Googlebot
29.01.2025, 09:01
t.me/seregaseo/174
Канал крутого специалиста @seogore, который проверяет все на личном опыте (крайне ценная черта seoшника, кмк), например:

отклейку 4 летнего редиректа
работают ли страницы-редиректы как ссылочное

Также есть максимально заполненная параметрами таблица с донорами с биржи Miralinks
28.01.2025, 09:59
t.me/seregaseo/173
Os resultados da pesquisa são limitados a 100 mensagens.
Esses recursos estão disponíveis apenas para usuários premium.
Você precisa recarregar o saldo da sua conta para usá-los.
Filtro
Tipo de mensagem
Cronologia de mensagens semelhante:
Data, mais novo primeiro
Mensagens semelhantes não encontradas
Mensagens
Encontre avatares semelhantes
Canais 0
Alta
Título
Assinantes
Nenhum resultado corresponde aos seus critérios de pesquisa