mikeblazerx | Unsorted

Telegram-канал mikeblazerx - Mike Blazer

2559

Все прелести SEO: — результаты экспериментов — секреты продвижения — свежие идеи — SEO-фишки — кейсы — юмор — тренды — топы без ссылок — семантическое #SEO — бесплатные инструменты ... Автор: @MikeBlazer

Subscribe to a channel

Mike Blazer

Google AI Overviews = воровство (часть 2/2)

17. Переиздание не обязательно плохо, но проблема в том, что Google навязывает его издателям как условие для появления в Поиске (в котором у него монополия).

18. "Решение отказаться от переиздания, запретив сниппеты или удерживая данные поискового индекса — это выбор без выбора."

19. Фаза II стратегии Google по доминированию в онлайн-издательстве сосредоточена вокруг AI Overviews ("GAI").

20. Жалоба отмечает, что немонополисты, такие как OpenAI и Perplexity, были вынуждены заключать лицензионные соглашения с издателями, тогда как Google в значительной степени избегал этих затрат благодаря своей поисковой монополии.

21. Жалоба разбирает различия между предобучением LLM и RAG.

22. Переход к AI Overviews "практически завершает эволюцию Google от "поисковой системы" к "ответной системе", которая публикует ответы на запросы пользователей.

Её когда-то симбиотические и взаимодополняющие отношения с издателями теперь стали преимущественно паразитическими и конкурентными."

23. Собственный маркетинговый язык Google прямо признает, что цель featured snippets и AI Overviews — предотвратить переходы пользователей на сайты издателей.

24. Google намеренно нечётко описывает точные наборы данных, используемые для обучения своих LLM.

25. В презентации Google DeepMind 2023 года Google признает, что генеративный ИИ в поиске "уменьшит переходы к поставщикам контента, ухудшая их способность монетизировать".

26. AI Overviews увеличивает количество поисков с "нулевыми кликами".

27. AI Overviews вызовет нисходящую спираль в качестве публикаций — по мере того, как стимул к созданию уменьшается, качество деградирует, и весь веб страдает.

28. Первое юридическое требование — "взаимные сделки", антимонопольная концепция, которая "возникает, когда фирма с рыночной властью отказывается продавать продукт X клиенту, если этот клиент не соглашается продать (или отдать) ей продукт Y.

В данном случае продукт, который Google продает (и угрожает удержать от) цифровым издателям — это поисковый реферальный трафик."

29. Второе — "поддержание монополии".

По сути, утверждается, что использование Google ИИ представляет собой форму "извлечения ренты" с издателей.

30. Третье — "Неосновательное обогащение" — что означает, что Google несправедливо получил выгоду за счет издателей посредством неправомерного поведения.

31. "Ценность моделей и ИИ-продуктов Google напрямую связана с качеством работ, которые он приобретает для их обучения и обоснования их результатов."

32. Chegg требует суда присяжных.

@MikeBlazerX

Читать полностью…

Mike Blazer

41 вопрос SEO-агентству при выборе подрядчика

Про AI:

1. Приведите пример SEO-процесса в вашем агентстве до и после внедрения AI. Почему выбрали этот процесс и каковы дальнейшие планы?
2. Как ваше агентство реагирует на прогноз Gartner о снижении поисковых запросов и проверяет изменения поискового поведения?
3. Как отслеживаете переход клиентов на AI-поисковики (Gemini/ChatGPT/Perplexity)?
4. Как элементы SEO (линкбилдинг, техническая часть, EEAT-сигналы) будут полезны в эру AI-поиска? Какие направления наиболее перспективны?
5. Сравните ваш подход 2022-2023 годов с текущей AI-стратегией: что уже адаптировано, что в разработке?
6. Как обеспечиваете аутентичность контента и вовлеченность аудитории при использовании AI?
7. Стоит ли блокировать AI-ботов от краулинга сайта для защиты данных? Ваше мнение.
8. Чем стратегии оптимизации контента для языковых моделей отличаются от классического SEO?
9. Какие AI-инструменты разрешены/запрещены в вашей команде?
10. Как раскрываете информацию об использовании AI в проектах?
11. Как отслеживаете видимость бренда в генеративном AI и оцениваете рыночную долю?
12. Какое влияние AIO-сниппеты оказывают на CTR и конверсии?
13. Как определяете контент, подверженный рискам из-за AI?

Про адаптацию:

14. Опишите последние изменения в вашем рабочем процессе на примере одного кейса.
15. Как оцениваете влияние нового SERP-дизайна на бизнес и предлагаете оптимизацию?
16. Как обнаруживаете изменения в выдаче Google и корректируете стратегию?
17. Как отслеживаете новые форматы Google и адаптируете под них тактики?
18. Как поможете конкурировать с агрегаторами и OTA в нише?
19. Как используете AI без риска санкций за автоматизированный контент?

Про интегрированный поиск:

20. Какие уникальные данные (CRM, звонки, партнерские домены) помогут создать индивидуальную SEO-стратегию?
21. Как используете данные из контекста, соцсетей и YouTube для улучшения SEO?
22. Как рост видео (YouTube) и UGC-платформ (Reddit) повлияет на SEO-кампанию?
23. Как SEO-данные помогают понимать клиента для всей компании?
24. Нужно ли отключать контекстную рекламу при выходе в топ?
25. Какие альтернативные Google площадки исследуете для поиска ответов?
26. Какова ваша роль на платформах типа TikTok/G2, куда уходит аудитория?

Про SEO-исследование:

27. Стоит ли копировать тактику конкурента из текущего анализа? Ваша рекомендация.
28. Проанализируйте наши SEO-действия за год: перекосы и их влияние.
29. Найдите устаревший элемент на сайте и объясните план его обновления с прогнозом эффекта.

Про ROI и бюджет:

30. Как прогнозируете эффект от роста позиций на год и корректируете CTR/прогнозы?
31. Как объясните руководству падение CTR при росте позиций?
32. Какие популярные SEO-практики считаете бесполезными/вредными?
33. Как реагируете на претензии о низком качестве лидов из SEO?
34. Как совмещаете быстрые победы с долгосрочной стратегией в отчетах?
35. Как связываете SEO с бизнес-метриками помимо позиций?
36. Как будете сокращать бюджет вдвое без потери эффективности?
37. Как управляете сменой команды? Можете дать контакты клиента с таким опытом?
38. Как помогаете при переходе к другому подрядчику/инхаусу? Есть примеры?
39. Как меняете масштаб проекта при масштабных изменениях Google?

Про согласования:

40. Как координируете работу IT, PR и других отделов для SEO?
41. Какие метрики успеха (помимо трафика) предлагаете для оценки вклада SEO?

https://www.seerinteractive.com/insights/seo-rfp-guide

@MikeBlazerX

Читать полностью…

Mike Blazer

Размышление о термине "говнификация" и его применении в SEO-софте.

7 лет назад я начал платить за популярный SEO-сервис менее £300/мес, сейчас я плачу более £1200.

Использую тот же объем данных, то же количество пользователей, пишет Росс Тавендейл.

Рост затрат — в 4 раза.

Тарифы нашего агентства выросли на 25% с 2017 года, а стоимость софта — на 400%.

Я схожу с ума или это реально стало чересчур?
-

В прошлом году я тестировал 2 провайдера инструментов, говорит Harpreet.

Несколько лет назад агентство, в котором я работал, платило около £14k за enterprise-уровень краулинга для крупного ритейлера в Великобритании.

Теперь один из них заплатил 100 тысяч, другой - 15 тысяч за 1000 страниц SaaS-компании, лол.

@MikeBlazerX

Читать полностью…

Mike Blazer

Когда сеошники встречаются на дороге с арбитражниками, они останавливаются, чтобы обменяться информацией.

Когда один из сеошников переходит к арбитражникам, его коллега отправляется за ним, чтобы вернуть его обратно.

@MikeBlazerX

Читать полностью…

Mike Blazer

Расширение для Хрома - Advanced GSC Visualizer пополнилось новой фичей, которая позволяет увидеть производительность 10 лучших подпапок вашего сайта одним щелчком мыши!

Это поможет вам понять общую производительность любого сайта всего за несколько минут.

https://chromewebstore.google.com/detail/advanced-gsc-visualizer/cdiccpnglfpnclonhpchpaaoigfpieel

Прежний пост про это расширение тут.

@MikeBlazerX

Читать полностью…

Mike Blazer

Максимально полный список юзер-агентов AI-ботов для их блокировки

AI и ML боты краулят ваш сайт и парсят контент гораздо чаще, чем вы думаете.

Чтобы остановить AI-ботов от поглощения вашего контента для обучения своих систем вы можете заюзать этот Мега-блокировщик в .HTACCESS:

.htaccess
<IfModule mod_rewrite.c>

RewriteEngine On

RewriteCond %{HTTP_USER_AGENT} (Agent\ GPT|AgentGPT|AI\ Article\ Writer|AI\ Content\ Detector|AI\ Dungeon|AI\ SEO\ Crawler|AI\ Search\ Engine|AI\ Writer|AI21\ Labs|AIBot|AI2Bot|AISearchBot|AlexaTM|Alpha\ AI|AlphaAI|Amazon\ Bedrock) [NC,OR]
RewriteCond %{HTTP_USER_AGENT} (Amazon\ Lex|Amazonbot|Amelia|anthropic-ai|AnthropicAI|AnyPicker|Anyword|Applebot|Articoolo|AutoGPT|Automated\ Writer|AwarioRssBot|AwarioSmartBot|BingAI|Brave\ Leo\ AI|Bytespider|CatBoost|CC-Crawler) [NC,OR]
RewriteCond %{HTTP_USER_AGENT} (CCBot|ChatGPT|Chinchilla|Claude-Web|ClaudeBot|ClearScope|cohere-ai|cohere-training-data-crawler|Common\ Crawl|commoncrawl|Content\ Harmony|Content\ King|Content\ Optimizer|Content\ Samurai|ContentAtScale) [NC,OR]
RewriteCond %{HTTP_USER_AGENT} (ContentBot|Contentedge|Conversion\ AI|CopyAI|Copymatic|Copyscape|Crawlspace|CrawlQ\ AI|crew\ AI|crewAI|DALL-E|DataForSeoBot|DeepAI|DeepL|DeepMind|DeepSeek|DepolarizingGPT|DialoGPT|Diffbot|DuckAssistBot) [NC,OR]
RewriteCond %{HTTP_USER_AGENT} (FacebookBot|Firecrawl|Flyriver|Frase\ AI|FriendlyCrawler|Gemini|Gemma|GenAI|Google\ Bard\ AI|Google-CloudVertexBot|Google-Extended|GoogleOther|GPT-2|GPT-3|GPT-4|GPTBot|GPTZero|Grammarly|Grok|Hemingway) [NC,OR]
RewriteCond %{HTTP_USER_AGENT} (Hugging\ Face|Hypotenuse\ AI|iaskspider|ICC-Crawler|ImagesiftBot|img2dataset|INK\ Editor|INKforall|IntelliSeek\.ai|Inferkit|ISSCyberRiskCrawler|JasperAI|Kafkai|Kangaroo|Keyword\ Density\ AI|LeftWingGPT) [NC,OR]
RewriteCond %{HTTP_USER_AGENT} (LLaMA|magpie-crawler|MarketMuse|Meltwater|Meta\ AI|Meta\ Llama|Meta\.AI|Meta-AI|Meta-ExternalAgent|Meta-ExternalFetcher|MetaAI|MetaTagBot|Mistral|Narrative\ Device|Neural\ Text|NeuralSEO|OAI-SearchBot) [NC,OR]
RewriteCond %{HTTP_USER_AGENT} (OAI\ SearchBot|omgili|OmniGPT|Open\ AI|OpenAI|OpenText\ AI|Outwrite|Page\ Analyzer\ AI|PanguBot|Paraphraser\.io|peer39_crawler|PerplexityBot|PetalBot|ProWritingAid|QuillBot|RightWingGPT|RobotSpider) [NC,OR]
RewriteCond %{HTTP_USER_AGENT} (Rytr|SaplingAI|Scalenut|Scrapy|ScriptBook|SearchGPT|SemrushBot|SEO\ Content\ Machine|SEO\ Robot|Sidetrade|Simplified\ AI|SlickWrite|Spin\ Rewriter|Spinbot|Stability|Sudowrite|Surfer\ AI|Text\ Blaze) [NC,OR]
RewriteCond %{HTTP_USER_AGENT} (TextCortex|The\ Knowledge\ AI|Timpibot|VelenPublicWebCrawler|Vidnami\ AI|WebChatGPT|Webzio|Whisper|WordAI|Wordtune|Writecream|WriterZen|Writescope|Writesonic|x\.AI|xAI|YouBot|Zero\ GTP|ZimmWriter) [NC]

RewriteRule (.*) - [F,L]

</IfModule>


Полный список из 176 юзер-агентов вот тут.

@MikeBlazerX

Читать полностью…

Mike Blazer

Как Google измеряет "значительные" изменения при обновлении lastmod в картах сайта?

Анализирует ли Google смысловые изменения (например, "Казнить, нельзя помиловать" и "Казнить нельзя, помиловать"), смотрит на процент изменения текста, использует оба варианта, векторы или какой-то другой метод?

Ответы и мнения SEO-специалистов

1. Инсайты из тестирования:

— Предположение, что у Google нет эффективного способа определить злоупотребление lastmod
— Тесты показали рост трафика при простом обновлении lastmod (хотя это не рекомендуется в долгосрочной перспективе, так как может рассматриваться как манипуляция)
— Любые изменения, кроме исправления опечаток, можно считать "оправданными" для обновления lastmod

2. Технические аспекты реализации:

Lastmod может использоваться как триггер для пересчета пакетных метрик, а не как фактор ранжирования
— Если сайт злоупотребляет lastmod, Google "расстраивается" и находит способы "усложнить жизнь" таким сайтам
— Как минимум, Google может перестать пересчитывать пакетные метрики по запросу и делать это только когда сам захочет
— Злоупотребление lastmod скорее приведет к игнорированию этого сигнала для сайта, чем к санкциям в ранжировании
— При миграции сайта lastmod становится датой миграции
— Тип краулинга в GSC часто смещается к ~80% "Обнаружению" после миграции

3. Практики паблишеров:

— Один новостной паблишер меняет dateModified (schema) и lastMod (sitemap) когда:
a. Меняются большие фрагменты текста
b. Меняются заголовки
c. Не меняет даты при мелких опечатках

4. Подход Google:

— По словам Гари Иллиеса, доверие Google к сигналам lastmod бинарное - они либо принимают их как сигнал, либо игнорируют
— Опечатка может считаться значительным изменением (например, в ценнике)
— Это предполагает, что Google может не использовать процент изменения текста или векторы для определения

5. Теория влияния на трафик:

— Рост трафика от обновлений lastmod может быть связан с изменениями в структуре ссылок, когда статьи, отсортированные по дате, перемещаются на первые позиции, создавая более сильные сигналы (PageRank?)
— Однако, рост трафика наблюдался и при обновлении только метаданных/структурированных данных

@MikeBlazerX

Читать полностью…

Mike Blazer

ЕСЛИ ВЫ ИСПОЛЬЗУЕТЕ JAVASCRIPT ДЛЯ ДИНАМИЧЕСКОЙ ЗАГРУЗКИ КОНТЕНТА ПОСЛЕ ВЗАИМОДЕЙСТВИЯ, ГУГЛ ЕГО НЕ УВИДИТ!

Только что провел аудит сайта клиента, где НАВИГАЦИЯ имела статичный вывод для видимых элементов ссылок, но вся навигационная структура под ней подгружалась динамически только после ВЗАИМОДЕЙСТВИЯ, пишет Даниэль Фоли Картер.

При взаимодействии с меню DIV-элементы внедрялись в активный HTML.

Но при проверке сырого HTML после рендеринга никаких подклассов меню не существовало.

ВОТ ПОЧЕМУ нужно быть особенно внимательным к техническим решениям, используемым на сайте.

Такие вещи требуют ПРОВЕРКИ.

В Screaming Frog ничего не отображалось, все подстраницы МЕНЮ имели высокие показатели глобальных внутренних ссылок — поэтому проблему сразу не заметишь.

Но при ручной проверке мне удалось это обнаружить.

Категории в НАВИГАЦИИ клиента показывали значительное падение эффективности, я также заметил, что многие СТРАНИЦЫ ПОДМЕНЮ были обнаружены не через краулинг, а через ДИСКАВЕРИ — обычно через страницы товаров, что странно: почему URL навигации верхнего уровня находятся через товары?

Оказалось, что Гугл проходил через товары и находил категории верхнего уровня через хлебные крошки.

ИСПОЛЬЗУЙТЕ JS, но делайте это правильно.

Всё, что формирует страницу, должно быть в изначальном DOM.

Любая "ДИНАМИЧЕСКАЯ" функциональность, использующая Javascript для выполнения действий, изменит страницу так, что Гугл этого не увидит.

Поэтому даже такие базовые вещи, как использование JS для динамической подгрузки "загрузить еще" — в большинстве случаев плохая идея.

Где возможно — ПРЕДЗАГРУЖАЙТЕ всё на страницу и используйте скрипты для работы с контентом, который уже загружен в исходном коде.

Проблему решили, изменив технологию меню и обеспечив вывод контента при предварительном рендеринге.

Проблема решена — ЗНАЧИТЕЛЬНОЕ улучшение органических показателей в течение 3 недель после внедрения.

ВОТ КАК МОЖНО ОПРЕДЕЛИТЬ, ЕСТЬ ЛИ НА АНАЛИЗИРУЕМЫХ СТРАНИЦАХ ИЗМЕНЕНИЯ, КОТОРЫЕ ГУГЛ НЕ МОЖЕТ УВИДЕТЬ:

1. Зайдите на веб-страницу
2. Нажмите F12, чтобы открыть DevTools
3. В нижних вкладках кликните на CONSOLE
4. Нажмите на иконку очистки, чтобы скрыть текущие ошибки/предупреждения
5. Скопируйте и вставьте скрипт ниже в консоль и нажмите enter
6. Затем взаимодействуйте со страницей, например, кликните на меню — вы увидите, внедряются ли новые элементы

new MutationObserver((mutations) => {
mutations.forEach((mutation) => {
mutation.addedNodes.forEach((node) => {
if (node.nodeType === 1) {
// Ensure it's an element node
if (node.tagName === "A" && node.hasAttribute("href")) {
console.log("%c[New Link Injected]", "color: red; font-weight: bold;", node.href, node);
}

// Also check if an <a> tag is added inside a changed element
node.querySelectorAll &&
node.querySelectorAll("a[href]").forEach((link) => {
console.log("%c[New Link Injected]", "color: red; font-weight: bold;", link.href, link);
});
}
});
});
}).observe(document.body, { childList: true, subtree: true });

За скриншотами - сюда.

@MikeBlazerX

Читать полностью…

Mike Blazer

Конвертируйте PDF в HTML без потери текста и формата.

https://github.com/pdf2htmlEX/pdf2htmlEX

@MikeBlazerX

Читать полностью…

Mike Blazer

Рене Жирар:

В последнее время атаки скрейперов просто зверские - хуже, чем когда-либо!

Мой домен буквально бомбардируют с 2001:4860:7:622::ff.

Кто-нибудь ещё сталкивается с подобным от IPV6 из диапазона префиксов 2001:4860:7?!

Мы их блокируем, но есть подозрения, что это может быть гуглобот, хотя при проверке через верификатор юзер-агента он так не определяется.

Дэйв Смарт:

Похоже, это может быть один из префетч-прокси. По сути, Google предварительно загружает некоторые результаты выдачи, чтобы ускорить навигацию, подробнее тут.

Если проверить IP через ipinfo.io, должен показать ASN AS15169 (хотя я не уверен, что это универсально).

Если записывать все хедеры запросов в логах:

purpose будет prefetch
referer будет https://www.google.{thetld}
sec_fetch_mode будет no-cors

То есть, это не скрейпер и не гуглобот, а префетч для ускорения загрузки вашего сайта при клике пользователя (кстати, обычно это признак того, что вы хорошо ранжируетесь хотя бы по каким-то запросам!).

Есть опубликованный список IP для этих прокси здесь (изначально для геолокации, но подойдет и для этого!). Позже добавлю их в свой инструмент проверки реальных IP гуглбота.

Вы можете контролировать объем или даже полностью отключить эту функцию для своего сайта, как описано здесь.

@MikeBlazerX

Читать полностью…

Mike Blazer

SEO мертво, да здравствует Google Discover!

У вас есть сайт, соответствующий этим критериям?

💎 Тогда вы сидите на золотой жиле потенциального трафика.

Вот требования, которым нужно соответствовать:

☐ 🗞 Ваш сайт редакционного характера

— Вы управляете медиа-ресурсом, блогом или информационным сайтом, который в основном публикует редакционный контент вроде статей.
— Бонус: Ваш сайт включен в Google News (опционально).

☐ 🚀 У вашего сайта крепкая техническая база

— Ваши статьи (производительность главной страницы не так важна!) загружаются быстро и получают как минимум оранжевые, а в идеале зеленые показатели в инструментах Google (Page Speed Insights).
— Статьи индексируются быстро (естественным путём в течение 24 часов, в течение 3 часов если в Google News).
— Бонус: Ваш сайт проходит Core Web Vitals (опционально).

☐ 👪 У вас уже есть существующая аудитория

— Неважно откуда: из поиска, соцсетей или любых других источников трафика.
— Минимум желательно 5К посетителей в месяц, но чем больше, тем лучше!

☐ 💰 Ваш трафик идет (или мог бы идти) из стран с высоким RPM

— США, Великобритания, Канада, Австралия...
— Бонус: Вы уже монетизируете аудиторию через медийную рекламу (опционально).

☐ 💑 У вас сильные поведенческие метрики

— Лояльная аудитория, которая возвращается.
— Высокое время на страницах.
— Бонус: Высокая глубина просмотра (>2, опционально).

☐ 📈 Вы в хороших отношениях с Google

— Не попали под последние Core Update, HCU или другие апдейты Google.
— График трафика стабилен или растет последние 3 месяца.

☐ 🪩 Вкладка Discover уже видна в вашей GSC

— Даже если показатели низкие, это значит, что вы потенциально подходите.
— Бонус: У вас уже есть какие-то показы/клики органически, без активной стратегии.

☐ ✅ Вы уделяете внимание сигналам E-E-A-T

— Статьи подписаны реальными авторами, несут добавленную ценность, и ваши юридические данные прозрачны.
— Бонус: У вас есть UGC контент (секция комментариев, взаимодействие с пользователями и т.д.) (опционально).

Если вы отметили 6 (или больше) из этих 8 пунктов, у вашего сайта высокие шансы получить миллионы дополнительных посещений через Google Discover.

@MikeBlazerX

Читать полностью…

Mike Blazer

Всего за ПЯТЬ дней совершенно новое паразитическое SEO-партнерство прошло путь от 0 до более чем $1.2 МИЛЛИОНА ежемесячного трафика по данным Ahrefs...

Как этот нишевый сайт смог это сделать?

Скриншот

В настоящее время он занимает #1 место в США по таким ключам, как "best online casino", "online slots", "real money casinos", "new online casinos" и даже #6 место просто по запросу "slots"!

И всё это всего за 5 дней?!

Как им это удалось?

Скриншот

Ну, во-первых, Google пытался бороться с таким поведением с помощью "политики злоупотребления репутацией сайта", но спустя годы так и не смог внедрить что-либо на алгоритмическом уровне.

И именно алгоритм является причиной такого высокого ранжирования!

Скриншот

Алгоритм Google постепенно настраивался (в течение последних нескольких лет) на то, чтобы отдавать предпочтение сайтам с "авторитетом" - то есть сайтам, на которые ссылается наибольшее количество других сайтов в интернете.

Вероятно, здесь также играют роль фактор свежести, тематический авторитет и умная оптимизация контента, хотя они используют даже AI-изображения, так что...

Скриншот

Вы можете спросить себя, кто же стоит за этим?

В большинстве случаев сами сайты недостаточно умны, чтобы реализовать такие стратегии самостоятельно, и часто им не хватает воображения, чтобы придумать такую идею.

Кстати, ОЧЕНЬ прибыльную идею!

Скриншот

Если отследить автора всех этих постов, похоже, что это реальный человек, но маловероятно, что она подготовила ВЕСЬ этот контент самостоятельно за 2 дня...

Скриншот

Быстрая проверка её LinkedIn показывает, что она работает в Esports Insider, а также является "Контент-редактором" в "ClickOut Media".

Скриншот

Кто такие ClickOut Media?

Скриншот

Да, у Google есть политика против этого...

Но ручные санкции применяются редко, а алгоритм всё больше и больше настраивается на то, чтобы поощрять эту стратегию.

И это поощрение может составлять более $1 миллиона В НЕДЕЛЮ в комиссионных!

Скриншот

А когда Google всё-таки применяет санкции, они затрагивают только нарушающие подпапки, что не наносит реального ущерба издателю, а третья сторона может просто перейти к следующему новостному сайту с DR70+, готовому печатать бесплатные деньги, пока это возможно!

Скриншот
-

После того, как сайт попал под ручные санкции, Esports Insider практически ПОЛНОСТЬЮ ВОССТАНОВИЛСЯ всего за несколько дней на той же самой подпапке 👀

См. скриншот к посту.

@MikeBlazerX

Читать полностью…

Mike Blazer

Учитывает ли Google "стоимость извлечения" в качестве фактора ранжирования?

Марк Уильямс-Кук скептически относится к концепции "cost of retrieval", аргументируя это тем, что Google в любом случае необходимо получить контент, чтобы определить стоимость его извлечения, и что ранжирование качественного контента должно иметь лучшую ожидаемую ценность для Google, чем ранжирование контента более низкого качества только потому, что он имеет меньшую стоимость извлечения.

Признавая логичность того, что системы Google переходят от вычислительно дешёвых к вычислительно дорогим тестам (например, используя быстрые тесты для фильтрации 900 тысяч очевидно плохих страниц из миллиона перед применением более ресурсоёмких тестов), он ставит под вопрос, как этот процесс оптимизации связан со стоимостью извлечения контента как фактором ранжирования, отмечая, что некачественный контент останется некачественным в любом случае.

Ответы и мнения SEO-специалистов

1. Бизнес-перспектива:

— С точки зрения операционных расходов бизнеса, оптимизация для минимизации затрат имеет смысл, так как снижение расходов увеличивает прибыль
Prerender может быть фактором, хотя наблюдаемый буст может быть просто результатом улучшения скорости сайта, а не стоимости обработки

2. Перспектива краулинга:

— Поисковики краулят целые сети страниц, а не отдельные страницы
— Они настраивают оценки целесообразности инвестирования ресурсов в остальные страницы домена/сайта/кластера связанных страниц
— Эти оценки учитывают востребованность и уникальность контента
— Страницы в "хороших окрестностях" могут получить больше инвестиций благодаря своим связям

3. Инсайты по распределению ресурсов:

— Индексация веба - это задача оптимизации: цель - потратить минимум ресурсов для извлечения уникального контента, который нравится пользователям
— Частота краулинга - ранний индикатор инвестиций в контент
— Иерархия легкости обработки контента: размеченный семантический контент > чистый HTML > JS-рендеринг

4. Наблюдения по авторитетности и индексации:

— Сигналы авторитетности могут перевешивать другие сигналы, например, каноникалы
— Идентичные страницы авторитетных сайтов (с параметрами отслеживания) могут индексироваться и рендериться
— Медленно загружающиеся клиент-рендеринг сайты получают ограниченные ресурсы краулинга/индексации по сравнению со статическими быстрыми сайтами

5. Связь с Core Web Vitals:

CWV связаны с энергопотреблением за счет сокращения времени/ресурсов на обработку страниц
— Метрики стоимости можно определить только после рендеринга
— Любая стоимость извлечения будет ретроактивной метрикой
— Предположения о стоимости можно делать после сбора достаточного количества данных
— Сеть ссылок показывает ценность, которая распространяется по сети

6. Перспектива коммуникации Google:

— Если бы "стоимость извлечения" была важным фактором, Google, вероятно, более открыто коммуницировал бы об этом, поскольку они обычно делятся рекомендациями о том, как помочь им лучше индексировать веб, и возможно даже создали бы специальную метрику для этого

@MikeBlazerX

Читать полностью…

Mike Blazer

Совет по копирайтингу:

Используйте негатив в заголовках.

Вместо: "Идеальная кофемашина для вашего утреннего эспрессо."

Напишите: "Как большинство кофемашин портят ваш кофе (и почему наша - нет)."

Негатив отлично цепляет внимание.

@MikeBlazerX

Читать полностью…

Mike Blazer

Пора прекратить относиться к графикам трафика из SEMrush и Ahrefs как к священному Граалю данных.

✅ Их другие функции? Божественны.

❌ Графики трафика? Полная чушь.

Я бомбил по этому поводу почти пять лет назад, и точность этих метрик стала только хуже, пишет Стивен Лорд.

Не специально.

Такова природа поиска.

Вот лишь две причины (из сотни), почему пора двигаться дальше:

1️⃣ "Трафик — пузомерка. Профит — здравый смысл."

Ни один бизнес не зарабатывает на ранжировании по "business name ideas".

Трафик ничего не значит, если не приводит к значимым действиям.

Хватит зацикливаться на графиках трафика и начните фокусироваться на том, что ваш трафик реально делает.

2️⃣ Начните заботиться о достоверности данных.

Посмотрите на графики в этом посте.

Даже если органический трафик был бы главной метрикой, использование этих инструментов означает, что вы собираетесь рассказать откровенную ложь.

Это не данные.

Это выдумка.

Я уже чувствую, как дата-гики поднимают головы, чтобы напомнить мне, что GSC тоже не на 100% точен — и это правда.

Но в мире, где атрибуция практически невозможна, хотя бы берите данные максимально близко к источнику, вместо того чтобы полагаться на сторонние оверлеи.

За последние недели мы видели сотни постов о предполагаемом падении трафика HubSpot.

Теперь SEMrush будет следующим в списке, так как их собственные инструменты показывают 50% падение с декабря 2023 года.

Но я готов поспорить, что их выручка стабильна — или даже растёт.

Почему?

Потому что TOFU (верхняя часть воронки) становится безкликовым событием.

И ни одна компания масштаба HubSpot или SEMrush не растёт за счёт ранжирования статей по "memes" или "business name ideas".

Пора двигаться дальше этих устаревших метрик.

Начните оптимизировать под выручку, а не трафик.

Переходите от этих метрик к чему-то более существенному.

Ориентируйтесь на факты.

@MikeBlazerX

Читать полностью…

Mike Blazer

Google AI Overviews = воровство (часть 1/2)

Google получила иск от Chegg:

1. Chegg представляет юридическая фирма Susman Godfrey — это значит, что они настроены серьезно.

Susman имеет репутацию умных, напористых судебных юристов.

2. Что важно, жалоба основана на антимонопольном законодательстве (НЕ на авторском праве, как я изначально ожидал).

3. В жалобе говорится, что "обмен доступа на трафик — это фундаментальная сделка, которая долгое время поддерживала производство контента для открытого коммерческого веба".

4. Далее: "Но в последние годы Google начал привязывать своё участие в этой сделке к другой транзакции, на которую Chegg и другие издатели не дают добровольного согласия.

В качестве условия индексации контента издателей для поиска, Google теперь требует от издателей также предоставлять этот контент для других целей, которые каннибализируют или перехватывают поисковые переходы."

5. Chegg говорит не только об AI Overviews, но и упоминает featured snippets (обогащённые сниппеты).

6. "Вторжение Google в цифровое издательство призвано сделать Google конечным пунктом назначения, а не отправной точкой поиска для других веб-сайтов".

7. Даже если бы Google предоставил отдельную возможность отказа от AI Overviews, это не сработало бы — потому что монопольная власть Google создает проблему коллективных действий.

8. Много отличных пунктов о том, как Google нечестно использует свою монопольную власть, чтобы подчинить открытый веб воле Google.

9. Параграф 13 просто шедевр...

"Поведение Google уже разрушает стимулы для Chegg и других издателей создавать такой ценный и полезный контент.

Если это не прекратится, эта траектория грозит оставить общественность с все менее узнаваемым интернет-опытом, в котором пользователи никогда не покидают огороженный сад Google и получают только синтетические, полные ошибок ответы на свои запросы — когда-то надежная, но теперь выхолощенная информационная экосистема, мало полезная и недостойная доверия."

10. Поисковые системы должны быть посредниками между пользователями и веб-издателями.

В жалобе цитируется Google старой школы: "Возможно, мы единственные люди в мире, которые могут сказать, что наша цель — чтобы люди покидали наш веб-сайт как можно быстрее."

11. Поиск — исключительно важный канал для издателей.

Другие каналы трафика, такие как социальные сети, никогда не заменят поиск, потому что этот трафик не является преднамеренным.

12. "Проще говоря, поисковая монополия Google даёт ей контроль над онлайн-дистрибуцией для цифровых издателей.

Google использует эту власть, чтобы заставить цифровых издателей отдавать свой контент.

Затем Google сам выступает в роли издателя, либо переиздавая части контента других цифровых издателей, либо используя GAI для обобщения контента.

В результате пользователи всё чаще потребляют контент других веб-издателей на SERP Google, либо в сокращенной, либо в производной форме, что лишает этих издателей трафика и доходов."

13. Chegg называет стратегию Google для издателей "обними, поглоти, уничтожь".

14. Далее идет потрясающий раздел, рассказывающий историю "Трансформации Google из поисковой системы в веб-издателя".

15. Google присвоил контент издателей в 2 фазы.

Фазу I они называют "фазой переиздания".

В жалобе говорится о таких функциях, как обогащённые сниппеты и блок "Люди также спрашивают".

16. "Google называет Featured Snippets, Top Stories и People Also Ask "поисковыми функциями".

Но это отдельные и отличные продукты от результатов поиска.

Здесь Google выступает в роли ответной системы, а не поисковой системы."

Продолжение следует...

@MikeBlazerX

Читать полностью…

Mike Blazer

Контент с и без SEO

@MikeBlazerX

Читать полностью…

Mike Blazer

Слышь, мне нужны бабки. Домен не хочешь прикупить? Я только что его регнул.

@MikeBlazerX

Читать полностью…

Mike Blazer

Я придумал: будем менять регистр в анкорах! "КриптоКазино", "криптоказино", "КРИПТОКАЗИНО" — и всё это с одного домена!

@MikeBlazerX

Читать полностью…

Mike Blazer

Недавно один джуниор сеошник спросил меня, как развиваться в техническом направлении, рассказывает Маркос Чиаррокки.

Мой совет для начала — сфокусироваться на двух ключевых областях: веб-технологиях и парсинге.

По веб-технологиям:

Изучи, как строятся сайты.

Начни с Python и Flask, чтобы создать простой бэкенд, подключить базу данных и сделать простой фронтенд.

Это научит тебя:

* Как работают сайты и веб в целом
* Как серверы обрабатывают запросы
* Как связывать SEO-проблемы (краулинг и рендеринг) с тем, как построены сайты

Понимание основ веба значительно упрощает диагностику SEO-проблем и помогает эффективнее работать с командами разработчиков.

По парсингу:

Попробуй создать базовый парсер или краулер.

Это лучший способ разобраться в:

* Индексации
* Структурированных данных
* Извлечении и анализе веб-контента

Изучение написания скриптов на Python может дать огромную отдачу, так как ты сможешь выполнять множество задач (автоматизация, анализ данных и т.д.).

Когда освоишь основы, ты даже сможешь использовать LLM-ки для получения рабочих скриптов за считанные минуты и дорабатывать их по мере необходимости.

Ниже несколько ссылок на курсы, которые являются хорошей отправной точкой.

По веб-приложениям:

https://www.udacity.com/course/full-stack-foundations--ud088

По скриптингу/скрейппингу на Python:

https://www.coursera.org/specializations/introduction-scripting-in-python
https://www.coursera.org/learn/microsoft-automation-scripting-with-python
https://www.coursera.org/learn/python-network-data#modules

@MikeBlazerX

Читать полностью…

Mike Blazer

Именно это заставляет людей переключаться на конкурентов.

Опрос в более чем 3000 человек позволил выяснить, почему люди переходят на другой бренд.

Вот они.

@MikeBlazerX

Читать полностью…

Mike Blazer

Про iGaming SEO

После 15+ лет в SEO и десятилетия доминирования в iGaming, я протестировал все стратегии - некоторые провалились, некоторые работают лучше, чем когда-либо, пишет Трифон Боюклийский.

Вот что реально работало раньше и продолжает работать в 2025 году в самой конкурентной нише.

1. Паразитное SEO

— Публикации на трастовых площадках
— SEO пресс-релизов
— Просроченные Web 2.0
Google Sites & Docs SEO
Forum & Q&A SEO (Quora, Reddit...)
— Использование трастовых платформ (Medium, LinkedIn...)

Про-тип: Google отдает приоритет авторитетным доменам - используйте их силу вместо того, чтобы месяцами ждать позиций.

2. EMD-домены

— Массовая регистрация EMD
— Цепочки редиректов EMD
— Гео-таргетированные сети EMD
EMD под казино

🔸Про-тип: Google принижает значение EMD - но в сочетании с сильными бэклинками они все еще ранжируются выше обычных доменов.

3. Манипуляции с ссылками (основа iGaming SEO)

— Качественные бэклинки с нишевых сайтов
PBN
— Инжект ссылок и клоакинг редиректов
— Ссылки с форумов и комментариев

🔸Про-тип: Релевантность важнее количества - одна сильная ссылка с сайта про казино > 100 спамных ссылок.

4. Манипуляции с контентом и клоакинг

IP-клоакинг
AI-генерированный контент
— Дорвеи и тонкие партнерские хаки
— Невидимый текст и инжект ключевиков

🔸Про-тип: Не перебарщивайте с клоакингом - Google жестко наказывает, миксуйте с легальным контентом.

5. Манипуляция кликами и фейковое вовлечение

— Боты для накрутки CTR
— Накрутка социальных сигналов
— Оптимизация времени на сайте
— Автоматические отзывы и рейтинги

🔸Про-тип: Google измеряет поведенческие - даже реальными поведенческими можно манипулировать.

6. Техническое SEO и эксплойты Schema

— Абьюз 301 редиректов
— Эксплойты канониклов
— Фейковые рич-сниппеты
HTTPS спуфинг

🔸Про-тип: Структурированные данные помогают Google понимать контент - но их можно оптимизировать за пределами гайдлайнов.

7. Эксплойты доменов и редиректов

— Перехват дроп-доменов
— Гео-редиректы
— Множественные дроп-домены на один сайт
— Цепочки аффилиатских редиректов

🔸Про-тип: Дропы - золотая жила, ищите те, у которых бэклинки с новостных и государственных сайтов.

8. Дорвеи и мультисайтовые сети

— Встраивание Iframe
— Ротация редиректов
— Клоакинг лендингов
— Мультисайтовые сети

🔸Про-тип: Диверсификация защищает от санкций - владение несколькими высокоранжируемыми доменами лучше, чем полагаться на один

@MikeBlazerX

Читать полностью…

Mike Blazer

Хотите получать бэклинки на автопилоте?

Вот простой хак, сочетающий PPC и линкбилдинг, которым пока не пользуется большинство сеошников.

Делайте так...

1️⃣ Создайте страницу с ценной статистикой

(например, "Generative AI Statistics 2025").

2️⃣ Запустите PPC-рекламу по таким запросам:

"Generative AI statistics"

"AI adoption trends 2025"

"Latest AI industry data"

3️⃣ Журналисты и блогеры, ищущие источники, будут кликать на вашу рекламу...

...И некоторые поставят на вас ссылку!

Лучшие практики:

✅ Таргетируйтесь на точное соответствие (например, "stress statistics 2025").
✅ Избегайте широкого соответствия - оно быстро сжигает бюджет.
✅ Проверяйте страницы конкурентов в Ahrefs/SEMrush для поиска дополнительных ключей.
✅ Отслеживайте стоимость ссылки за месяц для оценки ROI.

Результаты?

По словам Стива Тота, недавний тест с бюджетом в $360 на рекламу принес 7 бэклинков.

@MikeBlazerX

Читать полностью…

Mike Blazer

Влияние ссылок с Reddit на SEO

Джой Хокинс провела эксперимент, чтобы измерить влияние Reddit на позиции в Google.

Используя свой сайт, она создала релевантный пост на Reddit с nofollow-ссылкой, содержащей определенный анкор.

За две недели целевой запрос поднялся с 25-й на 10-ю позицию.

Улучшение произошло благодаря тому, что сама ветка на Reddit хорошо ранжировалась в Google и получала органический трафик - это ключевой фактор, поскольку nofollow-ссылки из низкотрафиковых или спамных веток Reddit не дадут подобных результатов.

Хотя большинство ссылок на Reddit по умолчанию имеют атрибут nofollow, существует два способа получить dofollow-ссылки на платформе.

Модераторы сабреддитов могут создавать dofollow-ссылки в сайдбарах с помощью текстовых виджетов.

Для этого нужно войти как модератор, получить доступ к интерфейсу редактирования сайдбара и добавить ссылки в текстовом формате.

Второй метод связан с функцией публикации изображений на Reddit.

Загружая несколько изображений, пользователи могут настроить подпись ко второму изображению как анкор и добавить dofollow-ссылку - эту функцию обнаружил Брок Миснер.

Модераторы Reddit активно банят аккаунты, нарушающие правила платформы, поэтому крайне важно, чтобы посты оставались релевантными и добавляли ценность в обсуждения.

@MikeBlazerX

Читать полностью…

Mike Blazer

15 правил семантического написания текстов, которые реально помогают ранжироваться

После того как Эндрю Ансли удалось выйти в топ по сложнейшим запросам вроде "drug rehab" и "SEO Audit" и обучения более 200 агентств, вот его правила семантического написания, которые действительно работают:

1. Сначала ответ, потом детали

— Пример: На вопрос "Что такое SEO?", начните с "SEO оптимизирует сайты для более высоких позиций в поисковиках", затем раскрывайте детали.

2. Ключевые ответы - не более 40 слов

— Пример: Вместо длинного объяснения про N8N, напишите "N8N создает кастомные базы знаний и парсит данные с веба для автоматизации маркетинговых процессов".

3. Фокус на одной теме

— Пример: Страница про GHL должна рассказывать только о функциях/использовании GHL - без отклонений в общие советы по маркетингу или сравнение с конкурентами.

4. Только фактические утверждения

— Пример: Замените "Email-маркетинг поможет вам получить лиды" на "Email-маркетинг генерирует лиды через автоматизированные последовательности".

5. Соответствие структуры вопрос/ответ

— Пример: Вопрос: "Как работает GHL?"

Ответ: "GHL работает через автоматизацию email-рассылок, рекламы, лендингов и AI-агентов".

6. Выделяйте жирным ответы, а не ключевики

— Пример: Вопрос: Что такое N8N?

Ответ: N8N - это инструмент автоматизации рабочих процессов, который связывает API и создает кастомные решения.

7. Создавайте четкую иерархию контента

— Пример: H1: Гайд по N8NH2: Ключевые функции → H3: API-интеграция → H4: Этапы настройки

8. Включайте несколько примеров

— Пример: Не ограничивайтесь одним воркфлоу N8N - покажите три разных примера автоматизации с конкретными кейсами.

9. Определяйте термины при первом использовании

— Пример: "GHL (Go High Level) - это платформа для автоматизации маркетинга, которая..."

10. Выстраивайте тематические связи

— Пример: Свяжите "автоматизацию маркетинга" с "функциями GHL" и "воркфлоу N8N" для создания семантических связей.

11. Пишите короткими предложениями

— Пример: Замените "Автоматизация маркетинга - сложная тема, требующая понимания множества инструментов и платформ, что может быть сложно для изучения"

на

"Автоматизация маркетинга объединяет множество инструментов. Каждый инструмент выполняет конкретную задачу. Интеграция создает мощные воркфлоу."

12. Используйте HTML-списки правильно

— Пример: Структурируйте списки функций тегами <ul> и <li> вместо ручных маркеров.

13. Правильно распределяйте информацию

— Пример: Один ключевой концепт на параграф.

Новый параграф для каждой новой идеи.

14. Пишите линейно

— Пример: Начните с базовых концепций GHL → перейдите к настройке → затем к продвинутым функциям.

Никогда не прыгайте между базовым и продвинутым уровнем хаотично.

15. Включайте подтверждающие данные

— Пример: Подкрепляйте утверждения конкретными цифрами - "Автоматизация GHL сократила ручные задачи на 47% в 200 клиентских кампаниях".

Помните: Это не теория - все основано на реальных результатах ранжирования

@MikeBlazerX

Читать полностью…

Mike Blazer

Наткнулась на "пресс-релиз" на каком-то новостном сайте, - рассказывает Прити Гупта.

И знаете, что там было написано?

"Компания ABC с огромным восторгом сообщает о публикации своего нового блог-поста".

Вы серьезно?

@MikeBlazerX

Читать полностью…

Mike Blazer

Когда блокировка страниц в Robots.txt приводит к увеличению индексации 🤖

На сайте одного из моих клиентов на Magento недавно начали генерироваться бесконечные фасетные URL, которые Гугл начал активно краулить, пишет Шарль Вайсье.

Из-за ограниченных ресурсов разработки для нормального исправления проблемы или даже добавления noindex тегов (которые, как мы знаем, со временем помогли бы Гуглу меньше краулить эти страницы) и предстоящей миграции, мы решили заблокировать URL в robots.txt, чтобы предотвратить миллионы ненужных краулов.

То, что произошло дальше, было совершенно неожиданным.

Вместо того чтобы просто прекратить краулинг, Гугл также начал стремительно индексировать эти URL.

Нашей целью было просто остановить гуглобота от краулинга страниц, оставив их неиндексированными.

Для решения проблемы мы откатили изменения и удалили правила disallow из robots.txt.

Постепенно Гугл начал исключать страницы из индекса.

⚠️Что стало причиной?

Каноникал теги на этих фасетных URL работали корректно, предотвращая их индексацию.

Однако, заблокировав URL в robots.txt, мы помешали Гуглу видеть эти каноникал теги, что привело к индексации URL вместо их игнорирования.

💡Ключевой вывод:

Хотя блокировка URL в robots.txt не останавливает их индексацию (что мы знали), она может привести к их индексации, мешая Гуглу видеть критически важные сигналы, такие как каноникал теги.

Этот случай подчеркивает важность понимания того, как различные элементы SEO взаимодействуют между собой, прежде чем вносить изменения.

Как вы думаете, было ли это нормальным и ожидаемым поведением со стороны Гугла?

@MikeBlazerX

Читать полностью…

Mike Blazer

7 ключевых элементов SEO-оптимизации для успеха в Google News

Эти семь критически важных факторов ранжирования сосредоточены исключительно на редакционных аспектах, исключая факторы авторитета всего сайта и техническое SEO.

1. Заголовки статей

Для максимального эффекта ключевые слова должны быть размещены в первых 8 словах заголовка, и его длина не должна превышать 110 символов.

Google позволяет использовать до пяти различных SEO-ориентированных заголовков: основной видимый заголовок, мета-тайтл, тег news_keywords, тег standout и заголовок в sitemap для новостей.

Сокращенные термины, такие как "Трамп", иногда работают, но неоднозначные термины, вроде "Гамильтон", могут требовать уточнения.

2. Актуальность (Freshness)

Свежесть контента критически важна, особенно в блоке Top Stories.

Быть первым в освещении событий — это не гарантия видимости; часто лучше работают несколько публикаций или детальное освещение темы.

Хотя манипуляция URL может влиять на сигналы актуальности, ею следует пользоваться осторожно, чтобы избежать санкций.

3. Изображения

Графика играет большую роль в увеличении CTR, хотя напрямую не влияет на ранжирование.

Изображения с людьми, как правило, лучше вовлекают аудиторию.

Google анализирует длину кликов и их качество, чтобы постоянно оптимизировать результаты в разделе новостей.

4. Видимость (Prominence)

Видимость статьи на сайте издателя сказывается на ранжировании через распределение ссылочного веса.

Статьи, размещенные на главной странице или ключевых разделах, получают больше ссылочного веса, что подтверждено утечками из Google Content API Warehouse.

Почти всегда главная страница — это самый ценный источник с точки зрения ссылочного веса.

5. Вступительный текст (Intro)

Интро предоставляет дополнительные возможности для внедрения ключевых слов.

Использование семантической HTML-разметки, такой как <h2> или <strong>, позволяет акцентировать внимание Google на этом тексте.

6. Основной текст статьи

Контент выигрывает от использования контекстуальных фраз (vector embeddings), которые помогают Google точнее понимать фокус материала.

Структурированные подзаголовки, размеченные через <h2> и <h3>, особенно если они оформлены в виде вопросов, могут улучшить видимость в результатах Google на запросы с вопросительной формой.

7. Внутренняя перелинковка

Перелинковка на страницы с тематическими кластерами усиливает сигналы авторитетности темы.

Хотя это не прямой фактор ранжирования, регулярная внутренняя перелинковка может быть эффективно автоматизирована с помощью систем на базе LLM, обеспечивая высокую точность размещения ссылок.

https://www.seoforgooglenews.com/p/perfectly-optimised-news-article-for-seo

@MikeBlazerX

Читать полностью…

Mike Blazer

Прошло 300+ дней с тех пор, как фотограф Google приехал к нам на фотосессию, пишет Морган.

На следующий же день наш 12-летний бизнес начал разваливаться.

История о том, как Google использует малый бизнес для PR, а потом хоронит его.

2/ В марте 2024 года Google выбрал нас для кейс-стади Южной Каролины в своем отчете об экономическом влиянии.

Мы были польщены.

Фотограф приехал запечатлеть нашу работу над ремонтом кухни.

Google ставил нас в пример — доказательство того, что мы всё делали правильно.

3/ На следующий день — 5 марта — вышло March Core Update.

Наш сайт, который за 12 лет никогда не попадал под негативное влияние апдейтов Google, начал терять трафик.

К концу месяца мы потеряли 74% поискового трафика из Google.

4/ С тех пор стало только хуже.

За последние 28 дней:

📉 Наш трафик из Google: 9,680.
📉 В это же время год назад? 69,300.
Падение на 86%.

Google представил нас как историю успеха малого бизнеса.

А потом похоронил.

5/ Перенесемся в сегодняшний день...

Google запускает рекламную кампанию на Super Bowl, показывая 50 малых бизнесов.

Месседж такой:

👉 Google поддерживает малый бизнес!
👉 Google — ваш друг!
👉 Google помогает вам расти!

6/ Но реальность другая.

Google использует малый бизнес для самопиара.

Они выделяют нас, когда это выгодно им.

Они стирают нас, когда меняют алгоритм.

Никакой ответственности.

Никаких объяснений.

Никаких путей восстановления.

7/ То, что случилось с нами, произошло с тысячами владельцев малого бизнеса.

Google доминирует в поиске.

Они могут перекрыть ваш доход за одну ночь.

Они заявляют о поддержке малого бизнеса, тихо уничтожая его.

8/ Так что когда вы увидите рекламу Google на Super Bowl...

Помните: Дело не в помощи малому бизнесу.

Дело в контроле над ним.

Владельцы малого бизнеса заслуживают лучшего.

9/ 29 октября 2024 года Google пригласил меня в свой кампус обсудить обвал трафика.

Они сказали мне — и еще 19 авторам — что наш контент хороший.

Что они знают, что поступили с нами неправильно.

Сегодня прошло 103 дня с той встречи.

До сих пор никаких улучшений.

До сих пор никаких ответов.

@MikeBlazerX

Читать полностью…

Mike Blazer

В эпоху AI-поиска брендовые упоминания — это новые бэклинки.

Пока Google считает ссылки, AI считает разговоры.

Игра сместилась от линкбилдинга к созданию голоса бренда.

Вот что интересно: AI не нужны гиперссылки для понимания авторитетности, AI считывает контекст, как это делают люди.

Аутентичные голоса поднимутся на вершину в мире, тонущем в AI-генерированной одинаковости.

Ваш цифровой след теперь измеряется тем, кто говорит о вас, а не только ссылается.

🎯 В чём секрет?

Быть действительно цитируемым важнее, чем быть технически оптимизированным.

Пока все создают AI-шлак, победителями станут те, у кого хватит смелости выделиться оригинальными инсайтами, уникальными мнениями и смелыми перспективами.

Это не просто изменение в поиске — это возвращение к тому, что действительно важно: говорить то, что стоит повторить.

@MikeBlazerX

Читать полностью…
Subscribe to a channel