mikeblazerx | Unsorted

Telegram-канал mikeblazerx - Mike Blazer

2559

Все прелести SEO: — результаты экспериментов — секреты продвижения — свежие идеи — SEO-фишки — кейсы — юмор — тренды — топы без ссылок — семантическое #SEO — бесплатные инструменты ... Автор: @MikeBlazer

Subscribe to a channel

Mike Blazer

Что-то назревает.

Запасайтесь мешками для денег.

https://trends.google.com/trends/explore?q=seo%20agency,seo%20services&hl=en

@MikeBlazerX

Читать полностью…

Mike Blazer

Вам не надо быть супер умными и опытными в SEO чтобы быть успешными.

Всего лишь надо побольше тестить на тестовых сайтах и применять то что сработало - на рабочих сайтах.

@MikeBlazerX

Читать полностью…

Mike Blazer

Твое послание и твоя аудитория.

Удачи!

@MikeBlazerX

Читать полностью…

Mike Blazer

В исходном коде браузера Edge был найден список доменов с тайпосквоттингом (опечатками).

Вот инструмент для проверки, находится ли ваш домен в этом списке:

https://dejan.ai/tools/typosquatting/

@MikeBlazerX

Читать полностью…

Mike Blazer

Как Airbase удвоил органический трафик за 9 месяцев

ФинТех-стартап Airbase удвоил количество уникальных пользователей из органического небрендового трафика и увеличил ежемесячное количество клиентов на 40% благодаря систематической контент-стратегии для нижней части воронки.

За девять месяцев было создано 56 оригинальных статей, написанных людьми и нацеленных на ключевые слова нижней части воронки.

Трансформация началась с переориентации создания контента с верхней части воронки на нижнюю (BOFU-стратегия).

Предыдущие SEO-стратегии предлагали контент, не соответствующий основной аудитории высокообразованных финансовых специалистов, но подход BOFU был конкретно нацелен на потребности лиц, принимающих решения.

SEO-стратегия работала через четыре взаимосвязанные системы.

Журнал приоритетов SEO служил основой основ, отслеживая возможности контента, прогресс и показатели эффективности.

Приборная панель SEO Testing Dashboard отслеживала текущие эксперименты по оптимизации, начиная с обновления метаописания и заканчивая таргетингом фичерд сниппетов.

Анализ ключевых слов определял высокоценные возможности в рамках общего адресного рынка.

Шаблоны контент-брифов стандартизировали процесс создания, обеспечивая соответствие каждого материала поисковому интенту и целям конверсии.

Еженедельные операции следовали строгому процессу.

Каждая сессия начиналась с анализа возможностей и жесткой приоритизации проектов.

Рабочий процесс двигался от поиска ключевых слов к контент-брифам, затем в очередь публикации контент-команды.

Такой систематический подход превратил производство контента в повторяемую, масштабируемую операцию.

Первоначальный фокус на генерации ежемесячного количества клиентов оказался решающим для поддержания импульса стратегии.

Хотя общий рост трафика занял время, первые BOFU-статьи быстро начали конвертировать, демонстрируя эффективность стратегии.

Данные Ahrefs показали значительный рост небрендового трафика, опережающий брендовый, с заметными улучшениями позиций в топ-3 и топ-10.

Параллельные оптимизационные инициативы дополняли контент-стратегию.

Стратегия SEO-тестирования постоянно улучшала эффективность страниц, а оптимизация рич сниппетов повышала видимость в СЕРПах.

Эти комбинированные усилия поддерживали рост трафика и конверсий на протяжении всего девятимесячного периода.

https://loganbryant.com/airbase-pre-acquisition-seo-case-study

@MikeBlazerX

Читать полностью…

Mike Blazer

LLMs.txt: Делаем сайты читаемыми для AI-поиска

llms.txt - это аналог robots.txt, но для LLM, помогающий AI-моделям лучше понимать контент вашего сайта.

llms.txt улучшает видимость в AI-поиске, предоставляя чистую, структурированную версию контента сайта, которую большие языковые модели могут легко обрабатывать и понимать.

GPTBot, PerplexityBot и ClaudeBot ежедневно активно фетчат эти файлы, используя их для лучшей интерпретации и индексации контента сайта.

Файл требует специального markdown-форматирования в корневой директории сайта.

Правильный llms.txt содержит три основных элемента: название проекта в виде заголовка H1, краткое изложение ключевой информации в виде блочных цитат и подробные разделы контента.

Вариант llms-full.txt объединяет всю техническую документацию в один комплексный файл.

Примеры эффективной имплементации llms.txt можно увидеть здесь, а llms-full.txt - здесь.

Директория llms.txt (directory.llmstxt.cloud) показывает более 70 крупных AI-компаний, уже использующих этот стандарт, включая Cursor AI, Anthropic и Perplexity.

Для имплементации файл должен быть помечен как noindex для традиционных поисковых систем, оставаясь при этом доступным для AI-краулеров через директивы robots.txt:

User-agent: *
Disallow: /llms.txt


Теперь вы можете сгенерировать свой собственный llms.txt файл, используя этот бесплатный инструмент:

https://wordlift-create-llms-txt.hf.space/

@MikeBlazerX

Читать полностью…

Mike Blazer

EEAT - это больше, чем просто теоретическая концепция

Основываясь на своем непосредственном опыте работы асессором Google, Сайрус Шепард объясняет, как EEAT практически влияет на поисковую выдачу через три различных механизма.

1. Существуют прямые сигналы, такие как авторитетные обратные ссылки и PageRank.

2. Происходит оценка асессорами, которые систематически анализируют сайты.

3. Системы машинного обучения Google тренируются на этих человеческих оценках.

Аспект машинного обучения особенно убедителен: тысячи асессоров оценивают сайты на основе критериев EEAT, создавая огромные наборы данных для обучения алгоритмов Google.

Эти тренировочные данные напрямую влияют на то, как Google определяет и ранжирует качественный контент, делая EEAT не корреляционным, а конкретным фактором.

В то время как некоторые SEO-специалисты могут отвергать EEAT как нечто абстрактное, инсайты Шепарда, полученные во время работы асессором, показывают его реальное влияние на позиции в поиске.

Как и в случае с дебатами о поведенческих сигналах и общесайтовых факторах, которые в итоге разрешились, роль EEAT в системе ранжирования Google стала более понятной и применимой для SEO-специалистов.

@MikeBlazerX

Читать полностью…

Mike Blazer

Слишком много людей всё ещё спорят о том, можно ли технически что-то продвинуть в топ, вместо того, чтобы задуматься, а нужно ли это пользователям вообще.

Эти же люди потом будут жаловаться на очередной апдейт алгоритма.

@MikeBlazerX

Читать полностью…

Mike Blazer

Вы когда-нибудь задумывались, сколько поисковых запросов в Google реальные, а сколько от ботов?

Похоже, теперь у нас есть ответ.

16 января Google выпустил апдейт, который временно заблокировал ботов, парсящих СЕРПы, таких как SEMRush, Ahrefs и тысячи других.

Если проверить количество показов в GSC за этот день и сравнить с предыдущими днями, можно заметить падение.

Я проверил три домена и обнаружил среднее падение показов на 25%, пишет Идрисс Хуадер.

Получается, что 25% показов на самом деле приходится на ботов. 🤯

@MikeBlazerX

Читать полностью…

Mike Blazer

Интересно, что "What People Are Saying" показывает не только выдержки из социальных сетей (например, LinkedIn, YouTube и TikTok), но и блог-посты брендов, если у статьи есть связанный автор.

Обратите внимание, что все примеры показывают имя автора в карусели.

@MikeBlazerX

Читать полностью…

Mike Blazer

Хотите расширить тематику?

Делать это на том же сайте или начать новый?

Всё просто: если новая тематика близка к текущей тематике сайта, то делайте на том же сайте.

Но если это совершенно другое направление, то хорошая идея — начать новый сайт.

Даже Дэнни Салливан, представитель Google в SEO-сообществе, выступая на Google Search Central в Цюрихе в декабре 2024 года, сказал: "Для масштабных расширений может потребоваться создание отдельного сайта или домена, чтобы не запутать поисковые системы или пользователей".

У размещения новых тематик на существующем сайте могут быть определенные преимущества, но они работают только если новая тема достаточно релевантна текущей тематике сайта.

В противном случае — нет.

@MikeBlazerX

Читать полностью…

Mike Blazer

Локальное SEO часто понимают неправильно, особенно в отношении того, как бизнес-профили Google и URL-адреса веб-сайтов взаимодействуют с позициями в поисковой выдаче.

Распространенное заблуждение заключается в том, что Google отдает предпочтение главным страницам в локальной выдаче, но это фундаментальное непонимание причинно-следственной связи.

Дело не в том, что Google предпочитает морды сайтов - это владельцы бизнеса и SEO-специалисты постоянно регистрируют свои главные страницы в Google Business Profile.

Это становится очевидным при анализе типичной локальной выдачи.

Если посмотреть результаты поиска по запросам вроде "Seattle plumber" или "Seattle faucet repair", можно увидеть карточки компаний с разными URL домашних страниц:

— Обычная домашняя страница
— Домашняя страница с UTM-метками
— Домашняя с реферальными кодами
— Домашняя с несколькими параметрами отслеживания

Эти различные вариации URL явно показывают, что это выбор владельцев бизнеса, а не предпочтения Google.

Платформа просто отображает то, что сами компании регистрируют в своих профилях.

Многие упускают из виду важный момент: хотя домашняя страница отображается в GBP, это не обязательно то, что влияет на ранжирование.

На самом деле происходит следующее: краулер Google находит релевантный контент о конкретных услугах (например, о ремонте кранов) где-то на сайте (в блогах или на страницах услуг) и ранжирует профиль компании по этому запросу, даже если в профиле стоит ссылка на главную страницу.

Это создает парадокс, когда ранжируемая страница (главная) отличается от страницы, влияющей на ранжирование (внутренняя страница услуги).

Это недопонимание создает серьезную проблему при анализе SEO-инструментами.

Эти инструменты часто анализируют URL домашних страниц конкурентов из локальной выдачи, предполагая, что они оптимизированы под определенные ключевые слова.

Это приводит к неверным рекомендациям по оптимизации, поскольку ранжирование основано не на контенте главной страницы, а на контенте, найденном в других разделах сайта.

Для правильного анализа и оптимизации под локальный поиск необходимо:

1. Запустить отчет по обычной веб-выдаче (не локальной)
2. Определить лучшую страницу услуги клиента под целевой запрос
3. Сравнить ее с лучшими страницами в веб-выдаче по этой услуге
4. Оптимизировать на основе традиционных SEO-метрик из результатов веб-поиска

Правильный подход к локальному SEO включает два ключевых компонента:

1. Корректная настройка GBP
2. Выполнение традиционной SEO-оптимизации конкретных страниц услуг, сравнивая их с результатами веб-поиска, а не URL главных страниц из локальной выдачи

@MikeBlazerX

Читать полностью…

Mike Blazer

Различия между количеством запросов доступных через GSC API и через BigQuery - где их в 3+ раза больше

@MikeBlazerX

Читать полностью…

Mike Blazer

Теперь, когда все SEO-отчеты за год уже подведены, хочу поделиться выводами по моей клиентской базе, пишет Мэтью Браун.

СРАБОТАЛО:

— Переработка внутренней перелинковки с фокусом на контентные "солнечные системы" в рамках связанных тематик.

Сокращение общего количества ссылок по сайту в пользу перелинковки внутри этих тематических групп.

— Переработка юзабилити, особенно та, что снижает сложность доступа к основному контенту.

Уменьшение необходимых кликов, скроллинга и всего, что мешает восприятию.

— Скорость выхода контента.

Это всегда работало в новостях, но теперь похоже стало серьезным фактором и в органической выдаче.

Тут надо идти гораздо дальше, чем просто поставить "обновлено в январе 2025" в теге.

Команды по соцсетям и контенту, которые следят за изменениями в первых рядах, очень важны для этого.

— Постоянное улучшение самого эффективного контента.

Сложно убедить команды работать над страницами, которые уже хорошо ранжируются, но опережение конкурентского контента реально приносит дивиденды как в органике, так и в AI-поисковиках.

Никогда не забывайте про ваши лучшие страницы!

— Переработка ALT-текстов и подписей к изображениям.

Это дало более сильный положительный эффект, чем в прошлые годы.

Теория — усилилось внимание к этому для подготовки результатов по картинкам к включению в генеративные движки.


НЕ СРАБОТАЛО:

— Фокус на Core Web Vitals.

Уже который год подряд я экономлю время и деньги клиентов, используя их только как диагностический инструмент для выявления потенциальных проблем с юзабилити, а НЕ как метрики для улучшения.

— Расширение типового контента.

Похоже, времена, когда можно было запускать страницы, которые по сути дублируют уже существующий контент, прошли, даже на очень авторитетных доменах.

Я очень скептически отношусь к заявлениям типа "давайте сделаем свои рецепты/тексты песен/спортивные обзоры".

— Переработка SEO-тегов (с использованием AI-решений или без).

Если теги не в совсем плохом состоянии, небольшие улучшения тайтлов/дескрипшенов/схем и т.д. уже не меняют результат так, как раньше.

БОЛЬШОЕ исключение: Когда нужно добавить локальные сигналы, игнорируйте предыдущие предложения.

— Доработка Schema.org разметки.

Как и с тегами выше — разметка полезна для поддерживаемых поисковых фич, но её улучшение, похоже, ничего не даёт.


НА ЧТО ОБРАТИТЬ ВНИМАНИЕ В 2025:

— Исправьте недружелюбный к пользователям UX, особенно рекламу.

Плохие поведенческие сигналы сейчас важнее практически всего остального в SEO.

У меня есть целая презентация про рекламу, за которую меня, наверное, захотят распять все команды по монетизации в интернете.

— Прекратите пытаться подстроиться под AI-ответы и генеративный поиск.

К тому моменту, как вы создадите контент, копирующий формат того, что показывается сейчас, пользователи и поисковики могут уйти дальше.

Делайте максимально качественно и пусть будет, что будет.

— Не позволяйте техническому SEO выпадать из ключевых компетенций.

Оно уже не даёт такого сильного эффекта, как раньше, поэтому я вижу, как сайты забрасывают его.

Это создаст возможности, если вы не будете одним из них.

@MikeBlazerX

Читать полностью…

Mike Blazer

На Flippa продали аккаунт в TikTok.

Как думаете, за сколько продали тикток-аккаунт с 519 000 подписчиков?

За $2500 ☠️ ☠️ ☠️

Аккаунты в TikTok сейчас продаются за гроши.

Немного статистики:

519к подписчиков
457к среднее количество просмотров на пост!
$6к заработано за все время
Ниша: юмор и лайфстайл

Финальная цена продажи - $2.5к

@MikeBlazerX

Читать полностью…

Mike Blazer

Жизнь сеошника

@MikeBlazerX

Читать полностью…

Mike Blazer

Домашняя страница заточенная под все ключи

@MikeBlazerX

Читать полностью…

Mike Blazer

Когда выкатили изменения не заглянув в справку Гугла

@MikeBlazerX

Читать полностью…

Mike Blazer

Клиент сообщил, что их компания не появляется в ответах ChatGPT при поисковых запросах вида "best [категория] software", несмотря на то, что они являются известной публичной компанией.

Мы провели анализ и выяснили причину, пишет Дж. Х. Шерк:

ChatGPT "считает" их некачественным решением:

Последующее объяснение оказалось собранием всего негативного пресс-освещения и негативной реакции сообщества, накопившихся за годы.

Это пошаговый каталог всего, что вредит их репутации и восприятию на рынке.

Всё справедливо, но безжалостно, без каких-либо смягчений.

В отличие от традиционного управления репутацией в поиске, где достаточно продвинуть несколько URL-ов для подавления негативных публикаций, здесь нет очевидного решения.

Не совсем понятно, что делать, и нет гарантии, что "противодействие негативу позитивными публикациями" действительно исправит ситуацию.

Дикий запад

@MikeBlazerX

Читать полностью…

Mike Blazer

Какие психологические триггеры больше всего влияют на коэффициент конверсии?

Существует множество триггеров, которые вы можете использовать, и на первый взгляд многие из них приведут к увеличению количества кликов на ваши призывы к действию, но клики не всегда означают увеличение конверсии.

Вот что было обнаружено, проведя тесты на более чем 1,5 миллионах посетителей.

@MikeBlazerX

Читать полностью…

Mike Blazer

Странно, что один сайт соответствует всем требованиям Google из "Руководства по качеству поиска", а другой - нет, но их траектории после апдейта "Полезного контента" были практически одинаковыми.

Прошло почти полтора года после сентябрьского обновления HCU 2023 года, и меня до сих пор удивляет масштаб сопутствующего ущерба, который произошел в результате этого обновления, пишет Лили Рэй.

Не говоря уже о том, что практически ни один из пострадавших сайтов не показал какого-либо значимого восстановления.

Более того, те сайты, которые частично восстановились за последний год, позже часто снова теряли SEO-видимость.

С момента запуска HCU в 2022 году я потратила бесчисленные часы на анализ сотен пострадавших сайтов, и хотя многие сайты, безусловно, заслуживали потери SEO-видимости в результате HCU, было много сайтов, потерявших более 70% SEO-видимости, которые на самом деле неплохо следовали рекомендациям Google.

Я видела десятки примеров сайтов, которые четко следовали рекомендациям Google по EEAT - особенно что касается нового "E" (Experience).

Я сделала скриншот формулировки из Google Search Quality Guidelines о том, что Google ищет в контенте касательно демонстрации опыта из первых рук.

Множество небольших издателей, использовавших реальные команды авторов с реальным опытом из первых рук, оригинальными мыслями, точками зрения и фотографиями, часто страдали от HCU так же, как и сайты, полностью полагающиеся на AI-контент, стоковые фотографии, агрессивную рекламу и шаблонный, неоригинальный, бесполезный контент.

По моему мнению, Google не следовало запускать ML-обновление, которое, очевидно, не могло делать такие различия.

Это нанесло серьезный удар по сообществу малых издателей, заставило многих опытных авторов закрыть свои проекты, и, на мой взгляд, это не улучшило общее качество результатов Google.

Возьмем два трэвел-блога ниже.

Мне кажется странным, что один сайт (красный) соответствует всем требованиям Google из "Руководства по качеству поиска", а другой (синий) вообще не соответствует, но их траектории после HCU были практически одинаковыми.

Я знаю, что многие SEO-специалисты обычно реагируют на эти проблемы, говоря что-то вроде "ну что ж, они получили по заслугам".

Но не только я считаю, что HCU зашел слишком далеко.

Фактически, Google провел очный саммит для создателей контента, пригласив многих владельцев сайтов, пострадавших от HCU, чей контент, очевидно, не был причиной их падения.

Есть множество историй с того дня, где Google фактически признал, что у этих владельцев сайтов был отличный контент, и Google хочет лучше работать, чтобы не допускать таких ошибок в будущих обновлениях.

Предположительно, Google исправит ситуацию и улучшит алгоритм со временем.

Но для многих малых издателей, пострадавших от этих обновлений, это слишком мало и слишком поздно.

И до сих пор нет серьезных признаков того, что их сайты могут значимо восстановить трафик.

@MikeBlazerX

Читать полностью…

Mike Blazer

При сравнении двух временных периодов в аналитике полезно сопоставлять дни недели между собой, так как паттерны в будни и выходные могут сильно различаться.

Google Search Console не предоставляет такой возможности, поэтому вот Chrome-расширение, которое поможет вам рассчитать эти даты:

https://chromewebstore.google.com/detail/same-weekday/ccikonakpamhonnbmmpjnpkbafbomcfh

@MikeBlazerX

Читать полностью…

Mike Blazer

Когда речь идет об использовании Schema для главной страницы сайта, я обычно склоняюсь к двум типам разметки и рекомендую их (особенно для интернет-магазинов), пишет Броди Кларк.

Это Schema-разметка Organization и WebSite – теги, в которых я вижу реальную пользу, но которые часто отсутствуют на главных страницах сайтов.

WebSite схема особенно важна, так как влияет на отображение названия сайта в поисковой выдаче – Google часто использует название, указанное в этом теге, для показа в СЕРПах.

Для крупных интернет-магазинов с несколькими региональными доменами часто бывает, что на главной странице основного региона (например, США) тег прописан корректно, но на сайтах других регионов WebSite схема отсутствует.

Это может привести к беспорядку в СЕРПах Google и путанице в сигналах.

Например, недавно я работал с сайтом, у которого не было WebSite схемы на домене AU, из-за чего в качестве названия сайта случайным образом отображался домен NZ (например, Example.co.nz), хотя должно было отображаться просто "Example" или "Example AU".

Что касается Organization схемы – это, по сути, обязательный элемент.

В последние годы я замечаю, что её влияние значительно выросло.

Например, был случай с сайтом, который не отображался как сущность в автодополнении поиска.

После добавления Organization схемы, через неделю после внедрения, в автодополнении начала показываться расширенная карточка бренда.

То же самое можно сказать о панели знаний для брендов/магазинов.

В последнее время на отображение панели знаний для интернет-магазинов сильно влияет Merchant Centre Next, где теперь есть такие функции, как способы оплаты, популярные товары, информация о доставке и возвратах, и даже AI-чат, который показывает бесплатные листинги.

Хотя на стабильное отображение этой панели для вашего бренда влияют различные факторы (известность и размер компании, часто важна статья в Википедии), я заметил, что информация в Organization схеме служит основным резервным сигналом для некоторых включений.

Недавно влияние Organization схемы на панели знаний для магазинов усилилось – теперь Google позволяет указывать в этой разметке политики в отношении товаров, например, условия возврата, что еще раз подтверждает важность размещения этой разметки на главной странице сайта.

На базовом уровне внедрения схемы я рекомендую обязательно разместить и Organization, и WebSite на главной странице вашего сайта.

Очевидные преимущества для SEO игнорировать не стоит.

@MikeBlazerX

Читать полностью…

Mike Blazer

Весной 2024 года Сайрус Шепард провел эксперимент по проверке эффективности инструмента отклонения ссылок (disavow) Google.

В первом тесте были отклонены все ссылки на уровне доменов для тысяч сайтов.

Спустя два месяца трафик немного вырос вместо того, чтобы снизиться, что вызвало скептицизм в SEO-сообществе относительно слишком короткой продолжительности теста.

Это привело к трем дополнительным экспериментам:

1. Отклонение трети всех ссылок на протяжении 3.5 месяцев, предполагая, что Google мог проигнорировать первоначальное массовое отклонение как потенциальную ошибку
2. В октябре 2024 года повторное отклонение всех ссылок
3. В начале 2025 года полное удаление disavow-списка ссылок

Ни один из этих экспериментов не показал значительного влияния на трафик или позиции сайта.

Эксперименты показали, что основная ценность инструмента дезавуирования заключается в снятии ручных санкций.

Это подтверждается случаем с компанией-разработчиком ПО, где месяцы переписки со спам-командой Google потребовали все более агрессивного отклонения ссылок и удаления контента.

Хотя они в итоге добились снятия санкций, в процессе они потеряли большую часть своего первоначального трафика.

Для обычной SEO-работы disavow-инструмент оказался неэффективным, хотя некоторые специалисты продолжают использовать массовое отклонение для проблемных доменов вроде сайтов на blogspot, Firebase-приложений и сайтов-парсеров в качестве превентивной меры.

Существует теория, что инструмент может влиять только на негативные ссылки, не затрагивая позитивные, хотя это остается недоказанным.

@MikeBlazerX

Читать полностью…

Mike Blazer

90% сложностей в SEO возникает из-за того, что у сеошников есть свое мнение.

@MikeBlazerX

Читать полностью…

Mike Blazer

Предположим, вы настроили 301 редирект со страницы на другую страницу.

Но ваш сервер был неправильно сконфигурирован.

В том смысле, что X-Robots-Tag устанавливает тег noindex.

Оказывается, Google полностью проигнорирует ваш 301 редирект.

Сигнал noindex имеет приоритет.

Впервые столкнулся с таким странным случаем, когда 301 редиректы не работают для поисковика, пишет Ян Каерелс.

Если бы не Google Search Console, я бы никогда этого не заметил.

PS: Для ясности, X-Robots-Tag:none был установлен на URL, с которого осуществлялся редирект.

То есть, по сути, Гуглобот обрабатывает это похожим образом, как блокировку краулинга в robots.txt.

Он даже не запрашивает конечный адрес 💡

@MikeBlazerX

Читать полностью…

Mike Blazer

Исследование Тома Каппера выявило сильную корреляцию между авторитетом бренда и успехом в поисковой выдаче Google, причем сайты с высоким авторитетом стабильно показывали лучшие результаты во время обновлений алгоритма.

Развивая эту мысль, неопубликованный анализ брендовых анкоров от Сайруса Шепарда показал, что успешные сайты поддерживали примерно 20% брендовых ключей в своем ссылочном профиле, в то время как сайты с низкими показателями имеют всего 1-2%, независимо от других SEO-факторов.

Это понимание привело к фундаментальному сдвигу в SEO-рекомендациях Сайруса.

Вместо того чтобы концентрироваться исключительно на построении контентных ссылок с оптимизированными анкорами, Шепард теперь советует клиентам отдавать приоритет линкбилдингу, ориентированному на компанию и людей.

Такой подход согласуется с выводами Джейсон Барнарда о способности Google определять связи между сущностями, что указывает на возможности усиления сигналов бренда через стратегические упоминания от авторитетных сайтов и графов знаний.

Важность видимости бренда была проиллюстрирована случаем с клиентом, который изначально отказывался размещать логотип или навигацию на своем сайте, фокусируясь исключительно на помощи пользователям.

Потребовался год убеждений, чтобы продемонстрировать, что видимость бренда критически важна для генерации брендированных поисковых запросов и навигационного трафика — потенциально важных сигналов для Google.

Аналогично, Moz продемонстрировал эффективное построение бренда, последовательно называя свои инструменты (Moz Rank, Moz Top 10, Moz Learning Center), что дало им преимущество перед такими конкурентами, как SEMrush, который изначально испытывал трудности с менее запоминающимся названием.

Хотя некоторые утверждают, что "советовать сайту построить бренд — всё равно что советовать бездомному купить дом", данные показывают, что построение бренда не требует узнаваемости уровня IBM.

Начать можно всего с 10-100 брендовых запросов в месяц, чтобы создать конкурентное преимущество.

Ключевой момент — обеспечить, чтобы ссылки и упоминания фокусировались на самой компании, а не только на её контенте, через такие активности, как участие в подкастах и полную информацию о компании.

@MikeBlazerX

Читать полностью…

Mike Blazer

Есть гораздо более эффективный способ изучения ссылочного профиля домена, чем проверка DR/DA/TD/CF!

1. Сделайте копию этой Google таблицы.

Откройте ее, FILE > MAKE A COPY, убедитесь, что скрипты тоже копируются.

2. Зайдите в Ahrefs и введите домен

3. В левом меню кликните на REFERRING DOMAINS

4. Измените SHOW HISTORY на "Don't Show"

5. Экспортируйте все внешние ссылки в Google таблицу

6. Удалите колонку A, затем скопируйте все данные в скопированную выше таблицу во вкладку REFERRING DOMAINS (там оставлена 1 строка для примера)

7. Кликните EXTENSIONS > APPS SCRIPTS

8. В редакторе скриптов убедитесь, что в выпадающем списке выбран "populateReferringDomainsInsights" и нажмите RUN - он запросит разрешения, предоставьте разрешения для запуска

9. Когда выполнение завершится, вернитесь в таблицу и перейдите на вкладку REFERRING DOMAIN INSIGHTS

Теперь у вас будет обзор того, сколько бэклинков попадает в каждую группу по трафику.

Это дает два представления:

1. Внешние ссылки по показателям трафика

2. Внешние ссылки по показателям трафика + группировка по DR

Таким образом, вы получаете наглядное представление о распределении трафика с внешних ссылок.

Это очень общий взгляд, НО это отличный способ увидеть, какая часть ссылочного профиля домена реально обеспечивается доменами с трафиком.

DR сам по себе бесполезен - потому что его легко накрутить.

НО прогнозируемый трафик - гораздо лучший индикатор здоровья домена.

Поэтому если у вас ОГРОМНОЕ количество бэклинков в группах с низким трафиком, то есть:

0-100, 101-1k, 1k-5k, возможно, стоит внимательнее присмотреться к вашей стратегии линкбилдинга.

Есть также другие факторы, такие как спам от внешних ссылок без вашего влияния (с которым сталкиваются некоторые сайты).

ВАЖНО: НИ В КОЕМ СЛУЧАЕ НЕ НУЖНО ДЕЛАТЬ ДЕЗАВУИРОВАНИЕ, если только у вас нет ручных санкций ИЛИ если нет явного спама от внешних ссылок, где есть корреляция между началом/происхождением спама и видимым влиянием на сайт.

@MikeBlazerX

Читать полностью…

Mike Blazer

Почему многие SEO-специалисты останутся без работы через 24 месяца (если не изменятся)

Предложение в SEO превышает спрос.

В результате рынок снизил цены.

Большинство агентств берут столько же, сколько 5-7 лет назад, что фактически означает сокращение выручки более чем на 20%.

Вдобавок к этому, затраты на персонал выше, инфляция кусается, и это тоже влияет на доходы.

Входит AI.

SEO-специалисты делают 1 из 4 вещей.

1. Херачат AI-контент (нажмите сюда, чтобы сгенерить 200 статей).

2. "Усилия первого результата": когда люди просто используют первое, что выдает AI.

3. "Смотрите, какой я умный": множество бесплатных и платных инструментов ИИ, которые не обеспечивают эффективности.

Они просто плохо делают то, что вы уже умеете делать.

4. Продуктивный AI-пользователь.

Именно последний способ имеет значение.

Видите ли, AI — это инструмент, который поставляется без инструкции.

Значит, вам самим нужно во всем разобраться.

И именно этот пробел ставит ваши рабочие места под огромный риск.

Потому что высокопродуктивные SEO-специалисты, вооруженные AI, заберут ваши рабочие места и клиентов.

Но НЕ по тем причинам, о которых вы думаете.

Да, они будут более продуктивными.

Однако дело не в количестве... а в том, куда направлена эта продуктивность.

Некоторые используют её для достижения более быстрых результатов для клиентов, что ведет к росту эффективности и улучшению репутации.

Другие используют её для снижения затрат и, следовательно, получат больший маркетинговый бюджет для роста.

А для некоторых высвобожденное время будет использовано для увеличения собственной маркетинговой активности.

И вы не увидите, как это увеличение происходит поэтапно.

Это будет происходить через удержание клиентов и маркетинговую активность в течение следующих 24 месяцев.

Проблема для вас заключается в том, что на смену вам придут SEO-специалисты, которые используют ИИ для выполнения превосходной работы с большей скоростью.

— Именно эти SEO-специалисты получат работу.
— Именно эти сеошники выиграют больше клиентов.
— Именно этих сеошников будут искать работодатели.

Примите AI или будьте заменены.

Но... это не задача ваших работодателей — учить вас этому.

Вы не можете быть пассажиром в своем AI-путешествии.

Вам нужно научиться улучшать свою роль с помощью AI.

Конечно, агентства должны лидировать в этом.

Но ежедневное использование AI "в окопах" зависит от вас.

— Нет оправданий плохим тайтл-тегам.
— Нет оправданий слабому контенту.
— Нет оправданий небрежной SEO-стратегии.

Жесткая реальность для SEO-специалистов не в том, "использовали ли вы AI?"

А в том, что вы должны уметь рассказать своему руководству, "как вы использовали AI" для улучшения работы.

AI помогает вам делать больше, оставаясь собой.

И рынок будет требовать AI-грамотности.

Не проспите это.

Погружайтесь прямо сейчас.

@MikeBlazerX

Читать полностью…

Mike Blazer

Гуглер 1: Было бы здорово занять первое место по запросу "AI"?

Гуглер 2: Кажется, у меня есть идея...

@MikeBlazerX

Читать полностью…
Subscribe to a channel