Наткнулся на интересную реализацию региональности у интернет-магазина, которую до этого ни разу не встречал. Сайт - alltime.ru, классический ИМ (интернет-магазин) на битриксе.
По регионам с ИМ принято работать двумя способами: поддомены и монодомен. Плюсов у одного домена сильно больше - нет негатива от гугла, не надо вкладываться в бессмысленное ссылочное этих поддоменов, не надо думать о краулинговом бюджете, склейках и проблемах с индексацией. Собственно поэтому Мвидео, ДНС и прочие давно съехали на один домен.
Так вот, региональная стратегия у Alltime - динамические папки для страниц фильтров и категорий, через которые они собирают запросы из городов кроме Москвы. Настроено грамотно, региональность включается не для всех фильтров и не для всех комбинаций, а только там где есть трафик. В общем, рекомендую покопать самостоятельно, позиции и трафик и говорят о том, что схема прекрасно работает.
💥 Гугл помнит всё!
Индекс Google работает по принципу Wayback Machine. Он предназначен для долговременного хранения множества копий страниц. Это дает поисковой системе возможность сравнивать версии страниц и определять, как часто необходимо просматривать страницу в зависимости от частоты ее существенных обновлений.
Это хранилище используется также для сравнения корреляции. Отсюда есть несколько крайне важных выводов.
1. Недостаточно купить дроп-домен, набросать на него нерелевантный контент (на существовавшие ранее URL) и ждать, что он займет прежние позиции. Как правило, это не сработает.
2. Перенаправление URL на нерелевантный целевой (например, на домашнюю страницу) приводит к Soft 404. Это относится как к дропам, так и к работающим доменам. Google знает, что ранее находилось на исходном URL, и может сравнить то, что было проиндексировано ранее, с тем, что находится на целевом URL. Дословно: Мы не рекомендуем настраивать переадресацию с нескольких старых URL на одну страницу, контент которой не имеет к ним отношения, например на главную страницу нового сайта. Это может вводить пользователей в заблуждение и рассматриваться как ошибка soft 404.
3. Именно поэтому крайне нежелательно размещать ссылки на проиндексированных страницах (покупать ссылки). Необходимо добавить новый абзац с релевантным текстом и из него уже строить ссылку на ваш сайт.
и т.д. и т.п.
По сути, Google никогда не забывает о контенте, расположенном на странице. При этом он постепенно совершенствует свои возможности по использованию исторических данных для ограничения способов быстрого/несправедливого ранжирования, которые раньше работали крайне успешно.
Что по-прежнему работает, так это перемещение одного и того же контента со страницы А на страницу Б с применением 301-го редиректа. Это лучший способ сохранить траст, ранжирование и трафик.
Вообще, неспособность Гугла "забывать" контент крайне смущает оптимизаторов (тех кто об этом знал). Например, страницу со снятым с производства товаром необходимо перенаправлять на релевантную страницу, а не просто на какой то раздел, чтобы не профукать накопленный траст и не погрязнуть в Soft-404 ошибках. Неправильная работа с устаревшими страницами может попросту убить ранжирование.
Про дроп-сайты и говорить не хочу.Только единицы умеют управляться с ними и в большинстве случаев ссылки/редиректы дропов не принесут ничего хорошего.
Очень интересно, что вся проверка семантики строиться на векторах. Сейчас векторные сравнения и сопоставления контента выходят на первый план и по значимости превосходят влияние ссылочного.
Считается, что Гугл измеряет релевантность, вычисляя косинусное сходство векторов контента. Точно так же Google может вычислять сходность контента при определении того, связаны ли источник и цель 301 редиректа или простой ссылки, построенной вами на доноре. Он считает семантическое расстояние между страницей донора и акцептора и если оно находится в пределах определенного порога, то , например, 301 перенаправление допустимо и передается траст Если это не так, то это Soft 404s. Ну и совершенно аналогично и с простой ссылкой.
Таким образом, знание того как работает индекс Гугла поможет вам избежать досадных ошибок и ненужных трат.
А в целом это тема для огромной статьи, писать которую мне пока недосуг.
#DrMax #Google #Serp
Google порезал FAQ и HowTo в результатах поиска
Что поменялось:
– Блоки из FAQ-разметки будут отображаться в сниппетах только наиболее известных и авторитетных государственных и медицинских сайтов.
– Содержимое HowTo-разметки больше не будет отображаться для пользователей мобильных устройств.
– Затронет все языки и гео
– Изменения окончательно вступят в силу до 15.08.23.
Источник: Google Search Central Blog
Всем привет! Очень ищу копирайтера со знанием специфики IT услуг, т.е. нужно не просто писать все, что есть в голове, а разбираться в продукте и описать b2b услугу. Пишите в ЛС @vakravcov
Читать полностью…Как запретить ChatGPT использовать содержимое сайта для обучения?
Теперь это можно сделать в robots.txt таким образом:
User-agent: GPTBot- можно разрешить доступ выборочно, как в случае с другими ботами поисковых систем
Disallow: /
Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; GPTBot/1.0; +https://openai.com/gptbot)- можно заблокировать доступ для диапазона IP (сейчас это
40.83.2.64/28
)Попробуйте сервис для анализа сайта от PR-CY
Это ваш помощник в продвижении: экономит время на SEO-аудите и отслеживании позиций. 😎👌
Что включено:
— Трафик и основные данные по состоянию сайта
— Список страниц с ошибками
— Проверка позиций всего по 3 копейки за ключ
— PDF-отчеты для клиентов
А еще безлимитный доступ к куче инструментов: парсеру топа выдачи, тз для копирайтера, проверке доменов и другим.
🔥 Для подписчиков канала скидка:
До 20 августа -20% на месяц тарифа "Начальный" по промокоду SEOPRAKTIKA20.
-15% на месяц "Профи" по промокоду SEOPRAKTIKA15.
👉 Попробовать анализ
Сетка сайтов на ChatGPT для заработкс на SEO трафике.
Запись доклада Дениса Нарижного на конференции Kinza 360.
https://www.youtube.com/watch?v=KDdxvw35FSs
⚙️ Что важно учесть бизнесу по SEO при разработке сайта, чтобы не переделывать сайт дважды
Вебинар Сергея Юркова на YouTube канале обучающего центра Cybermarketing.
Таймкоды:
0:00:00 Вступление
0:05:03 Представление докладчика и темы вебинара
0:09:39 На каком этапе разработки сайта требуется подключать SEO-специалиста?
0:11:15 После разработки сайта
0:18:15 На этапе разработки сайта
0:19:00 Если не учесть SEOпри обновлении сайта
0:21:39 Как спроектировать структуру под спрос? Этапы проектирования
0:25:32 Как быстро собрать целевые запросы
0:28:12 Группировка запросов по потребностям
0:31:27 ТЗ для простановки внутренних ссылок
0:33:02 Какой контент и функционал требуется заложить на сайте, чтобы поисковые системы считали его экспертным и заслуживающим доверия
0:33:17 Концепция Е-Е-А-Т, в тематиках YMYL в Google
0:37:28 Минимальный набор
0:41:07 Поиск конкурентов
0:43:39 Как выстроить подготовку оптимизированных текстов для нового сайта без ущерба авторитетности и репутации бизнеса
0:44:58 Составляющие оптимизированного текста
0:50:03 Пример сложной тематики по текстам
0:55:11 Ответы на вопросы
https://www.youtube.com/watch?v=hhE4uV-GO_E
Михаил Шакин aka Глобатор, @shakinru #разработка #eeat #структура
🪖 Даём отпор армии ботов с помощью CloudFlare
Год назад я подготовил подробную инструкцию и записал видео, о том как отбиваться от ботов с помощью CloudFlare. Неожиданно для меня самого, инструкция начала расходится по чатам.
Через какое-то время на меня посыпались вопросы, о том, что интерфейс сервиса поменялся и требуется новая инструкция. Но боты меня не беспокоили, поэтому я отвечал, что подготовлю в тот момент, когда будет актуально.
Вселенная меня услышала и на один из сайтов навалились десятки тысяч ботов с прямыми заходами и из поиска, и я понял что это знак.
➡️ Ниже список правил и краткий мануал о том, как за 5 минут отбиться. Здесь надо понимать, что последний тренд разворачивать ботовые сетки на IPv6, скорее всего этого правила вам будет достаточно, но заодно актуализируем все остальные.
🖍 Все правки происходят через Edit expression
, чтобы не перепечатывать правила, вставляете строчку и жмете Use expression builder
.
Итак, заходим в CloudFlare, добавляем сайт, переходим в Security - WAF
, жмём Creat rule
и погнали:
🧡Правило #1: Пускаем хороших ботов
Rule name: Good Bots
Правило - (cf.client.bot) or (http.user_agent contains "Mail.RU_Bot")
Action: Skip (пропускаем) и ниже выбираем все доступные галочки. Жмём Save.
🧡Правило #2: Фильтруем IPv6 и заход на HTTP
Rule name: IPv6 / HTTP
Правило: (ip.src in {::/0}) or (not ssl)
Action: Managed Challenge
🧡Правило #3: Проверяем всех, кто идет с протоколом меньше HTTP2 или заходит напрямую
Rule name: HTTP<2 / Direct
Правило: (not http.request.version in {"HTTP/2" "HTTP/3" "SPDY/3.1"}) or (http.referer eq "")
Action: JS Challenge
🧡Правило #4: (доп.) Блокируем страны. В метрике открываем Отчёты - Аудитория - География
и проверяем, на аномалии
Rule name: Country Block
Правило: (ip.geoip.country ne "RU" and ip.geoip.country ne "BY" and ip.geoip.country ne "KZ")
или (ip.geoip.country eq "GB")
Action: Block (всех кроме указанных стран - заблокировать, либо блокируем только выбранную страну).
🖥 Пошаговая инструкция уже на канале 🖥
Более 90% SEO-специалистов занимаются линкбилдингом. Эксперты Sape отмечают, что ссылочное продвижение — важный элемент в процессе оптимизации в Google и Яндекс.
Мы знаем как много времени и сил уходит на подбор площадок для размещения ссылок. SEO - стратегическая услуга. На практике первый результат работы эксперта по линкбилдингу можно уведить уже через 3 месяца.
▫️ Делегируйте задачу по линкбилдингу профессионалу от Sape и он сделает все за вас:
▫️ Проанализирует сайт и предложит три стратегии закупки;
▫️ Подберет запросы для продвижения;
▫️ Подберет площадки и подготовит нужные материалы;
▫️ Предоставит прозрачный отчёт о проделанной работе.
Переходи по ссылке, вводи промокод “SEOPRAKTIKA” и получи до 6000 ₽ на покупку ссылок при заказе услуги.
Яндекс обновил формулу расчета рейтинга магазина, который показывается в поиске.
Теперь оценки, выставленные продавцу на Яндекс Маркете, не учитываются.
В среднем у всех магазинов рейтинг снизился на 0,25 балла.
Новая формула учитывает оценки и отзывы, которые пользователи оставляют:
- в Яндекс Браузере;
- на своей Публичной странице.
Оценки пользователей используются с учетом факторов:
- возраст оценки (не используются более старые оценки, если достаточно свежих);
- экспертность пользователя, который поставил оценку;
- наличие у Яндекса информации о покупке в интернет-магазине;
- подкрепление оценки отзывом, в котором пользователь подробно описал свой опыт взаимодействия с магазином.
Как посмотреть, какие страницы посещали рейтеры (асессоры) Гугла на вашем сайте
Инструкция для GA4:
1) Идем в отчет Engagement -> Pages and screens
2) Добавляем "Session source / medium" в качестве secondary dimension
3) Вбиваем в фильтр "raterhub.com"
(в русском интерфейсе: Взаимодействие -> Страницы и экраны, добавляем "Источник / канал сеанса").
Яндекс тестирует расширенный формат выдачи в органике для сниппетов.
Раньше такое было только у контекстной рекламы.
Любопытно, почему вдруг вспомнили, что есть Serp?
Или заготовка чтобы ещё более ярко и выгодно представлять свои сервисы? Коллеги замечали, что в мобильной выдаче так же появляются эксперименты.
Ловили такое?
#SEO #Яндекс #Фишки
Как работает система оценки полезного контента в Google
Прошедший полгода назад Helpful Content Update изменил подходы Google к оценке полезности контента на сайте.
Мари Хейнс провела анализ ранжирования сайтов в течение полугода после этого апдейта и написала годный лонгрид об этом.
Но нам с вами лень будет его читать, поэтому выжимка:
1. Helpful Content Update действует постранично — отдельная оценка для каждой страницы.
2. Сайт понижается в выдаче, если большая часть его страниц будет расценена как «неполезные» или «малополезные».
3. Возросла роль ссылочного: страницы, на которые ссылаются качественные ресурсы, скорее всего будут признаны полезными.
4. Возросла роль отзывов: страницы с хорошими отзывами ранжируются лучше. Если таких отзывов много, то весь сайт может улучшить свои позиции.
5. Страницы с хорошей структурой, информативными таблицами, глубоким анализом и ответом на запрос пользователя в начале страницы (включая продажи), ранжируются лучше.
6. Соответствие E-E-A-T стало ещё более значимым фактором признания страницы полезной.
7. Анализ полезности контента происходит постоянно, иногда месяцами, и не обязательно совпадает с объявленными апдейтами.
8. Падение органического трафика после 14.12.2022 вероятнее всего связано с SpamBrain — апдейтом по борьбе со ссылочным спамом. SpamBrain был запущен почти одновременно с Helpful Content Update, а потому бывает сложно понять какой из них вызвал падение.
9. Избавиться от ссылочного спама иногда помогает использование disavow, но сначала нужно убедиться, что снижение позиций наблюдается именно у страниц, на которые размещались те ссылки, которые SpamBrain мог признать спамными.
Источник: mariehaynes.com.
В большинстве негативных отзывов о ссылках главные тезисы: мусорные площадки, посты выглядят как спам, сайты повторяются, тех поддержка работает кое-как, никогда не признают свою ошибку.
😤 Это раздражает.
Хочется доверить свои деньги (или деньги клиента) и быть уверенным в результате.
Но как выбрать сервис, который достойно справится с предлагаемыми услугами?
Без скромности посоветуем сами себя - Zenlink
Наши кейсы: https://zenlink.ru/blog/?categoryIds[]=4
👇При работе мы избегаем:
1. Мусорные площадки и спам - ведь у нас есть поле “Комментарии к проекту” где вы можете указать требования, как к сайтам так и к текстам.
2. Повторяющихся сайтов - внеся ненужные площадки в стоп лист, в отчете вы их не увидите.
3. Долгих ответов от тех поддержки - наш чат работает с 8:00 до 17:00 по МСК, а для особо важных вопросов есть почта: support@zenlink.ru
4. Игнорирования претензий - после размещения проекта у вас будет 7 дней чтобы оспорить или принять каждую ссылку. Мы признаем свою ошибку если заказ был выполнен не по тз.
Убедительно?
Сотрудничайте с нами со скидкой 15% по промокоду seopraktikazen
Промо действует до на все пакеты и любую географию до 30 августа.
За подробной информацией пишите @zenlink_crowd
Регистрация на Optimization-2023 открыта!💥
🤔 Что же Вас ждёт на крупнейшей конференции по поисковому маркетингу и продвижению бизнеса:
💡 24 октября состоится первый в истории Optimization открытый для всех онлайн-день, посвящённый продвижению бизнеса за рубежом. Это уникальная возможность узнать о проверенных практиках и инструментах продвижения на международных рынках, а также обменяться опытом с экспертами и коллегами из разных стран!
⚡️ 26-27 октября встречаемся в Сколково:
• Обновлённая программа, доклады которой адаптированы под текущую информационную повестку;
• Много свежих кейсов и практического контента;
• Два потока: про SEO и digital, а также секции о новых технологиях и инструментах;
• Эксперты из топовых рекламных агентств, представители банков, интернет-магазинов, брендов сегмента FMCG и медийных площадок, а также спикеры из Яндекса и VK.Group.
🔥 Легендарная вечеринка Optimization. Это отличная возможность поучаствовать в премии Optimization, которой наградят лучшие по видимости сайты в различных тематиках. А также обзавестись полезными контактами, расширить круг профессионального общения и поговорить с коллегами в живой и уютной обстановке!
✅ Зарегистрироваться и приобрести билеты по выгодной цене можно на сайте конференции 👉 https://2023.optimization.ru/
🙋♀️ Кстати, для наших подписчиков действует специальная скидка по промокоду «SEOPRAKTIKA»
Каждую пятницу в нашем telegram-канале и каждую вторую пятницу месяца среди подписчиков группы Вконтакте будет проводиться розыгрыш билета тарифа «Стандарт».
🔥 Не упустите возможность! До встречи на Optimization-2023!
Что нужно знать, чтобы крутить ПФ? Инфраструктура и софт. Что делать, если накрутка не помогает?
Наш партнер вещает про ПФ, смотрим, лайкаем, образовываемся!
https://www.youtube.com/watch?v=EJqosOyZPac
В метрике скоро появится новый отчет "Средние показатели по рынку"β.
С помощью отчетов группы «Средние показатели по рынку» вы можете оценить состояние вашего сайта относительно средних базовых показателей сайтов ваших конкурентов.
🔗 https://yandex.ru/support/metrica/reports/benchmarks.html
▫️ Вовлеченность - Сравните среднее время, глубину просмотров и показатель отказов вашего сайта со средними показателями по рынку.
▫️ Возвращаемость - Оцените, как часто и как много пользователей возвращаются на ваш сайт в сравнении со средним по рынку.
▫️ Динамика трафика - Определите потенциал роста сайта по трафику — насколько быстро сайт растёт относительно рынка.
Очень похоже на расширенную версию отчета "Тренды" в вебмастере, но будут более подробные данные.
👉 /channel/seopraktika (SEO практика | Кравцов Виталий)
▫️
Яндекс Вебмастер прислал письмо о вступлении в силу запланированных ранее изменений в индексировании AJAX-сайтов:
"Страницы с элементом «?_escaped_fragment_=» в URL-адресе больше не поддерживаются в поиске Яндекса. Скоро они перестанут индексироваться.
Вместо адресов https://site.ru/page?_escaped_fragment_=example в поиск будут попадать страницы вида https://site.ru/page#!example."
Хозяйке на заметку.
Яндекс внедрил новую капчу
Добрейший денёчек для всех владельцев SEO-сервисов и накрутчикам ПФ. 😁
@seosekretiki
Всем привет!
✅ Андрей Симагин, автор программы SiteAnalyzer, представляет вашему вниманию Телеграм-канал @seofaqt (SEOFAQ Telegram) - это агрегатор Телеграм-каналов по SEO и маркетингу со всего Рунета.
🔥 SEOFAQT - это все новости SEO в одном месте на одном Телеграм-канале.
💪 Уже подключены SearchEngines, TexTerra, SEONews, Shakin, SEO без воды, АлаичЪ, Сосновский, Mike Blazer и еще 70 SEO каналов!
👉 Подпишись и ты! /channel/seofaqt
Уже давно известно, что на свете бывают непослушные SEO-специалисты. Они все делают наоборот. Им дают совет: «Анализируйте конкурентов» — они даже не смотрят на них. Им говорят: «Используйте разные ссылки» — они тут же покупают 100500 одинаковых. Команда Sape Pro подготовила список таких вредных советов:
😎Не готовьтесь к продвижению.
Всякие умники говорят, что SEO — долгая и кропотливая работа. Ерунда.
Сайт не готов технически? Нет стратегии? Забыли про текстовую оптимизацию? Успеется. Закупайте ссылки прямо сейчас!
😎Больше ссылок.
Ссылок нужно много! Чтобы сразу обогнать всех конкурентов. В первый же день заявите о себе поисковым системам. Пусть знают, кто тут красавчик. Тысячи одинаковых ссылок с самыми удивительными анкорами и топ выдачи уже ваш. И не заморачивайтесь с распределением между страницами. Ведите всех на главную. И так сойдет.
😎Результат должен быть сразу.
Вы же не ждун. Только слабаки ждут индексации по 30-60 дней. Нет эффекта за неделю? Останавливайте работу. Больше никаких покупок, только гневные отзывы. Пусть все знают: «ерунда эти ваши ссылки».
😎Не следите за ссылками.
Ну подумаешь, забыли пополнить баланс. С кем не бывает? Никто ничего не заметит. Тем более, эти глупые поисковые роботы. После снятия ссылок ничего не произойдет. А если через 2 месяца позиции сайта упадут — это происки злых конкурентов.
Ни за что не делитесь ни с кем этими советами и никогда не следуйте им сами. А если будут заставлять, зажмуривайте глаза, затыкайте уши и кричите что-нибудь громкое. Например, что SEO так не работает ;)
👍А чтобы продвигать сайт правильно, подписывайтесь на канал Sape Pro. В канале эксперты делятся актуальными инструментами поискового продвижения, разбирают метрики и помогают прокачать SEO для бизнеса.
Решил написать небольшой обзор. Речь пойдет о Rusonyx – провайдер, зарекомендовавший себя на рынке с 2001 года и специализирующийся на облачных решениях для e-commerce и медиапроектов, хотя обещают одинаково внимательно относиться к любым доверенным сайтам и инфраструктурам, независимо от их масштабов и потребностей.
Из плюсов: бесплатный тестовый период по запросу – нужно просто отправить заявку, объяснив свои потребности.
По стоимости: Rusonyx здесь не демпингует, но разумно балансирует предоставляемые мощности и стоимость – базовая конфигурация BM Linux, 2*100% vCPU, 4 Ram, SSD 30 GB обойдется всего в 1741,62 руб/месяц, для сравнения – тот же набор в YandexCloud будет стоить 2675,7 руб/месяц – разница налицо. В целом стоимость рассчитывается прямо при вас – меняйте параметры и смотрите, как меняется цена за услугу.
Сравнивая производительность сервиса с тем же Яндексом, видим, что Rusonyx опережает и здесь: на сервисе geekbench.com результаты для Single-Core 1315 против 1309, а для Multi-Score – уже 2560 против 2464.
Что касается управления – все в руках пользователя – хочешь, используй OpenStack API, а если привычнее более стандартные инструменты вроде Terraform – они также доступны.
Из важных параметров по надежности - общая сеть на все дата-центры, Software-defined хранение данных на базе Ceph, шифрование SSL, SLA 99,95%, репликация данных и включенная по умолчанию защита от DDoS до 4 уровня (обычно приходится доплачивать отдельно).
Из возможностей:
▫️ резервное копирование
▫️ файловое хранилище
▫️ мониторинг
▫️ автоматическая миграция
▫️ георепликация
▫️ Kubernetes – для тех, кто понимает.
Плюс целый ряд дополнительных опций и круглосуточная поддержка, которая реально на связи.
🌳 Структурный сбор семантики
Хочу поделиться с вами способом, который хоть и не очень просто, но можно воспроизвести вручную, а при должной автоматизации позволит здорово сократить время на сбор семантики и оценку текущего состояния сайта по существующим страницам. Поскольку про этот подход ни разу не слышал, то пусть будет авторским и называется "Структурный сбор семантики
".
⭐️Решаемая задача:
- Собрать существующую структуру сайта
- Собрать 10 самых целевых поисковых запросов для каждой страницы/категории
- Оценить среднюю позицию по кластеру и суммарную частотность
- Увидеть кластеры, под которые уже есть страницы с максимальным потенциалом к росту
⭐️Понадобятся инструменты:
- Screaming Frog
- Keys.so
- Key Assort
⭐️Описание
Может показаться, что я предложу спарсить сайт и обратиться к Keys.so за запросами страницы, но нет - такое работает плохо, будем действовать чуть сложнее.
1️⃣ Через Screaming Frog парсим сайт и достаём хлебные крошки, подробно на видео
2️⃣ В Excel таблице ко всем названиям категорий дописываем "купить в Москве". Так мы из названия категории делаем коммерческий запрос
3️⃣ Выгружаем запросы в KeyAssort и собираем топ-10 выдачи, чтобы найти сильнейших конкурентов
4️⃣ Теперь обращаемся по API или через веб-интерфейс к инструменту "Список запросов страниц", так мы находим все самые релевантные запросы
5️⃣ Удаляем нечеткие дубли и фильтруем запросы по весу (>4 и wordstat >10), из них оставляем 10 самых частотных
6️⃣ Собираем CSV файл формата: Путь до страницы — Название страницы/категории — 10 запросов
7️⃣ Выгружаем в TopVisor / KeyCollector все запросы с распределением по группам, подгружаем данные по частотности и позиции и полностью понимаем среднюю позицию кластера и суммарную частотность 10 маркерных запросов.
✅️ Выглядит сложно, но при наличии пары скриптов способ позволяет за час получить полный расклад по состоянию сайта и выбрать приоритет проработки.
🚫 У Keys.so даже не был описан функционал API для обращения к этому инструменту, поэтому по ссылке то, что удалось выудить из тех. поддержки, если соберётесь автоматизировать