Как найти заголовки h1 на странице

Как прописать h1 на сайте

От автора: заголовок – важнейшая составляющая любой статьи, страницы и всего сайта в целом. Сегодня поговорим о том, как прописать h1 на сайте и что это такое вообще.

Что означает h1-h6?

Начать в любом случае нужно с теории, потому что без этого невозможно двигаться дальше. Итак, это html-теги, в которые помещают текст, который должен стать заголовком. H1 – это главный заголовок страницы, он должен быть единственным, h2 – подзаголовок статьи или раздела главы (если речь идет о книге), h3 – заголовок в разделе и т.д.

В сайтостроении, как правило, чаще всего используются h1-h3, последние три тега используются крайне редко, так как нет необходимости в разбивке текста на такие мелкие части, если только речь не идет об огромной по объему текстовой публикации.

По умолчанию заголовки уже имеют некоторое стилевое оформление. Например, буквы в заголовках выделены жирным шрифтом, а их размер в 1,5 – 3 раза больше обыкновенного текста на странице.

Основные правила работы с заголовками

Сколько h1 может быть на сайте? Сколько угодно, ведь интернет-ресурс может состоять из множества страниц. Тут гораздо важнее придерживаться другого правила – на каждой отдельной странице вашего сайта должен быть ОДИН h1. Все потому, что это главный заголовок, а главным всегда должен быть один.

Но что будет, если проигнорировать это правило? Как показывает реальная практика, ничего катастрофического, вероятно, не случится. Я бы не писал об этом, но мне известно несколько случаев, когда у веб-мастеров было несколько h1 на странице, при этом все их статьи сохраняли свои позиции в поисковых системах.

Так-то оно может и так, только вот не нужно специально создавать несколько h1 на странице. Все равно это не правильно и вред от того все равно может быть. Например, в приведенных выше ситуациях у веб-мастеров были уже возрастные раскрученные сайты, поэтому несколько h1 на странице не ухудшили ситуацию.

Однако при раскрутке молодого сайта очень важно соблюдать разные тонкости, чтобы ресурс максимально быстро получил одобрение поисковиков и начал приносить трафик.

Очевидно, что h1 должен быть в самом начале статьи. Это не то же самое, что мета-тег title. Title виден при поисковой выдаче и в названии вкладки браузера, а h1 – непосредственно на странице. Остальных заголовков (h2-h6) может быть сколько угодно, в любом количестве.

Как проверить наличие h1 на странице?

Теперь мы переходим к самому главному. Как же определить, нормально ли у вас все на сайте с заголовком? Есть как минимум несколько вариантов, как вы это можете сделать.

Во-первых, открыть исходный код и произвести в нем поиск. Исходный код открывается с помощью комбинации клавиш Ctrl + U. Далее вам понадобится комбинация Ctrl + F, чтобы открыть поиск. Введите в нем название нужного тега, а именно – h1.

Правильно будет, если вам найдет два результата – открывающий и закрывающий тег соответственно. Если результатов больше, нужно вносить правки в код шаблона сайта. Если h1 вообще отсутствует, тоже нужно принимать меры, чтобы он появился.

Во-вторых, вы можете воспользоваться каким-нибудь сервисом, который анализирует сайт на показатели его поисковой оптимизации и выдает отчет. Таких сервисов очень много, я приведу лишь некоторые: pr-cy.ru, audit.megaindex.ru/

В сервисе “Мегаиндекс” есть возможность проверить релевантность страницы, то есть то, насколько она оптимизирована под определенную ключевую фразу. Введите адрес одной из страниц вашего сайта и основную ключевую фразу. В случае проверки лишь h1 эта ключевая фраза может быть любой.

Как видите, проверка показала, что на странице всего 1 h1 – это хорошо. Если бы было больше, проверка бы обязательно это определила. Как видите, это важный фактор, хотя и не критический. Его несоблюдение не приведет к чему-то катастрофическому, но при поисковой оптимизации подобные проблемы должны быть убраны в первую очередь.

Если проблема найдена, как ее решать?

Решать очень просто, нужно всего лишь немного подправить код вашего шаблона. В первую очередь тут нужно знать, на каком движке у вас сайт. Структура шаблонов у всех движков может быть немного разной, но все же много общего.

Например, в WordPress вам нужно будет редактировать файлы page.php (шаблон страницы) и single.php (шаблон записи). Также полезно будет просмотреть файлы index.php (главная страница) и archive.php (архивы по дате и автору), а иногда в темах есть еще category.php (записи отдельной рубрики).

Ну, допустим, нашли и открыли вы нужный файл, что делать дальше? Дальше воспользуйтесь все тем же поиском (Ctrl + F). Вновь введите туда название тега. Если кода в файле немного, то вы и сами можете просмотреть его и найти нужные строчки. Тут ваши действия зависят от того, что именно нужно исправить.

Например, в одном шаблоне название поста выводилось в h2. Возможно, его разработчик не разбирается в SEO, поэтому и допустил такую ошибку. Но это легко исправляется. Редактируем single.php и меняем в нем h2 на h1. Это можно сделать как вручную, так и с помощью функции автоматической замены.

Возможно, так же понадобится редактирование боковой колонки (sidebar.php). Собственно, лишние h1 могут быть где угодно: в заголовках виджетов, в меню и даже в футере (footer.php). Все это нужно найти и убрать.

Ну а что делать, если в самой статье несколько h1? Тогда проблема решается еще легче – редактированием самой статьи. Уберите все лишние h1, оставив только один главный верхний заголовок.

Как видите, справиться с этой проблемой можно самостоятельно абсолютно без проблем. Для этого вам не нужны даже знания в области сайтостроения, а просто элементарное умение находить и открывать файлы, пользоваться поиском и изменять немного нужные строчки. Да и к сео-специалисту нет нужды обращаться теперь, по крайней мере, по поводу рассмотренного нами сегодня вопроса.

Что ж, теперь вы знаете, как проверить заголовок h1 на странице и правильно настроить шаблон. Конечно, это всего лишь одна из множества настроек, которые помогут вам раскрутить и монетизировать сайт. Намного больше информации вы можете найти, если изучите курс по раскрутке личного блога и его выводе на доход от 20 тысяч рублей в месяц в самое кратчайшее время. Успехов вам во всем и хороших позиций в поиске!

Тег H1 повторяется больше чем один раз. Всего один заголовок Н1, где остальные искать?

У вас все картинки в слайдере H1, в плагине слайдера надо поменять код. Тайтл слайдера прописан тегом h1.
<h1 class=”slide-title” >Каменный лес в Болгарии: как добраться?</h1>

Спасибо! Так слайдер платной темы, как его поменяешь или убрать слайдер вообще? Вообще это очень критично?

Убрал заголовок в настройках слайдера. Теперь Ctrl+F показывает h1 три совпадения, это нормально?

Skib

Skib

24.04.2018 10:45

Заходите на страницу. Жмете Ctrl+U, дальше Ctrl+F, вбиваете появившемся справа в углу окошке <h1> и смотрите, где повторяется тег. Дальше определяете виновного.

только не <h1>, а просто h1

Skib

Skib

24.04.2018 13:59

Зависит от того, как тег представлен. Для надежности можно h1.

Ссылку хотябы оставили чтоли

На каждой странице у меня есть заголовок Н1 по одному разу, но не на одной странице у меня пишет 21. Или на всём сайте должен быть Н1, не понял?
https://bulgaria-info.ru

Тег H1 повторяется больше чем один раз.
H1: 21 H2: 23 H3: 2 H4: 0 H5: 0 H6: 0

Больше 1 H1 – это ненормально, чтобы не говорил HTML5, поисковикам это сильно не нравится.

Обязательно один <H1> на странице, а за ним в порядке очереди h2, h3 и т.д., но уже не обязательно, а желательно.
Проверяем тут – http://www.browseo.net/

У вас теперь ВООБЩЕ НИГДЕ НЕТ тега h1. У вас стоит хорошая тема “customizr”, у нее богатый функционал настроек. Давно работаю с этой темой. Зайдите в настройки и проставьте теги правильно, особенно h1, чтобы он прописывался в названиях статей. И принудительно проставьте h1 на главной.

Мне нужно вывести в файл все заголовки со страницы

Я пробовал получить контент всех заголовков таким образом:

var headings = $('h1').map(t => t.outerText)

Но у коллекции всех нодов нету таких методов для работы с массивами как map, join и тд.

Как можно это реализовать ?

задан 26 мар 2019 в 11:57

dev_jun's user avatar

6

/* jQuery */
console.log($('h1').map((i, h) => $(h).text()).toArray())

/* native */
console.log(Array.prototype.map.call(document.querySelectorAll('h1'), h => h.textContent))
.as-console-wrapper.as-console-wrapper { max-height: 100vh; }
<script src="//cdnjs.cloudflare.com/ajax/libs/jquery/1.12.4/jquery.min.js"></script>

<h1>Заголовок</h1>
<h1>Ещё заголовок</h1>
<h1>Третий</h1>

ответ дан 26 мар 2019 в 12:36

Qwertiy's user avatar

QwertiyQwertiy

121k24 золотых знака121 серебряный знак291 бронзовый знак

На чистом js – сделал прямо в консоли браузера

var h1_collection = document.getElementsByTagName('H1'),
    result = [];
for(var i=0; i<h1_collection.length;i++ ){
    result.push(h1_collection[i].innerText)
}
console.log(result);

ответ дан 26 мар 2019 в 12:08

Mcile's user avatar

McileMcile

1,5238 серебряных знаков27 бронзовых знаков

1

Это же jQuery, у него все есть

$('h1, h2, h3').map((index, item) => item.outerText)

ответ дан 26 мар 2019 в 12:06

Nikita Umnov's user avatar

Nikita UmnovNikita Umnov

1,7637 серебряных знаков18 бронзовых знаков

4

Парсинг — это автоматизированный сбор информации из открытых источников в интернете по заданным условиям. Он экономит время при работе с большим объемом данных и приводит их в структурированный вид для дальнейшего использования.

SEO-специалисты используют парсинг для сбора метатегов и заголовков с сайтов, описаний товаров и цен в интернет-магазинах, мониторинга ошибок оптимизации и других задач. В этой статье расскажем о разных способах сбора метаданных с сайтов.

Зачем собирать и анализировать метатеги и заголовки

Работа над содержимым тегов title и description, заголовков h1 — важнейшая часть внутренней поисковой оптимизации сайта. Вхождение ключевых слов в тег title и заголовок первого уровня — одни из важных факторов ранжирования как в Яндексе, так и в Google.

Содержимое title и description формирует сниппет, кликабельность которого (CTR) тоже влияет на рейтинг документа в выдаче. Для привлекательного сниппета важно также не выходить за рамки рекомендуемого поисковиками количества символов в title и description. В противном случае они отобразятся на странице результатов в урезанном виде:

Чтобы проанализировать метаданные на своем или клиентском проекте, сайтах конкурентов, SEO-специалисту нужно получить их в удобном для работы виде.

Как собрать метатеги вручную

Собрать метатеги и заголовки с сайта можно вручную при помощи копирования и вставки в Excel или Google Таблицу. Для этого в режиме просмотра кода находим теги Title и Description и копируем их содержимое:

Title и description находятся в начале кода страницы после тега .
Найти заголовок H1 можно при помощи поиска в режиме просмотра кода:

Чаще всего заголовок первого уровня — это название раздела, товара, услуги. Чтобы проверить это, выделите заголовок на странице и правой кнопкой выберите функцию «просмотреть код»:

Справа или внизу (в зависимости от настроек браузера) откроется консоль, где будет показан код выделенного фрагмента:

На примере наша гипотеза подтвердилась — название категории является заголовком H1.

Копировать теги и заголовки вручную очень трудозатратно. Посмотрим, как можно автоматизировать процесс.

Парсинг метатегов при помощи Google Таблиц

Парсить метатеги и заголовки сайта можно при помощи функции IMPORTXML Google Таблиц. Она импортирует данные из источников формата XML, HTML, CSV, TSV, RSS, ATOM XML в ячейки таблицы при помощи запросов Xpath.

Синтаксис функции выглядит так:
IMPORTXML(«https://site.com/»; «Xpath-запрос»)

В первой части формулы содержится заключенный в кавычки url (обязательно с указанием протокола), во второй — запрос Xpath.

Сложно? Совсем нет. Знать язык запросов Xpath для использования этой функции не обязательно. Просто воспользуйтесь опцией браузера «копировать Xpath». Как это сделать:

  • выделяете нужный элемент на странице, кликаете правой кнопкой и выбираете «просмотреть код»;
  • в выделенном фрагменте кода при помощи правой кнопки выбираете опцию «Copy Xpath»:

Xpath-запрос скопирован, теперь остается вставить его в функцию IMPORTXML на нужном листе Google Таблицы.

Для title функция будет выглядеть так: =IMPORTXML(«https://site.com/»;»//title»)

Аналогично для h1:
=IMPORTXML(«https://site.com/»;»//h1″)

А вот в случае description синтаксис посложнее. Дело в том, что нам нужно не содержимое тега, а содержимое атрибута content. То есть сначала нужно найти тег meta, затем атрибут name=’description’ и наконец второй атрибут content. Xpath-запрос будет выглядеть так:
//meta[@name=’description’]/@content

Соответственно полный вид функции IMPORTXML для парсинга description такой:
=IMPORTXML(«https://site.com/»;»//meta[@name=’description’]/@content»)

Но каждый раз копировать нужную ссылку долго. Проще поступить так. Выгрузите в Google Таблицу список нужных url и на место ссылки в функции подставьте номер ячейки, например:
=IMPORTXML(A2;»//title»)

На выходе получим такой результат:

Формулу можно протянуть на все адреса и быстро получить нужные данные.

Парсинг при помощи расширений для браузера

Парсить данные сайтов можно при помощи бесплатных браузерных расширений. Примеры расширений для Chrome: Parsers, Scraper, Data Scraper, kimono.

Покажем, как работает расширение Scraper. После установки значок расширения появится на панели браузера:

Откройте страницу, с которой вы хотите собрать данные, нажмите на значок и выберите опцию «Scrape similar…»:

В выпадающем окне в блоке Selector выберите XPath, введите нужный запрос – //title, //h1 или //meta[@name=’description’]/@content и нажмите на кнопку «Scrape»:

Обратите внимание, что значения в блоке Columns во всех случаях должны быть такими же, как в нашем примере. Результат парсинга можно экспортировать в Google Docs. Минус работы с расширением — трудоемкость процесса. Потребуется открывать все нужные страницы для сбора данных.

Программы для парсинга сайтов

Упростить задачу парсинга метаданных могут специальные программы – SEO-парсеры. Они показывают наличие, длину и содержимое метатегов и заголовков на всех страницах сайта.
Примеры таких парсеров: Screaming Frog SEO Spider, Netpeak Spider, ComparseR.

Это платные программы с большим функционалом. Он требуется SEO-специалисту для комплексного анализа сайта: внутренней, внешней, технической оптимизации. Покупать такие инструменты для узкой задачи парсинга метатегов и заголовков нецелесообразно.

Парсинг метатегов онлайн инструментом PromoPult

Собрать метаданные и заголовки с любого сайта онлайн можно при помощи Парсера метатегов и заголовков PromoPult. Это профессиональный инструмент, который в несколько кликов соберет с любого сайта следующие данные:

  • содержимое метатегов title, description, keywords;
  • заголовки h1-h6.

Результаты можно хранить в облаке или выгружать в формате XLSX. Ограничений на количество анализируемых url в сутки нет.

Для каких задач подходит парсер

  • Анализ внутренней оптимизации своего проекта: инструмент покажет страницы с отсутствующими метаданными и заголовками, укажет на дубли и нерелевантные данные.
  • Сбор метатегов и заголовков клиентских сайтов: парсер выполнит перечисленные выше задачи по всем проектам и сэкономит время SEO-специалиста.
  • Парсинг данных сайтов конкурентов. Сравнение с другими проектами в нише станет источником идей для оптимизации своих или клиентских сайтов.
  • Как составная часть SEO-аудита. На этапе приемки проекта в работу или формирования коммерческого предложения требуется быстро оценить качество оптимизации сайта и объем работ. Инструмент поможет быстро выявить проблемы оптимизации тегов и заголовков.

Как работать с парсером метатегов и заголовков PromoPult

1. Загрузите список страниц (url), с которых необходимо собрать данные, одним из трех способов — ссылкой на xml-карту сайта, XLSX-файлом или списком url:

1. Выберите данные, которые нужно собрать, и запустите парсинг:

На стоимость парсинга не повлияет, все чекбоксы вы отметите или только некоторые. Исключать что-то из задачи имеет смысл, только чтобы сэкономить время при обработке данных с большого ресурса (более 1000 url).

2. Готовый отчет появится в списке задач, его можно просмотреть прямо на странице инструмента по клику на название или скачать в формате XLSX:

Парсинг происходит в фоновом режиме, можно закрыть вкладку или браузер, а уведомление о завершении придет на почту. Все отчеты хранятся на сервере PromoPult неограниченное время.

Для того чтобы оценить инструмент, доступен бесплатный парсинг 500 запросов. Нужно только зарегистрироваться в системе и добавить задачу.

Теперь наш сервис для анализа сайта ищет дубли H1 и Title, учитывает и проверяет канонические ссылки и clean params в robots.txt. Показываем скриншоты, как это выглядит.

Привет, на связи PR-CY!

Мы не поделились обновлениями нашего pr-cy.ru/analysis/, а зря — оптимизаторам он полезен. Напомним, сервис нужен для контроля SEO: проверяет весь сайт, делает аудит внутренних страниц и следит за позициями по регионам.

Базовая проверка бесплатна, аудит внутренних страниц доступен на любом платном тарифе, он проверяет до 5000 страниц. Есть неделя на тест. (Открыли бы вам все бесплатно, но наши программисты хотят зарплату, мы не можем их подвести) 🙂

Когда вы добавите сайт в сервис, можете запустить аудит. Он проанализирует коды ответов сервера, мета-теги, контент и технические данные.

Какие новые тесты мы добавили:

Поиск дублей Title и H1

  • Сколько на сайте страниц, для которых оптимизатор написал одинаковые Title или H1;
  • есть ли такие, где он ввел несколько H1;
  • а также есть ли страницы, на которых Title и H1 дублируются.

Расширенная проверка canonical

  • наличие тега canonical в HTML и в заголовке HTTP;
  • является ли canonical абсолютной ссылкой;
  • корректно ли составлен тег: нет ли там другого домена, нескольких адресов и других ошибок;
  • есть ли страницы, где не указаны канонические ссылки.

Сервис смотрит на страницу, как поисковик: если страница каноническая, то он не будет выдавать ошибки в тестах, которые касаются дублей.

Обработка clean params

Сервис научился обрабатывать директивы clean params. Теперь он учитывает директиву, если она указана в robots.txt: когда он обнаружит ссылку, то сначала чистит ее от параметров, а потом добавляет. Таким образом в анализ попадает меньше дублей.

Эти обновления применятся в ваших проверках, если вы установите галочку «Использовать robots.txt» в настройках.

Можно попробовать прямо сейчас 👇🏼

Поставьте оценку обновлениям и поделитесь впечатлениями в комментариях. Нам будет очень приятно прочитать хороший отзыв, но и спокойную критику мы тоже любим, если она поможет сервису стать лучше. 🤗

Добавить комментарий