Содержание

что это такое и как бороться с дубликатами на сайте

Классификация дублей

Различают следующие типы дублированных страниц:

  • неполные. Они копируют отдельные части размещенной на сайте информации. В частности, дубли контента возникают при размещении одних и тех же абзацев текста на разных страницах;
  • полные. Дублированные страницы этого типа представляют собой полные копии оригинальных со всем размещенным на них контентом. Они негативно сказываются на ранжировании веб-ресурса.

К примеру, дублированные страницы часто можно встретить в блогах. Они ухудшают ранжирование и обесценивают информационное наполнение сайта, из-за чего их обязательно нужно обнаруживать и удалять.

Причины возникновения дублированных страниц

  1. Применение систем управления контентом (CMS). Это самая распространенная причина образования дублей страниц на сайте. Такое случается, например, если одна запись размещается в нескольких разделах, домены которых включены в URL ее веб-ресурса. К примеру:

    wiki.site.ru/blog1/info/

    wiki.site.ru/blog2/info/

  2. Технические разделы. Такие ситуации чаще всего происходят с системами управления содержимым Bitrix и Joomla. В частности, когда некоторые функции веб-ресурса (поиск, фильтрация, регистрация и т. д.) создают параметрические адреса с идентичной информацией относительно сайта без характеристик в URL. К примеру:

    site.ru/rarticles.php

    site.ru/rarticles.php?ajax=Y

  3. Человеческая ошибка. Часто дублирование статей в различных разделах веб-ресурса происходит из-за невнимательности, проявленной человеком, который отвечает за его информационное наполнение.

  4. Технические ошибки. Из-за некорректно настроенного генератора гиперссылок и других опций в CMS происходят сбои, приводящие к появлению страниц-копий. В частности, неправильно установленная ссылка в системе OpenCart провоцирует зацикливание типа

    site.ru/tools/tools/tools/…/…/…

Последствия дублирования страниц

  • Большие трудности с оптимизацией веб-ресурса в поисковиках. В индексе поисковой системы возможно появление множества копий, которые затрудняют индексацию прочих страниц.
  • Потеря внешних гиперссылок на сайт. Дубликаты затрудняют выявление релевантных страниц.
  • Появление дублированных страниц в выдаче. Если источник-дубль имеет метрики поведения ЦА и большой трафик, то в процессе обновления данных он займет в поисковой выдаче позицию основного сайта.
  • Утрата позиции в выдаче. При наличии в основном тексте неполных дублей из-за сниженной уникальности он, вероятно, не попадет в SERP. В частности, фрагменты новостей, блога, поста и прочего часто не замечаются поисковой системой, так как она воспринимает их как копии.
  • Риск попадания сайта под фильтр. Google и Яндекс принимают меры для уменьшения неуникального контента, из-за чего к ресурсу с дубликатами страниц применяются санкции.

Выявление дублей страниц

Для удаления дублированных страниц их предварительно нужно обнаружить, для чего используются следующие методики.

  1. Через расширенный поиск Google. Для этого необходимо указать в нем адрес главной страницы сайта, и система покажет проиндексированные страницы. При указании URL конкретной страницы поисковик выдаст полный перечень проиндексированных копий. Поисковая система Яндекс сразу показывает дубли на сайте. Расширенный поиск Google выглядит следующим образом:

При наличии большого числа страниц на сайте разделите их на классы (описания товаров, информационные статьи, блог, новостной раздел и прочее) – это сделает анализ более быстрым.

  1. С помощью программы XENU (Xenu Link Sleuth). Она помогает осуществить аудит веб-ресурса и обнаружить дублированные страницы. Для получения аудита и фильтрации по заголовку нужно указать адрес сайта в специальной строке – программа выявит полные копии. Но с ее помощью нельзя обнаружить частичные дубли.
  2. Через веб-мастерскую Google. Пройдите регистрацию в этом сервисе, и в его разделе «Оптимизация Html» появится список страниц с дублированным наполнением, тегами <Title>. В этой таблице легко обнаруживаются полные копии. Как и в предыдущем случае, данный способ не позволяет найти частичные дубли.
  3. С помощью онлайн-сервиса Serpstat. Эта SEO-платформа выполняет технический SEO-аудит веб-ресурса по 55+ ошибкам, в том числе анализирует сайт на наличие повторяющейся информации. Например, сервис выявит продублированные Title, Description, h2 на 2 и более страницах. Также он обнаруживает дублирование заголовком h2 тега Title, ошибочно размещенные на одной и той же странице 2 тега Title и больше 1 заголовка Н1. Для проведения аудита в Serpstat необходимо пройти в нем регистрацию и создать соответствующий проект.

Удаление дублей

От обнаруженных дублированных страниц нужно избавиться, а также определить причины их образования и предотвратить распространение. Для устранения дубликатов используются следующие методики.

  1. Помощь встроенного функционала поисковиков. В Google для этой цели применяется атрибут rel=»canonical». В коде каждой копии прописывается тег <link=»canonical» href=»http://site.ru/cat1/page.php»>, указывающий на главную страницу, подлежащую индексации.
  2. Запрет на индексацию в файле robots.txt. Но данный способ не позволяет окончательно устранить дубли в поисковой системе. Для каждой страницы невозможно прописать параметры индексирования – лишь для групп из нескольких.
  3. Помощь 301-го редиректа. Он будет отправлять поисковики с копии на оригинальную страницу. В свою очередь, сервер 301 сделает пометку для роботов о том, что данной страницы (дубля) больше нет.

Дубликаты контента на сайте ухудшают его ранжирование. Если их оперативно не удалить, возрастает риск того, что сайт попадет под фильтрующие алгоритмы Panda и АГС.

Другие термины на букву «Д»

Все термины SEO-Википедии

Теги термина

Найдены страницы дубли с GET-параметрами — как её решить?

С лета 2021 года Яндекс.Вебмастер стал информировать вебмастеров о наличии на сайтах страниц-дублей с GET-параметрами, причем помечается эта проблема как критичная. В этой статье мы расскажем, что это за проблема и как её решить проще всего.

Содержание:

  1. Что такое страницы дубли с GET-параметрами

  2. Четыре основных способа убрать дубли страниц из индекса
  • Самый эффективный способ избавления от страниц-дублей с GET-параметрами
  • 1. Что такое страницы дубли с GET-параметрами

    Для начала определимся с тем, что такое «GET-параметр» – это динамический параметр в URL страниц, с помощью которого можно динамически менять контент документа. Их можно заметить, в URL-адресе находятся после символа «?» и разделяются между собой знаком «&». Эти параметры могут генерироваться как изнутри, системой управления сайтом, например, различные страницы пагинации или сортировки (?page=2 или ?sort=abc), так и извне, например, мы самостоятельно можем добавить UTM-метки для отслеживания трафика или любые другие рандомные параметры.

    Страницы с GET-параметрами считаются поисковыми системами как полноценные самостоятельные документы и при наличии схожего контента часто определяются как дубли, например, site.ru и site.ru?utm_source=test, будут признаны дублями.

    2. Четыре основных способа убрать дубли страниц из индекса

    2.1. Clean-param

    Clean-param – специальная директива для файла robots.txt, в которой вы перечисляете все параметры, нуждающиеся в закрытии, то есть, если поисковый робот Яндекса будет видеть такой URL, то не будет посещать данную страницу.

    Как использовать: перечислите в файле robots.txt, в одной или нескольких директивах Clean-param, все параметры, которые встречаются в URL вашего сайта, через амперсанд (значок «&»), например, «Clean-param: page&sort», чтобы закрыть URL вроде site.ru?page=2 и site.ru?sort=abc.

    Преимущества:

    • Передает показатели страницы на основную.

    Недостатки:

    • Учитывается только поисковой системой Яндекс.

    • Придется постоянно отслеживать появление новых параметров и добавлять их.

    • Длина директивы ограничена 500 знаками.

    2.2. Disallow

    Disallow – директива для файла robots.txt, которая полностью закрывает от индексации URL, имеющие GET-параметры.

    Как использовать: просто добавьте в файл robots.txt директиву «Disallow: *?*».

    Преимущества:

    • Быстро и просто.

    • Учитывается всеми поисковыми системами.

    Недостатки:

    • Роботы совсем не посещают страницы с Get-параметрами, а значит и не имеют возможности просматривать их содержимое, а оно может отличаться, как например, на страницах пагинации могут содержаться разные товары.

    • Не передает показатели страницы на основную.

    2.3. Атрибут rel=»canonical»

    Canonical – атрибут тега link, позволяющий указывать каноническую страницу, тем самым сообщать, какой URL является основным, а какой дублем.

    Как использовать: на страницах с GET-параметром, в блоке <head> разместите тег link с указанием канонической страницы, без параметра, например, на странице site.ru?page=2 нужно указать тег <link rel=»canonical» href=» site.ru?page=2″>.

    Преимущества:

    • Передает показатели страницы на основную.

    • Учитывается всеми поисковыми системами.

    Недостатки:

    • Не строгое правило, поэтому часть страниц все равно попадают в индекс поисковых систем.

    • Необходимо привлечение разработчиков для реализации на всех нужных страницах по условиям.

    2.4. Метатег robots

    Noindex – атрибут метатега robots, закрывающий конкретные страницы от индексации, при этом, позволяющий поисковым роботам заходить на такие страницы и видеть контент.

    Как использовать: на страницах с GET-параметром, в блоке <head> разместите мета-тег robots, например, на странице site.ru?page=2 нужно указать мета-тег <meta name=»robots» content=»noindex» />.

    Преимущества:

    • Строгое правило для роботов поисковых систем, позволяющее удалить все страницы из поисковой выдачи.

    • Учитывается всеми поисковыми системами.

    Недостатки:

    • Не передает показатели страницы на основную.

    • Необходимо привлечение разработчиков для реализации на всех нужных страницах по условиям.

    3. Самый эффективный способ избавления от страниц-дублей с GET-параметрами

    Идеальным решением будет использование сочетания двух методов noindex и сanonical, которые будут компенсировать недостатки друг друга.

    Атрибут rel=»canonical» будет передавать все параметры со страницы с GET-параметрами на основную, при этом, noindex метатега robots будет более строгим правилом, что позволит сократить количество дублей страниц до минимума. Кроме того, оба этих способа работают для всех поисковых систем, а не только для Яндекс.

    Далее мы рассмотрим несколько готовых решений для популярных CMS, которые позволять идеально реализовать удаление страниц-дублей с GET-параметрами из индекса поисковых систем:

    3.1. Webasyst / Shop-Script

    Для данной CMS разработаны два плагина:

    Плагины добавляют на страницы нужные теги, причем делают как для страниц с GET-параметрами, так и для различных других технических страниц. Их можно гибко настраивать под свои нужды.

    3.2. 1С-Битрикс

    Проставление атрибута rel=»canonical» можно настроить с помощью готового решения:

    А для простановки тега robots нет готового решения, но можно разместить код в шаблоне темы дизайна.

    Теперь вы знаете как избавиться от дублей в Яндекс.Вебмастере и удалить лишние страницы с GET-параметрами из индекса поисковых систем эффективнее всего.

    Как удалить дубли страниц в WordPress?

    Друзья, всем привет! Рад всех вас видеть на моем блоге! Сегодня я вам рассказу о проблеме появления дублей страниц в WordPress из-за функции replytocom в комментариях. Кроме этого, я предложу вам стильное и красивое ее решение!

    Что такое дубли страниц в WordPress? Это когда одна и та же страница сайта доступна по нескольким URL адресам. Наличие дублей очень пагубно влияет на продвижение сайта в поисковых системах. Если дублей становится очень много, то вполне можно угодить даже под фильтр.

    Одна из самых распространенных причин появления дублей кроется в стандартных древовидных комментариях WordPress. Как только человек нажимает на кнопку «Ответить» под чьим-то сообщением, страница перезагружается по новому адресу — к первоначальному URL добавляется хвост ?replytocom=XXXX. Вот так и появляется дубль — содержание остается неизменным, а URL меняется.

    Если вы правильно составили файл robots.txt для WordPress, то дубли не будут попадать в индекс Яндекса, чего нельзя сказать о другой поисковой системе — Google. К сожалению, страницы запрещенные для индексации в файле robots.txt все равно попадают в индекс, засоряя его. Их содержание не доступно поисковой системе, но это не сильно улучшает положение.

    Получается следующее — чем больше комментариев на блоге, тем больше дублей попадает в индекс Google, тем самым существенно затрудняя продвижение блога в этой поисковой системе. К примеру, до принятия мер по устранению этой проблемы у моего блога в индексе Гугла было 5900 страниц, в то время как в Яндексе порядка 400! Как видите, разница поразительная!

    Решение проблемы дублей в WordPress

    Всего существует 3 способа решить данную проблему. Рассмотрим подробно каждый из них.

    Способ №1. Отключить древовидные комментария в настройках WordPress (опция находится в разделе «Настройки» — «Обсуждение»). Я бы назвал это решение «в лоб». Не может обойти проблему, так просто уберем причину ее возникновение.

    Недостаток подобного решения только один, но весьма существенный — комментарии делаются совершенно неудобными. Особенно если идет обсуждение — не разберешь, кто кому отвечает.

    Способ №2. Найти альтернативную систему комментариев для WordPress. Самая известная из подобных систем — это Disqus. Еще можно воспользоваться комментариями от социальных сетей Вконтакте или FaceBook. При этом сообщения подгружаются со стороннего сервера.

    Проблема в данном случае заключается в том, что такие сообщения не видят поисковые системы. Они их совершенно не индексируют. Это плохо, ведь комментарии — это уникальный контент, который генерируют посетители вашего блога. Фактически, бесплатное и постоянное обновление ваших статей. отказываться от этого — себе дорожи. Кроме этого, не получится реализовать ТОП комментаторов, который так любят читатели блога.

    Способ №3. А вот этим способом воспользоваться я! Он элегантен и не имеет недостатков. Суть его заключается в том, что нужно добавить в WordPress специальный скрипт, который позволяет оставлять сообщения без перезагрузки страницы блога. Таким образом, остаются стандартные всеми любимые комментарии WordPress, которые прекрасно индексируются поисковыми системами, а вот дубли страниц не появляются, потому что вся работа проходит на одной странице. Дубли просто физически не создаются!

    Посмотреть, как это реализуется на практике можно на моем блоге — просто при ответе на чей-нибудь комментарий обратите внимание на тот факт, что URL адрес страницы остается неизменным.

    Данный скрипт получил название «Quick Comments». Более подробно о нем вы можете узнать на официальной странице. Там же есть и видео презентация.

    Если возникнут вопросы — пишите их в комментариях к статье, заодно и проверите работу скрипта Quick Comments.

    Лучший способ выразить благодарность автору — поделиться с друзьями!

    Узнавайте о появлении нового материала первым! Подпишитесь на обновления по email:

    Следите за обновлениями в Twitter и RSS.

    Дубли страниц: все, что необходимо знать

    Дубликаты страницы – это копии, которые содержат полностью идентичный или повторяющийся контент. Зачастую именно из-за наличия таких копий сайт находится на низких позициях в поиске. Именно поэтому важно знать, что представляют собой дубли, откуда они берутся и как от них избавиться.

    Полные копии появляются тогда, когда существует несколько адресов одной страницы. Устранить эту проблему можно, настроив редирект 404 или выбрав главное зеркало сайта. Нередко они создаются в автоматическом порядке системой управления сайтов.

    Частичные копии страниц могут быть результатом багов в системе, также причиной данного дефекта может быть специфика самой CMS. Нередко нежелательными дублями становятся служебные страницы, не закрытые от индексации.

    Какой вред для SEO?

    Если на сайте есть много дублей одной страницы, они начинают между собой соперничать. Поисковые системы хранят несколько копий, но выводят в результаты только одну из них. И если ею окажется не основная страница, а ее копия, то позиции сайта резко упадут. Наличие дублей отрицательно сказывается на факторах поведенческих, а большое количество одинаковых страниц вовсе может привести к неполной индексации. Также следует знать, что роботы поисковых систем реже переходят на сайты с дубликатами, что в свою очередь, также плачевно сказывается на поисковом продвижении.

    Как определить дубли страниц на сайте?

    Это можно делать несколькими способами.

    • Сервисы для вебмастеров. В Гугле это Google Search Console, а в Яндексе – Яндекс.Вебмастер. К дублям можно отнести страницы с совпадающими метатегами и метаописанием. В сервисе Яндекс.Вебмастер подобные страницы можно найти во вкладке «Инексирование» в категории дублей.
    • Специальные инструменты. В интернете существуют специализированные платформы, которые также позволяют определить копии страниц по совпадающим метатегам. К популярным инструментам, который позволит быстро справиться с данной проблемой, относится Screaming Frog.
    • Расширенные операторы Google – site и inurl. С их помощью можно найти перечень повторяющихся страниц, проиндексированных поисковой системой Google.
    • Ручной поиск. Данный способ подходит, если речь идет о небольшом сайте.
    • Инструменты веб-аналитики. Один из популярных сервисов – Serpstat.

    Удаление дублей страниц

    Устранить копии страниц, которые препятствуют продвижению сайта в органическом поиске, можно разными путями:

    • Удалить все статические страницы, в которых копируется контент. Также необходимо убрать все внутренние ссылки.
    • Запретить сканирование дубликатов. Поставить запрет на сканирование и индексацию можно в файле robots.txt. Таким образом можно убрать копии, связанные с поиском и фильтрами.
    • Настроить редиректы в конфигурационном файле htaccess. Это позволит избавиться от копий главной страницы и реферальных ссылок.
    • Атрибут rel=“canonical” – его можно разместить на html-странице между любыми тегами. С помощью этого атрибута можно указать приоритетность страницы. Именно её поисковые системы будут отображать на странице результатов поиска, она будет приоритетной среди одинаковых страниц.
    • Помощь разработчика – если правильно настроить движок или систему управления сайтом, то можно навсегда избавиться от нежелательных копий.

    Как удалить 12 тысяч дублей и попасть в ТОП Яндекса за три месяца

    SEO-специалист Артём Болотов рассказал, где искать проблемы, если сайт несколько лет не может попасть в ТОП Яндекса, и почему уникальность описаний для товаров в интернет-магазине не имеет значения. Очень подробный кейс.

    Что было на старте

    Мой клиент — интернет-магазин кованой мебели «Идиллия металла». Он пришёл ко мне в начале июля 2021 года с проблемой, что сайт несколько лет не может попасть в ТОП Яндекса. 

    Как выглядел сайт до начала работ — Вебархив.

    Сначала я посмотрел в Топвизоре позиции сайта по самым важным для нас ключевым запросам: “кованые кровати”, “кованая мебель”, “кованые диваны”, “кованые стулья” и “кованые зеркала”. Заказчику я давал гарантии, что смогу вывести в ТОП-10 именно эти запросы, поэтому на них и ориентировались.

    Полная семантика включала в себя около 200 запросов. Позиции проверяли в Яндексе по региону 213 «Москва». 

    Вот какие позиции тогда занимал сайт:

    Стартовые позиции по наиболее важным ключевым словам

    На скриншоте видно, что сайт по частотным запросам находился за ТОП-30, а иногда и за пределами ТОП-50. Я начал открывать соответствующие страницы сайта и искать закономерности. 

    Обычно логика такая: если сайт находится в ТОП-50, то нужно смотреть его структуру. Проверить обычные SEO-настройки: карту сайта, Title, description, ссылки, микроразметку, чтобы были правильно заполнены метатеги и в robots.txt не были закрыты страницы.

    Но если на сайте созданы соответствующие посадочные страницы, а он находится ниже ТОП-50 или вообще вне ТОП-100, то тогда, скорее всего, на сайте есть грубые ошибки, такие как дубли, санкции, малоценные страницы, недоработанная структура.

    Что проверял на аудите

    Какие страницы в поиске

    Для этого заходим в кабинет Я.Вебмастера, «Индексирование» → «Страницы в поиске». Смотрим, какие страницы удалялись / не удалялись. Затем смотрим, сколько страниц Яндекс исключил из поиска. Для этого кликаем на иконку «Исключённые»:

    Вкладка «Исключённые» в Яндекс.Вебмастере

    На скриншоте видно, что на сайте было больше 12,5 тысячи страниц, которые Яндекс исключил из поиска. При том, что всего на сайте существует 3–4 тысячи страниц. До сих пор я продолжаю с этим бороться:

    Количество дублей на сайте

    Почему появились дубли

    Дубли товаров часто появляются в интернет-магазинах, которые собрали на бесплатных движках вроде OpenCart, Joomla или любых других. 

    В случае с бесплатными CMS важно дорабатывать то, как будут выводиться товары. В случае с этим сайтом ошибка была в том, что один и тот же товар находился в разных категориях. Например, одна кровать открывалась в двух категориях: и в «Металлических кроватях», и в «Железных кроватях» — по двум разным ссылкам:

    https://idyllmetal.ru/kovanye-krovati/metalicheskie-krovati/kovanye-krovati/krovat-001

    https://idyllmetal.ru/kovanye-krovati/zheleznie-krovati/kovanye-krovati/krovat-001

    Некоторые товары находились сразу в 5–6 категориях по 5–6 разным ссылкам. При переобходе Яндекс видел, что это дубли, и начинал удалять эти страницы из поиска. 

    Дублей было в пять раз больше, чем страниц на сайте. У меня была гипотеза, что из-за этой проблемы сайт и не двигался вверх.

    Хороших позиций по высокочастотным запросам сайт не получал. По моему опыту, если на сайте много дублей, то Яндекс умышленно занижает высокочастотные запросы на 30–50 позиций. Низкочастотные запросы, несмотря на такую грубую ошибку, приносили трафик, но не все.

    Я замечал, что если позиции находятся за ТОП-50, то сайт не будет двигаться, пока не убрать дубли. Даже улучшение поведенческих факторов не помогает.

    Какие страницы Яндекс посчитал недостаточно качественными

    Недостаточно качественные страницы, по мнению Яндекс, — это страницы, которые практически не имеют шансов показаться в поиске в том виде, в каком они есть сейчас. 

    Вот что об этом говорили представители Яндекса в блоге:

    Ответ Яндекса о том, что такое НКС

    В Справке Яндекс называет такие страницы малоценными и маловостребованными. 

    Чаще всего фильтр получают:

    • интернет-магазины: неоптимизированные страницы с результатами фильтрации, карточки товаров без контента или описания;
    • сайты-каталоги;
    • автоматически созданные страницы без уникального контента.

    Эта ошибка «выскакивает» у многих интернет-магазинов. Обычно это происходит, когда страницы попадают в поиск и начинают получать какой-то трафик и клики — примерно через 2–3 месяца с начала работ. В этот момент Яндекс запускает более глубокую проверку и при проверке отмечает некоторые страницы как недостаточно качественные. 

    На скриншоте голубым цветом отмечены НКС, а розовым — дубли: 

    Сравнение количества дублей и НКС

    Видно, что проблемы с НКС были не такими критичными, как с дублями. Поэтому я убедился, что дело всё-таки в дублях. 

    Как обстоят дела с уникальностью страниц

    По моему опыту, когда бот Яндекса посещает каждую страницу сайта, он сравнивает страницы на уникальность именно внутри сайта. Например, он сравнивает «Кровать с мягким изголовьем К002» и «Кровать с мягким изголовьем К001»:

    Сравнение товаров на сайте

    Многие специалисты выражают мнение, что на сайт обязательно нужно писать уникальные тексты, и только тогда он точно выстрелит. На мой взгляд, это ошибка, потому что это не работает. 

    Моё убеждение состоит в том, что для Яндекса не важна уникальность текста относительно других сайтов, а важна уникальность страниц на сайте относительно друг друга. Когда на сайте огромное количество одинаковых страниц, то эти страницы Яндекс удаляет или понижает сайт в поиске из-за того, что они не уникальны между собой. 

    Яндекс сравнивает не только контент страниц, а вообще весь код: шапку, подвал, меню. Буквально всё, что есть на странице. Я экспериментировал на разных проектах и нашёл для себя оптимальное значение уникальности страниц между собой.

    Я пользуюсь таким критерием: для интернет-магазинов 30 % — хорошая уникальность, сайты услуг — уникальность от 40 %. Меньше 10 % — очень плохо.

    Не могу советовать вам копировать описания с конкурентов или с других сайтов, но, по моим экспериментам, ничего страшного в этом нет, если вы в итоге уникализируете страницу с помощью других элементов. Я расскажу об этом ниже.

    Как проверить уникальность страниц

    Уникальность страниц относительно друг друга я проверяю с помощью двух инструментов:

    1. Xenu Link Sleuth — бесплатно парсит контент страниц, в том числе ссылки, кнопки, картинки для каждого URL.
    2. BatchUniqueChecker — сравнивает уникальность контента между URL. 

    Сначала в Xenu вводим URL и парсим сайт:

    Парсинг сайта в Xenu

    В итоге получаю вот такой список:

    Отчёт в Xenu

    Копирую, закидываю в Excel, включаю фильтрацию «Фильтр» → Type → html, чтобы получить список ссылок: 

    Работа с собранным списком в Excel

    Из таблицы нужно вручную удалить лишние ссылки, например, на другие сайты, затем отсортировать по алфавиту и почистить повторяющиеся моменты, например, страницы пагинации, фильтрации и подобные. Если сайт довольно большой, то придётся повозиться. 

    Полученный список копирую и закидываю в BatchUniqueChecker, нажимаю «Проверить URL» и получаю такие результаты:

    Результат сравнения в BatchUniqueChecker

    BatchUniqueChecker покажет уникальность между страницами, подсвечивая уникальный контент:

    Подсветка уникального контентаКогда проверяешь весь сайт, то можно увидеть, какие страницы товаров имеют низкую уникальность. Тогда начинаешь думать, как эти страницы дорабатывать. 

    Как поднять уникальность, не меняя текст

    Чтобы страницы стали более уникальными, можно добавить внизу дополнительные блоки, например, «Другие предложения». 

    Как это сделать, я покажу на примере другого своего проекта по лизингу спецтехники в Кемерово — https://spectehcredit.ru/.

    На сайте лизинга также было много неуникальных страниц — 1–2 % уникальности. Контента на страницах в целом было мало. Представьте себе весь контент страницы: описание товара из 100 символов, картинка, шапка и подвал. Описание скопировали у конкурентов, а шапка и подвал одинаковые на всех страницах. Из-за этого уникальность всех страниц внутри сайта была меньше 5 %.

    Чтобы это исправить, я экспериментировал с блоком «Другие предложения», товары в котором содержали название, описание, картинки: 

    Блок «Другие предложения»Я пробовал менять количество товаров в этом блоке, добавлял / убирал описание, закидывал список в BatchUniqueChecker и проверял уникальность. Экспериментальным путём я определил, что нужно выводить по 16 товаров. 

    Важно, чтобы товары выводились рандомно на каждой странице. Благодаря этому две практически одинаковые страницы становятся между собой более уникальными. 

    В каждом интернет-магазине есть «Похожие товары», «Рекомендуемые товары», «С этим товаром покупают». По моему опыту, это нужно не столько для улучшения поведенческих факторов, сколько для того, чтобы Яндекс не посчитал страницы сайта малоценными и маловостребованными.

    В «Идиллии металла» мы тоже добавили блок «Сопутствующие товары», чтобы улучшить уникальность:

    Блок «Сопутствующие товары»

    Есть ли привязка к Яндекс.Бизнесу

    Когда сайт вне ТОП-50, нужно проверить и его привязку к Яндекс.Бизнесу. Для этого в Я.Вебмастере переходим в «Представление в поиске» → «Региональность».

    Привязка региона в Яндекс.Вебмастере

    Через эту привязку Яндекс определяет, выводить ли сайт в нужном регионе. Например, если не привязать регион «Москва», то по запросу «кованая кровать» Яндекс может не вывести сайт в Москве. 

    Почему? Запрос “кованая кровать” Яндекс почти всегда считает как геозависимый с коммерческим интентом и показывает в выдаче магазины, которые продают кованые кровати в вашем регионе. Если регион не привязан, то и сайт по геозависимому запросу выводиться не будет; а если и будет, то на очень низких позициях.

    Интернет-магазин можно будет найти исключительно по запросу “кованая кровать в Москве”, то есть по запросу с указанием конкретного региона, потому что у нас есть такая посадочная; но без указания региона — маловероятно. А пользователи чаще всего пишут запрос без указания региона.

    Так что город обязательно должен быть привязан к Яндекс.Бизнесу и иметь активную карточку в Яндекс.Картах. У «Идиллии металла» это было. 

    Наложены ли на сайт фильтры

    Чтобы проверить наличие фильтров, в Я.Вебмастере заходим на вкладку «Диагностика» → «Безопасность и нарушения». Здесь смотрим, есть ли фильтры, например, «Баден-Баден».

    Проверка наложенных на сайт фильтров в Я.Вебмастере

    Примечание редакции

    «Баден-Баден» — фильтр Яндекса, который опускает в поиске переоптимизированные и несодержательные страницы. Он бывает хостовый или  запросозависимый / постраничный. В Вебмастере можно отследить только хостовый «Баден-Баден».

    Бывает так, что в Я.Вебмастере не отображается «Баден-Баден» за переспам, а сайт всё равно занимает низкие позиции из-за переспама. Как проверить, что дело именно в переспаме?

    Нам поможет сервис «Тургенев», который показывает, насколько текст переспамлен и как это доработать:

    Разбор текста в сервисе «Тургенев»

    Как показывает мой опыт, если исправить тексты, то через 2–3 месяца сайт снова будет занимать высокие позиции. У «Идиллии металла» фильтра не было, но переспам по текстам всё-таки был.

    Какие нашёл проблемы и что с ними делал

    Главной проблемой были дубли. Из-за них Яндекс не пропускал сайт в ТОП. Но, помимо дублей, было ещё несколько других нарушений, которые я часто вижу у интернет-магазинов. 

    Одинаковые подкатегории в разных категориях

    Проблема: на сайте был раздел «Кованые кровати», в котором была подкатегория «Кованые кровати лофт». Также был раздел «Лофт», в котором тоже были те же самые кровати.

    Получались две одинаковые категории с одинаковыми товарами с такими URL:

    https://idyllmetal.ru/kovanye-krovati/loft
    https://idyllmetal.ru/metallicheskaja-mebel-loft/krovati 

    Сами категории между собой одинаковые, и товары, которые в них находятся, тоже одинаковые. 

    Решение: чтобы это исправить, нужно было пересмотреть структуру всего сайта. Сделать это на старом сайте было невозможно. Из-за дублей всё было настолько запутанно, что легче было с нуля создать новую структуру и предусмотреть, чтобы каждый товар был создан в своей категории.

    На разработку сайта ушло два месяца. Сайт делали на том же движке Joomla. На новый сайт мы перевыложили товары, но дубли всё ещё оставались. В разных подкатегориях один и тот же товар мог находиться под разными URL.

    Чтобы справиться с этой проблемой, программист придумал модуль, который позволил указывать товар в разных категориях по одной и той же ссылке. Модуль позволил внутри настройки товаров указывать, какая категория главная. На неё и переходил пользователь, когда кликал на товар.

    То есть, представьте, что «кованая кровать 001», условно, находится и в категории «Кровати», и в категории «Лофт». Главная для этого товара категория «Кровати» idyllmetal.ru/kovanye-krovati. 

    Предположим, пользователь просматривает категорию «Лофт» idyllmetal.ru/mebel-loft, встречает в ней товар «Кованая кровать 001» и кликает по ней. В этот момент он попадает на страницу этого товара в его главной категории. 

    Адрес будет такой: https://idyllmetal.ru/kovanye-krovati/krovat-001

    А не такой: https://idyllmetal.ru/mebel-loft/krovat-001

    Это решение можно было бы усилить, если бы название товара менялось в зависимости от категории, а ссылка на него — нет. 

    То есть товар «Кованая кровать 001» в категории «Лофт» назывался бы, например, «Кованая кровать лофт 001», но при переходе по ссылке пользователь будет попадать на одну и ту же страницу товара «Кованая кровать 001».

    Я этого в «Идиллии металла» не сделал, но если у вас есть такая возможность, мне кажется, это хорошо сработает. В ближайшем будущем мы это тоже реализуем.

    Дубли

    Проблема: одни и те же товары и подкатегории могли размещаться на сайте под разными ссылками в разных категориях. Это давало множество дублей. После переработки структуры надо было удалить дубли, которые уже имелись на сайте.

    Решение: чтобы ускорить процесс удаления, пользовался инструментом Я.Вебмастера «Удаление страницы из поиска».

    Каждый день я закидывал по 500 страниц. Насколько я знаю, это максимум страниц, которые можно отправить на удаление за один день в Я.Вебмастере. Если бы я этого не делал, то процесс затянулся бы ещё на несколько месяцев. 

    Примечание редакции

    В Вебмастере есть ещё один способ удаления страниц — через префиксы. С помощью этого можно отправить на удаление больше, чем 500 страниц, но только если они находятся в одной категории или имеют одинаковые параметры в URL. Ограничение стоит только на количество префиксов — 20 в день.

    Как сообщить Яндексу о необходимости убрать страницы по префиксу — Инструкция в Яндекс.Справке.

    Некоторые страницы удалялись очень долго, иногда Вебмастер просто зависал, оставлял статус «В процессе» или «Отклонено». Получается, что на сайте их уже не было, при переходе они выдавали ошибку 404, а из поиска Яндекс их не удалял. 

    Чтобы быстро убрать страницы, я скрывал их через robots.txt:

    Disallow: /kovanye-krovati/metalicheskie-krovati/
    Disallow: /kovanye-krovati/zheleznie-krovati/

    После этого ещё раз отправлял на удаление в Вебмастере, и когда всё получалось, удалял из robots.

    На скриншоте за август видно, что сразу после удаления дублей таким образом позиции сайта немного поднялись вверх, регион «Москва», Яндекс:

    Результат по позициям сразу после удаления дублей

    Недоработанная структура

    Проблема: структура была недостаточно проработана, отсутствовали некоторые нужные категории и блоки, было неудобно ориентироваться на сайте.

    Решение: в момент разработки нового сайта я сделал прототип с новой структурой: проанализировал коммерческие факторы конкурентов и выстроил нужные на сайте блоки: поиск, телефоны, почта и др.

    Прорабатывал структуру на основе анализа конкурентов. Собрал из ТОП-30 по ключевым запросам, посмотрел, что уникального есть в структуре каждого конкурента, и добавлял. 

    Для этого вбиваем запрос “кованые кровати” и смотрим, какие категории созданы под кровати. К примеру, двуспальные, полутораспальные, односпальные. 

    Это монотонная работа: открываешь каждый сайт и всё выписываешь. Выстраиваешь структуру, раскидываешь, в какую категорию или подкатегорию распределить. Получается самая большая структура, потому что ты собрал её со всех конкурентов. 

    Выписывал всё в XMind 8, программу для создания майнд-карты:

    Подготовка структуры сайта

    На мой взгляд, полная проработка структуры даёт рывок при начальном продвижении, потому что ты захватываешь низкочастотные запросы. Вывести сайт в ТОП по запросу “кованая кровать” тяжелее, чем вывести по запросу “односпальная кованая кровать”. 

    Когда ты собираешь огромное количество низкочастотных запросов — целевых и имеющих частоту — и прорабатываешь под них страницы, то у тебя начинает идти трафик на эти запросы с Яндекса.

    Благодаря этому среднечастотные и высокочастотные запросы тоже начинают подниматься. Пользователи приходят на сайт по запросу “односпальная кованая кровать”, оставляют хороший ПФ, из-за этого улучшаются позиции запроса “кованые кровати”. 

    Переспам

    Я учился у Антона Маркина и состою в его закрытом SEO-сообществе, поэтому у меня есть доступ к его закрытому инструменту «Гибридный анализ релевантности (ГАР)». Я проверял страницы с его помощью. Но если у вас ГАРа нет, то можно воспользоваться Миратекстом, инструмент «Полный семантический анализ текста».

    И ГАР, и Миратекст сравнивают текст на сайте с текстами конкурентов в ТОПе Яндекса, анализируют релевантность сайта и указывают на слабые места. Но ГАР анализирует подробнее, и глубже делает выборку сайтов для анализа, дополнительно показывает рекомендации по улучшению сайта.

    В том числе инструменты показывают облака запросов по странице и по тегу <a>. Это важно, потому что некоторые слова лучше «зашивать» в ссылки на странице (меню, теги и т. д.), а некоторые — в текст. Поэтому облако запросов составляется раздельно по этим показателям.

    Если облако маленькое, то релевантность страницы слабая.

    Облака запросов

    В таблице из инструмента «ГАР», которая составляется по результатам анализа, показаны слова, частота употребления, сравнение средней частоты употребления слов по ТОПу с вашей страницей и отмечены слова, которые не найдены на вашей странице, но должны быть:

    Таблица из инструмента «ГАР»

    На страницах категорий обнаружился жёсткий переспам из-за того, что на втором уровне страниц отсутствовал листинг товаров. 

    SEO-специалисты, которые до этого работали с сайтом, пытались доработать количество вхождений главного ключа “кованые банкетки” с помощью ГАРа — у них тоже был доступ. По рекомендациям инструмента, нужно было 25 раз использовать слово «банкетки» и 30 раз слово «кованые». Поэтому эти слова просто зашили в текст.

    Вот так:

    Переспам на странице по слову «банкетки»

    Видим, что слово «банкетки» упоминается почти в каждом предложении. Из-за этого произошёл переспам.

    Если бы в категориях был листинг, то те же самые слова распределились бы по названиям товаров: «Кованая банкетка 001», «Кованая банкетка 002» и т. д. 

    По моему опыту, если «зашивать» тематические слова не через ссылки, а через текст, то Яндекс считает это переспамом и не пускает страницу в ТОП. В этом я убедился и при работе над сайтом «Идиллия металла».

    Также переспам был и в сквозном меню — слова «кованые» и «кровати» повторялись в каждой категории и на каждой странице:

    Переспам в сквозном меню

    Та же история с меню слева:

    Переспам в меню слева

    Слово «кованые» повторялось раз 100, слово «кровати» встречалось раз 150, к тому же на странице «Кованые банкетки». Зачем слово «кровать» на странице «Кованые банкетки»? Ни за чем.

    Через ГАР я смотрел, сколько раз какое слово должно упоминаться на странице. Например, слово «кровать»:

    Анализ упоминаний слова «кровать» в ГАР

    До того как я начал работать с сайтом, на странице «кованые банкетки» слово «кровать» упоминалось 28 раз, а, судя по анализатору, должно было только два раза.

    Чтобы это исправить, я переработал меню в шапке, убрал слово «кованые». Остались только названия: «Кровати», «Диваны», «Столы» и т. д. Если нажать на категорию, то появляется «выпадайка»:

    Новое сквозное меню

    Так постепенно избавлялся от переспама.

    Нет плитки тегов

    По технологии продвижения Антона Маркина, плитка тегов должна быть обязательно, потому что в неё можно вписать LSI-слова, которые должны быть на сайте. Так поисковик понимает, что это тематический сайт, и поднимает сайт в ТОП. 

    Кроме того, по моему опыту, плитка тегов увеличивает ПФ сайта естественным образом. А это важно, чтобы попасть в ТОП-10 Яндекса. Получается двойная выгода.

    Как выглядит плитка тегов сейчас:

    Плитка тегов

    Я вручную создаю плитку тегов и «зашиваю» сюда необходимые LSI-слова. Например, смотрю через ГАР, что у меня не хватает пять раз слова «кровать» на какой-то странице. Иду и делаю там теги с этим словом.

    Есть и другие инструменты для оценки LSI, например, Just-Magic. В него нужно добавить запрос, по которому хотите быть в ТОПе, например, “кованая мебель”, и он покажет, что слово «кованый» надо использовать такое-то количество раз с разными окончаниями: кованые, кованое, кованая. 

    ГАР и Миратекст показывают вообще все слова, которые необходимы на сайте, потому что есть теория, что Яндекс смотрит не только по фразе, например, “кованая мебель”, а вообще по всем тематическим словам:

    Таблица из сервиса «Миратекст»

    Как показывает опыт, чем больше LSI-слов «зашито» в страницу сайта, тем более релевантен сайт в глазах Яндекса. Уточню, что большую часть LSI-слов лучше «зашивать» на самом сайте, а не в плитку тегов. Например, в названии товаров, в меню. 

    Я подходил к этому осторожно, потому что на нашем сайте меню сквозное, то есть отображается на всех страницах сайта. На одной странице слова из меню могут быть нужны, на другой — могут привести к переспаму. Нужно всё продумать. 

    Те LSI-слова, которые нельзя «зашить» на страницу, я добавлял в плитку тегов, в том числе в скрытую в самом конце страницы, чтобы пользователю она была не видна. Например, вот на этой странице:

    Скрытые теги на странице

    Некорректное название товаров

    На сайте была и ошибка в названиях: товары назывались не так, как их гипотетически будет искать пользователь. Например, пользователь вводит запрос “кованая банкетка”, но на сайте все товары называются просто «Банкетка». 

    До этого мы убирали слово «кованый» из меню и категорий, чтобы избежать переспама. Но после этого я увидел в ГАР, что теперь у меня недостаточное вхождение слова «кованый». Оно должно упоминаться на странице ещё 40 раз. Я добавил его в названия товаров «Кованая банкетка BN-003», «Кованая банкетка BN-009» и так далее. Так я обеспечил достаточное количество вхождений, и товары стали называться так, как их на самом деле ищет пользователь:

    Новые названия товаров в категориях

    Результаты

    Я ожидал, что выведу сайт в ТОП-10 по ключевым запросам за полгода, но получилось быстрее:

    Результаты после проделанной работыРезультаты сейчас

    Переходы из поисковых систем:

    Визиты

    Количество исключённых из индекса страниц уменьшилось. Сейчас их меньше 1 000, а было — 12,5 тысячи, над этим продолжаем работать:

    Исключённые страницы

    Вот выборка со всех запросов. 89 % запросов находятся в ТОП-10 по Москве в Яндексе:

    Позиции по всем запросам

    Дальше планирую добавить фильтрацию — возможность сортировки на странице с чек-боксами. За счёт этого появится больше LSI-слов. Буду продолжать прорабатывать страницы.

    Мои выводы: что делать, чтобы попасть в ТОП Яндекса 

    Чтобы сайт интернет-магазина попал в ТОП-10 Яндекса, в идеале должны выполняться следующие условия.

    Прорабатывать широкую структуру

    Я заметил, что Яндекс смотрит не только на основную категорию, но и на смежные. Это особенно важно для интернет-магазинов. 

    Например, есть запрос “купить шкаф”. Если на сайте будет хорошо проработана категория «Шкафы», но не будет хорошо проработанной категории «Столы», то по запросу “купить шкаф” Яндекс не пропустит сайт в ТОП. 

    Многие интернет-магазины делают упор только на одну категорию, самую прибыльную. А в других категориях создают максимум одну страницу или вообще их не трогают. 

    Мой опыт показывает, что в этой нише нельзя пробиться в ТОП, если у магазина недостаточно ассортимента. Например, если вы продаёте только шкафы, то, конечно, категории «Столы» у вас быть не может. Поэтому конкурировать за ТОП с крупными магазинами вы не сможете. 

    Для Яндекса важно проработать широкую структуру.

    Правильно располагать и называть товары в каждой категории

    В категории «Кровати» должны быть кровати, а не диваны или что-то другое. 

    Важно, чтобы название товара менялось под название категории. Например, в категории «Кровати» товар должен называться «Кровать 001». В категории «Односпальные кровати» этот же товар будет называться «Односпальная кровать 001» и т. д. 

    Делать страницы товаров уникальными

    У интернет-магазинов частая проблема — недостаточно качественные страницы (малоценные или маловостребованные). 

    Нужно следить, чтобы страницы товаров были уникальны. Делать блок «Рекомендованные товары», «Похожие товары» и т. д. Следите, чтобы сопутствующие товары не были одинаковыми на каждой странице, а выводились рандомно всегда.

    Например, изначально на сайте «Идиллия металла» были рекомендованные товары, но одинаковые на каждой странице — это только ухудшало ситуацию с уникальностью.

    Делать листинг

    На сайте должен быть именно листинг товаров. То, сколько товаров нужно выводить в листинг, зависит от конкурентов. Если вы открыли ТОП-10, посмотрели, что у первого конкурента 50 товаров, у второго — 40 товаров, а у третьего — 30, то оптимальный диапазон — между максимальным и минимальным значением, то есть от 30 до 50.

    Не удалять страницы товаров

    Нельзя удалять страницы товаров. Во многих интернет-магазинах мы можем попасть на товар, которого нет в наличии или он снят с производства. Обычно их размещают в самом низу листинга, но не удаляют. И это правильное решение.

    Яндекс не определяет, есть ли этот товар в наличии или нет. Он просто видит, что это внутренняя ссылка на товары этой категории и считывает его, как товар из этой категории. 

    Есть мнение, что это может ухудшать поведенческие факторы, но, на мой взгляд, всё как раз наоборот. Пользователь приходит, кликает на товар, которого нет в наличии, смотрит, что есть похожего в рекомендуемых, переходит туда и т. д. Так естественным образом растёт ПФ. По крайней мере, какого-то негативного влияния я не замечал.

    А вот удаление страниц может негативно сказаться на позициях. Я экспериментировал. Когда у сайта со временем количество страниц увеличивается, то для Яндекса это хороший знак. А вот если количество страниц уменьшается, то позиции в Яндексе могут и просесть.

    Всё, чем я поделился выше — это мой личный опыт и эксперименты. Подписывайтесь на мой Инстаграм. Там я публикую полезные материалы и рассказываю интересные фишки, которые замечаю и применяю на своих проектах. 

    Если у вас есть вопросы по кейсу, с удовольствием отвечу на них в комментариях.

    Дубли страниц в Joomla 3 – как от этого избавиться?


    Доброго всем времени суток, если Вы читаете данную статью, значит, у Вас, как и у множества начинающих веб-разработчиков возникает вполне законный вопрос – как бороться с дублями страниц в Joomla.


    В данной статье я постараюсь ответить на этот вопрос. Для начала поговорим о том, чем грозит появление дублей страниц на сайте, следом посмотрим готовые решения борьбы с дублями и напоследок разберем альтернативные способы борьбы с дублями страниц.


    Почему стоит избавляться от дублей страниц?


    Не для кого ни секрет что Joomla, как и любая другая система управления контентом в процессе своей работы создает одинаковые страницы доступные по разным адресам сайта – дубли. Для посетителей Вашего сайта эти самые страницы безвредны, они могут даже не догадываться об их существовании.


    Однако безобидные для посетителей дубли могут существенно повлиять на позиции сайта в поисковой выдаче. Почему так происходит?


    Давайте представим ситуацию – Вы написали несколько уникальных материалов и опубликовали на своем сайте. Поисковые роботы их проиндексировали, все хорошо, но спустя некоторое время поисковый робот находит дубли этих страниц. Поисковый робот не понимает что это дубль, для него это две совершенно разные страницы, в результате изначально уникальный материал уже таковым не является.


    В результате появления на сайте большого количество идентичных страниц (дублей) могут сильно «просесть» позиции сайта в поисковой выдаче. Именно поэтому от дублей страниц стоит избавляться как можно быстрее.


    Почему появляются дубли?


    Дубли в CMS Joomla появляются в результате установки дополнительных расширений. Но это далеко не единственная причина их образования.


    Не менее распространенная причина образования дублей страниц это не продуманная структура сайта. Как это может быть связано, спросите Вы? Да очень просто – вы создали на сайте несколько категорий имеющих одну родительскую категорию, в этих категориях разместили материалы. Внутри материалов Вы делаете ссылки на ранее созданные материалы и так далее. Для примера посмотрите на скриншот:


    Если не создавать меню для категорий, то адрес страницы может получиться таким:

    http://joom4all.ru/32-sites-creation/10-basics/38-intro
    http://joom4all.ru /index.php?option=com_content&view=article&id=38&catid=10
    


    Адрес далек от совершенства и Вам захотелось избавиться от цифр в адресной строке. Для этого Вы создаете пункты меню для категорий и материала. После этого адрес получился более привлекательным:

    http://joom4all.ru/sites-creation/basics/intro
    


    И все бы хорошо, но старые адреса страницы никуда не делись, они остались в качестве дублей. В результате одна и та же страница у нас может иметь сразу несколько адресов:

    http://joom4all.ru/32-sites-creation/10-basics/38-intro
    http://joom4all.ru/32-sites-creation/basics/intro
    http://joom4all.ru/sites-creation/basics/intro
    http://joom4all.ru /index.php?option=com_content&view=article&id=38&catid=10
    


    Не приятная ситуация не так ли, кроме того поисковые роботы все эти страницы считаю совершенно разными. 


    Способы борьбы с дублями страниц


    Конечно, лучше всего избегать появления дублей страниц еще на начальном этапе – заранее продумать структуру сайта, создать необходимые категории и пункты меню. Но как показывается практика, так поступают далеко не все и со временем встает вопрос о том, как удалить дубли из поисковой выдачи.


    Вариантов борьбы с дублями существует несколько:


    • Использование специальных расширений

    • Файл Robots.txt

    • Redirect 301 в файле htaccess

    • Воспользоваться панелью Вебмастера для удаления ненужных адресов

    • Компонент «Перенаправление»


    Плагин JL No Doubles для борьбы с дублями страниц


    Самый простой и в то же время достаточно действенный способ борьбы с дублями страниц это использования расширений. Одним из таких расширений является плагин JL No Doubles.


    Плагин очень легкий и не нуждается в особых настройках. Все что потребуется сделать это скачать данный плагин, установить и включить. Всю остальную работу он проделает самостоятельно.


    Плагин JL No Doubles убирает дубли страниц в более чем двадцати компонентах, в том числе и в компоненте com_content. Можно настроить вывод 404-й ошибки либо 301 редирект на правильную страницу сайта. Страница с настройками плагина выглядит следующим образом:


    Параметров для настройки плагина всего пять:


    • Лицензионный ключ – для активации работы плагина с компонентами k2, Virtuemart, Zoo.

    • Кратность лимитов – настройка для категорий материалов Joomla. Вы можете настроить редирект при формировании ссылок типа /advanced?start=3. Все что необходимо сделать, это указать количество материалов выводимых в категории.

    • Использовать 301 редирект – можно включить возможность использования редиректа на правильную страницу либо (если установлено «нет») выдавать 404-ю ошибку. Если Ваш сайт существует достаточно долгое время и на его страницы ссылаются другие сайты, то рекомендую поставить редирект, чтобы не потерять вес страниц.

    • Алиас – настройка, которая подставляет алиас к ссылкам вида component/content/article (по умолчанию home).

    • Стоп слова – это строки, встречающиеся в адресе страницы которые не следует обрабатывать.


    С основными настройками разобрались, теперь давайте перейдем на вкладку «Компоненты»:


    На данной вкладке выбираем компоненты, которые используются на сайте и доступны для индексирования. По умолчанию уже выбран компонент com_content. Не стоит выбирать все возможные компоненты, особенно если Вы их не используете, это создаст лишнюю нагрузку на Ваш сайт.


    Использование файла Robots.txt


    Каким бы не был замечательным плагин для перенаправления страниц, от всех дублей избавиться не получится. В таком случае можно запретить поисковым роботам индексировать те или иные страницы сайта, другими словами закрыть к ним доступ.


    Обо всех тонкостях настройки файла Robots.txt мы уже говорили в данной статье. Кратко скажу только что для закрытия части Вашего от «глаз» робота существует директива Disallow.


    301 редирект и файл htaccess


    Другой распространенный способ борьбы с дублями это настройка перенаправления, другими словами 301 редирект на правильную страницу. Это можно сделать в файле «.htaccess».


    Для создания переадресации необходимо использовать директиву RewriteRule, но надо убедиться, что на хостинге подключен модуль mod_rewrite.


    Допустим нам надо сделать редирект со страницы joom4all.ru/index.php на страницу joom4all.ru, для этого в файле «.htaccess» после директивы RewriteEngine On пишем следующую строку:

    RewriteRule http://joom4all.ru/index.php$ http://joom4all.ru [R=301,L]
    


    Более подробно работу с файлом «.htaccess» мы разбирали в данной статье.


    Компонент «Перенаправление»


    Достаточно полезный и в то же время встроенный в Joomla 3 компонент, который позволяет вручную настроить перенаправление страниц. Данный компонент использует для своей работы специальный плагин, который по умолчанию отключен.


    Изначально надо включить плагин, благо искать его среди прочих не приходится, ведь после перехода на страницу «Компоненты» -> «Перенаправление» вы получите сообщение, что необходимо включить плагин и ссылку на его активацию.


    После того как плагин будет включен можно создавать перенаправление указав начальный (старый) и конечный (новый) адрес страницы:


    Данный метод хорош в том случае, когда дублей страниц не слишком много.


    Подведем итоги


    В заключении хочу сказать, что хоть Joomla и славится созданием дублей страниц, существует достаточно много способов от них избавиться. Какой из способов лучший Вы можете решить сами, но могу сказать, что комплексный подход к решению данной проблемы будет предпочтительней. И начать стоит с правильного подхода к созданию структуры сайта.


    Кроме того стоит задуматься о том как избавиться от index.php в строке адреса сайта, это так же поможет сократить количество дублей страниц.

    Как убрать или закрыть дубли страниц от индексации

    Дубликаты страниц на сайте негативно влияют на продвижение сайтов в поисковых системах. Поэтому их нужно находить, а дальше устранять или закрывать от индексации.

    Для начала читаем статью: как найти дубликаты страниц на сайте

    В статье рассмотрены основные способы, с помощью которых можно найти дубли страниц, как полные так и не полные дубликаты.

    В данной статье мы детально рассмотрим, как же можно закрыть дубли страниц от индексации или их устранить.

    В статье мы рассмотрим:

    А теперь по каждому моменту детально:

    1.    Rel «canonical»

    Для начала нужно разобраться, что такое каноническая страница – это рекомендуемый экземпляр из набора страниц с практически походим содержанием.

    С помощью тега rel «canonical» можно закрыть дубликаты страниц и практика показывает, что в последнее время все больше seo оптимизаторов применяют тег на крупных сайтах.

    Детальнее об атрибуте rel canonical читаем тут: http://support.google.com/webmasters/bin/answer.py?hl=ru&answer=139394

    Для того что бы грамотно его прописать в коде, читаем инструкции, которые можно посмотреть по ссылке выше.

    2.    Robots.txt

    В статье про внутреннюю оптимизацию сайта рассказывается про robots.txt. С его помощью можно закрыть дублирующий контент от индексации.

    Необходимо использовать директиву disallow, и указывать какие типы страниц или разделов не нужно индексировать, чтобы их не обходил поисковый бот.

    Детальнее про то, как закрывать от индексации в robots.txt читаем тут:

    http://help.yandex.ru/webmaster/?id=996567#996571

    http://support.google.com/webmasters/bin/answer.py?hl=ru&answer=156449

     

    С помощью robots закрывают страницы от индексации чаще всего, так как это удобнее и привычнее многим вебмастерам, но опять же всегда зависит от ситуации.

    3.    301 редирект

    С помощью 301-го редиректа можно склеить похожие страницы, например:

    Текст на главной

    Текст на главной

    Идентичные страницы, и это плохо для продвижения, нужно оставить какой-то один вариант, а второй, чтобы перенаправлялся на тот, что мы выбрали.

    Это частая ошибка на многих сайтах, на которую не обращают внимание, а такой дубль влияет на ранжирование сайта.

    Многие системы управления сайтом сразу учитывают этот момент, но не все, и поэтому если мы обнаружили дубликаты, мы закрываем его с помощью 301-го редиректа, где в файле .htaccess прописываем какие страницы на какие перенаправлять.

    Статья в тему: 301 редирект — самое полное руководство

    4.    Ручное удаление страниц

    Ручное удаление страниц подходит для небольших сайтов, или для сайтов в которых системы управления имеют нормальные возможности.

    Все что нужно сделать найти страницы, и удалить их или через систему управления, или если это статический сайт то через FTP.

    Выводы: дубликаты страниц важно закрывать или удалять вовсе, поскольку как уже говорилось в статье про то, как найти дубли, поисковые системы могут наложить санкции на сайт за дублированный контент.

    Поэтому находим дубликаты страниц, и закрываем их способами в зависимости от задачи на сайте и будем вам счастье!

    Оцените статью

    Загрузка…

    Как объединить PDF-файлы и удалить дубликаты PDF-файлов?

    По мере того, как компьютеры становятся неотъемлемой частью нашей повседневной жизни, ставки, связанные с необходимостью эффективного управления дисковым пространством, становятся все выше, чем когда-либо прежде. Помимо игр, просмотра фильмов, выполнения заданий в колледже или выполнения официальных задач на своих ноутбуках и настольных компьютерах, пользователи все чаще используют компьютеры/ноутбуки для чтения так называемых электронных книг. Эти книги медленно, но постепенно начали заменять традиционную «книгу», которую мы все знаем.

    Электронные книги

    в настоящее время часто доступны в формате PDF , и их можно найти в огромных количествах на компьютерах, где пользователи пристрастились к чтению. То же самое относится и к различным организациям по всему миру, которые могут захотеть опубликовать различные виды документов, листовок, руководств и т. д. на своем веб-сайте. Это много документов типа. Просто чтобы быть уверенным, что нет никаких нежелательных дубликатов PDF , пользователям рекомендуется использовать добро Clone Files Checker с пользой.

     

         

    Средство проверки файлов клонов для Windows и Mac является проверенным программным обеспечением

    Совместимость с Windows 10/8.1/8/7 и Mac OS 10.10 и более поздних версий

    Нажимая для загрузки, вы соглашаетесь с данными Условиями

    См. Компоненты Windows | Особенности Mac

     

     

    Объединение файлов PDF

    Есть несколько методов, которые могут легко помочь вам объединить любые файлы PDF , которые вы хотите.3 наиболее распространенных и простых метода:

    1. Используйте онлайн-инструмент
      В Интернете доступно несколько инструментов, которые могут оказаться удобными, если размер одного из PDF-файлов, участвующих в этой операции, не превышает 50 МБ. Просто введите свой запрос в Google и откройте лучший результат. Загрузите файлы PDF и объедините их. Теперь загрузите объединенный PDF-файл на свой компьютер и работа закончена!
    2. Используйте локальный инструмент
      Всегда будут действовать ограничения, когда вы пытаетесь объединить PDF-файлы онлайн, такие как размер, количество файлов, продолжительность сеанса и т. д.Более удобный вариант — загрузить подходящую программу, установить ее, а затем позволить ей творить чудеса.
    3. Используйте Mac для слияния PDF-файлов
      Mac имеет уникальный метод слияния PDF-файлов. Для этого:
    • Откройте Finder и выберите синий значок в виде лица на док-станции Mac .
    • Теперь добавьте файлы PDF , которые вы хотите объединить.
    • Сохраните их, нажав кнопку Сохранить как PDF .

     

    Удалить дубликаты страниц после объединения PDF-файла

    Теперь, когда вы объединили файлы, возникает вопрос, как удалить любой дублирующийся контент? Давайте перейдем к решениям, чтобы увидеть, как вы можете сэкономить место для хранения, объединив дубликаты файлов PDF .

    1. Сравнить миниатюры
      Запустите программу просмотра PDF-файлов и выберите просмотр миниатюр. Это представление значительно упростит поиск идентичных фрагментов данных. После того, как вы определили все дубликаты страниц, просто избавьтесь от них.
    2. Используйте программное обеспечение для поиска дубликатов
      Точно так же, как автоматизированное решение всегда предпочтительнее ручного в наши дни, выбор специального программного обеспечения для отсеивания повторяющихся данных, безусловно, лучшая идея, чем сканирование данных, полагаясь исключительно на невооруженным глазом.Одним из таких исключительных фрагментов кода, который помогает отсеять любые дубликаты данных, является средство проверки файлов клонирования.

      Подробная процедура создания сканирования выглядит следующим образом: 

      • Загрузите программное обеспечение и запустите файл установки, чтобы установить его.
      • Теперь запустите Средство проверки файлов клонов и добавьте столько местоположений из шага 1 , в которых, как вы подозреваете, находятся какие-либо повторяющиеся данные.
      • Нажмите Начать поиск и дождитесь завершения сканирования.
      • После завершения сканирования выберите стратегию Fix Wizard (единый порядок действий для всех дубликатов) и Review & Fix («индивидуальный подход»).
      • Затем выберите, хотите ли вы просто удалить дубликаты или переместить их в корзину . Вот и все!

    Вы убрали весь бесполезный хлам навсегда. Продолжайте регулярно сканировать документы PDF (и даже другие типы файлов), чтобы защититься от любых дубликатов, которые могут возникнуть.

    Раза Али Казми работает редактором и автором технологического контента в Sorcim Technologies (Pvt) Ltd. Он любит писать статьи по широкому спектру тем, связанных с технологиями, а также усердно тестирует программные решения на платформах Windows и Mac. Если у вас есть какие-либо вопросы по содержанию, вы можете написать мне или в службу поддержки компании.

    Как удалить повторяющуюся страницу компании на Facebook | Small Business

    Если вы создали несколько страниц для своего бизнеса или у вас есть старая страница, которая больше не используется, вы можете удалить ее с сервера Facebook. Чтобы удалить страницу, вы должны быть указаны как администратор страницы. Если вы заметили дубликат страницы, которую создавали не вы, вы не сможете удалить ее самостоятельно. Однако вы можете использовать ссылку «Сообщить», чтобы предупредить Facebook о проблеме.Если команда Facebook обнаружит, что страница является дубликатом, она может удалить ее с сайта.

    Удаление повторяющихся страниц от имени администратора

    1. Посетите дубликат страницы компании Facebook, которую вы хотите удалить. Вы можете ввести URL-адрес страницы непосредственно в адресную строку или ввести название страницы в поле «Поиск», расположенное в верхней части веб-сайта Facebook.

    2. Нажмите кнопку «Редактировать страницу», расположенную в левой части страницы под изображением профиля страницы.

    3. Выберите параметр «Управление разрешениями», расположенный в списке в левой части страницы.

    4. Нажмите «Удалить эту страницу навсегда». Появится сообщение, предупреждающее вас, что страницу нельзя восстановить. Нажмите «Удалить», чтобы подтвердить свой выбор.

    Сообщить о дублирующейся странице

    1. Посетите дубликат страницы компании Facebook, о которой вы хотите сообщить. Вы можете ввести URL-адрес страницы непосредственно в адресную строку или ввести название страницы в поле «Поиск», расположенное в верхней части веб-сайта Facebook.

    2. Нажмите ссылку «Страница отчета», расположенную в левой части страницы в списке под изображением профиля. Появится всплывающее окно.

    3. Нажмите кнопку рядом с надписью «Дублировать или неправильно классифицировать страницу». Щелкните раскрывающийся список, затем нажмите «Дублировать другую страницу». Под раскрывающимся списком появится текстовое поле.

    4. Щелкните текстовое поле, затем начните вводить имя страницы, которая является дубликатом страницы, о которой сообщается. По мере ввода будут появляться соответствующие страницы Facebook.Щелкните соответствующую страницу, затем нажмите кнопку «Отправить».

    Удалить дубликаты сообщений — Плагин WordPress

    Простой плагин, который поможет вам удалить дубликаты страниц, сообщений и любого пользовательского типа сообщений одним щелчком мыши. Выберите тип сообщения, дубликаты которого вы хотите удалить, и нажмите кнопку «Удалить». Это удалит все ваши дубликаты сообщений/страниц с индикатором выполнения, чтобы вы знали, как идет процесс удаления 🙂

    Особенности
    • Удалить дубликаты выбранного типа сообщения
    • Показать дубликат журнала перед удалением сообщений
    • Возможность удаления выбранных дубликатов или всех дубликатов
    • Избегайте удаления исходных сообщений
    • Match Title — удаление сообщений, которые соответствуют только этому конкретному заголовку сообщения
    • Заголовок содержит — удалить сообщения, содержащие определенные слова в заголовке
    • Статус сообщения — удаление сообщений с определенным статусом сообщения

    Чтобы добавить плагин WordPress с помощью встроенного установщика плагинов:

    Перейдите в Плагины > Добавить новый.

    1. Введите имя «Удалить повторяющиеся сообщения» в поле «Плагины поиска»
    2. Найдите плагин «Удалить дубликаты сообщений», который вы хотите установить.
    3. Нажмите «Установить сейчас», чтобы установить плагин WordPress.
    4. В результате на экране установки будет указано, что установка прошла успешно, или отмечены любые проблемы во время установки.
      В случае успеха нажмите «Активировать подключаемый модуль», чтобы активировать его, или «Вернуться к установщику подключаемого модуля» для дальнейших действий.

    Привет,

    Этот плагин является лучшим плагином для Word Press в своем классе, простым, быстрым, легким и очень, очень эффективным.Настоятельно рекомендуется !

    Дубликаты не найдены, даже если их много в моей базе данных WP.

    Я искал этот тип плагина, хорошо!

    отлично работает, действительно помогает мне удалить все дубликаты.

    Я не нашел многих своих дубликатов. Только что нашел 2 из множества. Полностью разочаровывает.

    этот тип плагина, который я искал, потому что я создаю веб-сайты с дубликатами сообщений, чтобы отображать фиктивные данные для моих клиентов, после чего я сталкивался с большим количеством дубликатов сообщений, требующих времени для удаления. Когда я нашел этот плагин, удаляющий дубликаты сообщений, страниц, любого типа типа сообщения теперь чувствую себя счастливым Спасибо!

    Прочитать все 7 отзывов

    «Удалить дубликаты сообщений» — это программа с открытым исходным кодом.Следующие люди внесли свой вклад в этот плагин.

    участников

    1.3.2
    • Новое — Показать SQL-запрос
    • Твик — Цвета пользовательского интерфейса
    • Исправление — Исправление ошибок
    1.3.1
    1,3
    • Новое — Ajaxified Duplicate Search
    • Новое — Отображение количества строк поиска при поиске дубликатов
    • Новое — пользователь может остановить поиск повторяющегося запроса в любое время
    • Новое — возможность перемещать сообщения в корзину или удалять навсегда
    • Улучшение — Ускорение поиска дубликатов
    • Исправление — зависание на большом запросе
    1.2.1
    • Новое — Добавить всплывающую подсказку в настройках
    1,2
    • Новое — Добавить больше статусов сообщений для поиска дубликатов
    • Новое — флажки для удаления только выбранных дубликатов
    • Новое — перед удалением сообщений появится сообщение подтверждения
    • Исправление — Исправление ошибок
    • Улучшение — оптимизация кода
    1.1
    • Новое — добавлена ​​опция «Совпадать с точным заголовком» в дублировании поиска
    • Исправление — Исправление ошибок
    • Улучшение — оптимизация кода
    • Улучшение — изменения стиля
    1.0,3
    1.0.2
    • Улучшение | Ускорить запросы на удаление постов
    • Улучшение | Переместить меню в Инструменты
    • Улучшение | Добавить ссылку на настройку на странице плагинов
    1.0.1
    • Исправлена ​​ошибка | Исправлена ​​проблема с удалением ограниченных дубликатов сообщений
    1.0.0

    Удалить дубликаты страниц? — eehelp.com

  • Автоматическое удаление дубликатов страниц в объединенном файле PDF?

    Здравствуйте,

    Мне интересно, знает ли кто-нибудь способ автоматического поиска Adobe Professional в файле pdf и удаления дубликатов страниц? Я объединил кучу отдельных PDF-файлов, в которых файлы имеют двойные страницы… поэтому вместо того, чтобы искать полный PDF-файл для дублирования страниц вручную (500 страниц), я надеялся, что Adobe Professional сможет сделать это как-то автоматически.

    Спасибо

    kmullen

    В Acrobat нет опции, но это можно сделать с помощью пользовательского сценария.

    Если вы заинтересованы в одном из таких скриптов, свяжитесь со мной в личку или по электронной почте.

  • Как я могу удалить повторяющиеся календари, отображаемые в моем списке календарей на моем MAC?

    Как я могу удалить повторяющиеся календари, отображаемые в моем списке календарей на моем MAC?

    OS X Версия El 10.11,6 (15-1004)

    MacBook Pro (17 дюймов, середина 2010 г.)

    Intel Core i5 до 2,53 ГГц

    4 ГБ 1067 МГц DDR3

    Macintosh HD

    Алексмайк,

    Используете iCloud? Если это так, используйте iCloud: расширенный календарь Apple и устранение неполадок iCal — поддерживается

    Если это не так, то какие календари дублируются?

  • Как я могу удалить дубликаты в фотографиях массово?

    У меня дубликаты не только в iPhoto и фото, но и в картинках.В iPhoto я удаляю дубликаты, почему не в Фото?

    Можно конечно — или программа сделает это за вас и два потребуют стороннего софта — для фото некоторых проверенных и безопасных программ

    PowerPhotos

    PhotoSweeper для фотографий

    Уничтожитель дубликатов для фотографий

    ЛН

  • опция удаления дубликатов была удалена!

    Apple только что посоветовала мне использовать эту опцию для удаления дубликатов песен — эта опция была удалена.Почему?

    Привет

    Всегда можно найти дубликаты. Это было перемещено в файл> библиотека> показать повторяющиеся элементы.

    Джим

  • Фотобиблиотека — iCloud как удалить дубликаты

    Все, кто-то что-то знает о программе OSX/IOS «Фотографии», которая будет обнаруживать и удалять дубликаты photo9? Моя библиотека «Фотографии» 63 299 фото и видео из 2135 за май 2016 года и не менее 10 000+ из этих фото являются дубликатами (на основе анализа Photosweeper).Я проверил результаты анализа Photosweeper, выполнив визуальное сравнение вручную и проверив исходные изображения в библиотеке iphoto (используя функцию location of show) и подтвердил, что эти 10 000+ фотографий являются дубликатами изображений, идентичными с именами разных файлов в разных части базы данных фотобиблиотеки.

    Итак, что происходит и как сделать так, чтобы 10-15% моей библиотеки изображений не дублировались! Я подниму эту сумму непосредственно вместе с платой поддержки Apple за услугу icloud объемом 1 ТБ, чтобы покрыть мою очень большую библиотеку «Фотографии», которая, вероятно, должна быть просто большой библиотекой фотографий!

    Еще несколько комментариев для тех у кого двойная проблема:

    -L’ старое приложение iPhoto использовалось для «обнаружения дубликатов» при импорте, но новое приложение «Фотографии» этого не делает.Кто-нибудь знает об этом?

    -J ‘видел документацию от Apple, в которой говорится, что icloud дублирует поиск в «Фотографии», когда находится в icloud, но явно не работает или не работает, если дубликаты существуют также в версии imac для библиотеки «Фотографии».

    — Остерегайтесь приложений, которые утверждают, что находят дубликаты «фотографий» и рекомендуются на различных интернет-сайтах, некоторые из них не работают со старым приложением iphotos и новым приложением «Фотографии» (я обнаружил после того, как вы заплатили и скачали).Если вам нужно средство для удаления дубликатов фотографий, которое работает с обзором «Фотографии», и держитесь подальше от любого приложения, которое не указывает четко и явно, он работает с «фотографиями» и был замечен с момента выпуска приложения «Фотографии».

    + Я заплатил 10 долларов за двойной Finder «Gemini», и это была пустая трата времени, которое не работало только с приложением «Фотографии» (это не была четкая документация или поддержка, и когда я запускаю его, поддерживается Macpaw, что они сказали, что близнецы не поддерживают фотографии, и сказали мне купить другое приложение Macpaw — я сказал им, чтобы они прыгали в озеро).

    + Я нашел очень хороший Photosweeper, который вы можете установить для точного или переменного соответствия (например, фотографии случайной вспышки, которые идентичны на 99,99%, но рушатся на 0,1 с), а затем вы можете щелкнуть правой кнопкой мыши, чтобы просмотреть исходный файл / изображение в библиотеке, чтобы вручную проверьте дубликаты (если вы параноик, как я) — есть много других платных приложений, которые также делают этот магазин, тогда около

    Photos обнаруживает дубликаты при импорте изображений и при синхронизации с ICPL

    Фото не анализирует дубликаты, но проверяет их при импорте и загрузке IPCL

    Существует несколько программ-дубликатов, которые проверены как безопасные для фотографий, в том числе PowerPhotos, PhotoSweeper для изображений и Duplicate Annihilator для фотографий — не используйте проверенные и задокументированные безопасные программы\

    И мне непонятно, о чем ваш пост, так как вы спрашиваете, как найти дубликаты, а затем даете хороший ответ — photoSweeper — это один из безопасных и эффективных способов удаления дубликатов для фотографий

    ЛН

  • 3,6,2 числа помогают найти и удалить дубликаты в 2 столбцах

    Может ли кто-нибудь помочь мне, пожалуйста.Я занимаюсь караоке-бизнесом. Как вы уже догадались, у меня есть книги со многими песнями, 64 000 и более 75% этих песен являются дубликатами, так что можете себе поезд разобрать. Вариант 1. Я мог бы вручную просмотреть свой список, удалив дубликаты, или вариант 2, чтобы попытаться найти формулу, которая работает, что сэкономит мне часы слепого удаления. Есть ли кто-нибудь, кто может помочь? Было бы очень признательно спасибо.

    Вот образец документа, над которым я работаю.

    Привет роби.

    Вот решение Craig s. Раддок в этом обсуждении Re: повторяется формула предупреждения

    Формула в B2 (заполнить)

    = ЕСЛИ (СЧЁТЕСЛИ($A,A) = 1″,»,»дубликат»)

    Теперь сортировать по столбцу A

    Удалите все, кроме одной, «дублирующиеся» строки для каждой песни.

    С уважением

    Ян.

  • Удаление дубликатов&запятая; Обычно мне приходится дважды удалять дубликат песни, чтобы он исчез. Почему?

    Когда вы удаляете дубликаты песен, мне обычно приходится дважды удалять дубликат песни, чтобы он исчез.Почему?

    Когда я удаляю повторяющуюся песню, она появляется снова. Когда я стираю его во второй раз, он по-прежнему отсутствует. После первого удаления он снова появился с облачком в стрелке вниз. После того, как я удалить, что она остается пропавшим без вести.

    Можно ли удалить песню одной операцией?

    iTunes 12.3.3 на Mac Pro Tower

    Похоже, у вас есть музыкальная библиотека iCloud , подпишитесь на Match iTunes Apple music (или обе).В первый раз вы, вероятно, удалите локальную копию файла песни (хранящуюся в памяти вашего компьютера). Но песня все еще находится в вашей библиотеке iCloud , , поэтому она отображается в вашем списке музыкальной библиотеки с облаком со стрелкой (которую вы можете щелкнуть, чтобы загрузить ее снова). Вы по-прежнему можете воспроизводить песни в потоковом режиме из iCloud. Во второй раз вы полностью удаляете песню из своей музыки в библиотеку iCloud .

    Вы можете увидеть различие, если щелкнете правой кнопкой мыши по песне (которая хранится локально) в iTunes.В появившемся контекстном меню есть две отдельные команды: Удалить Загрузить и Удалить . Удалить Загрузить удаляет локальную копию файла песни, но оставляет песню в вашей музыке в медиатеке iCloud . Удалить полностью удаляет песню одним действием.

  • Как удалить дубликаты песен

    Как я могу удалить дубликаты из песен ITunes

    Самый простой способ — изменить представление песен, а затем отсортировать отображение по названию песни.Таким образом, все дублированные песни появляются вместе.

    Чтобы удалить настоящие песни, вы можете щелкнуть правой кнопкой мыши по песне и выбрать УДАЛИТЬ ПЕСНЮ или выделить ее и нажать DELETE на клавиатуре.

    Просто будьте осторожны, если вы удаляете песни, которые физически находятся на вашем компьютере, и у вас где-то есть резервная копия — на случай, если вы когда-нибудь захотите восстановить.

  • В моей библиотеке около 14 000 песен, около 4 копий каждого из них. Попробуйте удалить дубликаты&запятая; но можно сделать только по одному за раз. Я провел много часов, проверьте все файлы, которые я хочу удалить, только чтобы узнать, что я не могу удалить их оба?

    В моей медиатеке iTunes около 14 000 песен, но на самом деле их всего около четверти из-за большого количества дубликатов.Я не знаю, как они вообще туда попали, и попытка удалить их приводит в бешенство! Я уже потратил несколько часов, проверяя все файлы, которые хочу удалить (думая, что удалю все файлы сразу) — только чтобы узнать, что мне все равно приходится удалять их по одному. Должен быть лучший способ! Помогите, пожалуйста.

    Если вы не знаете, что хотите удалить все проверенные песни в вашей медиатеке:

    • Создайте новый смарт-плейлист со следующими правилами:

      Это покажет все проверенные песни в вашей библиотеке.

    • Выбрать все элементы в этом списке воспроизведения (Ctrl-A)
    • Удерживая нажатой клавишу SHIFT, нажмите DELETE — следуйте инструкциям, чтобы удалить песни из вашей библиотеки и (при необходимости) мультимедийные файлы вашего ПК не то, что вы ожидаете — см. советы пользователю turingtest2 в вашем iTunes для Windows с SyncToy для резервного копирования библиотеки для подходящего и рекомендуемого метода.

      Не существует «простого» способа надежного удаления дубликатов из библиотеки, но см. интеллектуальную информацию в этой теме об использовании сценария для удаления дубликатов (например).

      В долгосрочной перспективе старайтесь избегать добавления в свою библиотеку iTunes того, что уже существует в ней — вот как возникают дубликаты (в отличие от мнения, по-видимому, разошедшегося, iTunes не , а дублирует что-либо при нормальной работе). Я видел несколько комментариев, предлагающих здесь нескольким пользователям правильно скопировать свою библиотеку со старого компьютера на новый, а затем добавить содержимое его медиафайлов — гарантированный способ закончить копированием записей базы данных или медиафайлов.

    • Как быстро удалить дубликаты фотографий? Большой объем фотографий в моем файле на моем Mac.

      Здравствуйте.Y at — это приложение, которое я могу быстро загрузить, позволит мне удалить дубликаты фотографий, резервные копии которых я создал в своей папке на своем Mac? TIA

      Имеет dr.cleaner и дубликат очистителя фотографий. Они оба есть в магазине приложений для Mac.

    • Попробуйте удалить дубликаты&запятая; «показать точные дубликаты» проверить все экземпляры некоторых песен

      Я пытаюсь удалить дубликаты в моей библиотеке iTunes (в тысячах). Я просматриваю «реплику», но для некоторых песен он проверяет все экземпляры одной и той же песни, поэтому я не могу удалить отмеченные, не потеряв эти песни в целом.Есть ли способ исправить это, или что я должен пройти через всю библиотеку песни?

      Использование последней версии iTunes на ПК с Windows. Инструкцию по удалению дубликатов читал, но моя ситуация не охвачена.

      Спасибо

      Если запись в списке ревизии проверяет другую, что заставляет меня подозревать, что вы смотрите плейлист, в который одни и те же элементы были добавлены более одного раза, а не основной список музыки. Ящики являются глобальными в iTunes.Одна из фаз моего дедупер-скрипта, упомянутая ниже, четко указывает на дубликаты плейлиста, однако в его текущей форме вам нужно запускать его в каждом плейлисте, где у вас есть эта проблема, если только вы исправите этот тип проблемы. Для очистки фонотеки нужно начинать с исходной музыки в виде песен и использовать точную реплику. Текущая версия требует, чтобы округа записывались на диск, а количество названий соответствовало тому, кто, я не уверен, всегда был необходим. Если вы не видите никаких дубликатов, которые вы ожидаете, возможно, поэтому.

      Официальное уведомление Apple о дубликатах находится здесь: найдите и удалите дубликаты в вашей медиатеке iTunes. Это ручной процесс, и в статье не объясняются некоторые потенциальные ловушки, такие как потерянный берег и членство в списке воспроизведения, или иногда один и тот же файл может быть представлен несколькими записями в библиотеке, а удаление и повторное использование файла приведет к поломке. все остальные.

      Используйте MAJ > view > show items, чтобы точно воспроизвести для отображения дубликатов, потому что обычно это более полезный выбор.Вы должны вручную выбрать все группы, кроме одной, для удаления. Сортировка списка по дате добавления может упростить выбор подходящих дорожек, но она работает лучше, если выполняется сразу после создания дубликатов. Если у вас есть несколько записей в iTunes, связанных с одним и тем же файлом на жестком диске, не отправляйте их в корзину.

      Использовать мой скрипт DeDuper (только для Windows) Если вы не уверены, не хотите делать это вручную или хотите поддерживать рейтинги, количество воспроизведений и членство в плейлистах. См. эту справочную ветку , этот пост для получения подробных инструкций и Пожалуйста, обратите внимание на предупреждение о резервном копировании вашей библиотеки перед дедупликацией.

      (Если вы не видите строку меню, нажмите ALT для временного просмотра или CTRL + B для продолжения отображения.)

      Последняя версия скрипта может убрать неработающие ссылки, пока есть хотя бы двойная жизнь, чтобы объединить его статистику и членство в плейлисте, и должна действовать разумно, когда один и тот же файл был добавлен по нескольким путям.

      ТТ2

    • Как удалить дубликаты картинок

      Я импортировал все свои фотографии в библиотеку фотографий.Как удалить дубликаты фотографий (версия 1.3) в OS X El Capitan без стороннего программного обеспечения?

      В фотографиях нет инструмента для обнаружения библиотеки дубликатов. Он основан на обнаружении при импорте фотографий.

      Если вы намеренно импортируете дубликаты, вы можете искать их только вручную, например, путем сортировки фотографий по дате съемки, если дубликаты появятся рядом друг с другом через несколько секунд.

      Для поиска дубликатов необходимо стороннее ПО. Эти три безопасны для использования с фотографиями:

    • Как удалить страницу из сообщения электронной почты, которое появляется при открытии компьютера?

      Как убрать эту страницу, которая появляется каждый день, я вырубил на компе.Страница взята из электронного письма, отправленного на мой лонг от друга, у которого есть информация о социальном страховании. Как я могу удалить это?

      Привет потерял,

      Попробуйте загрузочный минимум http://support.microsoft.com/kb/929135. Если проблема исчезнет, ​​то останется только найти виновника проблемы. Следуйте процедурам, описанным в статье. После обнаружения удалите, удалите, отключите или удалите. Не забудьте один раз сбросить систему обратно в нормальное состояние, как описано в процедурах.Если проблема возникает в чистом режиме, то просто восстановите систему до нормального состояния и перезагрузитесь — это решение не сработает. Если вы используете XP, см. http://support.microsoft.com/kb/310353.

      Надеюсь, это поможет.

      Удачи!

    • удалить дубликаты файлов

      удалить повторяющиеся файлы

      удалить повторяющиеся файлы

      Да. Да, ты можешь.

    • Как удалить дубликаты страниц в WordPress за несколько минут

      Что такое дубликаты страниц?

      Владельцы веб-сайтов WordPress начинают беспокоиться, когда определенные страницы опускаются в результатах поиска по неизвестной причине.Однако это может произойти из-за дублирования страниц. Дублированные страницы — это страницы с одинаковым или похожим содержанием. Обычно это архивы с датами, категориями, авторами и комментариями. Эти страницы также могут иметь разные URL-адреса, что способствует ненужной конкуренции с основным постом за позиции в рейтинге. В этой статье мы научим вас, как удалить дубликаты страниц в WordPress.

      Создание дубликатов страниц

      Как мы объясняли выше, дубликаты постов на страницах также создаются в архивах с датами, категориями и даже страницами с комментариями.Это помогает пользователям фильтровать сообщения по определенным критериям. Система делает это автоматически.

      Посмотрим, как это выглядит в архивах дат. Например, нам нужно отфильтровать все посты за ноябрь. Откройте главную страницу вашего сайта и нажмите на нужный месяц.

      Нажав Ноябрь 2018, , вы увидите список всех статей, опубликованных в ноябре. Это отличный пример, показывающий, что WordPress создает отдельные страницы для архивов дат. Теперь пора освежить в памяти про индексацию дополнительных страниц и ее негативный эффект для продвижения.Ознакомьтесь с другой статьей о том, как удалить страницы вложений WordPress.

      Дублирование страниц в комментариях

      При работе с комментариями следует ожидать дублирования страниц в деревьях обсуждений. Поэтому, если количество комментариев превышает емкость одной страницы, некоторые комментарии будут перемещены на следующие страницы. В этом случае вы должны убедиться, что вы действительно удаляете дубликаты страниц в WordPress. В противном случае, будучи проиндексированными, эти страницы станут ловушкой для пользователей, которые откроют страницу с комментариями вместо оригинального поста и, скорее всего, навсегда покинут ваш сайт.Конечно, ваш SEO будет страдать от высокого показателя отказов.

      Удаление дубликатов страниц в WordPress

      Предотвращение вреда является ключом. Вы должны удалить дубликаты страниц в WordPress. И вы можете сделать это с помощью Clearfy — плагина для оптимизации сайта. Он предлагает ряд полезных функций, помогающих удалять дубликаты страниц. Скачайте плагин и установите его. Активируйте его.

      После этого перейдите в Настройки => Меню очистки =>

      => SEO (левая нижняя часть меню плагина) => Дублированные страницы.

      Процедура

      Начнем сначала и удалим архив даты. Пожалуйста, обратите внимание, что мы не будем удалять страницы. Что мы собираемся сделать, так это закрыть их от индексации. Это важнее, чем удаление дубликатов. Если поисковик не найдет страницу-дубликат, пользователь откроет оригинальный пост — тот, который нам нужно, чтобы он увидел — и не потеряется в многообразии клонов. Нажмите ON , чтобы включить эту функцию.

      В случае с авторскими архивами процедура практически такая же: вместо удаления дубликатов страниц вы просто закрываете их от индексации и добавляете редирект с дублированной страницы на исходный пост. Обязательно активируйте следующую функцию:

      Чтобы удалить примечания автора, установите перенаправление со страниц тегов на исходный пост и активируйте функцию ниже. Отметьте серую метку со значком вопроса — это говорит о том, что функция не вызовет негативных последствий.

      Для каждого изображения или видео WordPress создает отдельную страницу вложения. Это становится настоящей ловушкой для оптимизации. Проверьте этот пост, чтобы узнать, почему. Нажмите ON рядом с опцией ниже.

      Для пагинации с возможностью размещения контента на нескольких страницах каждый URL будет иметь какой-то порядковый номер. При необходимости вы можете удалить навигацию по страницам с помощью Clearfy. В результате все страницы одного поста перенаправляются на исходный URL. Нажмите ON , чтобы активировать:

      Иерархия деревьев обсуждений является удобным средством для создания дубликатов страниц.Выглядит это так: вы отвечаете на комментарий, и в URL тут же появляется переменная ?replytocom  . Для поисковых систем любые различия в URL выглядят как разные страницы, а не как обычный комментарий. Если вы хотите удалить дубликаты страниц в WordPress, включите эту функцию и настройте перенаправление.

      Заключение

      Время и усилия, потраченные на продвижение сайта, могут быть потрачены зря. Если не избавиться от дубликатов страниц, они могут составить конкуренцию оригинальным ресурсам за позиции в рейтинге.Мы надеемся, что после прочтения этой статьи вы поняли, насколько важно удалять дубликаты страниц в WordPress, и сможете сделать это самостоятельно в кратчайшие сроки.

      Как искать и удалять внутренние повторяющиеся страницы

      Как искать и удалять внутренние дубликаты страниц при оптимизации сайтов. Такое явление, как внутренние дубли страниц на сайте, может очень негативно сказаться на продвижении этого сайта в поисковых системах, так как в этом случае снижается ссылочный вес и релевантность продвигаемых страниц.Кроме того, наличие внутренних дублирующих страниц может снизить общую уникальность контента на сайте, ведь один и тот же текст появляется сразу на нескольких страницах. Оптимизация сайта предполагает поиск и удаление внутренних дублирующих страниц на сайте как одну из основных задач.

      Внутренние дубликаты страниц.

      Внутренние дубликаты страниц бывают полными (четкими) и частичными (нечеткими), обычно они появляются из-за особенностей используемых на сайте CMS. Также появлением дубликатов могут быть действия неопытного веб-мастера, намеренно копирующего тексты на страницах сайта или создающие идентичные страницы.

      Чтобы исключить негативное влияние дублирующих страниц на продвижение сайта в поисковых системах, необходимо попытаться найти все дубликаты на сайте и «закрыть» их для поисковых систем , например, с помощью файла robots.txt. Есть несколько способов найти такие страницы.

      Поиск вручную.

      Итак, можно искать дубликаты вручную путем анализа всех страниц, проиндексированных поисковыми системами. Для этого введите запрос «site:HTTP://имя_сайта.com» в строке поиска Яндекса или Google и посмотрите на каждый результат выдачи. При обнаружении нетипичных URL-адресов страниц можно сделать вывод, что эти страницы являются дубликатами — необходимо вручную запретить их индексацию поисковыми системами.

      Еще один способ найти внутренние дубликаты страниц на сайте — это использовать специальные программы, такие как Xenu. Эта программа анализирует все ссылки на сайте и показывает, какие из них рабочие, а какие нет. В программе Xenu можно получить полный список адресов страниц сайта в виде таблицы, в которой потом удобно анализировать данные о наличии дубликатов: если среди адресов страниц отличается всего несколько символов, то их стоит проверить.

      Если сайт добавлен в Google Webmaster , то, в этом случае, поиск внутренних дубликатов страниц на сайте может осуществляться с его помощью. В меню вебмастера нужно найти такой пункт как «Оптимизация», а в нем — «HTML оптимизация» . В этом разделе представлены данные о дублирующихся заголовках и описаниях страниц — наиболее вероятных признаках дублирования страниц на сайте. Вам необходимо проанализировать страницы с повторяющимися заголовками и описаниями и, по возможности, удалить лишние.

      Как удалить внутренние дубликаты на сайте из индекса поисковой системы?

      Самый доступный способ — вручную удалить дубликаты страниц с сайта (если это возможно). При последующей индексации поисковые системы уже не будут учитывать удаленные страницы.

      Также удалить дубликаты страниц из поисковой индексации можно с помощью так называемого 301 редиректа — стандартного способа «склейки» одинаковых документов. Например, редирект 301 используется в тех случаях, когда нужно «склеить» страницы, доступные с www или без него.

      Редактирование файла robots.txt.

      Редактирование файла robots.txt — еще один способ удалить дубликаты страниц из индексации. Вы можете поискать готовые настройки файла robots.txt для конкретных систем управления контентом. В этом случае все лишнее для индексации поисковыми системами уже «закрыто» директивами disallow, и остается только добавить на сайт кастомизированный файл robots.txt. При необходимости вы можете отредактировать файл robots.txt вручную, однако для этого необходимо уметь пользоваться его директивами.

      Таким образом, методы поиска и удаления внутренних дубликатов страниц разнообразны, и вы можете по желанию использовать любой из них или все вместе. Однако следует отметить, что неумелое удаление дубликатов страниц может привести к еще худшим последствиям, чем наличие дубликатов на сайте, поэтому работу по оптимизации сайта в этом направлении лучше всего доверить профессионалам.

      В компании веб-дизайна GCC MARKETING профессиональную оптимизацию сайта выполняют опытные специалисты.Перечень наших услуг по оптимизации сайтов и внутренних мероприятий, таких как устранение технических ошибок в коде сайта или оптимизация мета-тегов, а также внешних мероприятий: регистрация сайта в каталогах, работа с внешними ссылками.

      Закажите оптимизацию вашего сайта в компании веб-дизайна GCC MARKETING прямо сейчас , чтобы ваш сайт мог работать эффективнее уже сегодня!

      Для получения профессиональной помощи Свяжитесь с нами сегодня, профессиональное агентство SEO в Дубае.

      Звоните 00971567300683

      Google Local Listings — удаление повторяющихся бизнес-страниц

      К этому моменту вы, вероятно, слишком хорошо знаете, какую роль играют списки Google Places в предоставлении информации о компаниях, продуктах, брендах, артистах и ​​организациях. Правильно настроенный и поддерживаемый список Google Places может привести к увеличению трафика и увеличению продаж/запросов. Как бы хорошо это ни звучало, ведение списка Google Places может быть сложной задачей, а такие проблемы, как дублирование списков, могут быть неприятными.Существует несколько способов управления повторяющимися, неправильными или старыми списками Google Places, и в этом посте мы рассмотрим, как удалить список через Google My Business.

      Первым шагом является идентификация вашей местной компании в Google My Business. Попав в Google My Business, быстрый поиск по названию вашей компании отобразит все существующие локальные списки. Дубликат определяется как компания, которая имеет аналогичную информацию, такую ​​как адрес или номер телефона, с несоответствиями в названии компании, как показано ниже.Этот конкретный список имеет тот же адрес и номер телефона, однако название компании отличается. При выборе одного из этих списков могут появиться два разных сообщения.

      Одно сообщение после выбора объявления указывает на то, что объявление уже проверено и управляется владельцем бизнеса. Как показано ниже, это сообщение свидетельствует о том, что данное объявление было заявлено надлежащим образом, а информация о компании была проверена владельцем компании. Если вы не являетесь владельцем этого списка, но хотите внести изменения, вы можете запросить права администратора у владельца после нажатия на список.

      Альтернативное сообщение, которое может появиться после выбора объявления, будет указывать на то, что для управления определенным списком необходимо создать страницу Google+. Обычно этот список является дубликатом, который необходимо удалить. Установив флажок Условия обслуживания и нажав Продолжить , вы можете начать процесс управления списком.

      После нажатия Продолжить, появится следующее сообщение. В этом примере список Google Адресов является дубликатом и должен быть удален. Мы продолжим этот процесс, нажав Продолжить и Подтвердить позже, , чтобы мы могли управлять страницей и удалить повторяющийся список.

      Следующим экраном будет панель инструментов Google Pages, которая отображает информацию о рассматриваемом бизнесе. В этом примере отображаются название компании, номер телефона, адрес, время работы и веб-сайт.