Содержание

Как парсить Яндекс?


В этой статье мы рассмотрим несколько важных аспектов такого вопроса как, парсинг ключевых слов Яндекса и немного затронем тему для аналогии по Google выдаче. Но для начала, давайте разберемся с самим понятием, и узнаем, что такое «парсить».


Если говорить общими и понятными словами — это семантический анализ в автоматическом режиме, который проводится или визуально (посредством человека), или программно. То есть, вы анализируете выдачу по определенному запросу, или группе запросов, чтобы выделить по своим критериям лидера выдачи, к которому нужно стремиться и которого нужно побороть.


Парсер ключевых слов Яндекса должен работать через прокси-сервер, который, кстати, можно купить на нашем сайте, или же получить солидную скидку за покупку нескольких прокси одновременно. Прокси по большему счету нужен для того, чтобы во время анализа выдачи не схлопотать бан, а его можно получить очень просто, если Яндекс или Гугл замечают подозрительную активность, они могут, исходя из куков или истории вашего браузера наложить вечный бан по IP, поэтому используют «одноразовые» Proxy.


Парсить можно что угодно, а так как у Яндекса очень много различных сервисов, исходя из их статистики или данных, можно использовать полезную информацию для своих целей. Далее мы рассмотрим основные аспекты парсинга выдачи Яндекса и его сервисов.

Парсинг ключевых слов из выдачи


Это самый популярный вопрос, которым задаются начинающие сеошники или менеджеры, которым нужно продвигать сайт по определенным запросам. Чтобы понять, как это делается в теории, нужно подкрепить информацию небольшой практикой. Этот пример будет основываться на ручном парсинге. Допустим, есть ключ «тест», мы вводим его в строку поиска Яндекса и нам выдает около 110 миллионов ответов. Далее нужно просмотреть все анкоры у сайтов в топе, их ссылки (главная страница сайта, поддомен или же внутренняя страница), снипеты (желательно вчитаться в них и понять, как сделать лучше).


Также, если ваше ключевое слово довольно часто ищут, Яндекс внизу страницы выдачи предложит вам список похожих ключевых слов, а их очень важно учитывать! Еще интересным моментом выступает быстробот, если же сайт попал в топ недавно (справа пишется 4 часа назад), значит на нем «сидит» бот Яндекса, просмотрите этот сайт, и выпишите ключевые его моменты.


Если вы продвигаете свой сайт по определенному региону или стране, нужно это указать при поиске (выбрать фильтр поиска – справа от строки в самом вверху). Можно сделать небольшую аналогию с парсингом ключевых слов Google, процесс сбора ключевых слов немного отличается, но суть остается та же. И еще стоит напомнить о тех же самых подсказках ключевых слов в Гугл, они очень часто становятся отправной точкой для принятия решений.

Парсер Яндекс Wordstat


Здесь нет ничего сложного, суть данной операции состоит в извлечении нужного количества слов по определенному запросу из огромного количества ключевых слов вордстата. На сегодня существует очень много программ, скриптов и даже виджетов для браузеров, которые будут парсить «яндекс вордстат» в полуавтоматическом режиме. Вам остается только наладить этот процесс и после глазами просмотреть всю полученную информацию, или же снова профильтровать данные по нужным значениям.

Парсер ключевых слов Яндекс Директа


Следующим по популярности сервисом для парсинга выступает «Директ». Если вы хотите составить правильное семантическое ядро, полностью подготовить свою рекламную кампанию в правильном ключе и сделать маркетинговый анализ, то парсинг подсказок с Яндекса и объявлений с Яндекс Директа — вам помогут лучше всего! Для совершения этой операции вам помогут или наши рекомендации по «безобидному» парсингу ключевых фраз, или же ваша уверенность в своих силах и выдержке перед монотонной работой.

Парсер Яндекс Карт


Основу парсинга Яндекс Карт составляет простая информация, которую владельцы сайтов пишут для общего обозревания.


Сюда можно отнести:

  • Адрес сайта.
  • Адрес физического «представительства».
  • Почта для связи (скорее всего для рабочих целей).
  • Телефоны для поддержки, или ознакомления клиентов.


Обычно, готовые алгоритмы парсинга берут все данные и группируют их по таблице Excel, оглавляя ее названием предприятия, временем работы, адресом, координатами на карте и другими основными данными.

Заключение


Чтобы облегчить себе работу, вы можете приобрести у нас прокси для парсинга Яндекса, включая выдачу Директ, Вордстат или карты. Помните, что при покупке нескольких прокси, нужно учитывать также их региональную принадлежность, чем дальше они находятся от региона вашей работы, тем дольше будет происходить ответ сервера. Замечено, что при парсинге в России используя прокси из Казахстана или России, ответ сервера мизерный, в то время как при использовании США или Канады, ответ отстает на пару миллисекунд (что в некоторых ситуациях очень критично).

Как парсить данные с HTML-страниц на Python

Руководитель проектов Дмитрий Мирошниченко рассказывает, как быстро спарсить объявления конкурентов в «Яндекс.Директе» с помощью языка программирования Python.

Обучение в онлайн-университете: курс «Старт в программировании»

В прошлой статье я показывал, как можно спарсить заголовки и текст объявлений из Яндекс. Директа с помощью Google Docs. Сегодня покажу как можно собрать ещё  и название компании, почту, телефон и адрес сайта у каждого объявления. Все эти данные будет собирать скрипт на python и складывать в CSV файлик.

Я не профессиональный программист. Мой код далёк от кристальной чистоты. У меня часто нет проверок на исключения и использую не самые передовые решения. Я пишу как умею, но программирование помогает решать повседневные задачи быстро и с наименьшими затратами.

Тем не менее я стараюсь придерживаться стиля написания кода PEP8. Это даёт гарантию того, что в моем коде сможет разобраться кто-то ещё. Это полезно, когда что-то не работает и позволяет спросить совет у старших товарищей про программированию.

Кстати, ни в одном из популярных сервисов мониторинга контекстных объявлений вы не найдёте ни номеров телефонов, ни адресов сайтов, ни тем более электронной почты компаний, которые рекламируются в директе. Так что можно сказать, у вас будет эксклюзив.

Где и что парсить?

В прошлый раз мы смотрели объявления по ссылкам вида

https://direct.yandex.ru/search?&rid=213&text=запрос&page=номер_страницы

Заголовок и текст объявления вы уже знаете как находить. Отсюда же можно взять и сайт компании. Остальная информация есть в карточке объявления. Нужно найти признаки этих ссылок:

  • Сайт компании находится внутри тега span с классом domain.
  • Ссылка на карточку имеет класс vcard.

Ссылка на карточку имеет класс vcard

Сайт компании находится внутри тега span с классом domain

На карточке объявления также ищем признаки нужных элементов. Нас будут интересовать:

  • Название компании. Находится в заголовке с тегом h2.
  • Телефон находится внутри элементов с классами contact-item call-button-container → large-text.
  • Почта имеет класс email.

Карточка объявления, где есть интересующие нас данные: название компании, телефон и электронная почта

Соберу всё в кучу:

1. Пройдитесь по всем ссылкам вида https://direct.yandex.ru/search?&rid=213&text=запрос&page=номер_страницы.

2. С этих страниц запишите в файл заголовок и текст объявления, а также домен сайта.

3. Найдите ссылку на карточку объявления, если она есть.

4. Соберите название компании, почту и номер телефона с карточки и запишите в файл.

Чем парсить?

Что использовать для парсинга html страниц? Вот тут есть множество вариантов.

Для сильных духом можно использовать регулярные выражения. Но если вы знаете как их можно использовать, вам не нужно читать эту статью.

Можно использовать библиотеку lxml. Она работает очень быстро, но есть много ограничений. Яндекс сразу понимает, что на страницу зашёл робот. Чтобы этого избежать нужно эмулировать браузер обычного человека.

Прикинуться человеком со всякими юзерагентами и куками может фреймворк Grab. Я выбрал именно его, потому что уже немного знаю как с ним работать. Правда советую подумать разбираться в нём или нет, так как у него странная документация. Я там нашёл далеко не всё, что мне было нужно.

Описание программы

Текст программы можно взять с GitHub. Я расставил основные комментарии по тексту. В целом должно быть всё понятно.

Функция get_pages получает количество всех страниц с объявлениями. Работает очень просто. Получаем массив страниц и берём последнюю цифру.

Массив страниц с объявлениями

Яндекс.Директ показывает подряд не больше 8 цифр. Иногда бывает так, что их больше. Тогда Яндекс ставить в конце многоточие и сразу узнать сколько всего страниц нельзя.

Страниц с объявлениями больше 8

Всего 10 страниц

Приходится открывать предпоследнюю страницу, переходить туда и снова смотреть последнюю цифру.

Итоговый результат записываем в файл firms.csv

Все данные в уже готовом CSV файле

Нюансы

  • Если делать много запросов через небольшие интервалы, Яндекс будет показывать капчу. Чтобы её распознавать автоматически можно использовать сервис antigate. На GitHub есть библиотека для python. Ну, или можно делать запросы не так часто. Я пошёл по второму пути: поставил таймаут 5 секунд в параметрах grab.

g.setup(encoding=’utf-8′, connect_timeout=3, timeout=5)

  • У одной компании может быть несколько объявлений. У меня была задача собрать все различные компании: мне не не нужно было брать все объявления. Поэтому я использовал номер телефона как уникальное поле. Если объявление с таким номером уже было, я его исключал.
  • Библиотека tqdm показывает прогресс выполнения любого цикла. Нужно просто обернуть его и в консоли будет виден прогресс. Использовал просто для наглядности.

Прогресс парсинга объявлений по каждому запросу

Как со всем этим работать

Расскажу как всё это запустить на примере Windows 10. В Linux и macOS всё делается аналогично.

  • Установите Python 3. Я использую ветку 3.5. Скачать можно с официального сайта. Ветку 3.6 пока не советую, её зарелизили всего несколько дней назад.
  • Установите Grab. Лучше через pip. Это менеджер пакетов для python. Идёт с ним в комплекте.

pip install grab

  • Установите tqdm. Так же ставится через pip.

pip install tqdm

git clone https://github.com/gumbert/ydirect

  • Поменяйте запросы на ваши в тексте программы. Для написания и редактирования кода я использую Sublime.
  • Запустите скрипт.

python ydirect.py

Если всё сделали правильно, через некоторое время у вас будет файлик firms.csv со всеми данными.

Учитесь программировать и пусть компьютер работает за вас.

Мнение автора и редакции может не совпадать. Хотите написать колонку для «Нетологии»? Читайте наши условия публикации.

Парсинг выдачи Яндекса — цены на услуги по сбору (парсингу) поисковой выдачи Яндекса

Поисковая система, выдача результатов, программный анализатор данных, информационное сопровождение — всё это современные инструменты, без которых не обойтись современному специалисту. Для того чтобы эффективно поддерживать сайт в сети, нужно регулярно использовать технологии продвижения.

Надежный парсинг выдачи Яндекса

Преобразованные данные дают возможность оперативно улучшать качество сайта заказчика в интернете. Парсер исследует и преобразовывает широкий диапазон информации. Мониторинг за появлением нового контента — это также услуги парсинга. Цена работ может меняться в зависимости от объемов заданий.

Парсинг выдачи — недорогая методика, позволяющая посредством программ осуществлять сбор необходимой информации по запросу. Положительные стороны этого процесса:

  • высокая скорость выдачи результата;
  • богатые возможности интерфейса.

Применяя данный способ аналитики, фирменный сайт повышает свой рекламный уровень и репутацию в сети. Обработка и парсинг Yandex — это улучшение работоспособности и эффективности сайта, выдача требуемых запросов. На данный момент эта методика включает этапы, среди которых:

  • получение контента;
  • извлечение данных;
  • генерация результата.

Применять информационное поле в полезном для клиента ключе — миссия программистов. Парсинг Яндекса — это скоростной сбор данных. Используя поисковик, можно без особого труда добиться желаемых результатов. В то же время, чтобы избежать блокировки IP, следует подходить к работе профессионально. Расценки на услуги можно узнать на сайте Юду. Качественно собрать сведения — обязанность подготовленных исполнителей Юду.

Быстро распарсить интернет ресурс — задача, которая по силам только профессионалам

Заказать парсинг, поиск и обработку ссылок каждый желающий может на нашем сайте. Доверяя задание ответственному исполнителю, вы делаете шаг навстречу удачному результату. Вовремя сделанный заказ в Yandex — успешный бизнес и новые клиенты.

Парсинг результатов поиска в Яндексе — это возможности разного уровня. Каждая обработанная ссылка по запросу несет важную информацию. Стоимость на современные услуги поиска и анализа сегодня невысокие. Профессионально собрать список сайтов — по силам опытным специалистам. Технология парсинга включает три основных преимущества, среди которых:

  • контроль  за изменением контента сети;
  • анализ гигантского количества данных;
  • постоянная выдача результатов.

Решение заказать исполнение заданий, которые недорого будут выполнены исполнителями Юду, позволяет реализовать любые планы на сервисах Яндекса. Парсить информацию — задача для подготовленных мастеров. Поисковая система Яндекс способствует тому, чтобы выдача ссылок проходила оперативно и без сбоев. Надежный результат поиска зависит от качества программного обеспечения и опыта программиста.

Создание объявлений. API Яндекс.Директа. Версия 5

Python версии 2 или 3 с использованием JSON с библиотекой запросов

В этом примере показан запрос с использованием метода Ads.add, а также обработка и вывод результатов. Для примера измените входные данные, указав OAuth-токен и ID группы, в которой будет создаваться новое объявление. Для запроса от имени агентства также укажите логин клиента.

 # --*- кодировка: utf-8 --*-
импортировать запросы, json

# Метод правильного анализа строк в кодировке UTF-8 как для Python 3, так и для Python 2
импорт системы

если сис.версия_информация < (3,):
    защита и(х):
        пытаться:
            вернуть x.encode ("utf8")
        кроме UnicodeDecodeError:
            вернуть х
еще:
 защита и(х):
 если тип (x) == тип (b''):
 вернуть x.decode('utf8')
еще:
 вернуть х

# --- Входные данные ---
# Адрес сервиса Ads для отправки JSON-запросов (с учетом регистра)
CampaignsURL = "https://api. direct.yandex.com/json/v5/ads"
Токен OAuth пользователя, запросы которого будут выполняться от имени
токен = "ЖЕТОН"

# Логин клиента рекламного агентства
# Обязателен, если запросы отправляются для рекламного агентства
clientLogin = "ИМЯ_КЛИЕНТА"

# ID группы объявлений, в которой будет создано новое объявление
идентификатор_группы_объявлений = GROUP_ID

# --- Подготовка, выполнение и обработка запроса ---
# Создание заголовков HTTP-запроса
заголовки = {
 «Авторизация»: «Носитель» + токен, # токен OAuth.Слово Bearer должно быть использовано
           "Клиент-Логин": clientLogin, # Логин клиента рекламного агентства
           "Accept-Language": "en", # Язык ответных сообщений
}

# Создание тела сообщения запроса
тело = {
 "method": "добавить", # Метод для использования
    "параметры": {
        "Объявления": [{
            «АдГрупИд»: адГрупИд,
            "TextAd": { # Параметры объявления
                "Заголовок": u"Заголовок объявления",
                "Текст": u"Текст объявления",
                "Номер мобильного",
                "Href": "http://www. yandex.ru"
            }
        }
        ]
    }
}

# Кодирование тела сообщения запроса в формате JSON
jsonBody = json.dumps(тело, sure_ascii=False).encode('utf8')

# Выполнение запроса
пытаться:
    результат = запросы. сообщение (CampaignsURL, jsonBody, заголовки = заголовки)

    # Отладочная информация
    # print("Заголовки запроса: {}".format(result.request.headers))
    # print("Запрос: {}".format(u(result.request.body)))
    # print("Заголовки ответа: {}".format(result.headers))
    # print("Ответ: {}".format(u(result.текст)))
    # печать("\п")

    # Обработка запроса
    если result.status_code != 200 или result.json(). получить ("ошибка", False):
 print("Ошибка доступа к серверу API Яндекс.Директа.")
 print("Код ошибки: {}".format(result.json()["error"] ["error_code"]))
 print("Описание ошибки: {}".format(u(result.json()["error"]["error_detail"])))
        print("RequestId: {}".format(result.headers.get("RequestId", False)))
    еще:
        # Вывод результатов
        print("RequestId: {}". format(result.headers.получить("RequestId", Ложь)))
        print("Информация о баллах: {}".format(result.headers.get("Единицы", False)))
        # Обработка всех элементов массива AddResults, где каждый элемент соответствует одному объявлению
        для добавления в result.json()["result"] ["AddResults"]:
            # Обработка вложенных элементов (это могут быть Errors или Id, или, возможно, Warnings)
            если add.get ("Ошибки", False):
                # Если присутствует массив Errors, объявление не было создано из-за ошибки (ошибок может быть несколько)
                для ошибки в add["Errors"]:
                print("Ошибка: {} - {} ({})".формат(ошибка ["Код"], u(ошибка ["Сообщение"]),
                u(ошибка["Подробности"])))
            еще:
                # Если параметр Id присутствует, объявление было создано
                print("объявление #{} создано".format (добавить ["Id"]))
                # При наличии массива Warnings объявление было создано, но с предупреждением (предупреждений может быть несколько)
                если add. get ("Предупреждения", False):
                для предупреждения в add["Warnings"]:
                print("Предупреждение: {} - {} ({})".format(предупреждение ["Код"], u(предупреждение ["Сообщение"]),
                u(предупреждение ["Подробности"])))

# Обработка ошибок, если соединение с Яндекс.Сервер Direct API не установлен.
кроме ConnectionError:
    # В этом случае мы рекомендуем повторить запрос позже
    print("Ошибка подключения к API-серверу.")

# Если произошла какая-либо другая ошибка
    Кроме:
        # В этом случае рекомендуем проанализировать действия приложения
        print("Произошла непредвиденная ошибка")  

Создание объявлений. API Яндекс.Директа. Версия 5

Python версии 2 или 3 с использованием SOAP с библиотекой Suds

В этом примере показан запрос с использованием Ads.добавить метод вместе с обработкой и выводом результата. Для примера измените входные данные, указав OAuth-токен и ID группы, в которой будет создаваться новое объявление. Для запроса от имени агентства также укажите логин клиента.

 # --*- кодировка: utf-8 --*-
из клиента импорта suds.client, WebFault
из suds.transport.http импорт HttpTransport

# Метод правильного анализа строк в кодировке UTF-8 как для Python 3, так и для Python 2
импорт системы

если sys.version_info < (3,):
    защита и(х):
        пытаться:
            вернуть х.кодировать("utf8")
        кроме UnicodeDecodeError:
            вернуть х
еще:
 защита и(х):
 если тип (x) == тип (b''):
 вернуть x.decode('utf8')
еще:
 вернуть х

# Отладочная информация
# импорт лога
#
# logging.basicConfig(level=logging.INFO)
# logging.getLogger('suds.client').setLevel(logging.DEBUG)
# logging.getLogger('suds.transport').setLevel(logging.DEBUG)
# logging.getLogger('suds.xsd.schema').setLevel(logging.DEBUG)
# logging.getLogger('suds.wsdl').setLevel(logging.DEBUG)

# Дополнительный класс для правильной обработки заголовков ответа HTTP для запроса SOAP
класс MyTransport (HttpTransport):
    def __init__(я, *args, **kwargs):
        HTTP-транспорт. __init__(я, *args, **kwargs)
        self.last_headers = Нет

    def отправить (я, запрос):
        результат = HttpTransport.send (я, запрос)
        self.last_headers = результат.заголовки
        вернуть результат


# --- Входные данные ---
# Адрес описания WSDL для сервиса Campaigns (с учетом регистра)
AdsURL = 'https://api.direct.yandex.com/v5/ads?wsdl'

# Токен OAuth пользователя, от имени которого будут выполняться запросы
токен = 'ТОКЕН'

# Логин клиента рекламного агентства
# Обязательный параметр, если запросы делаются от имени рекламного агентства
clientLogin = 'CLIENT_LOGIN'

# ID группы объявлений, в которой будет создано новое объявление
идентификатор_группы_объявлений = GROUP_ID

# --- Подготовка, выполнение и обработка запроса ---
# Создание заголовков HTTP-запроса
заголовки = {
    «Авторизация»: «Носитель» + токен, # токен OAuth.Слово Bearer должно быть использовано
    "Клиент-Логин": clientLogin, # Логин клиента рекламного агентства
    "Accept-Language": "ru", # Язык ответных сообщений
}

# Конструктор клиента SOAP
client = Client(AdsURL, location='https://api. direct.yandex.com/v5/ads')
client.set_options(transport=MyTransport()) # Установка дополнительного класса для отправки запросов
client.set_options(headers=headers) # Установка заголовков HTTP-запроса

# Создание тела сообщения запроса
параметры = {
 "Объявления": [{
 «АдГрупИд»: адГрупИд,
        "TextAd": { # Параметры объявления
            "Заголовок": u"Заголовок объявления",
             "Текст": u"Текст объявления",
             "Номер мобильного",
             "Href": "http://www.yandex.ru"
        }}
    ]
}

# Выполнение запроса
пытаться:
 результат = client.service.add(**params)
 # Вывод результата
    print("RequestId: {}".format(client.options.transport.last_headers.get("requestid", False)))
    print("Информация о баллах: {}".format(client.options.transport.last_headers.get("units", False)))
    # Обработка всех элементов массива AddResults, где каждый элемент соответствует одному объявлению
    для добавления в результат:
        добавить = дикт (добавить)
        # Обработка вложенных элементов (это могут быть Errors или Id, или, возможно, Warnings)
        если добавить. получить ("Ошибки", Ложь):
 # Если присутствует массив Errors, объявление не было создано из-за ошибки (ошибок может быть несколько)
 для ошибки в add["Errors"]:
 print("Ошибка: {} - {} ({})".format(ошибка ["Код"], u(ошибка ["Сообщение"]),
 u(ошибка["Подробности"])))
        еще:
            # Если параметр Id присутствует, объявление было создано
            print("Создано объявление №{}".format(add["Id"]))
            # При наличии массива Warnings объявление было создано, но с предупреждением (предупреждений может быть несколько)
            если добавить.получить ("Предупреждения", Ложь):
                для предупреждения в add["Warnings"]:
                    print("Предупреждение: {} - {} ({})".format(предупреждение ["Код"], u(предупреждение ["Сообщение"]),
                                                         u(предупреждение ["Подробности"])))

кроме WebFault как ошибка:
    print("Ошибка обращения к серверу API Яндекс.Директа.")
    print("Код ошибки: {}".format(err.fault['detail']['FaultResponse']['errorCode']))
    print("Описание ошибки: {}". format(u(err.fault['detail']['FaultResponse']['errorDetail'])))
    print("Идентификатор запроса: {}".формат(err.fault['detail']['FaultResponse']['requestId']))

Кроме:
    ошибка = sys.exc_info()
    print('Ошибка доступа к серверу API Яндекс.Директа: '+ str(err[1]))  

Получить кампании. API Яндекс.Директа. Версия 5

Python версии 2 или 3 с использованием JSON с библиотекой запросов

В этом примере показан запрос с использованием метода Campaigns.get, а также обработка и вывод результатов. Чтобы использовать пример, укажите токен доступа OAuth во входных данных. Для запроса от имени агентства также укажите логин клиента.

 # --*- кодировка: utf-8 --*-
импортировать запросы, json
из запросов.исключения импортировать ConnectionError
из времени импортировать сон

# Метод правильного анализа строк в кодировке UTF-8 как для Python 3, так и для Python 2
импорт системы

если sys. version_info < (3,):
    защита и(х):
        пытаться:
            вернуть x.encode ("utf8")
        кроме UnicodeDecodeError:
            вернуть х
еще:
 защита и(х):
 если тип (x) == тип (b''):
 вернуть x.decode('utf8')
еще:
 вернуть х

# --- Входные данные ---
# Адрес сервиса Campaigns для отправки JSON-запросов (с учетом регистра)
CampaignsURL = 'https://api.direct.yandex.com/json/v5/кампании

# Токен OAuth пользователя, от имени которого будут выполняться запросы
токен = 'ТОКЕН'

# Логин клиента рекламного агентства
# Обязательный параметр, если запросы делаются от имени рекламного агентства
clientLogin = 'CLIENT_LOGIN'

# --- Подготовка, выполнение и обработка запроса ---
# Создание заголовков HTTP-запроса
headers = {"Авторизация": "Bearer" + токен, # токен OAuth. Слово Bearer должно быть использовано
           "Клиент-Логин": clientLogin, # Логин клиента рекламного агентства
           "Accept-Language": "ru", # Язык ответных сообщений
           }

# Создание тела запроса
body = {"method": "get", # Используемый метод. "params": {"SelectionCriteria": {}, # Критерии фильтрации кампаний. Чтобы получить все кампании, оставьте поле пустым.
        "FieldNames": ["Id", "Name"] # Имена параметров, которые необходимо получить.
                   }}

# Кодирование тела сообщения запроса в формате JSON
jsonBody = json.dumps(тело, sure_ascii=False).encode('utf8')

# Выполнение запроса
пытаться:
    результат = запросы. сообщение (CampaignsURL, jsonBody, заголовки = заголовки)

    # Отладочная информация
    # print("Заголовки запроса: {}".format(result.request.headers))
    # print("Запрос: {}".формат(u(результат.запрос.тело)))
    # print("Заголовки ответа: {}".format(result.headers))
    # print("Ответ: {}".format(u(result.text)))
    # печать("\п")

 # Обработка запроса
    если result.status_code != 200 или result.json(). получить ("ошибка", False):
 print("Произошла ошибка при доступе к серверу API Яндекс.Директа.")
 print("Код ошибки: {}".format(result.json()["error"] ["error_code"]))
 print("Описание ошибки: {}". format(u(result.json()["error"]["error_detail"])))
        print("Идентификатор запроса: {}".формат(result.headers.get("RequestId", False)))
    еще:
        print("RequestId: {}".format(result.headers.get("RequestId", False)))
        print("Информация о баллах: {}".format(result.headers.get("Единицы", False)))
        # Вывод списка кампаний
        для кампании в result.json()["результат"] ["Кампании"]:
            print("Рекламная кампания: {} №{}".format (u(campaign['Название']), кампания['Id']))

        если result.json()['result'].get('LimitedBy', False):
            # Если ответ содержит параметр LimitedBy, значит, были выведены не все доступные объекты.# В этом случае отправляем дополнительные запросы на получение всех объектов.
            # Подробности о постраничных подборках - https://tech.yandex.ru/direct/doc/dg/best-practice/get-docpage/#page
            print("Не все объекты получены.")


# Обработка ошибок, если не было установлено соединение с сервером API Яндекс.Директа.
кроме ConnectionError:
    # В этом случае мы рекомендуем повторить запрос позже
    print("Ошибка подключения к API-серверу.")

# Если произошла какая-либо другая ошибка
    Кроме:
        # В этом случае рекомендуем проанализировать действия приложения
        print("Произошла непредвиденная ошибка")  

Kochava Media Index — Отзывы Яндекс Директ, Ценообразование, Трафик, Тарифная стоимость, eCPM, Медиакиты

Рекламу Яндекс Директ посещают 112 млн посетителей в десктопном и мобильном Интернете в таких странах, как США, Россия, Турция, Германия.Модели ценообразования, которые они предлагают, — это цена за клик на таких каналах, как видео, социальные сети, поисковая реклама в Яндекс Директ, что позволит вам охватить потребителей в отраслях или вертикалях, таких как электронная коммерция, розничная торговля, развлечения, потребительские товары, телекоммуникации, энергетика и коммунальные услуги, технологии, одежда и мода, автомобили, установка мобильных приложений, здравоохранение, путешествия и отдых, финансовые услуги, спорт, образование.

Штаб-квартира компании находится в Схипхоле, Нидерланды, а контакты по рекламе и маркетингу указаны на Kochava.

Яндекс Директ работает с компаниями, занимающимися рекламными технологиями, такими как Яндекс, ADFOX, Adform Direct, AOL Direct, Amazon Direct, AppNexus Direct, ContextWeb Direct, Criteo Direct, DistrictM Direct, ORC International Direct, FreeWheel Direct, Google Direct, GumGum Direct, IndexExchange Direct, Lijit Direct, LKQD Direct, Lockerdome Direct, OpenX Direct, Outbrain Direct, PubMatic Direct, RhythmOne Direct, Rich Audience Direct, RubiconProject Direct, SmartAdServer Direct, Sovrn Direct, SpotXChange Direct, SpringServe Direct, vidoomy Direct, Yahoo Direct, 33 Across Реселлер, Реселлер AOL, Реселлер AerServ, Реселлер Aniview, Реселлер AppNexus, Реселлер Beachfront, Реселлер Bidtellect, Реселлер ContextWeb, Реселлер Converstand Media, Реселлер Comet Cox Media, Реселлер DistrictM, Реселлер ORC International, Реселлер FreeWheel, Реселлер Google, Реселлер GumGum, Improve Digital Реселлер, Реселлер IndexExchange, Реселлер Lijit, Реселлер LKQD, Реселлер Mobfox, Реселлер OneTag, Реселлер OpenX er, Outbrain Reseller, PubMatic Reseller, Revcontent Reseller, RhythmOne Reseller, Rich Audience Reseller, RubiconProject Reseller, Smaato Reseller, SmartAdServer Reseller, Smartclip Reseller, Sonobi Reseller, Sovrn Reseller, SpotXChange Reseller, Teads Reseller, Telaria Reseller, Tremor Video Reseller, vidoomy Торговый посредник, торговый посредник Yahoo, реклама.txt, реселлер AdMan, реселлер LoopMe, реселлер Synacor, FLoC, Converstand Media Direct, Improve Digital Direct, OneTag Direct, Undertone Direct, реселлер fluct, реселлер ShareThrough, реселлер Yieldmo.

тегов UTM и их роль в бизнес-аналитике | by Marie Sharapa

Источник:Depositphotos

Узнайте, как автоматизировать теги UTM и динамические параметры в ваших рекламных кампаниях

Теги UTM являются основным элементом анализа рекламных кампаний. Без них вы не сможете узнать, какая реклама привела посетителя на ваш сайт, не сможете связать сеансы с затратами на рекламу и не сможете построить бизнес-аналитику.

В этой статье мы расскажем вам, что такое теги UTM, зачем они используются и как они объединяют данные из разных источников. Также мы рассмотрим, каких ошибок следует избегать при создании UTM-меток и как упростить работу с динамическими параметрами.

Тег UTM — это специальный параметр, который добавляется к URL-адресу после вопросительного знака.

Пример:

http://www. сайт. com/?utm_source=yandex.ru&utm_medium=cpc&utm_campaign=TV&utm_term=TV&utm_content=samsung

Аббревиатура UTM означает модуль отслеживания Urchin.Немного истории: в 2005 году компания Google купила Urchin Software из-за своей аналитической системы Urchin on Demand. Эта система впоследствии легла в основу Google Analytics. После выпуска Google Analytics теги UTM стали стандартом, который маркетологи используют для отслеживания переходов между различными рекламными кампаниями, в том числе офлайн.

Существует пять основных типов тегов UTM. Три из них являются обязательными:

  1. utm_source указывает на источник перехода пользователя — то есть на сайт, на котором отображается реклама
  2. utm_medium указывает канал, с которого пришел пользователь кампания, из которой был осуществлен переход

И два тега необязательны:

  1. utm_term показывает ключевую фразу из рекламной кампании
  2. utm_content идентифицирует элемент рекламного контента, на который пользователь нажал ответ
  3. 6 ответ на этот вопрос, вам нужно понять, как работает бизнес-аналитика.Есть много способов его реализовать. В этой статье мы подробно обсудим метод, который использует OWOX BI. 

    Если коротко, то суть бизнес-аналитики заключается в объединении данных из разных источников: вашего сайта или мобильного приложения, источников рекламы, сервисов электронной почты и коллтрекинга, систем CRM/ERP. Все эти данные загружаются в единый репозиторий (в нашем случае Google BigQuery) и затем объединяются с помощью некоторых ключей. Затем вы можете использовать эту информацию в отчетах и ​​анализировать ее в разных сегментах.

    Как данные объединяются с OWOX BI:

    Изображение предоставлено автором

    • Анализировать данные в единой системе
    • Точно оценивать эффективность рекламных кампаний
    • Видеть путь пользователя от первого посещения до покупки
    • Принимать решения на основе на данных, а не на интуиции

    В теории все звучит достаточно просто, но на практике при настройке бизнес-аналитики можно столкнуться со следующими проблемами:

    • Facebook, Яндекс.Директ и другие рекламные площадки не предоставляют рекламную статистику по UTM-меткам. Мы объясним, почему это проблема, чуть позже.
    • Объединить данные о сеансе пользователя с данными о расходах на рекламу можно только с помощью тегов UTM. Другого пути нет.
    • Если тегов UTM нет или они настроены неправильно, вы не сможете идентифицировать кампанию или объявление. Это означает, что вы не сможете правильно отнести затраты к сеансу, то есть вы не сможете узнать стоимость каждого сеанса. Знание стоимости каждого сеанса является основой для создания бизнес-аналитики.

    Есть довольно много вопросов, на которые могут ответить UTM-метки, в том числе:

    • Какое объявление было причиной перехода?
    • Из какого региона пользователь?
    • На каких сайтах показывалось объявление, с которого произошел переход? (В основном это касается контекстной рекламы.)
    • На каких типах устройств конверсия выше?
    • Пользователи какого пола или возраста приносят наибольший доход?

    Да, вы можете ответить на некоторые из этих вопросов другими способами, но вы также можете использовать теги UTM.Вы можете собирать эти данные благодаря динамическим параметрам.

    Маркетологи используют динамические параметры для передачи значимой информации, характеризующей пользователя и условия, в которых было показано объявление. Эти параметры указываются как значения тега UTM в фигурных скобках {}. Динамические настройки задаются при настройке кампании. При показе объявления рекламный сервис заключает значение параметра в фигурные скобки.

    • {ad_id} или {banner_id} — идентификатор объявления
    • {campaign_name} — название рекламной кампании
    • {campaign_id} — идентификатор рекламной кампании
    • {keyword} — ключевая фраза, для которой была показана реклама
    • {region_name} - регион, в котором показывалась реклама

    Пример ссылки с динамическими параметрами (выделено жирным шрифтом):

    www.сайт. ком/? utm_source = Яндексу & utm_medium = КОП & utm_campaign = { campaign_name } & utm_term = { ключевое слово } && utm_content = идентификатор | { phrase_id } _ { retargeting_id } | чид | { campaign_id } | ГИД | { gbid } | помощь|{ ad_id }|adp|{ addphrases }|pos|{ position_type }|src|{ source_type }_{ source }|dvc|{ device_type

    } Вы можете использовать аналогичный шаблон ссылки для всех объявлений в Яндексе.Прямой. При этом не нужно указывать название кампании в UTM-тегах. Рекламная система установит настоящее название кампании вместо {campaign_name}. Единственное, в настройках желательно указать название кампании на английском языке.

    • ad_id={{объявление. id}} — это идентификатор объявления
    • adset_id={{adset. id}} — это идентификатор набора объявлений
    • campaign_id={{campaign. id}} — идентификатор рекламной кампании
    • ad_name={{ad. name}} — это название объявления
    • adset_name={{adset.name}} — это название группы объявлений
    • campaign_name={{campaign. name}} — название рекламной кампании

    Мы привели только два рекламных сервиса, но динамические параметры используются многими крупными рекламными сервисами, включая Google, Bing и MyTarget.

    OWOX BI позволяет автоматически выгружать данные о расходах из рекламных сервисов в Google Analytics и Google BigQuery, а также передавать данные о поведении пользователей на вашем сайте в BigQuery.

    Используя OWOX BI, вы получаете полные и качественные данные:

    • Чтобы связать данные о сессиях и расходах, OWOX BI распознает UTM-метки в ваших объявлениях.Ни один API рекламного сервиса не дает теги с динамическими параметрами в окончательном виде. То есть вместо значения параметра в ссылке только название параметра. OWOX умеет распознавать эти динамические параметры. Когда он загружает данные о расходах из рекламного сервиса и встречает ссылку с динамическими параметрами, он может определить их значение. Это позволяет просматривать данные о затратах в тегах UTM в отчетах Google Analytics. В нашем Справочном центре есть список всех динамических параметров, которые поддерживает OWOX BI.
    • При импорте данных о расходах OWOX BI проверяет UTM-метки в ваших кампаниях и сообщает об ошибках. Примеры ошибок рассмотрены ниже.
    • OWOX BI конвертирует импортированные данные в правильный формат. Например, Google Analytics имеет собственную схему хранения данных и использует параметры, а не теги UTM: например, ga:source вместо тега utm_source . OWOX конвертирует данные в формат, используемый сервисом, которому он отправляет эти данные.
    • OWOX BI обновляет данные, загруженные в Google Analytics, если они изменились в рекламном сервисе.Например, если Яндекс. Директ анализирует ваш трафик и определяет, что вашу рекламу пропустили боты, скорее всего они вернут вам деньги на баланс. OWOX BI отслеживает эти вещи и сохраняет актуальность данных в Google Analytics.
    • При необходимости OWOX BI может загрузить ваши исторические данные в Google Analytics. С платными пакетами вы можете выгружать данные за последние полгода. С бесплатными пакетами вы можете загрузить данные за последний месяц. Сейчас мы работаем над обновленной версией OWOX BI, которая позволит вам выгружать данные о расходах за любой прошлый период, если эти данные доступны в рекламном сервисе.
    • Кроме того, OWOX BI умеет собирать необработанные данные о кампаниях Google Ads в Google BigQuery с помощью автоматической пометки, получая эти данные из параметров gclid и yclid . Дело в том, что UTM-метки не используются в ссылке при показе объявлений AutoLabel. Это не проблема, если вы анализируете расходы на рекламу только в Google Analytics. Но если вы попытаетесь загрузить данные о затратах из того же Google Ads и объединить их с данными о сессиях, вам придется атрибутировать затраты на рекламу не по тегам, а по gclid .OWOX знает, как это сделать.
    • При импорте данных с помощью OWOX BI валюта рекламного сервиса конвертируется в валюту свойства Google Analytics.
    1. Используя API официальных рекламных сервисов, OWOX BI получает статистику показа рекламы.
    2. За каждое объявление OWOX получает UTM-метки. В большинстве случаев они приходят в виде ссылки.
    3. По этой ссылке OWOX извлекает UTM-теги, если они содержат динамические параметры.
    4. OWOX BI анализирует эти теги на наличие ошибок и заменяет динамические параметры их значениями.
    5. После получения всех значений тегов UTM OWOX формирует CSV-файл для загрузки в Google Analytics. Помимо тегов, этот файл содержит данные о затратах, просмотрах, кликах и датах.
    6. Наконец, OWOX BI загружает этот файл в Google Analytics.

    Ошибки в тегировании, которые определяет OWOX BI:

    • Нет обязательных тегов UTM.
    • Используются неподдерживаемые динамические параметры, недоступные в API рекламного сервиса. Например, Яндекс. Директ имеет динамический параметр, по которому можно отслеживать точную позицию объявления в результатах поиска.Но в API в разделе объявлений получить эти данные невозможно. В таких случаях мы рекомендуем использовать пользовательские настройки Google Analytics вместо динамических настроек.
    • Не удается разобрать тег UTM. Это может происходить с некоторыми типами объявлений, когда рекламные площадки не имеют технической возможности определять тегирование — например, смарт-баннеры на Яндекс. Прямой.
    • Синтаксические ошибки в тегах UTM.

    Следующим шагом в построении бизнес-аналитики является импорт данных о расходах в Google BigQuery.Это очень похоже на импорт данных о расходах в Google Analytics. Разница лишь в том, что если в Google Analytics мы передаем только информацию по UTM-меткам и расходам, то в Google BigQuery мы передаем дополнительные параметры (более 200 метрик для Facebook).

    Это позволяет создавать подробные отчеты для углубленного анализа, создавать списки ремаркетинга, эффективно управлять расценками на рекламу и обучать модель машинного обучения для более точного планирования.

    У OWOX BI есть свой счетчик (что-то вроде счетчика Google Analytics), который устанавливается на сайте заказчика.С его помощью OWOX фиксирует данные о поведении пользователей в виде обращений в Google BigQuery. Эти данные доступны с задержкой всего в пару минут. Через 24 часа из таблиц с данными о посещениях формируются таблицы с сессиями пользователей.

    Затем мы работаем над заполнением двух полей в этих таблицах: attributeAdCost и AdCost.

    1. Для начала OWOX BI получает данные из Google Analytics по объявлениям с UTM-метками. В большинстве случаев это просто данные о расходах, загруженные с помощью OWOX BI.
    2. OWOX BI формирует таблицу затрат на рекламу из данных Google Analytics.
    3. Используя теги из таблиц сессий и теги из таблиц стоимости, OWOX определяет стоимость каждой сессии.
    4. В результате в таблице потоковой передачи сеансов все затраты распределяются по сеансам пользователей (поле attributeAdCost).

    Изображение предоставлено автором

    Эта информация поможет вам анализировать данные в различных сегментах. Проще всего рассчитать стоимость заказа (CPO) для каждого вашего заказа. Просто возьмите атрибут AdCost пользователя, который совершил конверсию, просуммируйте затраты, если платных переходов было несколько, и получите стоимость своего заказа.

    Вы также можете группировать расходы и доходы по пользователям, когортам или целевым страницам. Это помогает оценить эффективность кампаний, направленных на возврат старых пользователей или привлечение новых, а также с планированием бюджета по разным категориям, регионам и т. д.

    Подробнее о том, какие задачи можно решить, зная стоимость сеанса в наша статья о том, как оценить эффективность товарных категорий, клиентских сегментов и целевых страниц.

    По нашему опыту, это наиболее распространенные ошибки в UTM-тегах:

    • Не использовать теги вообще.Например, вы размещаете рекламу на Facebook и имеете страницу компании в Facebook со ссылками на ваш сайт. Если вы не используете теги UTM, вы никогда не поймете, были ли переходы с вашей страницы или вашей рекламы.
    • Не используются все необходимые теги. Например, вы указываете utm_source , но не указываете utm_medium .
    • Использование разных регистров для наименования одного тега в одной кампании. Например, CPC и CPC Google Analytics будут считаться двумя разными кампаниями.
    • Использование якорей в ссылках. Якорь — это решетка, за которой следует определенное значение. Якоря нужно ставить после тегов UTM.
    • Слишком длинные значения тегов (более 8 КБ). В таких случаях теги будут обрезаны.

    Синтаксические ошибки при ручном тегировании:

    • Включая пробелы.
    • Повторное использование «?» символ.
    • Использование «&» в значениях тега UTM. Амперсанд отделяет один тег от другого. Если вы используете его в значениях тегов, это вызовет путаницу.
    • Использование квадратных скобок {} в значениях тега UTM.Алгоритм OWOX BI принимает значения в скобках как неизвестные динамические параметры.
    1. Метка UTM — незаменимая практика для анализа эффективности рекламных кампаний.
    2. Создавайте кампании и теги UTM на основе бизнес-логики и задач, которые вы хотите решить. Определите для себя, какие сегменты данных вам необходимо проанализировать. Например, если вы хотите анализировать брендовый и небрендовый трафик, желательно иметь для этого разные кампании в источниках рекламы.
    3. Максимально используйте потенциал динамических параметров. В отчете «Анализ затрат» Google Analytics вы можете легко фильтровать данные, используя дополнительные параметры. Например, вы можете просматривать расходы по местоположению, отображать сети вашей контекстной рекламы и т.д.


      Эти примеры могут содержать нецензурные слова, основанные на вашем поиске.


      Эти примеры могут содержать разговорные слова на основе вашего поиска.

      Это данные мониторинга в Яндекс.Директе, парсинг хайлайтов, сниппетов и т.д.

      Чтобы просто контролировать данные в Яндекс.Директе, анализировать świateł, фрагментировать и т.п.

      Исправление ошибки: vCard: анализ фиктивных данных может привести к сбою сервера.

      Poprawka błędu: vCard: analizowanie fałszywych danych może spowodować awarię servera.

      Существует несколько распространенных причин, по которым whatis не может выполнить разбор .

      Jest kilka powszechnych przyczyn, dla których przetwarzanie whatis kończy się fiaskiem.

      Исправлен заголовок HTTP Timestamp , анализирующий для более переносимого использования strptime(3).

      Naprawiono przetwarzanie nagłówka HTTP Timestamp, aby używać strptime (3) w bardziej przenośny sposób.

      Это в пять раз быстрее, плавная работа системы, полный анализ за 13 секунд.

      Jest to pięciokrotnie szybsza, płynna obsługa systemu, completna analiza w 13 secund.

      Esprima 2.0 используется оптимизатором при анализе модулей на наличие зависимостей.

      Esprima 2.0 jest używany przez optymalizator podczas analizowania modułów w zależności.

      Фактический язык формул анализирует , а не JavaScript.

      Rzeczywista język формула analyzowania , nie obsługa JavaScript.

      MSN: исправление разыменования указателя NULL при анализе заголовков в MSN.

      MSN: исправьте NULL wskaźnik niepwidłowego analizowania nagłówków в MSN.

      Поддержка разбора файлов DOAP. Были устранены различные утечки памяти.

      Wsparcie dla analizowania plików DOAP.Podłączono różne przecieki pamięci.

      Исправьте потенциальный сбой при анализе неправильно сформированного HTTP-ответа.

      Исправление потенциальной катастрофы анализа zniekształconej odpowiedzi HTTP.

      Исправлены сбои в некоторых случаях при разборе сообщений IMAP .

      Wystąpił błąd w niektórych przypadkach podczas analizowania wiadomości IMAP.

      В появившемся окне укажите URL для скачивания и парсинга содержимого Sitemap.xml.

      Wyświetlononym oknie należy Podać address URL do pobierania i analizowania zawartości Sitemap.xml.

      Это вызвало сбой в обновлении fdroid, когда анализирует дату AndroidManifest.XML.

      Чтобы узнать о 'актуализации fdroid', необходимо анализировать данных AndroidManifest.xml.

      Serpparser — полностью автоматизированный ресурс на парсингов позиций.

      Serpparser для w pełni zautomatyzowany zasób do analizowania pozycji.

      Исправление надежности, исправление ошибки при разборе определенного ASN.элементы размером более 16k.

      Napraw niezawodność, korygując błąd podczas analizowania pewnych elementów ASN. о rozmiarze przekraczającym 16k.

      Их также можно использовать для вставки комментариев, объявления параметров, необходимых для разбора среды, и для вставки специальных инструкций.

      Mogą być również używane do wstawiania komentarzy, oswiadczam ustawienia wymagane do analizowania środowiska i wstawić specjalne instrukcje.

      Используйте встроенные функции, чтобы упростить синтаксический анализ и создание данных JSON, запрашиваемых из других источников данных.

      Wbudowane funkcje pzwalają uprościć przetwarzanie i tworzenie danych JSON żądanych z innych źródeł danych.

      Для получения данных о ролях и полосах требуется TrueSight (повтор , анализ ).

      Датчанин или роль в использовании TrueSight ( анализ powtórki).

      Parsedown — очень быстрое и надежное решение для разбора текста Markdown.

      Parsedown jest bardzo szybkie i niezawodne rozwiązanie до analizowania tekstu Markdown.

      По умолчанию установлено значение false, что означает, что правило используется как для URL-адреса , синтаксического анализа , так и для создания.

      Domyślnie przyjmuje wartość false, co oznacza, że ​​reguła jest używana zarówno do analizowania adresów URL jak i ich tworzenia.

      Справочник по кодам состояния HTTP — веб-мастер. Справка

      400 Неверный запрос

      Сервер не может понять запрос из-за неправильного синтаксиса.

      401 Неавторизованный

      Для доступа к документу требуется пароль или пользователь должен быть зарегистрирован.

      402 Требуется оплата

      Внутренняя ошибка или ошибка конфигурации на сервере.

      403 Запрещено

      Доступ к документу запрещен. Чтобы страница была проиндексирована, разрешите доступ к ней.

      404 Не найдено

      Документ не существует. Если вы удалили раздел веб-сайта, вы можете использовать файл robots.txt, чтобы запретить роботу доступ к нему.Если такой страницы на сайте никогда не было, игнорируйте эту ошибку. Кто-то может поставить неправильную ссылку на ваш сайт.

      405 Метод не разрешен

      Метод, указанный в запросе (Request-Line), не может быть применен к указанному ресурсу, поэтому робот не смог его проиндексировать.

      406 Неприемлемо

      Документ существует, но неверный формат (робот не поддерживает язык или кодировку).

      407 Требуется аутентификация прокси-сервера

      Требуется регистрация на прокси-сервере.

      408 Время ожидания запроса

      Веб-сайту не удалось выполнить запрос в течение указанного времени, и робот отключился.

      409 Конфликт

      Запрос конфликтует с другим запросом или с конфигурацией сервера.

      410 Ресурс недоступен/исчез

      Запрошенный ресурс был безвозвратно удален с веб-сайта.

      411 Требуемая длина

      Сервер отказывается принимать запрос без определенного заголовка Content-Length. Исправьте заголовки на своем сервере, чтобы робот мог проиндексировать страницу в следующий раз.

      412 Ошибка предварительного условия

      Сервер обнаружил несоответствие в одном или нескольких полях заголовка запроса (сбой или ошибка в обработке предварительного условия).

      413 Объект запроса слишком велик

      Сервер отказывается обрабатывать запрос, поскольку он больше, чем может обработать сервер.

      414 Request-URI Too Long

      Сервер отказывается обрабатывать запрос, поскольку запрошенный роботом URI (Request-URI) длиннее, чем сервер может отобразить.

      415 Неподдерживаемый тип MIME

      Сервер отказывается обрабатывать запрос, поскольку тело запроса имеет неподдерживаемый формат.

      416 Запрошенный диапазон неудовлетворителен

      Сервер отказывается обрабатывать запрос, так как поле Range в заголовке запроса содержит недопустимый диапазон байтов.

      417 Ожидание не выполнено

      Сервер отказывается обрабатывать запрос, так как значение поля Ожидание  в заголовке запроса является неожиданным.

      422 Необрабатываемый объект

      Сервер не может обработать один или несколько элементов запроса.

      423 Заблокировано

      Сервер отказывается обрабатывать запрос, так как один из необходимых ресурсов заблокирован.

      Добавить комментарий

      Ваш адрес email не будет опубликован.