Можно ли разделить пользователя и ботов (пауков, сканеров) и показывать рекламные баннеры только для пользователей на страницах AMP? - PullRequest
0 голосов
/ 29 мая 2018

Клиент спросил, не показывать ли рекламные баннеры для ботов, потому что компания теряет деньги в результате.

Я реализовал эту логику на страницах без AMP, я анализирую User-Agent с помощью JavaScript на стороне клиента.Причиной его реализации на стороне клиента был кеш, я боялся, что если кеш будет сохранен, то при разборе сайта все люди после этого вообще не увидят рекламу.

Теперь у меня есть задача использовать эту логику наСтраницы AMP текущего сайта и подумайте, как я могу сделать это и на стороне клиента, потому что проект AMP не дает мне возможности использовать пользовательский JavaScript обычным способом.

Ответы [ 2 ]

0 голосов
/ 12 июля 2018

Клиент использует DoubleClick интерфейс для генерации отчетов о денежных доходах от рекламных кампаний компаний.Каждый месяц Google вычитает огромную сумму заработка для одной компании.И это было главной проблемой.Этот издатель нарушил размещение рекламной политики и имел количество предупреждений в Консоль издателя Google .

Решение для обнаружения трафика ботов было реализовано и не реализованорешать проблему.Я использовал собственный JavaScript и попытался проанализировать UserAgent + я дополнительно использовал список известных плохих ботов UserAgents.

0 голосов
/ 30 мая 2018

Вы ищете термин «клоакинг», и он резко наказывается поисковыми системами, такими как Google: https://support.google.com/webmasters/answer/66355?hl=en&ref_topic=6001971

Клоакинг относится к практике представления различного контента или URL-адресов пользователям-людям.и поисковые системы. Клоакинг считается нарушением Руководства Google для веб-мастеров, поскольку он предоставляет нашим пользователям результаты, отличные от ожидаемых .

Некоторые примеры клоакинга включают:

Обслуживание страницы HTMLтекст для поисковых систем при отображении страницы изображений или Flash пользователям. Вставка текста или ключевых слов на страницу только в том случае, если пользовательский агент, запрашивающий страницу, является поисковой системой, а не посетителем, если ваш сайт использует технологии, которые испытывают трудности у поисковых систем.обращаясь, например, к JavaScript, изображениям или Flash, ознакомьтесь с нашими рекомендациями о том, чтобы сделать этот контент доступным для поисковых систем и пользователей без маскировки.

Если сайт взломан, то хакер нередко использует маскировку длявзломать сложнее для владельца сайта, чтобы обнаружить.Узнайте больше о взломанных сайтах.

Google также наказывает сайты по разным причинам, как по причине того, что их результаты поиска релевантны, так и за то, что они не перенаправляют пользователей на сайты, которые болезненно использовать из-заколичество рекламных вставок и, возможно, непрозрачность, чтобы сделать их объявления Google более привлекательными для людей, чем более навязчивые объявления.

Короче говоря, это плохая идея, и ваш сайт будет пойман, и ваш сайт будетстрадать как следствие.

Тем не менее, вы должны иметь возможность фильтровать контент на основе агента пользователя.Большинство ботов с хорошим поведением сообщат, что это боты, но не все.

Если у вас нет явного списка ip-адресов для предоставления различного контента, вы не сможете легко поймать ботов, которые выдают себя за пользователейбез использования скрытых приемов.

Это заставляет меня спросить,

Клиент спросил о том, чтобы не показывать рекламные баннеры для ботов, потому что компания теряет деньги в результате.

Точно, как они теряют деньги в результате?Если это «упущенная выгода», то это не потеря денег.В любом случае, боты никогда бы не отреагировали на рекламу.

Если это пропускная способность, то стоимость будет минимальной по сравнению с потерей, которую вы получите, если вы будете обслуживать контент по-другому, чем люди, и вас поймают.

Если боты затем повторно передают ваш контент вашим пользователям, фильтруя рекламу, то вам нужно каким-то образом напрямую заблокировать этих ботов или иным образом заставить их доказать, что они люди, прежде чем продолжить, что-то вроде CAPTCHAбудь лучшим.

Если это простая проблема с отчетами, боты MOST, как правило, сообщают, что они боты, и аналитика Google должна иметь возможность фильтровать их с некоторыми изменениями, а те, которые не могут быть легков любом случае различается.

...