Рекламная сеть поисковика Яндекс запустила 2 новых вида контекстных блоков, которые полностью заменяют элементарный блок. Последний решили отключить ровно спустя неделю по причине низких в сравнении с прочими предложениями РСЯ показателей рекламных переходов.

Иными словами, уже на сегодняшний день пользователи РСЯ имеют возможность пользования фиксированными горизонтальными блоками размера 1000*120 для RTB и Яндекс.Директ, которые могут содержать до четырех рекламных объявлений и подходят для размещения в любом месте страницы сайта. Кроме этого, к фиксированным блокам добавили нефиксированный блок квадратной формы, который включает в себя четыре объявления и размещается под главным контентом интернет ресурса. Причем число позиций в квадратном блоке всегда одно и тоже, тогда как подбор размера происходит автоматически.

Стоит напомнить, что в конце предыдущего месяца появилась возможность добавления к объявлениям быстрых ссылок для показа в РСЯ, что, в свою очередь, должно было придать больше привлекательности рекламе для привлечения потенциальных покупателей и в результате увеличить количество целевых переходов с ресурсов РСЯ.

Подробнее...

Еще один эксперимент компании Google с интерфейсом выдачи главного поиска, который подтвержден сообщением в официальном блоге Google Operating System, является всего лишь незначительным изменением, которое отмечено в англоязычной выдаче, в которой в сниппетах взамен URL-а релевантной страницы ресурса появилось название сайта.

Стоит заметить, что подобный эксперимент уже осуществлялся в 2011 году и не смог найти поддержку у специалистов отрасли и пользователей. В мае текущего года интернет-гигантом был протестирован вариант оформления нового интерфейса, где сниппеты и вовсе не обладали привычными глазу зелеными ссылочками, которые направляют пользователя непосредственно на соответствующую страницу ресурса.

Почему инженеры Google вновь вернулись к идее заменить URL-лы на названия ресурсов? Существует лишь один толковый ответ на данный вопрос: для многих людей URL-адреса смотрятся чересчур сложными для чтения. Тем не менее, отсутствие веб-адреса нельзя считать оправданным — хотя бы по причине недостаточно строгой идентификации ресурсов (к примеру, если ограничиться в сниппетах именем «Нью-Йорк Таймс», нельзя понять, пойдет ли ссылка на основную страницу официального ресурса или, к примеру, на страницу блога NYTimes).

Подробнее...

Компания Google внесла изменения в некоторые настройки геотаргетинга для осуществления международного поиска, благодаря которым появилась возможность показа объявлений не просто в одной стране, но даже за ее пределами, причем даже когда поисковой запрос обладает локальным характером.

В соответствии с записью официального блога AdWords, рекламодатели, которые пользуются настройкам по умолчанию или настройками, учитывающими места, интересующие клиентов, получат возможность производства таргетинга своих объявлений, при этом основываясь на тех местах, которые стараются найти люди и на месторасположении пользователей, осуществляющих поиск.

В частности, представители компании Google привели пример: допустим, клиентом сервиса является владелец отеля и сейчас он решил настроить таргетинг на Париж, используя ключевое слово «отели Парижа». Раньше лишь пользователи, которые выполняли поиск с Google.fr либо Google.com из Франции, имели возможность увидеть данное объявление. С 11 ноября такое объявления будет показано всем пользователям в мире, которые запрашивают «отели Парижа» - например, пользователю из Москвы, который хочет отдохнуть в Париже.

Иначе говоря, сейчас объявления будут показаны в том месте, где раньше они не показывались. Кроме того, рекламодатели, которые хотят сузить настройки, получат возможность выполнить это с помощью дополнительных функций расположения и/или путем исключения географического расположения.

Подробнее...

В арсенале Диспетчера тегов компании Google появилась функция автоматического отслеживания событий (действия пользователей, совершаемые ими на сайте). Об этом стало известно из блога Google Analytics. Благодаря возможностям «Auto-Event Tracking» пропадает необходимость добавлять на страницу HTML или javascript коды, чего невозможно было достичь ранее.

При помощи специального тега пользователи функции Диспетчера тегов получают возможность создания нового Правила, а затем уточнения того, какие события их в данный момент интересуют, и что следует предпринять, когда такое событие случится. Иными словами, нововведение даст пользователям возможность отслеживания интересующих событий и отсылки соответствующих данных в Google Analytics, в которой будет производиться последующий анализ.

Причем они сумеют избежать добавления на ресурс особых кодов. В свою очередь это позволит значительно сэкономить время. Стоит сказать, что Диспетчер тегов, совершенно бесплатный инструмент, был запущен примерно год назад. С помощью диспетчера есть возможность быстрого добавления на ресурс тегов Google и загрузки асинхронных тегов, что увеличивает скорость работы ресурса. Кроме того, инструмент способен поддерживать также пользовательские теги. Полезная для крупных фирм особенность диспетчера состоит в поддержке многопользовательских аккаунтов.

Подробнее...

Google решил предпринять довольно сомнительный шаг и запатентовал на этой неделе свой алгоритм по оценке качества контента ресурса, который используется для выявления страниц с содержанием низкокачественного или искусственно сгенерированного контента и последующего занижения Page Rank.

Кроме этого, в патенте имеется описание подобного сомнительного контента, который иногда находится на страницах с немалым количеством часто применяемых ключевых слов. Как правило, подобное содержание страниц генерируют посредством следующих способов: отбор контента, модификация и случайная нарезка; перевод с другого языка; применение дешевого труда с низкой квалификацией (к примеру, который получен на Amazon Mechanical Turk).

Отличительными чертами спам-контента является также синтаксис разговорной формы, неверный порядок слов и так далее. Кроме того, в патенте отмечается тот факт, что спаммеры стараются получать прибыль от использования нецелевого трафика, достигая этого путем размещения на страницах огромного числа рекламных объявлений, ссылок и участвуя в партнерских программах. В патент входит перечисление ряда других показателей, расчетов и критериев, за счет чего лидер поиска осуществляет анализ качества имеющегося контента.

Стоит напомнить, что весной компания Google получила патент на свой метод выявления спама ссылок, а также борьбы с ним. По заверениям интернет-гиганта полученные патенты должны гарантировать пользователям высококачественную и релевантную поисковую выдачу, но сотрудники отрасли не могут скрыть свое недовольство. Они считают, что, запатентовав подобные базовые технологии, компания стремится обеспечить только свою монополию или же просто рекламирует себя.

Подробнее...

В прошлую пятницу компания Google сообщила о том, что произошел запуск «Penguin 2.1». Это немного улучшенная версия алгоритма Google, который борется со спамом. О том, что вышло пятое по счету обновление, стало известно из размещенного Мэттом Каттсом твитта, где он отметил, что данный апдейт существенно затронет примерно 1 процент поисковых запросов.

О приближающемся обновлении «Penguin» начали говорить примерно две недели назад в тот момент, когда на состоявшейся 26 сентября конференции под названием SEO Conference 2013 Владимиром Офицеровым, инженером отдела качества Google, было выдвинуто предупреждение представителей отрасли, что «Пингвин» 2.1, который направлен на борьбу с платными ссылками, станет намного более агрессивно снижать в выдаче ресурсы, чье содержание не соответствует требованиям интернет-гиганта.

Такие заявления, безусловно, насторожили все SEO сообщество, и большинство вебмастеров сразу стали готовиться к худшему. По словам Дэнни Салливана из Search Engine Land, в компании Google немного преуменьшили значимость апдейта, поскольку один процент поисковых запросов является довольно серьезной цифрой. В дополнение ко всему прочему, Салливан порекомендовал быть в особенности осторожными тем людям, кто был уже когда-то «оштрафован» алгоритмом, поскольку фильтр, прежде всего, станет проверять сайты, понижаемые ранее в выдаче.

Подробнее...

Второе октября ознаменовалось проведением ежегодной технологической конференции компании Яндекс Yet another Conference 2013, которая позволила выступить более пятидесяти докладчикам в рамках 7-ми секций. Помимо всего прочего на конференции стало известно о том, что компания Яндекс начала разрабатывать новую технологическую платформу «Атом», которая дает возможность вебмастерам для адаптации содержания страниц ресурсов под конкретного пользователя.

С помощью «Атома» владельцам сайтов позволено создавать ресурсы, которые удовлетворяют требованиям каждого из пользователей. Иными словами, посетитель сервиса сможет сразу же отыскать на странице ту информацию, которая представляет интерес именно для него. Благодаря этому значительно увеличивается посещаемость сайтов, и уменьшаются затраты времени пользователей для достижения поставленной цели.

Стоит сказать, что во многом платформа «Атом» полагается на наличие опыта пользователей. В частности, люди, которые будут пользоваться данной платформой, получат возможность редактирования и внесения некоторых изменений в сведения, касающиеся пользователей. В компании Яндекс надеются, что помощь от пользователей станет такой же бесценной, как и в случае с созданием другой платформы - Островов, чей фидбек оказал помощь в осознании многого о пользователях. В компании Яндекс сообщают, что последние проекты они создают вместе со своими пользователями, которые предоставляют немало полезной информации.

Подробнее...

Илья Григорик, менеджер по разработкам компании Google, разместил в собственном профиле Google+ небольшую запись с сообщением о том, что произошло небольшое улучшение мобильного поиска, за счет чего работа поисковой системы немного ускорилась. Сейчас период отзыва на клик для таких мобильных браузеров, как Safari и Chrome, уменьшился на 200-400 миллисек.

Чтобы получить такое ускорение, команда разработчиков в компании Google внедрила атрибут <a ping>. С помощью данного тега оказалось возможным асинхронное осуществление отслеживания кликов и одновременного редиректа. В свою очередь, это помогло ускорить процесс направления людей на искомую ими страницу.

Как правило, каждый раз в тот момент, когда пользователь кликает по результату выдачи, он сначала перенаправляется к URL редиректору и лишь затем на искомый сайт. За счет введения <a ping> клики стали отслеживаться асинхронно, что дает возможность избавления от данного редиректа и улучшения общего впечатления от поиска. Также в сообщении Григорик заметил, что в Google собираются постепенно производить такое улучшение для всех тех браузеров, которые поддерживают атрибут <a ping>.

Подробнее...

По сообщению Владимира Офицерова, инженера отдела качества поисковой системы Google на конференции SEO Conference 2013 в Казани, которая состоялась 29 сентября, в течение ближайших двух недель можно ожидать появления обновленного алгоритма Penguin.

Выпуск «Пингвина» 2.1 станет новым витком в борьбе интернет-гиганта с платными ссылками. При этом Владимир не скрыл, что этот алгоритм станет намного более строго обходиться с теми сайтами, чей ссылочный профиль не соответствует требованиям компании, значительно снижая их место в поисковой выдаче. Следует заметить, что о введении таких агрессивных изменений в алгоритм Penguin в компании Google говорили еще весной.

Стоит напомнить, что «Пингвин» был выпущен 24.04.2012 г., затронув лишь примерно 3% запросов. Обновили его впервые 26.05.2012 г. после выхода версии 1.1, которая затронула меньше 0,1% запросов.

Релиз 2-го апдейта произошел 05.10.2012 г., затронув лишь около 0,3% запросов. Вариант 2.0 вышел в свет 22.05.13 года.

О мерах ужесточения политики компании относительно платных ссылок стали говорить в течение нескольких последних недель. На специальных тематических форумах до сих пор появляются сообщения о карательных мерах, которые применяются к ресурсам, используемым услуги бирж ссылок. Следует лишь вспомнить о «терминировании» биржи Ghost Rank 2.0.

Подробнее...

В прошлом месяце незаметно для всех Google успел всерьез переработать механизм для защиты пользовательской информации, благодаря чему теперь начали подвергаться шифрованию сведения, которые касаются тех поисковых запросов, по которым интернет-пользователи переходят на различные ресурсы из органического поиска.

Такое решение интернет-гигант объясняет желанием ограничения доступа к персональным сведениям Агентству национальной безопасности США (NSA). Подобные попытки пресечения шпионской деятельности компания предпринимала и раньше, когда усилила в начале сентября защиту пользовательских данных, которые обрабатывают дата-центры Google.

Благодаря применению защищенного протокола осуществляется шифровка не просто поисковых запросов, но также всей поисковой истории, что в особенности важно в случае с открытым и небезопасным выходом в сеть. Внедрение процесса шифрования запросов поисковиком было осуществлено в октябре 2011 г., а весной 2012 года Google рассказал о намерении расширить применение протокола SSL для абсолютно всех доменов, а не только для google.com.

В 2013 году отмечается значительный рост количества запросов в категории «Not provided», но рекламодатели AdWords по-прежнему могут отслеживать, по каким именно запросам интернет-пользователи переходят на сайты. По словам представителей Google, такие действия предприняты лишь в целях защитить пользователей и никак не для вынуждения вебмастеров приобретать рекламу в поиске для процесса продвижения.

Вместе с тем, за последнюю неделю число запросов «Not provided» составляет уже 74%.

Подробнее...