Новый алгоритм от Google — дублей домена в выдаче не будет!

Без поисковых систем трудно себе представить интернет вообще, ведь сама всемирная сеть – это просто набор информации, которая публикуется на разных сайтах, блогах, страницах и этой информацией кто-то должен руководить. Поисковые системы сортируют для нас все ресурсы, формируя поисковую выдачу, то есть мы вводим определенный запрос, а поисковая система выдает список тех страниц, которые соответствуют поставленному вопросу. ПС всегда боролись за чистоту и релевантность этих поисковых результатов, вводя различные алгоритмы и фильтры, которые отсеивали то, что не соответствовало запросу.

После нашумевшего алгоритма Google Panda – все будто притихло, вебмастера начали приспосабливаться к новым правилам и сео жизнь вошла в привычные рамки. Но известный поисковик решил вновь порадовать и удивить общественность новым алгоритмом, который планируется к запуску в ближайшее время.

Каждый пользователь сталкивался с такой ситуацией, когда при вводе поискового запроса в результатах выдачи встречалось очень много упоминаний одного и того же домена. Ну вот мы вводим какой-то низкочастотный запрос и в выдаче можем увидеть 5-6 позиций, которые отдали одному ресурса.

В принципе – все логично, ведь если домен старый, трастовый и запрос НЧ, то вполне возможно, что в выдаче встречается несколько страниц одного домена. Очень часто, ища какую-то специализированную информацию, я наталкивался на ситуацию, когда практически вся первая страница просто залеплена упоминаниями с одного ресурса.

Все мы знаем, что в последнее время очень сильно активизировались социальные сети и сейчас можно часто увидеть такую картину, когда фактически весь топ, по определенному запросу, оккупировали группы и сообщества Вконтакте.

Именно на борьбу с таким явлением и будет направлен новый алгоритм от Google. Как вся эта петрушка будет называться и когда вступит в действие – пока не сообщается, но Google обещает не сильно тянуть резину и ввести изменения в ближайшее время.

По мнению ПС – это нововведение должно предоставить пользователям больше пространства и вариантов выбора нужной информации, именно на борьбу дублированием результатов выдачи направлен этот алгоритм. Интересно то, что такое ограничение коснется только Топа, то есть только первой страницы в результатах, а уже вторая, третья и т.д. страницы не будут подвергаться таким жестким ограничением.

Следовательно, в идеальном случае действие нового алгоритма ограничит память одного домена в поисковой выдаче по определенному запросу всего до 3-4 раз максимум.

Всегда Google, среди вебмастеров и оптимизаторов, считался таким добрым дядькой, который лояльно относится к сайтам, закрывает глаза на многие вещи, а вот Яндекс ассоциировался со злым и недобрым ревизором, который метет все и всех. Теперь Гугл набрался злости от Яши и также вводит все более жесткие правила и требования к ресурсам.

Все идет к тому, что в выдаче будут преобладать действительно качественные, интересные, информативные СДЛ, а разные гамносайти будут отходить на задний план. Поисковые машины отдают предпочтение естественным показателям – ссылкой, анкорам, релевантности, плотности и т.д., а это все свидетельствует о том, что чистота и естественность выдачи – вот основные приоритеты ПС.

И это правильно, ведь всем нам хочется, чтобы в выдаче были только хорошие сайты, без всякого порно, с нормальным текстом, без вискакуючих и выпадающих баннеров, нерелевантные – поэтому я лично за руками и ногами, если все эти алгоритмы (Панда и другие) будут играть на руку СДЛ, таким образом интернет сделается чище и качественнее, а не будет напоминать помойное ведро.

Желаю Вам вдохновения, идей, сил для реализации своих планов.

Шануймося!