×
Ruby on Rails: постинг твитов через Twitter API (04 нояб 2017)

Практикуемся в Ruby on Rails.

Вопрос Почему сайт попал в бан?

Больше
6 года 9 мес. назад - 6 года 9 мес. назад #1 от serge
serge создал эту тему: Почему сайт попал в бан?
Сам термин «бан сайта» происходит от английского «ban», что в переводе означает нечто вроде «проклятие», «изгнание», «запрет». В сфере Интернет-технологий это выражение стали применять, чтобы обозначить различные санкции поисковых машин к веб-ресурсам. Чаще всего бан применяется к веб-страницам, которые чересчур активно используют недобросовестные методы раскрутки и продвижения. Сайт полностью исключается из индексации. Попасть под плохой фильтр сайт может и автоматически, а вот полный бан ресурса чаще всего происходит по решению модератора поисковой системы, причем обычно вручную. При этом, как правило, решение отправить в бан тот или другой ресурс принимается в крайних случаях, когда явным образом усматривается применение «черных» методик раскрутки сайта.

О причинах и следствиях попадания в бан, а также - что именно необходимо предпринимать для преодоления последствий бана в поиске, попытаемся сейчас разобраться.

Прежде всего, естественно, под бан попадают различные дорвеи; либо - очень похожие на них сайты. Например - сайт, содержащий страницы, которые созданы для перехода на другой сайт по ключевым словам. Обычно, такие странички переполнены ключевиками, и Google быстро определяет суть такого сайта, отправляя его в долгий бан…

Кстати, под такую раздачу могут попасть и более-менее нормальные сайты, которые переполнены многократно повторяющимися ключевыми словами. Это можно назвать с точки зрения поисковика «спамом ключевых слов». Вообщем, если одни и те же фразы, словосочетания повторяются на странице чересчур часто, то Google может вполне принять данное обстоятельство за поисковой спам ключевиками, после чего выкинуть ваш ресурс из индекса частично, а то и целиком… Где найти золотую середину – в каком количестве использовать ключевые слова – я подсказать не могу, это уже зависит от вашего чувства меры…

Еще одна причина вылета сайта за пределы разумных границ выдачи – ссылки на сайты сомнительного содержания. Если размещаете на своем сайте ссылки на чьи-то ресурсы, то, по крайней мере, потрудитесь сходить по этой ссылке и пролистать пару страниц – возможно вы рекомендуете своим сайтом нечто такое, что Гугль примет за дорвей или ярковыраженный сателлит, что в глазах Google сразу понизит ценность и вашего сайта. Проверьте PR (Google pagerank) и тИЦ (индекс цитирования) страниц, на которых ссылаетесь – бездарные нулевые сайты с не особо оригинальным внешним видом и контентом – прямой путь в сторону понижения ранжирование вашего сайта.

Кстати, сам факт размещения на сайте продажных ссылок, а также покупка ссылок на всяких линкобиржах ссылок на свой сайт - могут послужить причиной понижения PR. Поэтому лучший способ - обмениваться ссылками с тематическими сайтами напрямую. Либо - покупать место под статьи, что, на сей момент, является одним из лучших вариантов продвижения, причем в данном случае, при грамотном подходе, продвижение сайта статьями является довольно легальным в глазах поисковиков способом наращивания ссылочной массы. Вообщем, как продвигать сайт - каждый решает сам, а главным остается результат... понижение PageRank вряд ли возможно назвать хорошим результатом…

В интернете встречаются страницы, которые по-разному выдаются для пользователя и для поисковой системы. Это называется «клоакинг». Если Гугль выявляет такие странички, то вполне может наложить на них определенные запреты на индексацию…

Еще одной причиной понижения ранжирования сайта может являться наличие на странице скрытого текста, а тем более ссылок, которые невидимы для пользователя, но которые воспринимаются поисковыми роботами. Такими например являются ссылки цвета того же, что и фон страницы, либо которые с помощью CSS выносятся за пределы видимой области экрана.

Все больше и больше сайтов попадают под фильтр поисковых систем и за дублирующийся контент. Кстати, столь любимые нами архивы и календари статей на сайте могут также создать дублирующееся содержание. Хотя к таким вещам Google относится терпимее, чем к копипасту с других сайтов. Механизмы выявления плагиата в поисковых системах далеки от совершенства, и не факт, что ваш контент не скопируют еще до индексации поисковиками, в результате чего ваш сайт может оказаться неуникальным – с этим бороться практическит бесполезно… В любом случае, даже если берете статью с другого сайта, потрудитесь переписать ее своими словами. Это называется рерайт. Либо, если лень – поставьте ссылку на источник.

Вот таковы причины, в основном, для попадания в бан или под жестокий фильтр в Google… Конечно, он не совсем исчерпывающий, однако, только модераторам и создателям поисковых систем известны все точные механизмы…

Проверить свой сайт на бан возможно, например, здесь .

Вобщем, если сайт уже оказался в бане, то, прежде всего, необходимо устранить все причины, по которым ресурс мог попасть в немилость, ну а потом - ждать, пока сайт станет вновь доступен в поисковой выдаче… На это может уйти месяц, а может- и полгода…

Кстати, если сайт не индексируется, то это может быть совсем и не бан, а, например, неправильно составленный robots.txt, или запрет индексации в мета-тегах.

Однако, это уже совсем другая история…

А я смогу! - А поглядим! - А я упрямый!
Последнее редактирование: 6 года 9 мес. назад от serge.

Пожалуйста Войти или Регистрация, чтобы присоединиться к беседе.

Больше
6 года 9 мес. назад #2 от Aleksej
Aleksej ответил в теме Re: Почему сайт попал в бан?
SEO - это такая область, где зачастую сколько собеседников - столько и мнений... привожу диалог со своим приятелем и коллегой, профессионально занимающимся раскруткой сайтов.

[17.02.2011 17:43:05] <Aleksej> Серый, а вот такой вопрос; касающийся копипаста/рерайта... вот "вебмастер" Яндекса показывает, что в интернет-индексе у меня, без преувеличения, все 100% url сайта. А "вебмастер" Google сообщает - что процентов 60, не больше, в индексе... Что это означает? Яндекс менее чувствителен к копипасту? Безусловно, на форуме есть немало неуникальных текстов. Стало быть - родной наш Яндекс более лоялен к подобным вещам?
[17.02.2011 17:44:41] <Savant> попробуй добавить внешние ссылки на страницы которых нет в индексе
[17.02.2011 17:45:21] <Aleksej> Этого не нужно - они ж на форуме. У меня более 500 страниц на сайте, и это - без обычных дублей joomla.
[17.02.2011 17:46:42] <Aleksej> Но почему Яша позволяет, а Гоша - нет?
[17.02.2011 17:48:29] <Savant> это не тот обьем данных,что бы делать такие глобальные умозаключения :)
[17.02.2011 17:49:36] <Aleksej> Ну, возможно. А можно ли сказать, что поисковики более лояльны к плагиату на форумах, нежели - на нефорумах?
[17.02.2011 17:53:05] <Savant> хмм
даже не знаю
копипаст на самом деле не страшен,если сайт трастовый
[17.02.2011 17:53:41] <Aleksej> не страшен? а в рунете пишут, что это - одна из главных причин, чтобы сайт попал под бан...
[17.02.2011 17:57:08] <Savant> блин,та у всех новосных сайтах - копипаст
они по твоему в бане должны быть? ага щасс..
и тут мы приходим к тому что важен траст сайта.
[17.02.2011 17:57:30] <Aleksej> то есть - пузомерки?
[17.02.2011 17:57:45] <Savant> в том числе
[17.02.2011 18:39:17] <Aleksej> К слову, несмотря на то, что В Яндексе проиндексировано все, а в Google - только 60% страниц - если верить Google Analitics - c Google трафика в два-три раза больше, чем с Яндекса. Это норма - такое положение вещей?
[17.02.2011 18:45:08] <Savant> у меня по нескольким сайтам больше трафика с яндекса,несмотря на то что домены украинские.. тут от темы зависит и позиций в регионе.
ты говорил что позиции в гугле лучше - вот тебе и ответ.

Пожалуйста Войти или Регистрация, чтобы присоединиться к беседе.