Поисковая оптимизация. Перелинковка, текст и графика в шапке, в теле, в подвале сайта.

 

Еще одним важным фактором в деле поисковой оптимизации является внутренняя перелинковка страниц. Программа-робот поисковый паук сканирует все сайты исключительно по ссылкам, ведущим с одной страницы на другую. Переход из меню сайта на другую страницу воспринимается как переход с одной и той же страницы. Само меню сайта для бота и есть страница. То есть получается, что все ссылки на разные страницы сайта ведут только с одной единственной страницы – из меню сайта. Значит остальные страницы сайта между собой не связаны, а это очень плохо для целостности сайта, и такой сайт уже не очень качественный, это просто набор разных не связанных между собой страниц.

Поисковый робот Google Bot

В хорошем ценном для ПС сайте все страницы должны быть между собой связаны ссылками, а не только посредством меню. И еще лучше, чтобы ссылка с одной страницы на другую страницу была релевантной. Например, на одной странице сайта    о собаках, в тексте содержится такая фраза: «Если ваша собака заболела обязательно покажите ее ветеринару». И если на вашем сайте так же содержится страница об услугах ветеринаров, и ещё другая страница о болезнях собак, тогда обязательно слово «заболела» из фразы в нашем примере сделайте ссылкой на страницу о болезнях собак, а слово «ветеринару» ссылкой на страницу об услугах ветеринара. По такому же принципу должны быть сделаны ссылки с других страниц и на другие страницы, таким образом, чтобы все страницы были связаны между собой ссылками. Это и есть перелинковка. Для этих целей можно использовать не только текстовые ссылки, но и ссылки из имеющихся на страницах картинок.

Картинки, используемые в шапке сайта и в футере, целесообразно делать так же ссылками. Например, в шапке сайта неплохо сделать из графического логотипа ссылку, ведущую на главную страницу. А в футере можно расположить значок для связи с вами через почту, или для вывода страницы с описанием вашего сайта или его автора. Практически каждый, пользователь интернета знает, если нажать на логотип сайта, то окажешься на главной странице, на какой бы странице сайта ты не находился до этого. Все это помогает в навигации по сайту, а значит вашему посетителю будет комфортней, и больше шансов, что он с удовольствием задержится на вашем сайте.

 

Оригинальные тексты и картинки

 

Безусловно, все рассматриваемые нами способы вывода сайта на высокие поисковые позиции, важны, все они работают в одной связке, если хоть что-то одно упустить, пострадает вся наша оптимизация в целом. Но оригинальные тексты я бы назвал все-таки самым важным условием для достижения высоких результатов в раскрутке сайта. Совершенно уверенно можно сказать, что с помощью ворованного контента, успехов, даже средненьких, не достичь. Тексты на сайте должны быть уникальными, то есть такими, которых нет и не было нигде по интернету. По-другому говоря, тексты должны быть написаны вами самостоятельно или другими людьми, но по вашему заказу специально для вашего сайта. Понятно, что в идеале таковыми должны быть все тексты вашего сайта, если для вас это реальное затруднение, тогда можно допустить добавление на свой сайт чужих текстов, но не более половины. Такие чужие тексты лучше выложить на отдельных страницах, а эти отдельные страницы закрыть от индексации через файл robots.txt. Запрещенные для индексации тексты роботы не индексируют, но все равно читают для проверки на предмет каких-либо нарушений. Так что закрыв неуникальный текст от индексации, вы тем самым показываете поисковикам, что не претендуете на чужие тексты, а значит не воруете их.

  Процентное соотношение ваших и не ваших текстов на сайте зависит от общей тематики сайта. Ясно, что не может быть полной уникальности на сайтах где выкладываются в публичный доступ какие-либо научные, технические или литературные статьи разных авторов, а вот на своих авторских сайтах, обучающих или предлагающих какую-то особую методику, уникальность сайтов должна стремиться к ста процентам.

На сайтах где предлагается варезное ПО, у всех сплошь те же описания с одинаковостью (не с уникальностью, а наоборот) текста от 95 до 100% потому такие сайты распределяются примерно одинаково в поисковой выдаче, хотя и у них есть определенные хитрости. Например, можно написать не уникальный текст, а сделать так называемый рерайт, то есть переписанный заново своими словами чужой текст, эдакое изложение, как в школе. Этим многие пользуются, причем, на любых сайтах, с любой тематикой.

Кстати, на счет изображений, иллюстраций, других картинок – они тоже должны быть на сайте уникальными. Тут, казалось бы, посложней. Где взять уникальное изображение для вашей статьи? Хорошо если можно такое изображение добыть с помощью фотоаппарата. А если нет такой возможности? Тут тоже можно сделать рерайт картинки. Как это, спросите вы, это же не текст ее не перепишешь? Еще как перепишешь, с помощью любого графического редактора (я это делаю с помощью фотошопа) можно изменить найденную в интернете картинку. Изменить размер, или слегка соотношение сторон, изменить оттенок цвета, зеркально отобразить. Только надо учесть, что современные поисковики умеют просматривать и сличать даже графику так что простое изменение размера не поможет – и Яндекс и Гугл сразу определят, что картинка не уникальна, что такая уже существует. А вот если применить все указанные выше изменения, да еще повернуть изображение градусов на пятнадцать, и добавить на изображении какой-то элемент или несколько элементов, да еще и какую-нибудь надпись тогда картинка уже получается почти уникальная.

Оригинальная картинка

Есть еще проще способ – нарисовать в фотошопе свою авторскую картинку. Скажете: «Не умею!». – Надо привыкать, вы же теперь и программист, и писатель, и художник, и дизайнер, и администратор, и еще много кто, одним словом, просто талантливый человек – вебмастер!

Не могу не заметить про воровство вашего контента. Очень обидно, когда вы писали обширную статью, создавали собственную картинку, анимацию или видео и вдруг натыкаетесь на ваш материал на другом сайте, причем он почему-то находится в поисковой выдаче выше чем ваш сайт. И ничего не поделать, пожаловаться некому, робот-паук уже определил, что уникальный контент у вора, а не у автора. Ваши материалы просто в наглую взяли и «скопипастили» (от английского copy – past, скопировать – вставить). Такое бывает очень часто, просто паук проиндексировал воровской сайт раньше вашего. В этом случае авторство просто не докажешь.

Но предотвратить воровство все же можно. В Яндекс вебмастере, есть такой инструмент, которым я кстати очень активно пользуюсь, этот инструмент так и называется «Оригинальные тексты», который находится в разделе «Содержимое сайта». Нужно просто добавить ваш текст вначале сюда, а уж потом на ваш сайт. Если вы уже выложили ваш новый текст на сайт, то тоже можно воспользоваться этим инструментом и добавить, только что выложенный на свой сайт, собственный текст в Яндекс вебмастер, вполне вероятно, что еще не поздно, и ваш контент еще не сворован или еще не проиндексирован на воровском сайте.

Картинку защитить можно, добавив прямо в рисунок ваш логотип или адрес вашего сайта. В собственном видео надо делать нечто подобное, можно даже сделать прямо в видеоролике интерактивную ссылку на ваш сайт, как это делается можно узнать на YouTube. И тогда пускай забирают ваши картинки и ваши видео, вам уже это будет только «на руку».

Хочу рассказать один случай из моей практики что называется в тему. Как-то раз обнаружил я на просторах интернета чужой сайт, на котором находилась большая часть подготовленного лично мною материала, – конкретно моего контента. И очень по этому поводу расстроился, тогда я еще не пользовался сервисом «Оригинальные материалы», собственно говоря, я и начал то пользоваться этим сервисом после того случая. Но мое уныние долго не длилось. Забегая вперед, скажу, что хозяевами того сайта были два сопливых школяра, это я узнал, наведя о том сайте определенные справки. Их сайт был из числа ГС, сделан на бесплатном хостинге и выудить информацию о владельцах сайта сложности не представляло. Но конкретно меня развеселило, когда я понял, что это бестолковая школота… Не хочу никого обижать, да и не сержусь я на них (тем более, что теперь конечно же, они выросли и стали взрослыми людьми), но как же их еще тогда можно было назвать, когда они своровали вместе с полезным контентом даже мои платные ссылки и забыли их заменить на свои, то есть прибыль с их сайта получал я. Что называется –  добровольные помощники. Злости на горе-воришек не было, я добыл электронную почту одного из них и сообщил о конфузе, добавив, что мне их невольная помощь не нужна, так как «детский труд» эксплуатировать не хочу. И тут они меня реально рассмешили уже до слез – бедолаги-воришки, вдобавок ко всему, забыли пароль от своего сайта, и восстановить его тоже не сумели. Долго я еще натыкался на бесхозный, блуждающий по инету, как Летучий Голландец по океану, тот веселый сайт, даже умудрялся управлять им путем перенаправления ссылок на другие свои материалы, исходные ссылки у меня же были. Потом, конечно, махнул рукой на тот ГС. Но тем не менее такой факт был. Но не все так хорошо кончается, потому, не забывайте обезопасить свой сайт и свои материалы.

Скорость загрузки страницы

На результат поисковой выдачи влияет даже скорость загрузки вашего сайта. Поисковый паук при сканировании вашего сайта фиксирует определенные параметры, в том числе и скорость загрузки. И если ваш сайт грузится на пару-тройку секунд медленней чем сайт у вашего конкурента, и если ваши сайты равнозначны по остальным критериям, то естественно, ваш сайт будет в поисковой выдаче ниже, и вероятней всего, ниже не на один пункт, а с гораздо большим отрывом. Зачем поисковику ставить в своей выдаче результатов два равнозначных сайта рядышком? Уж будьте уверены, что в этом случае ваш сайт улетит гораздо ниже. Вот такова цена за каких-то нескольких секунд. Скорость загрузки в первую очередь зависит от вашего хостинг провайдера, но не только! С хостингом вопросов нет, тут все ясно – пользуйтесь услугами нормального хостинг-провайдера. Больше тут от вас ничего не зависит. Но еще есть и другие факторы существенно влияющие на скорость загрузки вашего сайта. Ваш сайт сам по себе, возможно, загружается быстро, но если в шапке вашего сайта установлен рекламный баннер партнерской программы, и у этой партнерской программы существуют проблемы со скоростью загрузки, то пострадаете и вы. Пока не загрузится этот баннер в шапке, ваш сайт грузится дальше не будет, а будет ждать полной загрузки злополучного баннера. Решение: если уж размещать в шапке своего сайта, рекламные модули ваших партнеров, то это должны быть быстро загружаемые партнерские материалы, в противном случае уберите такой баннер в низ страницы. Тогда вся страница будет загружаться раньше, а уже медленный баннер потом.

Вообще нужно знать очередность загрузки секций вашего сайта. Обычно загружается вначале содержимое шапки сайта, затем левый блок (если он есть), затем центральная часть сайта, то есть тело сайта, затем правый блок, и напоследок подвал сайта.

Именно поэтому у меня на сайте в шапке всегда что-то легкое, хотя рекламный баннер лакомый кусочек. Наиболее выгодное место для него, это как раз шапка сайта, так что иной раз можно пожертвовать ради такого дела несколькими миллисекундами загрузки.

Далее на очереди левый блок сайта, вот поэтому-то у меня никогда левого блока и нету. Потом следует сама страница сайта, то есть главное информационное место сайта. Тут я стараюсь размещать что полегче наверху, что потяжелее ближе книзу, но это, конечно, как получится, но стараюсь учитывать. Так же стараюсь делать картинки не слишком тяжеловесными, чтобы каждая картинка как можно быстрее грузилась. Зачем ставить на сайт изображение слишком большого размера и слишком тяжелое, в несколько сотен Килобайт или даже более Мегабайта? Картинка 200 Кб – это и то излишне тяжелая, можно сделать картинку приемлемого качества не более 100 Кб, а то и 20 – 30 Кб.

Следующий правый блок будет грузится, только когда уже основная страница будет загружена, значит сюда можно пихать помимо меню, что-то потяжелей, те же партнерские программы, баннеры, анимации, любую рекламу.

И напоследок футер сайта, тут у меня обычно счетчики посещений и рейтингов, потому что подобные сервисы частенько грузятся очень долго. Ну и пусть себе грузятся сколько влезет, ведь основные части моего сайта уже загружены и доступны для посетителей, да и для роботов тоже. Впрочем, счетчики, если хочется, можно поставить и в правый бокс, но в самый низ.

Забыл еще упомянуть о фоновой картинке. Лучше ее делать маленькой, так как она загружается один раз, а затем без затрат времени размножается по всей площади фонового пространства. Хотя иной раз хочется на сайт добавить в качестве фона, большое красивое изображение. Ну раз хочется – добавляйте, только вначале поиграйте с настройками соотношения качества и веса вашей фоновой картинки в графическом редакторе (например, в фотошопе) и выберите что-то на ваш взгляд оптимальное.

Еще очень существенно может влиять на скорость загрузки страниц вашего сайта, грубые ошибки в коде вашего сайта, допущенные при верстке или при изменении кода скрипта вашего сайта. То есть код вашего сайта должен быть максимально валидным, хотя абсолютно валидных сайтов практически не бывает (за очень редким исключением) даже сайты Гугл и Яндекс имеют сотни ошибок валидации. Тут главное, чтобы не было грубых ошибок, реально влияющих на скорость загрузки, например, ошибки кроссбраузерности. Что это такое? Ну, например, в одном браузере (скажем, в Firefox) ваш сайт работает, а при запуске вашего сайта в другом браузере (к примеру, в Google) ваш сайт не может загрузится, потому что этот браузер не поддерживает или не может правильно и быстро обработать некоторые места кода вашего сайта.

Чрезмерное увлечение партнерскими программами так же влияет на скорость загрузки вашего сайта, не надо устанавливать слишком много партнерских программ на одну страницу, помимо того, что сайт начнет медленнее грузиться, так еще и сам факт наличия большого количества партнерок поисковики так же не любят.   

 

sitemap.xml, robots.txt

Эти файлы должны обязательно присутствовать в корневой папке любого сайта. Но когда вы распаковываете скрипт сайта себе на хостинг, то в скрипте вашего сайта этих файлов может не быть вовсе, а ваш сайт прекрасно работает. Так зачем же они тогда нужны? Действительно, эти два файла на работоспособность сайта никак не влияют, но зато на сео-оптимизацию оказывают непосредственное и мощное воздействие.

В файле robots.txt указываются правила поведения любого робота на сайте. Этот файл является текстовым, и каждый вебмастер, не то чтобы мог этот файл изменить, он просто обязан изменять этот файл для каждого конкретного случая. В файле robots.txt можно указать, что нужно индексировать на сайте, а что индексировать запрещается, причем, каждому роботу определенной поисковой системы можно предписать свои отдельные требования, а можно назначить определенные правила для роботов сразу всех поисковых систем. Раздельное управление поисковыми пауками может быть полезно, для тех вебмастеров, которые оптимизируют материалы на своих сайтах под разные поисковики отдельно. Как вы уже знаете, каждая поисковая система предъявляет свои собственные требования к контенту и эти требования могут очень существенно отличаться, поэтому некоторые вебмастера создают отдельные страницы с разной оптимизацией для разных ПС и одну и ту же страницу одному роботу разрешают индексировать, а другому роботу запрещают. Но я до такого фанатизма пока не дошел и стараюсь при оптимизации страниц своего сайта найти некий компромисс, чтобы моя оптимизация была более-менее приемлема сразу для всех поисковых машин.

Вот содержимое моего типичного файла роботс:

User-agent: *                                  звездочка означает, что все директивы обязательны для всех роботов

Disallow: /404.html                          запрет индексации страницы ошибки 404

Disallow: /admin.php                       запрет индексации файла админки

Disallow: /vhod.php                          запрет индексации файла входа

Disallow: /registration.php                запрет индексации файла регистрации

Disallow: /inc/shpora.inc                  запрет индексации одного файла в папке inc (там файл справки)

Disallow: /AjexFileManager              запрет индексации этой папки полностью (это папка файл менеджера)

Disallow: /ckeditor                           запрет индексации этой папки полностью (это папка визуального редактора)

Disallow: /fm                                   запрет индексации этой папки полностью (это служебная папка файл менеджера 2)

Disallow: /templates                        запрет индексации этой папки полностью (это папка резервных шаблонов)

Host: site.ru                                   Индексация всех незапрещенных папок и файлов сайта (допустим ваш сайт site.ru)

 Sitemap: http://site.ru/sitemap.xml  Путь где роботу искать карту сайта.

 

В правой стороне пояснения, а содержание самого файла robots.txt в столбике слева.

По правилам robots.txt что в нем запрещено для определенных роботов то и запрещено, то есть все остальное не запрещается. Перефразировав, можно сказать так: разрешено все что не запрещено. То есть нет смысла указывать специальной командой что разрешено. Директива Disallow как раз и запрещает все то что за ней записано. Если написать так: Disallow: / это будет означать что для индексации запрещены абсолютно все папки и файлы сайта. Allow: / наоборот показывает, что разрешено индексировать весь сайт без исключений. Но так обычно не пишут, потому что это является бессмыслицей, ведь с таким же успехом можно было вообще файл robots.txt на сайте не держать. Поэтому в роботс, чаще всего, только что-то запрещают, а то что индексировать нужно, об этом просто не пишут.

Предпоследняя строка указывает явно роботу на каком хосте действуют указанные правила, или на каком конкретно сайте надо проверять разрешенные страницы. Последняя строка указывает роботу где искать карту сайта, для того чтобы робот руководствовался картой сайта и ни чего по случайности не пропустил.

В первой строке звездочка означает что все дальнейшие команды предназначаются для всех роботов. Если нужно дать указания какому-то определенному роботу, то надо указывать название определенного робота, например:

 User-agent: Yandex

- тогда все нижеследующие команды будут действительны только для робота Яндекс. Чтоб дать указание другому поисковику надо будет с новой строки указать название другого робота, например:

User-agent: GoogleBot

- и все команды опять прописать ниже.

А если еще потом захотите дать указания всем остальным роботам, то пишем опять с новой строки:

User-agent: *

- и снова надо будет прописать все команды далее в столбик.

Понятно, что в этом случае хотя бы одна команда должна отличаться, если прописать все команды для всех роботов одинаковыми, то в этом не будет никакого смысла, это будет тоже, что и исходный вариант моего файла robots.txt результат останется таким же.

Файл robots.txt очень важен для поисковой оптимизации, если этого файла не будет в корне вашего сайта, то сайт работать будет, но поисковики будут без разбора индексировать всю информацию на вашем сайте в том числе и служебную. А это означает повышенную нагрузку на сервер. Служебные файлы и папки очень часто бывают одинаковыми на разных сайтах, так что ваш сайт может оказаться в числе ГС за копирование чужих материалов. Кроме того, поисковик запутается и нужных материалов просто не будет сканировать, ему будет просто некогда из-за бестолковой работы со служебными файлами. В конце концов, ПС могут вообще перестать посещать ваш сайт. Не буду расписывать всех страшилок – их очень много, просто знайте, что robots.txt очень нужный файл, во всяком случае пока. 

 

Файл sitemap.xml указывает, как и где найти нужные страницы на вашем сайте для индексации. sitemap.xml должен располагаться в корне сайта, хотя конечно можно его спрятать в другой папке, просто показать поисковым роботам в файле robots.txt где он лежит, но не советую, лучше все-таки располагать sitemap.xml в корне сайта. Это будет полезно, если, к примеру, ваш файл robots окажется по какой-либо причине некорректным или его вообще не будет, тогда есть шанс что боты будут все равно находить карту сайта, если sitemap.xml будет в корне сайта.

Многие вебмастера воспринимают карту сайта буквально, и воспроизводят ее на отдельной странице сайта. А между тем этого делать вовсе не обязательно. Карта сайта – это и есть файл sitemap.xml и его расположения в корне сайта без визуального вывода вполне достаточно. Карта сайта главным образом, требуется роботам. В ней записаны все страницы сайта и путь к ним, причем указаны только страницы, разрешенные к индексации. Без карты сайта робот тоже сможет проиндексировать ваш сайт, но он может, блуждая по ссылкам сайта, все страницы не заметить и кое-какие пропустить. Ведь хотя поисковый робот не один, их довольно много в каждой ПС, но сайтов-то в интернете неизмеримо больше чем ботов, поэтому для каждого поискового робота отпущено определенное время для хождения по одному сайту, и если на вашем сайте карты сайта нет, то робот может во-первых не найти все страницы, во-вторых ему может просто не хватить лимита времени и он уйдет, а когда вернется, даже может не он, а его коллега, то начнет индексацию с просмотренных уже страниц, а те страницы которые не были еще проиндексированы, опять останутся без внимания. Другое дело если на сайте sitemap.xml есть, тогда паук, руководствуясь директивами robots.txt и sitemap.xml не уйдет с сайта пока не просмотрит все страницы, записанные в sitemap.xml.

Работать с файлом sitemap.xml даже проще чем с robots.txt. Просто возьмите себе за правило после каждого добавления материала на сайт обновлять свой sitemap.xml, это можно сделать автоматически. Просто вбейте в поисковую строку вашего браузера, что-то типа: «создать sitemap.xml». Вам откроется сразу множество сайтов онлайн - генераторов sitemap, там вы легко и бесплатно создадите для своего сайта sitemap после чего скопируйте его в корень своего сайта. Вручную создавать sitemap.xml тоже можно, но сначала разберитесь по сгенерированному автоматически образцу. Когда мне лень переходить на сайт генератор sitemap, я просто открываю старый файл sitemap.xml и добавляю вручную запись о новой, только что появившейся на моем сайте странице. Хотя, конечно, вы можете каждый раз пользоваться генератором sitemap, никто вас за это не осудит. Генератор и придуман для вашего удобства.

 

Психологическая составляющая

Не маловажным фактором для удержания посетителей на вашем сайте является психологическая составляющая. Надо сделать так, чтобы посетителю было интересно на вашем сайте. Тут вы должны проявить себя в качестве психолога и позаботься о своих посетителях, так чтобы люди чувствовали, что тут к ним относятся с уважением. Нет ни каких непристойностей, сайт не переполнен раздражающей и мельтешащей на каждом шагу рекламой. Нельзя позволять ни себе ни другим оскорблять ваших пользователей. Даже несколько резкий ответ в комментариях может побудить покинуть ваш сайт не только, того человека, которого вы, пусть и ненароком, но обидели, может уйти даже совершенно непричастный человек, просто прочитавший что-то обидное по отношению к кому-то другому. Я, например, с таких сайтов ухожу, даже если изначально мне что-то там было нужно, и мог бы что-то платно скачать или купить. Надо по-настоящему уважать своих посетителей, и гостей сайта и пользователей, а не так, только на показ, как Киркоров своих зрителей и поклонников. Слишком много грамматических ошибок, заведомо тупые советы, не проверенная не достоверная информация все это непременно лишит вас полезных посетителей.

 

Далее