Внутренняя оптимизация /vnutrennyaya-optimizatsiya.html Mon, 16 May 2016 19:37:57 +0000 Joomla! - Open Source Content Management ru-ru Уникальность текста /unikalnost-teksta.html /unikalnost-teksta.html

В этой статье мы рассмотрим такое важное для веб-мастера понятие, как уникальность текста. Возможно, вы слышали о том, что поисковые системы особенно ценят уникальные статьи. Что это значит?

К слову «уникальный» можно подобрать массу синонимов – единственный, неповторимый, эксклюзивный, исключительный и др. Таким образом, становиться понятным, уникальная статья – это авторское творение, не похожее на другие, единственное в своём роде. Наполнение сайта с помощью прямого копирования контента с других сайтов, вещь не только бесполезная, но и опасная. Копирование и публикация чужих статей, а также заимствование фрагментов чужих статей, без указания источника заимствования, является плагиатом. Плагиат (речевое воровство) подразумевает нарушение авторских прав и влечёт за собой уголовную ответственность.

Поисковые системы определяют копированный контент и исключают его из поисковой выдачи. Это касается также лёгкого рерайта и копипаста. Рерайтинг, от английского rewriting - переписывание текста. Копипаст, от английского cut, copy, paste - вырезать, скопировать, вставить. При этом способе статья создаётся из фрагментов, скопированных из разных источников.

Что же делать, спросите вы, ведь Интернет заполнен всевозможной информацией, получается, что и писать то уже не о чем, обо всём уж написано. Здесь я однозначно могу сказать, сайты создают для того, чтобы делиться информацией. Если вы это можете сделать лучше других - очень хорошо. Совпадение отдельных идей не является плагиатом. Создание нового произведения невозможно без идеи, а идея авторов не имеет.

Хотелось бы заметить, плагиат легко определить в художественной литературе. В Интернете используют различные жанры - художественно-публицистические, информационные, аналитические. При подаче информации, часто используются общепринятые понятия, выражения и термины. Например, если вы напишите «Уральские горы разделяют Европу и Азию», вас невозможно обвинить в плагиате, так как это – общеизвестный факт. Если вы проверите это выражение на уникальность, уникальность окажется нулевой, и всё по той же причине, так как это общеизвестный факт. Даже если вы попытаетесь изменить выражение, например « Уральские горы являются границей между Европой и Азией» или «Европа и Азия разделена Уральскими горами», при проверке уникальности текста окажется, что вы в этих выражениях не оригинальны.

 

Как проверить уникальность текста

Уникальность текста можно проверить с помощью онлайн-сервисов или специальных программ, установленных на компьютер.

Идеальных приложений по оценке уникальности не существует. Проверяя один и тот же текст в разных программах, вы получите разные результаты. Однако, тестирование статьи на уникальность необходимо по следующей причине. Для поисковиков уникальным является текст, в котором не имеется совпадений с текстами, находящимися в базе данных поисковых систем. Определённые участки текста, созданного вами, могут совпадать с уже существующими текстами в Интернете. Естественно, из-за этого оценка уникальности снижается. При проверке уникальности, программа выделяет участки неуникального текста. Вы можете повысить уникальность текста методом перестановки предложений и словосочетаний или заменой некоторых слов синонимами в выделенной области текста.

Каждый выбирает для себя наиболее удобные способы для проверки уникальности текста. Я предпочитаю использовать программы, установленные на компьютере. Программы обновляются, всегда под рукой - это удобно. Etxt Антиплагиат и Advego Plagiatus - программы, которые вы можете скачать и установить на свой компьютер. После установки откройте программу, вставьте в окно редактора текста скопированный текст и проверьте на уникальность. Фрагменты текста с совпадениями будут выделены определённым цветом. Вам останется только отредактировать эти фрагменты таким образом, чтобы не было совпадений с текстами других веб-ресурсов. Если вы предпочитаете онлайн-проверку, Etxt и Advego также предоставляют возможность проверить текст на уникальность, орфографию, сделать seo-анализ текста.

Хотелось бы заметить. Поисковые системы учитывают не только уникальность текста, но и его полезность. Можно создать статью со 100% уникальностью, но совершенно бесполезную. И наоборот, можно написать полезную статью, но в борьбе за уникальность, потерять авторский слог и стиль. К сожалению, для поискового робота, с его «алгоритмическим мозгом», это не важно.

]]>
admin@webadvisor.ru (Roman) Внутренняя оптимизация Fri, 07 Sep 2012 11:44:52 +0000
Ключевые слова /klyuchevye-slova.html /klyuchevye-slova.html

В этой статье мы будем рассматривать такие важные понятия для оптимизатора, как ключевые слова и релевантность.

 

Ключевые слова для сайта

Ключевое слово это слово в тексте, которое в совокупности с другими словами представляет весь текст. В Интернете ключевые слова используются для поиска. Для того, чтобы сайт был найдет поисковиками, из ключевых слов составляется семантическое ядро сайта.

Семантическим ядром сайта называется набор слов, наиболее точно характеризующих вид деятельности сайта. Семантика в переводе с греческого - обозначающий. Представьте себе, что вам нужно материал сайта представить в очень сокращенном виде, даже не на уровне конспекта, а охарактеризовав несколькими словами (10 - 15) и при этом была бы понятна тематика сайта. Конечно для этого пришлось бы исключить все пустые, почти все ассоциативные, оставив только основные слова. Проще говоря, семантическое ядро представляет собой поисковый образ документа.

Для того чтобы поисковики находили сайт в глобальной сети, нужно правильно составить семантическое ядро сайта. Очень важно подобрать слова так, чтобы пользователи, попадая на ваш сайт, попадали на страницы с нужной им информацией.

Существуют сайты, которые бесплатно предоставляют сервис по автоматическому подбору ключевых слов или семантического ядра. Если вы сделаете анализ текста на таком сайте, то сможете увидеть, что поисковик математически вычисляет повторяющиеся слова. Такой набор слов можно подобрать самостоятельно, анализируя частоту появления слова в тексте. Но не забывайте, важна не только частота повторения слова, но и его значение.

Слова по значимости можно поделить на основные и ассоциативные. Ваша задача подобрать слова, которые бы обеспечили наибольшую релевантность страницы.

 

Релевантность

Релева́нтность (лат. relevo — облегчать) — семантическое соответствие поискового запроса и поискового образа документа (страницы).

Проще выражаясь, это оценка степени соответствия. Чем выше релевантность страницы, тем выше вес данной страницы по отношению к ключевому слову. А это означает, что в результатах поиска релевантная страница будет выдаваться раньше.

Удобнее всего подбирать ключевые слова с помощью сайтов, предоставляющих сервис по анализу сайта. Наберите в поисковой строке «анализ сайта онлайн». Перед вами откроется большой выбор сайтов, услугами которых вы можете воспользоваться. Вам остаётся выбрать сайт, предоставляющий такой сервис и вставить адрес страницы вашего сайта в строку для проверки.

Советую для анализа сайта воспользоваться сервисом ISTIO. Благодаря этому сервису вы сможете не только подобрать ключевые слова, но и проверить текст на орфографические ошибки, на плагиат, посмотреть карту сайта (наглядно видно самые употребляемые в статье слова).

Небольшая ремарка. Нужно учитывать под какую поисковую систему вы оптимизируете сайт. Так как потенциальные посетители сайта пользуются разными поисковыми системами, вы можете поверять и подбирать фразы под определенный поисковик. Советую воспользоваться услугами следующих сервисов:

  • http://adwords.google.com/select/tools.html
  • http://wordstat.yandex.ru/
  • https://adstat.rambler.ru/wrds/

Работать с ними очень просто. Нужно набить фразу в поисковик и вы увидите варианты. Не сложно, но есть одно но... Для правильного подбора нужно знать не только количество запросов, но и количество переходов по этим запросам. Чтобы получить такие данные советую воспользоваться сервисом: budget.webeffector.ru

На основе данных анализа, подберите ключевые слова и внесите их в настройки сайта. Для этого нужно войти в Административный Раздел и кликнуть по меню Сайт - Общие настройки

 

 

 

 

 

 

В открывшемся окне выберите вкладку сайт. В разделе Настройка Метаданных заполните поля:

  • в пункт Значение тэга <meta> вы должны внести краткое описание сайта, т.е. кратко обозначьте тематику сайта;
  • в пункте Ключевые слова тэга <meta> для всего сайта должно находится семантическое ядро сайта, т.е. подобранные вами ключевые слова

 

 

 

 

 

 

 

 

 

 

 

Сохраните изменения. Мы сделали важную часть работы, подобрав ключевые слова для сайта. Но это только первый шаг, проделанный нами на пути к оптимизации.

]]>
admin@webadvisor.ru (Roman) Внутренняя оптимизация Fri, 07 Sep 2012 12:01:07 +0000
Проверка кода сайта на валидность /proverka-koda-sayta-na-validnost.html /proverka-koda-sayta-na-validnost.html

В работе по созданию и продвижению сайта вы обязательно столкнётесь с таким понятием как валидность. Валидность - это мера соответствия.

В сайтостроении - это соответствие HTML и CSS кода нормам, которые указаны в W3C (World Wide Web Consortium). W3C - организация, разрабатывающая и внедряющая единые технологические принципы и стандарты для Интернета (называемые "рекомендациями"). Целью создания стандартов является обеспечение совместимости между программными продуктами и аппаратурой различных компаний.

Как вы уже догадались, создавая сайт, вы должны позаботиться о том, чтобы код сайта был валидным. Код считается валидным, если он не противоречит ни одному из правил, которые указаны в рекомендациях.

Однако, хотелось бы отметить, относительно валидности кода сайта существует множество мнений. Существует мнение, что не обязательно строго придерживаться рекомендаций. Также есть мнение, что валидность кода влияет на позиции сайта в выдаче поисковых систем. Валидный код даёт положительную динамику в поисковой выдаче. Невалидный код, содержащий ошибки, может привести к бану некоторых страниц или даже всего сайта. Например, одинаковый цвет текста и фона, может расцениваться поисковиками, как попытка скрыть продающиеся с сайта ссылки.

Несмотря ни на какие споры, я вам рекомендую время от времени проверять сайт на валидность. Делать это нужно не только для того, чтобы ваш сайт соответствовал стандартам. Это позволит вам найти и исправить ошибки в коде (ошибки HTML, CSS, неработающие ссылки и др). Иногда, из-за ошибок кода, сайт выпадает из поля зрения робота. Именно так, поисковый робот сайт просто не видит. Более подробно об этом вы можете почитать в статье сайт глазами робота.

Подобно тому, как для любого языка существует своя грамматика, лексика и синтаксис, для каждого из языков программирования также существуют свои правила, которых следует придерживаться (машиночитаемая грамматика). Разработчикам программных средств известно, так называемое, правило надежности Джона Постела, человека, внесшего огромный вклад в развитие Интернета, в том числе в области стандартизации. Звучит оно примерно так – БУДЬТЕ КОНСЕРВАТИВНЫ В ТОМ, ЧТО ВЫ ДЕЛАЕТЕ, БУДЬТЕ ЛИБЕРАЛЬНЫ К ТОМУ, ЧТО ВЫ ПРИНИМАЕТЕ ОТ ДРУГИХ.  

Руководствуясь законом Постела, разработчики браузеров добиваются того, чтобы веб-браузер мог принимать в том числе и веб-страницы с ошибками. При этом браузер отображает такие веб-страницы основываясь лишь на предположениях, что вы могли иметь в виду. Но нужно учитывать тот факт, что ошибки в коде веб-страниц интерпретируются разными браузерами по-разному. Неверная интерпретация браузером ошибок грозит неправильным отображением веб-страниц или, при наличии грубых ошибок или большого числа ошибок, окончательно запутавшийся браузер страницы не откроет вовсе.

Можно ли добиться 100% валидности кода? Практически невозможно. В нашей реальной отечественной действительности, к сожалению, не обойтись без отступления от правил. Этим отступлением, например, является тег noindex. Этот тег используется специально для Яндекса и служит для закрытия служебных участков текста от индексации. Хотя о том, стоит ли помещать ссылки в контейнер с данным тегом, идёт много споров. Многие считают, что поисковые роботы давно уже игнорируют noindex. Как бы ни спорили о целесообразности использования тега noindex, W3C воспринимает и расценивает его как ошибку в коде. Однако Яндекс предлагает следующий выход из положения. Для того чтобы сделать код валидным, использовать его в следующем формате:

<!--noindex-->Текст, индексирование которого нужно запретить<!--/noindex-->

Действительно, в таком формате W3C воспринимает код как валидный.

Проверка кода на наличие ошибок - это залог того, что веб-страницы вашего сайта будут доступны и правильно отображены в браузере. Чтобы проверить сайт на валидность, вы можете воспользоваться любым онлайн сервисом. Самый популярный - validator.w3.org. Пользоваться им очень просто. Вставьте адрес сайта в строку "Адрес" и нажмите "Проверить", как на картинке ниже.

схема

 

 

 

 

 

 

 

 

 

После проверки появиться окно, в котором будет указано количество ошибок и предупреждений. Ниже вы сможете увидеть детальную информацию о каждой ошибке (место нахождения ошибки, рекомендации по исправлению).

схема

 

 

 

 

 

 

 

 

 

Вот и всё. Проверяйте и исправляйте. А на вопрос, нужно ли при этом добиваться абсолютного соответствия стандартам W3C (W3C Recommendations), я отвечу так.
Рекомендации (от лат. recommendatio - совет) - в международном праве означает резолюции международных организаций, совещаний или конференций, которые не имеют обязательной юридической силы. По моему мнению, прислушиваться к совету авторитетных организаций нужно. И стараться следовать их рекомендациям тоже. Но без фанатизма.

]]>
admin@webadvisor.ru (Roman) Внутренняя оптимизация Sun, 09 Sep 2012 08:55:03 +0000
Сайт глазами робота /sayt-glazami-robota.html /sayt-glazami-robota.html

Статья о том, как поисковые роботы воспринимают ошибки в коде сайта, и каким образом это влияет на индексацию сайта.

Одна из моих статей была посвящена такому понятию, как валидность. Поэтому, не буду повторяться и уделять время на его описание. Если коротко, валидность – это соответствие стандартам. Таким образом, стандартизированный язык разметки для веб-страниц (HTML), с единым базовым набором тегов и атрибутов, «читается» различными браузерами и отображается в виде документа, удобного для просмотра пользователями.

Что происходит, если HTML код страницы содержит ошибки (не соответствует стандарту)? Отображает ли браузер невалидный код?

Создатели веб-обозревателей позаботились о том, чтобы их браузеры умели интерпретировать и некорректные html-коды. Иначе даже единственный, пропущенный по невнимательности веб-мастера тег, не позволил бы пользователю, просматривать страницу и выводил бы сообщение об ошибке. Однако, каждый браузер, интерпретирует ошибочный код по своим правилам. Потому есть вероятность того, что одна и та же невалидная страница будет выглядеть в различных браузерах по-разному. Поэтому старайтесь избегать ошибок в html-коде.

 

Поисковый робот и индексация

А теперь рассмотрим принципы работы поисковых роботов. Как они реагируют на ошибки в html-коде.

По принципу действия поисковый робот напоминает обычный браузер. Однако цели у него несколько иные. Если главной целью браузера является предоставление интерфейса между веб-сайтом и его посетителем, то цель поискового робота - анализ каждого документа с помощью специального алгоритма, для занесения информации о нём в базу данных поисковика. Споткнувшись об ошибку, робот прекращает обрабатывать документ. Речь здесь конечно идёт о более серьёзных ошибках, чем пропущенный закрывающийся тег.

Как бы различные движки не упрощали работу с сайтами, необходимо изучать HTML и CSS. Веб-мастеру часто приходится работать с html-кодом. Например, вы знаете, что наличие большого количества ссылок на сторонние сайты не лучшим образом сказывается на оптимизации сайта. Это вынуждает веб-мастера избавляться от ссылок, в том числе и на сайты разработчиков различных компонентов. Для этого приходится вносить изменения в html-код (удалять или изменять часть кода).

После любых экспериментов с кодом, проверяйте сайт на видимость поисковым роботом. Для этого рекомендую воспользоваться очень удобным сервисом, который находится по адресу http://www.pr-cy.ru/simulator. Здесь вы сможете бесплатно проверить сайт на многие показатели, в том числе увидеть сайт глазами робота, найти ошибки в HTML-коде, проверить сайт на валидность.

Вы можете проверить сайт на определённые показатели или сделать экспресс анализ сайта на все показатели сразу. Для того, чтобы проверить сайт на все показатели, пройдите по этому адресу: http://www.design-sites.ru/utility/express-analys.php и введите URL вашего сайта для экспресс-анализа и нажмите "GO". Затем, поочерёдно открывая страницы, посмотрите результаты проведённого анализа.

Теперь вы будете уверены, что ваш сайт не выпадет из индекса из-за нелепой ошибки, так как ситуация находится полностью под вашим контролем.

]]>
admin@webadvisor.ru (Roman) Внутренняя оптимизация Sun, 09 Sep 2012 09:01:51 +0000
Как создать Sitemap /kak-sozdat-sitemap.html /kak-sozdat-sitemap.html

Первое, что должен сделать вебмастер, создавший сайт и открывший к нему доступ в Интернете - создать robots и создать sitemap. Если выразиться точнее - нужно создать файл sitemap.xml, файл robots.txt и разместить их в корне сайта. Для чего необходимо создать sitemap и robots?

Создавая сайт, каждый вебмастер, рассчитывает на высокую посещаемость своего ресурса. Высокие показатели посещаемости страниц сайта говорят не только о качестве веб-ресурса, но и о качественной оптимизации. Вы создали сайт, теперь вам нужно позаботиться о том, чтобы страницы сайта были проиндексированы. И не все, а только те, которые несут полезную информацию. Все технические страницы сайта должны быть закрыты от индексации. Для этих целей и нужен файл robots.txt.

 

Что такое индексация и для чего нужен sitemap?

Индексирование – процесс добавления сведений о сайте поисковым роботом в базу данных поисковой системы. Эти сведения впоследствии используются для поиска информации на проиндексированном сайте. Если сайта нет в индексе, естественно, он не отражается в результатах поиска. Чтобы помочь поисковым роботам получить сведения о страницах сайта, нужно создать файл sitemap.

Sitemap – HML-файл, предназначен для поисковиков, с информацией о местонахождении, обновлении страниц сайта, а также о важности страниц относительно других страниц сайта.

 

Как создать файл sitemap.xml

Прежде чем ответить на вопрос, как создать файл sitemap.xml, давайте рассмотрим требования, предъявляемые к файлу sitemap.

  • В файле sitemap.xml должно быть не более 50000 URL, размер каждого из этих файлов не должен превышать 10 МБ
  • Если у вас более 50000 URL, следует создать несколько файлов sitemap и перечислить каждый из этих файлов в файле индекса (sitemap index)
  • В файле sitemap должна использоваться кодировка UTF-8
  • Рекомендуется располагать файл sitemap.xml в корневой директории сервера, чтобы ссылка выглядела примерно так: http://ваш сайт/sitemap.xml

Файл sitemap вы можете создать с помощью Онлайн Sitemap Генератора.

 

Создать sitemap онлайн

Чтобы создать sitemap пройдите по этой ссылке: создать sitemap. В открывшемся окне введите имя вашего сайта и нажмите на кнопку «Start».

 

На рис. вы видите пример создания sitemap.xml для www.webadvisor.ru (в адресную строку введите URL вашего сайта)

 

 

 

 

 

 

 

 

После сканирования и создания файла sitemap, вам будет предложено скачать файл

 

 

 

 

 

 

После того, как файл sitemap создан и размещен на веб-сервере, необходимо сообщить о местонахождении sitemap поисковым системам, поддерживающим этот протокол. Это можно сделать, указав местоположение файла sitemap в файле robots.txt. Добавьте в файле robots.txt следующую строчку:

Sitemap: http://ваш сайт

Хотелось бы отметить, что Онлайн Sitemap Генератор, при создании файла sitemap, учитывает директивы файла robots.txt. Прежде чем поместить файл sitemap.xml в корневую папку сайта, обязательно просмотрите созданный sitemap. Если вы обнаружите в файле сведения о страницах с технической информацией, значит эти страницы открыты для индексирования. В таком случае, нужно закрыть технические страницы от индексирования с помощью файла robots.txt и заново создать sitemap.

]]>
admin@webadvisor.ru (Roman) Внутренняя оптимизация Sun, 09 Sep 2012 09:07:10 +0000
Robots.txt /robots-txt.html /robots-txt.html

После того, как вы перенесли сайт на хостинг и открыли к нему доступ, на ваш сайт начнут заходить поисковые роботы. Цель поисковых роботов – занесение информации о страницах сайта в базу данных поисковика. В первую очередь поисковые роботы ищут на сайте файл robots.txt.

 

Файл robots.txt - настройка параметров индексирования сайта

Файл robots.txt служит для запрета от индексирования страниц, не предназначенных для пользователей. Таким образом, с помощью robots.txt от индексирования можно закрыть технические и не представляющие ценности ни для пользователя, ни для поисковых систем страницы (дубликаты страниц, статистика посещаемости, поиск по сайту и др.). Для поисковых роботов файл robots.txt является инструкцией, в которой указаны параметры индексирования сайта. Поэтому, в первую очередь веб-мастеру нужно создать эту инструкцию для поисковых роботов.

 

Как создать robots.txt

Создать файл robot.txt для поисковых роботов несложно. Создайте в любом текстовом редакторе файл с названием «robots.txt», заполните его в соответствии с правилами и разместите в корневой папке сайта.

 

Robots.txt для Joomla

Чтобы вам было легче понять, что из себя представляет файл robots.txt, вначале хочу показать, как он выглядит на примере robots.txt для Joomla. Хочу отметить, что в данном файле прописаны две инструкции: вверху - для всех поисковых роботов и ниже - для поискового робота Яндекс.

User-agent: *
Allow: /index.php?option=com_xmap&sitemap=1&view=xml
Disallow: /administrator/
Disallow: /cache/
Disallow: /index.php?
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /libraries/
Disallow: /media/
Disallow: /modules/
Disallow: /plugins/
Disallow: /templates/
Disallow: /images/
Disallow: /tmp/
Disallow: /xmlrpc/
Disallow: /search/
Disallow: /*.pdf
Disallow: /*print=1
Disallow: /*type=atom
Sitemap: /index.php?option=com_xmap&sitemap=1&view=xml
Sitemap: /index.php?option=com_xmap&sitemap=1&view=xml&no_html=1
Sitemap: /index.php?option=com_xmap&sitemap=1&view=xml
Disallow: /administrator/
Disallow: /cache/
Disallow: /index.php?
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /libraries/
Disallow: /media/
Disallow: /modules/
Disallow: /plugins/
Disallow: /templates/
Disallow: /images/
Disallow: /tmp/
Disallow: /xmlrpc/
Disallow: /search/
Disallow: /*.pdf
Disallow: /*print=1
Disallow: /*type=atom
Host: www.webadvisor.ru
Sitemap: /index.php?option=com_xmap&sitemap=1&view=xml
Sitemap: /index.php?option=com_xmap&sitemap=1&view=xml&no_html=1
Sitemap: />

Правильный robots txt

Выше приведён пример файла robots.txt для Joomla. Вы можете его скопировать и отредактировать, согласно своим требованиям. А можете создать robots.txt самостоятельно. Чтобы создать правильный robots.txt, создайте текстовой файл и заполните его в соответствии с представленными ниже правилами.

Директива User-agent

В файле robots.txt вы можете указать параметры индексирования своего сайта как для всех роботов сразу, так и для каждого поисковика отдельно. Это можно сделать с помощью директивы User-agent. По правилам перед каждой директивой User-agent рекомендуется вставлять пустой перевод строки.

Например:

User-agent: * # для всех поисковиков

User-agent: Yandex # для робота Яндекса

 

Директивы Disallow и Allow

Директива Disallow используется для запрета к некоторым частям сайта. По правилам не допускается наличие пустых переводов между директивами User-agent и Disallow (Allow). Отсутствие у директив параметров трактуется таким образом: Disallow – то же, что и / Allow; Allow – то же, что / Disallow

Например:

User-agent: Yandex

Disallow: / # блокирует доступ ко всему сайту

 

Директива Sitemap

В файле robots.txt вы можете указать путь к sitemaps.xml

Пример. Sitemap: /index.php?option=com_xmap&sitemap=1&view=xml&no_html=1

 

Директива Host

С помощью директивы Host в файле robots.txt вы можете указать главное зеркало сайта (сайт с www или без).

Директива должна располагаться сразу после директив Disallow (Allow) и должна состоять из одного корректного имени хоста.

Пример. Host: www.webadvisor.ru

 

При написании robots.txt помните, что файл не должен превышать 32 Кб. Слишком большой robots.txt воспринимается поисковым роботом, как полностью разрешающий и рассматривается им аналогично следующей записи:

User-agent: Yandex

Disallow:

 

После создания файла рекомендую проверить, правильно ли вы его составили. Проверить правильность файла robots.txt вы можете в панели вебмастера Яндекс, в панели вебмастера Google или специальным on-line анализатором по этому адресу: http://webmaster.yandex.ru/robots.xml

]]>
admin@webadvisor.ru (Roman) Внутренняя оптимизация Sun, 09 Sep 2012 09:18:06 +0000
Внутренние ссылки сайта /vnutrennie-ssylki-sayta.html /vnutrennie-ssylki-sayta.html

В этой статье речь пойдёт о значении внутренних ссылок для сайта и правильной перелинковке сайта. Создавая структуру сайта, веб-мастер должен обязательно учитывать два основных момента: навигация по сайту должна быть интуитивно понятна посетителям сайта; внутренние ссылки должны легко сканироваться поисковыми роботами.

 

Уровень вложенности страниц (УВ)

Для начала, давайте рассмотрим такое понятие, как уровень вложенности страниц. Уровень вложенности страницы сайта (УВ) – это количество кликов, которое нужно сделать, чтобы попасть на нужную страницу с Главной страницы сайта. Это значит, что посетитель сайта, попавший на Главную страницу, должен иметь возможность найти любой материал, сделав не более 3 – 4 кликов.

К уровню вложенности предъявляются определённые требования. Рекомендуется создавать не более 3-ёх уровней вложенности (максимум – 4 уровня). Это требование особенно нужно соблюдать тем веб-мастерам, которые планируют продавать ссылки со своего сайта на биржах ссылок, таких как Sape, Linkfeed и др. Оптимизаторы, покупающие ссылки, предпочитают покупать ссылки на страницах, не более 3 (по моему опыту, предпочтительней УВ - 2) уровней вложенности.

На Главной странице сайта обязательно должны находиться ссылки, ведущие на важные страницы сайта. Это нужно, не только для удобства посетителям, но и для облегчения работы сканерам по поиску и индексации страниц.

 

Что такое «хлебные крошки»

Представьте себе, что посетитель, в поиске нужной информации попал на одну из внутренних страниц сайта. Сможет ли он перейти с неё на Главную страницу или на страницу с нужной информацией? Чтобы посетитель не оказался в тупике, существует элемент навигации, который поможет посетителю ориентироваться на сайте. Это так называемые «хлебные крошки».

Хлебные крошки (англ.Breadcrumbs) – ироничное название, дано по аналогии со сказкой о детях, которые не смогли найти выход из леса, так как по пути в лес, вместо камешков бросали крошки от хлеба, которые впоследствии склевали птицы.

Этот элемент навигации обычно находится в верхней части страницы и представляет собой гиперссылки, указывающие путь от Главной страницы сайта до страницы сайта, где находится посетитель.

Схема примерно такая: Главная страница – Раздел – Подраздел – Текущая страница (не является гиперссылкой)

Такой вид навигации удобен для посетителей, которые, кликнув по одному из элементов навигации, могут попасть в нужный раздел или на Главную страницу сайта. К тому же, этот элемент навигации важен для поисковой системы Google и неоднократно упоминается ею, как рекомендуемый.

 

Анкоры ссылок и перелинковка

О таком понятии, как анкор, можно встретить довольно много обсуждений в Интернете. Анкор, по своей сути - текст ссылки. Однако, ссылки на сайте, обязательно учитываются поисковыми роботами и заносятся в отдельный анкор-лист, который участвует в ранжировании сайта. Поэтому, при создании анкора, вы должны это учитывать.

Выглядит ссылка так: <a href="/www.webadvisor.ru"> текст ссылки</ a>

Слово или словосочетание, которое вы вставите вместо «текст ссылки» будет являться анкором, но не всегда. Поисковые системы не расценивают как анкор URL-адреса и выражения типа - «читайте здесь», «тут» и т.п.

Таким образом, создавайте читаемые анкоры, т.е анкоры должны нести информацию. Используйте для создания анкоров ключевые слова.

Для правильной перелинковки используйте на сайте ссылку-якорь. Например, если вы в одной статье создаёте несколько ссылок на другую статью и хотите, чтобы все анкоры были учтены поисковиками, создайте несколько ссылок с разными анкорами и якорями, на соответствующей странице. О том, как создать якорь можно почитать в статье Ссылка-якорь.

При перелинковке, не забывайте, что каждая страница через ссылки передает часть своего веса другим страницам. Чем больше ссылок ведет на другие страницы, тем меньше вес каждой ссылки. На PR сайта это не влияет, но на PR страницы - отражается. Так что, предпочтительней передавать вес на важные страницы сайта.

Избавляйтесь от «битые» ссылок. Что такое «битые» ссылки? Это ссылки, которые никуда не ведут. Как правило, такие ссылки появляются после изменения адреса URL-страницы и являются просто ошибкой веб-мастера. Кстати, это касается не только внутренних ссылок, но и внешних. Сделать анализ сайта и избавиться от «битых» ссылок вам поможет одна очень хорошая программка под названием Xenu. О ней, более подробно читайте в следующей моей статье.

]]>
admin@webadvisor.ru (Roman) Внутренняя оптимизация Sun, 09 Sep 2012 09:29:20 +0000
Как найти скрытые и битые ссылки /kak-nayti-skrytye-i-bitye-ssylki.html /kak-nayti-skrytye-i-bitye-ssylki.html

Начинающие вебмастера, на первых этапах работы с сайтом, могут столкнуться с очень неприятной проблемой – скрытыми ссылками на сайте.  Хотя, нужно отметить, что с такой проблемой сталкиваются не только начинающие вебмастера…

Каким образом скрытые ссылки попадают на сайт

Сайт, построенный на CMS Joomla, является своеобразным конструктором, состоящим из многочисленных модулей (шаблона, модулей, плагинов). За что мы любим Joomla? За то, что можно увеличивать функциональные возможности сайта за счёт таких расширений, и при этом, совершенно бесплатно. Но вот здесь то нас и подстерегает опасность. Скрытые ссылки попадают на сайт вместе с расширениями, которые мы устанавливаем. В основном, скрытые ссылки прячут в шаблонах, но  могут прятать и в модулях и плагинах. Скрытые ссылки опасны тем, что могут уничтожить на корню все результаты вашего нелёгкого труда.

 

Куда ведут скрытые ссылки

Я не преувеличиваю опасность скрытых ссылок. Скрытые ссылки часто устанавливают для того, чтобы нарастить ссылочную массу на свои сайты, для продвижения сайтов в поисковой выдаче или для увеличения показателей своих сайтов для работы на бирже ссылок и т.д. Но это ещё полбеды. Скрытые ссылки с вашего сайта могут вести на сайты, нарушающие закон, на порносайты и т.д. Здесь уже ждите бана от поисковиков. И если вы вовремя не очистите сайт от «паразитов», у вас возникнут большие проблемы.

 

Как найти скрытые и битые ссылки

Прежде чем остановиться на теме поиска скрытых ссылок, мне бы хотелось упомянуть о «битых» ссылках. Битые ссылки – это ссылки, которые не ведут никуда. Это могут быть и внутренние, и внешние ссылки. Как правило, такие ссылки появляются в результате изменений адреса страниц или переноса материала в другое место. То есть, это просто ошибка вебмастера. Такие ошибки обязательно нужно вовремя исправлять. Битые ссылки вредны не только для оптимизации сайта, но, что важнее, могут очень разочаровать посетителей вашего проекта.Так как мы будем отыскивать на сайте скрытые ссылки, заодно будем проверять наш сайт и на наличие битых ссылок.

Обнаружение скрытых ссылок не такая уж простая задача. Для того, чтобы спрятать ссылки, их кодируют, используют в стилях цвет шрифта близкий к цвету фона, в общем, прибегают к разным уловкам. Многие вебмастера даже не подозревают, что на их сайтах паразитируют «чужие». Однако, даже после того, как вы избавитесь от «паразитов», не расслабляйтесь. Время от времени проверяйте URL-адреса своих сайтов. Для поиска скрытых и битых ссылок можно воспользоваться рядом программ (XENU), дополнений к браузеру (WebDeveloper) и онлайн-сервисов. Читайте далее как найти скрытые ссылки.

]]>
admin@webadvisor.ru (Roman) Внутренняя оптимизация Fri, 05 Oct 2012 07:04:49 +0000