Внутренняя оптимизацияВнутренняя оптимизация сайта – это внесения изменений в структуру сайта, целью которых является соответствие стандартам, по которым поисковые роботы оценивают качество сайта.
Joomla! - Open Source Content Management
Как найти скрытые и битые ссылки 2012-10-05T07:04:49+00:002012-10-05T07:04:49+00:00/kak-nayti-skrytye-i-bitye-ssylki.htmlSuper Userwebadvisor@bk.ru<div class="feed-description"><p>Начинающие вебмастера, на первых этапах работы с сайтом, могут столкнуться с очень неприятной проблемой – скрытыми ссылками на сайте. Хотя, нужно отметить, что с такой проблемой сталкиваются не только начинающие вебмастера…</p>
<p><span style="color: #666699;"><strong>Каким образом скрытые ссылки попадают на сайт</strong></span></p>
<p>Сайт, построенный на CMS Joomla, является своеобразным конструктором, состоящим из многочисленных модулей (шаблона, модулей, плагинов). За что мы любим Joomla? За то, что можно увеличивать функциональные возможности сайта за счёт таких расширений, и при этом, совершенно бесплатно. Но вот здесь то нас и подстерегает опасность. Скрытые ссылки попадают на сайт вместе с расширениями, которые мы устанавливаем. В основном, скрытые ссылки прячут в шаблонах, но могут прятать и в модулях и плагинах. Скрытые ссылки опасны тем, что могут уничтожить на корню все результаты вашего нелёгкого труда.</p>
<p> </p>
<p><span style="color: #666699;"><strong>Куда ведут скрытые ссылки</strong></span></p>
<p>Я не преувеличиваю опасность скрытых ссылок. Скрытые ссылки часто устанавливают для того, чтобы нарастить ссылочную массу на свои сайты, для продвижения сайтов в поисковой выдаче или для увеличения показателей своих сайтов для работы на бирже ссылок и т.д. Но это ещё полбеды. Скрытые ссылки с вашего сайта могут вести на сайты, нарушающие закон, на порносайты и т.д. Здесь уже ждите бана от поисковиков. И если вы вовремя не очистите сайт от «паразитов», у вас возникнут большие проблемы.</p>
<p> </p>
<p><span style="color: #666699;"><strong>Как найти скрытые и битые ссылки</strong></span></p>
<p>Прежде чем остановиться на теме поиска скрытых ссылок, мне бы хотелось упомянуть о «битых» ссылках. Битые ссылки – это ссылки, которые не ведут никуда. Это могут быть и внутренние, и внешние ссылки. Как правило, такие ссылки появляются в результате изменений адреса страниц или переноса материала в другое место. То есть, это просто ошибка вебмастера. Такие ошибки обязательно нужно вовремя исправлять. Битые ссылки вредны не только для оптимизации сайта, но, что важнее, могут очень разочаровать посетителей вашего проекта. Так как мы будем отыскивать на сайте скрытые ссылки, заодно будем проверять наш сайт и на наличие битых ссылок. Обнаружение скрытых ссылок не такая уж простая задача. Для того, чтобы спрятать ссылки, их кодируют, используют в стилях цвет шрифта близкий к цвету фона, в общем, прибегают к разным уловкам. Многие вебмастера даже не подозревают, что на их сайтах паразитируют «чужие». Однако, даже после того, как вы избавитесь от «паразитов», не расслабляйтесь. Время от времени проверяйте URL-адреса своих сайтов. Для поиска скрытых и битых ссылок можно воспользоваться рядом программ (<a href="xenu-nakhodim-bitye-ssylki.html" target="_blank" title="Xenu - находим битые ссылки ">XENU</a>), дополнений к браузеру (<a href="webdeveloper-vebrazrabotchik.html" target="_blank" title="WebDeveloper - вебразработчик ">WebDeveloper</a>) и онлайн-сервисов.</p></div><div class="feed-description"><p>Начинающие вебмастера, на первых этапах работы с сайтом, могут столкнуться с очень неприятной проблемой – скрытыми ссылками на сайте. Хотя, нужно отметить, что с такой проблемой сталкиваются не только начинающие вебмастера…</p>
<p><span style="color: #666699;"><strong>Каким образом скрытые ссылки попадают на сайт</strong></span></p>
<p>Сайт, построенный на CMS Joomla, является своеобразным конструктором, состоящим из многочисленных модулей (шаблона, модулей, плагинов). За что мы любим Joomla? За то, что можно увеличивать функциональные возможности сайта за счёт таких расширений, и при этом, совершенно бесплатно. Но вот здесь то нас и подстерегает опасность. Скрытые ссылки попадают на сайт вместе с расширениями, которые мы устанавливаем. В основном, скрытые ссылки прячут в шаблонах, но могут прятать и в модулях и плагинах. Скрытые ссылки опасны тем, что могут уничтожить на корню все результаты вашего нелёгкого труда.</p>
<p> </p>
<p><span style="color: #666699;"><strong>Куда ведут скрытые ссылки</strong></span></p>
<p>Я не преувеличиваю опасность скрытых ссылок. Скрытые ссылки часто устанавливают для того, чтобы нарастить ссылочную массу на свои сайты, для продвижения сайтов в поисковой выдаче или для увеличения показателей своих сайтов для работы на бирже ссылок и т.д. Но это ещё полбеды. Скрытые ссылки с вашего сайта могут вести на сайты, нарушающие закон, на порносайты и т.д. Здесь уже ждите бана от поисковиков. И если вы вовремя не очистите сайт от «паразитов», у вас возникнут большие проблемы.</p>
<p> </p>
<p><span style="color: #666699;"><strong>Как найти скрытые и битые ссылки</strong></span></p>
<p>Прежде чем остановиться на теме поиска скрытых ссылок, мне бы хотелось упомянуть о «битых» ссылках. Битые ссылки – это ссылки, которые не ведут никуда. Это могут быть и внутренние, и внешние ссылки. Как правило, такие ссылки появляются в результате изменений адреса страниц или переноса материала в другое место. То есть, это просто ошибка вебмастера. Такие ошибки обязательно нужно вовремя исправлять. Битые ссылки вредны не только для оптимизации сайта, но, что важнее, могут очень разочаровать посетителей вашего проекта. Так как мы будем отыскивать на сайте скрытые ссылки, заодно будем проверять наш сайт и на наличие битых ссылок. Обнаружение скрытых ссылок не такая уж простая задача. Для того, чтобы спрятать ссылки, их кодируют, используют в стилях цвет шрифта близкий к цвету фона, в общем, прибегают к разным уловкам. Многие вебмастера даже не подозревают, что на их сайтах паразитируют «чужие». Однако, даже после того, как вы избавитесь от «паразитов», не расслабляйтесь. Время от времени проверяйте URL-адреса своих сайтов. Для поиска скрытых и битых ссылок можно воспользоваться рядом программ (<a href="xenu-nakhodim-bitye-ssylki.html" target="_blank" title="Xenu - находим битые ссылки ">XENU</a>), дополнений к браузеру (<a href="webdeveloper-vebrazrabotchik.html" target="_blank" title="WebDeveloper - вебразработчик ">WebDeveloper</a>) и онлайн-сервисов.</p></div>Внутренние ссылки сайта2012-09-09T09:29:20+00:002012-09-09T09:29:20+00:00/vnutrennie-ssylki-sayta.htmlSuper Userwebadvisor@bk.ru<div class="feed-description"><p>В этой статье речь пойдёт о значении внутренних ссылок для сайта и правильной перелинковке сайта. Создавая структуру сайта, веб-мастер должен обязательно учитывать два основных момента: навигация по сайту должна быть интуитивно понятна посетителям сайта; внутренние ссылки должны легко сканироваться поисковыми роботами.</p>
<p> </p>
<p><span style="color: #666699;"><strong>Уровень вложенности страниц (УВ)</strong></span></p>
<p>Для начала, давайте рассмотрим такое понятие, как уровень вложенности страниц. Уровень вложенности страницы сайта (УВ) – это количество кликов, которое нужно сделать, чтобы попасть на нужную страницу с Главной страницы сайта. Это значит, что посетитель сайта, попавший на Главную страницу, должен иметь возможность найти любой материал, сделав не более 3 – 4 кликов.</p>
<p>К уровню вложенности предъявляются определённые требования. Рекомендуется создавать не более 3-ёх уровней вложенности (максимум – 4 уровня). Это требование особенно нужно соблюдать тем веб-мастерам, которые планируют продавать ссылки со своего сайта на биржах ссылок, таких как <a href="birzha-ssylok-sape.html" target="_blank" title="Как заработать на бирже Sape">Sape</a>, Linkfeed и др. Оптимизаторы, покупающие ссылки, предпочитают покупать ссылки на страницах, не более 3 (по моему опыту, предпочтительней УВ - 2) уровней вложенности.</p>
<p>На Главной странице сайта обязательно должны находиться ссылки, ведущие на важные страницы сайта. Это нужно, не только для удобства посетителям, но и для облегчения работы сканерам по поиску и индексации страниц.</p>
<p> </p>
<p><span style="color: #666699;"><strong>Что такое «хлебные крошки»</strong></span></p>
<p>Представьте себе, что посетитель, в поиске нужной информации попал на одну из внутренних страниц сайта. Сможет ли он перейти с неё на Главную страницу или на страницу с нужной информацией? Чтобы посетитель не оказался в тупике, существует элемент навигации, который поможет посетителю ориентироваться на сайте. Это так называемые «хлебные крошки».</p>
<p>Хлебные крошки (англ.Breadcrumbs) – ироничное название, дано по аналогии со сказкой о детях, которые не смогли найти выход из леса, так как по пути в лес, вместо камешков бросали крошки от хлеба, которые впоследствии склевали птицы.</p>
<p>Этот элемент навигации обычно находится в верхней части страницы и представляет собой гиперссылки, указывающие путь от Главной страницы сайта до страницы сайта, где находится посетитель.</p>
<p>Схема примерно такая: Главная страница – Раздел – Подраздел – Текущая страница (не является гиперссылкой)</p>
<p>Такой вид навигации удобен для посетителей, которые, кликнув по одному из элементов навигации, могут попасть в нужный раздел или на Главную страницу сайта. К тому же, этот элемент навигации важен для поисковой системы Google и неоднократно упоминается ею, как рекомендуемый.</p>
<p> </p>
<p><span style="color: #666699;"><strong>Анкоры ссылок и перелинковка</strong></span></p>
<p>О таком понятии, как анкор, можно встретить довольно много обсуждений в Интернете. Анкор, по своей сути - текст ссылки. Однако, ссылки на сайте, обязательно учитываются поисковыми роботами и заносятся в отдельный анкор-лист, который участвует в ранжировании сайта. Поэтому, при создании анкора, вы должны это учитывать.</p>
<p>Выглядит ссылка так: <a href="www.webadvisor.ru"> текст ссылки</ a></p>
<p>Слово или словосочетание, которое вы вставите вместо «текст ссылки» будет являться анкором, но не всегда. Поисковые системы не расценивают как анкор URL-адреса и выражения типа - «читайте здесь», «тут» и т.п.</p>
<p>Таким образом, создавайте читаемые анкоры, т.е анкоры должны нести информацию. Используйте для создания анкоров ключевые слова.</p>
<p>Для правильной перелинковки используйте на сайте ссылку-якорь. Например, если вы в одной статье создаёте несколько ссылок на другую статью и хотите, чтобы все анкоры были учтены поисковиками, создайте несколько ссылок с разными анкорами и якорями, на соответствующей странице. О том, как создать якорь можно почитать в статье <a href="ssylka-yakor.html" target="_blank" title="Ссылка-якорь">Ссылка-якорь</a>.</p>
<p>При перелинковке, не забывайте, что каждая страница через ссылки передает часть своего веса другим страницам. Чем больше ссылок ведет на другие страницы, тем меньше вес каждой ссылки. На PR сайта это не влияет, но на PR страницы - отражается. Так что, предпочтительней передавать вес на важные страницы сайта.</p>
<p>Избавляйтесь от «битые» ссылок. Что такое «битые» ссылки? Это ссылки, которые никуда не ведут. Как правило, такие ссылки появляются после изменения адреса URL-страницы и являются просто ошибкой веб-мастера. Кстати, это касается не только внутренних ссылок, но и внешних. Сделать анализ сайта и избавиться от «битых» ссылок вам поможет одна очень хорошая программка под названием <a href="xenu-nakhodim-bitye-ssylki.html" target="_blank" title="Xenu - находим битые ссылки ">Xenu</a>. О ней, более подробно читайте в следующей моей статье.</p></div><div class="feed-description"><p>В этой статье речь пойдёт о значении внутренних ссылок для сайта и правильной перелинковке сайта. Создавая структуру сайта, веб-мастер должен обязательно учитывать два основных момента: навигация по сайту должна быть интуитивно понятна посетителям сайта; внутренние ссылки должны легко сканироваться поисковыми роботами.</p>
<p> </p>
<p><span style="color: #666699;"><strong>Уровень вложенности страниц (УВ)</strong></span></p>
<p>Для начала, давайте рассмотрим такое понятие, как уровень вложенности страниц. Уровень вложенности страницы сайта (УВ) – это количество кликов, которое нужно сделать, чтобы попасть на нужную страницу с Главной страницы сайта. Это значит, что посетитель сайта, попавший на Главную страницу, должен иметь возможность найти любой материал, сделав не более 3 – 4 кликов.</p>
<p>К уровню вложенности предъявляются определённые требования. Рекомендуется создавать не более 3-ёх уровней вложенности (максимум – 4 уровня). Это требование особенно нужно соблюдать тем веб-мастерам, которые планируют продавать ссылки со своего сайта на биржах ссылок, таких как <a href="birzha-ssylok-sape.html" target="_blank" title="Как заработать на бирже Sape">Sape</a>, Linkfeed и др. Оптимизаторы, покупающие ссылки, предпочитают покупать ссылки на страницах, не более 3 (по моему опыту, предпочтительней УВ - 2) уровней вложенности.</p>
<p>На Главной странице сайта обязательно должны находиться ссылки, ведущие на важные страницы сайта. Это нужно, не только для удобства посетителям, но и для облегчения работы сканерам по поиску и индексации страниц.</p>
<p> </p>
<p><span style="color: #666699;"><strong>Что такое «хлебные крошки»</strong></span></p>
<p>Представьте себе, что посетитель, в поиске нужной информации попал на одну из внутренних страниц сайта. Сможет ли он перейти с неё на Главную страницу или на страницу с нужной информацией? Чтобы посетитель не оказался в тупике, существует элемент навигации, который поможет посетителю ориентироваться на сайте. Это так называемые «хлебные крошки».</p>
<p>Хлебные крошки (англ.Breadcrumbs) – ироничное название, дано по аналогии со сказкой о детях, которые не смогли найти выход из леса, так как по пути в лес, вместо камешков бросали крошки от хлеба, которые впоследствии склевали птицы.</p>
<p>Этот элемент навигации обычно находится в верхней части страницы и представляет собой гиперссылки, указывающие путь от Главной страницы сайта до страницы сайта, где находится посетитель.</p>
<p>Схема примерно такая: Главная страница – Раздел – Подраздел – Текущая страница (не является гиперссылкой)</p>
<p>Такой вид навигации удобен для посетителей, которые, кликнув по одному из элементов навигации, могут попасть в нужный раздел или на Главную страницу сайта. К тому же, этот элемент навигации важен для поисковой системы Google и неоднократно упоминается ею, как рекомендуемый.</p>
<p> </p>
<p><span style="color: #666699;"><strong>Анкоры ссылок и перелинковка</strong></span></p>
<p>О таком понятии, как анкор, можно встретить довольно много обсуждений в Интернете. Анкор, по своей сути - текст ссылки. Однако, ссылки на сайте, обязательно учитываются поисковыми роботами и заносятся в отдельный анкор-лист, который участвует в ранжировании сайта. Поэтому, при создании анкора, вы должны это учитывать.</p>
<p>Выглядит ссылка так: <a href="www.webadvisor.ru"> текст ссылки</ a></p>
<p>Слово или словосочетание, которое вы вставите вместо «текст ссылки» будет являться анкором, но не всегда. Поисковые системы не расценивают как анкор URL-адреса и выражения типа - «читайте здесь», «тут» и т.п.</p>
<p>Таким образом, создавайте читаемые анкоры, т.е анкоры должны нести информацию. Используйте для создания анкоров ключевые слова.</p>
<p>Для правильной перелинковки используйте на сайте ссылку-якорь. Например, если вы в одной статье создаёте несколько ссылок на другую статью и хотите, чтобы все анкоры были учтены поисковиками, создайте несколько ссылок с разными анкорами и якорями, на соответствующей странице. О том, как создать якорь можно почитать в статье <a href="ssylka-yakor.html" target="_blank" title="Ссылка-якорь">Ссылка-якорь</a>.</p>
<p>При перелинковке, не забывайте, что каждая страница через ссылки передает часть своего веса другим страницам. Чем больше ссылок ведет на другие страницы, тем меньше вес каждой ссылки. На PR сайта это не влияет, но на PR страницы - отражается. Так что, предпочтительней передавать вес на важные страницы сайта.</p>
<p>Избавляйтесь от «битые» ссылок. Что такое «битые» ссылки? Это ссылки, которые никуда не ведут. Как правило, такие ссылки появляются после изменения адреса URL-страницы и являются просто ошибкой веб-мастера. Кстати, это касается не только внутренних ссылок, но и внешних. Сделать анализ сайта и избавиться от «битых» ссылок вам поможет одна очень хорошая программка под названием <a href="xenu-nakhodim-bitye-ssylki.html" target="_blank" title="Xenu - находим битые ссылки ">Xenu</a>. О ней, более подробно читайте в следующей моей статье.</p></div>Robots.txt2012-09-09T09:18:06+00:002012-09-09T09:18:06+00:00/robots-txt.htmlSuper Userwebadvisor@bk.ru<div class="feed-description"><p>После того, как вы перенесли сайт на хостинг и открыли к нему доступ, на ваш сайт начнут заходить поисковые роботы. Цель поисковых роботов – занесение информации о страницах сайта в базу данных поисковика. В первую очередь поисковые роботы ищут на сайте файл robots.txt.</p>
<p><img src="images/raskrutka/robots.jpg" border="0" style="float: right; margin: 10px;" />Файл robots.txt служит для запрета от индексирования страниц, не предназначенных для пользователей. Таким образом, от индексирования можно закрыть технические и не представляющие ценности ни для пользователя, ни для поисковых систем страницы (дубликаты страниц, статистика посещаемости, поиск по сайту и др.). Для поисковых роботов файл robots.txt является инструкцией, в которой указаны параметры индексирования сайта. Поэтому, в первую очередь веб-мастеру нужно создать эту инструкцию для поисковых роботов.</p>
<p> </p>
<p><span style="color: #666699;"><strong>Как создать robots.txt</strong></span></p>
<p>Создать файл для поисковых роботов не сложно. Создайте в любом текстовом редакторе файл с названием «robots.txt», заполните его в соответствии с правилами и разместите в корневой папке сайта.</p>
<p>Для создания файл robots.txt в соответствии с правилами используются директивы и спецсимволы.</p>
<p>Чтобы вам было легче понять, что из себя представляет файл robots.txt, вначале хочу показать, как он выглядит. Так составлен файл robots.txt на данном сайте webadvisor.ru. Ниже описаны основные директивы, используемые для создания файла robots.txt. Хочу отметить, что в данном файле прописаны две инструкции: вверху - для всех поисковых роботов и ниже - для поискового робота Яндекс.</p>
<pre>User-agent: *
Allow: /index.php?option=com_xmap&sitemap=1&view=xml
Disallow: /administrator/
Disallow: /cache/
Disallow: /index.php?
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /libraries/
Disallow: /media/
Disallow: /modules/
Disallow: /plugins/
Disallow: /templates/
Disallow: /images/
Disallow: /tmp/
Disallow: /xmlrpc/
Disallow: /search/
Disallow: /*.pdf
Disallow: /*print=1
Disallow: /*type=atom
Sitemap: /index.php?option=com_xmap&sitemap=1&view=xml
Sitemap: /index.php?option=com_xmap&sitemap=1&view=xml&no_html=1
Sitemap: /index.php?option=com_xmap&sitemap=1&view=xml
Disallow: /administrator/
Disallow: /cache/
Disallow: /index.php?
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /libraries/
Disallow: /media/
Disallow: /modules/
Disallow: /plugins/
Disallow: /templates/
Disallow: /images/
Disallow: /tmp/
Disallow: /xmlrpc/
Disallow: /search/
Disallow: /*.pdf
Disallow: /*print=1
Disallow: /*type=atom
Host: www.webadvisor.ru
Sitemap: /index.php?option=com_xmap&sitemap=1&view=xml
Sitemap: /index.php?option=com_xmap&sitemap=1&view=xml&no_html=1
Sitemap: /pre>
<p> </p>
<p><strong>Директива User-agent</strong></p>
<p>В файле robots.txt вы можете указать параметры индексирования своего сайта как для всех роботов сразу, так и для каждого поисковика отдельно. Это можно сделать с помощью директивы User-agent. По правилам перед каждой директивой User-agent рекомендуется вставлять пустой перевод строки.</p>
<p>Например:</p>
<p>User-agent: * # для всех поисковиков</p>
<p>User-agent: Yandex # для робота Яндекса</p>
<p> </p>
<p><strong>Директивы Disallow и Allow</strong></p>
<p>Директива Disallow используется для запрета к некоторым частям сайта. По правилам не допускается наличие пустых переводов между директивами User-agent и Disallow (Allow). Отсутствие у директив параметров трактуется таким образом: Disallow – то же, что и / Allow; Allow – то же, что / Disallow</p>
<p>Например:</p>
<p>User-agent: Yandex</p>
<p>Disallow: / # блокирует доступ ко всему сайту</p>
<p> </p>
<p><strong>Директива Sitemap</strong></p>
<p>Вы можете указать путь к sitemaps.xml</p>
<p>Пример. Sitemap: /index.php?option=com_xmap&sitemap=1&view=xml&no_html=1</p>
<p> </p>
<p><strong>Директива Host</strong></p>
<p>Вы можете указать главное зеркало сайта (сайт с www или без).</p>
<p>Директива должна располагаться сразу после директив Disallow (Allow) и должна состоять из одного корректного имени хоста.</p>
<p>Пример. Host: www.webadvisor.ru</p>
<p> </p>
<p>При написании robots.txt помните, что файл не должен превышать 32 Кб. Слишком большой robots.txt воспринимается поисковым роботом, как полностью разрешающий и рассматривается им аналогично следующей записи:</p>
<p>User-agent: Yandex</p>
<p>Disallow:</p>
<p> </p>
<p>После создания файла рекомендую проверить, правильно ли вы его составили. Проверить правильность файла robots.txt вы можете в панели веб-мастера или специальным on-line анализатором: http://webmaster.yandex.ru/robots.xml</p></div><div class="feed-description"><p>После того, как вы перенесли сайт на хостинг и открыли к нему доступ, на ваш сайт начнут заходить поисковые роботы. Цель поисковых роботов – занесение информации о страницах сайта в базу данных поисковика. В первую очередь поисковые роботы ищут на сайте файл robots.txt.</p>
<p><img src="images/raskrutka/robots.jpg" border="0" style="float: right; margin: 10px;" />Файл robots.txt служит для запрета от индексирования страниц, не предназначенных для пользователей. Таким образом, от индексирования можно закрыть технические и не представляющие ценности ни для пользователя, ни для поисковых систем страницы (дубликаты страниц, статистика посещаемости, поиск по сайту и др.). Для поисковых роботов файл robots.txt является инструкцией, в которой указаны параметры индексирования сайта. Поэтому, в первую очередь веб-мастеру нужно создать эту инструкцию для поисковых роботов.</p>
<p> </p>
<p><span style="color: #666699;"><strong>Как создать robots.txt</strong></span></p>
<p>Создать файл для поисковых роботов не сложно. Создайте в любом текстовом редакторе файл с названием «robots.txt», заполните его в соответствии с правилами и разместите в корневой папке сайта.</p>
<p>Для создания файл robots.txt в соответствии с правилами используются директивы и спецсимволы.</p>
<p>Чтобы вам было легче понять, что из себя представляет файл robots.txt, вначале хочу показать, как он выглядит. Так составлен файл robots.txt на данном сайте webadvisor.ru. Ниже описаны основные директивы, используемые для создания файла robots.txt. Хочу отметить, что в данном файле прописаны две инструкции: вверху - для всех поисковых роботов и ниже - для поискового робота Яндекс.</p>
<pre>User-agent: *
Allow: /index.php?option=com_xmap&sitemap=1&view=xml
Disallow: /administrator/
Disallow: /cache/
Disallow: /index.php?
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /libraries/
Disallow: /media/
Disallow: /modules/
Disallow: /plugins/
Disallow: /templates/
Disallow: /images/
Disallow: /tmp/
Disallow: /xmlrpc/
Disallow: /search/
Disallow: /*.pdf
Disallow: /*print=1
Disallow: /*type=atom
Sitemap: /index.php?option=com_xmap&sitemap=1&view=xml
Sitemap: /index.php?option=com_xmap&sitemap=1&view=xml&no_html=1
Sitemap: /index.php?option=com_xmap&sitemap=1&view=xml
Disallow: /administrator/
Disallow: /cache/
Disallow: /index.php?
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /libraries/
Disallow: /media/
Disallow: /modules/
Disallow: /plugins/
Disallow: /templates/
Disallow: /images/
Disallow: /tmp/
Disallow: /xmlrpc/
Disallow: /search/
Disallow: /*.pdf
Disallow: /*print=1
Disallow: /*type=atom
Host: www.webadvisor.ru
Sitemap: /index.php?option=com_xmap&sitemap=1&view=xml
Sitemap: /index.php?option=com_xmap&sitemap=1&view=xml&no_html=1
Sitemap: /pre>
<p> </p>
<p><strong>Директива User-agent</strong></p>
<p>В файле robots.txt вы можете указать параметры индексирования своего сайта как для всех роботов сразу, так и для каждого поисковика отдельно. Это можно сделать с помощью директивы User-agent. По правилам перед каждой директивой User-agent рекомендуется вставлять пустой перевод строки.</p>
<p>Например:</p>
<p>User-agent: * # для всех поисковиков</p>
<p>User-agent: Yandex # для робота Яндекса</p>
<p> </p>
<p><strong>Директивы Disallow и Allow</strong></p>
<p>Директива Disallow используется для запрета к некоторым частям сайта. По правилам не допускается наличие пустых переводов между директивами User-agent и Disallow (Allow). Отсутствие у директив параметров трактуется таким образом: Disallow – то же, что и / Allow; Allow – то же, что / Disallow</p>
<p>Например:</p>
<p>User-agent: Yandex</p>
<p>Disallow: / # блокирует доступ ко всему сайту</p>
<p> </p>
<p><strong>Директива Sitemap</strong></p>
<p>Вы можете указать путь к sitemaps.xml</p>
<p>Пример. Sitemap: /index.php?option=com_xmap&sitemap=1&view=xml&no_html=1</p>
<p> </p>
<p><strong>Директива Host</strong></p>
<p>Вы можете указать главное зеркало сайта (сайт с www или без).</p>
<p>Директива должна располагаться сразу после директив Disallow (Allow) и должна состоять из одного корректного имени хоста.</p>
<p>Пример. Host: www.webadvisor.ru</p>
<p> </p>
<p>При написании robots.txt помните, что файл не должен превышать 32 Кб. Слишком большой robots.txt воспринимается поисковым роботом, как полностью разрешающий и рассматривается им аналогично следующей записи:</p>
<p>User-agent: Yandex</p>
<p>Disallow:</p>
<p> </p>
<p>После создания файла рекомендую проверить, правильно ли вы его составили. Проверить правильность файла robots.txt вы можете в панели веб-мастера или специальным on-line анализатором: http://webmaster.yandex.ru/robots.xml</p></div>Sitemap2012-09-09T09:07:10+00:002012-09-09T09:07:10+00:00/sitemap.htmlSuper Userwebadvisor@bk.ru<div class="feed-description"><p>Каждый веб-мастер, создавая сайт, рассчитывает на высокую посещаемость своего ресурса. Высокие показатели посещаемости страниц сайта говорят не только о качестве веб-ресурса, но и о качественной оптимизации. Вы создали сайт, теперь вам нужно позаботиться о том, чтобы страницы сайта были проиндексированы. И не все страницы, а только те, которые несут полезную информацию. Все технические страницы сайта должны быть закрыты от индексации. Для этих целей у вас существует такой инструмент, как файл robots . Что же такое индексация и для чего она нужна?</p>
<p>Индексирование – процесс добавления сведений о сайте поисковым роботом в базу данных поисковой системы. Эти сведения впоследствии используются для поиска информации на проиндексированном сайте. Если сайта нет в индексе, естественно, он не отражается в результатах поиска. Чтобы помочь поисковым роботам получить сведения о страницах сайта, нужно создать файл Sitemap.</p>
<p>Sitemap – HML-файл, предназначен для поисковиков, с информацией о местонахождении, обновлении страниц сайта, а также о важности страниц относительно других страниц сайта.</p>
<p> </p>
<p><span style="color: #666699;"><strong>Какие требования предъявляются к файлу Sitemap и где он должен быть расположен?</strong></span></p>
<ul>
<li>В файле Sitemap должно быть не более 50000 URL, размер каждого из этих файлов не должен превышать 10 МБ</li>
<li>Если у вас более 50000 URL, следует создать несколько файлов Sitemap и перечислить каждый из этих файлов в файле индекса (Sitemap index)</li>
<li>В файле Sitemap должна использоваться кодировка UTF-8</li>
<li>Рекомендуется располагать файл Sitemap в корневой директории сервера, чтобы ссылка выглядела примерно так: http://ваш сайт/sitemap.xml</li>
</ul>
<p>После того, как файл Sitemap создан и размещен на веб-сервере, необходимо сообщить о местонахождении Sitemap поисковым системам, поддерживающим этот протокол. Это можно сделать, указав местоположение файла Sitemap в файле robots.txt. Добавьте в файле robots.txt следующую строчку:</p>
<p>Sitemap: http://ваш сайт</p>
<p>Эта информация вам нужна для того, чтобы иметь представление о файле Sitemap. Файл Sitemap вы можете создать с помощью Онлайн Sitemap Генератора. Для создания файла Sitemap пройдите по этому адресу: www.xml-sitemaps.com, введите имя вашего сайта и нажмите на кнопку «Start».</p>
<p>На рис. вы видите пример создания sitemap.xml для www.webadvisor.ru</p>
<p><img src="images/raskrutka/raskrutka_17.jpg" border="0" align="left" /></p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p>После сканирования и создания файла Sitemap, вам будет предложено скачать файл</p>
<p><img src="images/raskrutka/raskrutka_18.jpg" border="0" align="left" /></p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p>Хотелось бы отметить, что Онлайн Sitemap Генератор, при создании файла Sitemap, учитывает директивы файла robots.txt. Прежде чем поместить файл Sitemap в корневую папку сайта, обязательно просмотрите его. Если вы обнаружите в файле сведения о страницах с технической информацией, значит эти страницы открыты для индексирования. В таком случае, закройте технические страницы от индексирования с помощью файла robots.txt и создайте новый файл Sitemap.</p></div><div class="feed-description"><p>Каждый веб-мастер, создавая сайт, рассчитывает на высокую посещаемость своего ресурса. Высокие показатели посещаемости страниц сайта говорят не только о качестве веб-ресурса, но и о качественной оптимизации. Вы создали сайт, теперь вам нужно позаботиться о том, чтобы страницы сайта были проиндексированы. И не все страницы, а только те, которые несут полезную информацию. Все технические страницы сайта должны быть закрыты от индексации. Для этих целей у вас существует такой инструмент, как файл robots . Что же такое индексация и для чего она нужна?</p>
<p>Индексирование – процесс добавления сведений о сайте поисковым роботом в базу данных поисковой системы. Эти сведения впоследствии используются для поиска информации на проиндексированном сайте. Если сайта нет в индексе, естественно, он не отражается в результатах поиска. Чтобы помочь поисковым роботам получить сведения о страницах сайта, нужно создать файл Sitemap.</p>
<p>Sitemap – HML-файл, предназначен для поисковиков, с информацией о местонахождении, обновлении страниц сайта, а также о важности страниц относительно других страниц сайта.</p>
<p> </p>
<p><span style="color: #666699;"><strong>Какие требования предъявляются к файлу Sitemap и где он должен быть расположен?</strong></span></p>
<ul>
<li>В файле Sitemap должно быть не более 50000 URL, размер каждого из этих файлов не должен превышать 10 МБ</li>
<li>Если у вас более 50000 URL, следует создать несколько файлов Sitemap и перечислить каждый из этих файлов в файле индекса (Sitemap index)</li>
<li>В файле Sitemap должна использоваться кодировка UTF-8</li>
<li>Рекомендуется располагать файл Sitemap в корневой директории сервера, чтобы ссылка выглядела примерно так: http://ваш сайт/sitemap.xml</li>
</ul>
<p>После того, как файл Sitemap создан и размещен на веб-сервере, необходимо сообщить о местонахождении Sitemap поисковым системам, поддерживающим этот протокол. Это можно сделать, указав местоположение файла Sitemap в файле robots.txt. Добавьте в файле robots.txt следующую строчку:</p>
<p>Sitemap: http://ваш сайт</p>
<p>Эта информация вам нужна для того, чтобы иметь представление о файле Sitemap. Файл Sitemap вы можете создать с помощью Онлайн Sitemap Генератора. Для создания файла Sitemap пройдите по этому адресу: www.xml-sitemaps.com, введите имя вашего сайта и нажмите на кнопку «Start».</p>
<p>На рис. вы видите пример создания sitemap.xml для www.webadvisor.ru</p>
<p><img src="images/raskrutka/raskrutka_17.jpg" border="0" align="left" /></p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p>После сканирования и создания файла Sitemap, вам будет предложено скачать файл</p>
<p><img src="images/raskrutka/raskrutka_18.jpg" border="0" align="left" /></p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p>Хотелось бы отметить, что Онлайн Sitemap Генератор, при создании файла Sitemap, учитывает директивы файла robots.txt. Прежде чем поместить файл Sitemap в корневую папку сайта, обязательно просмотрите его. Если вы обнаружите в файле сведения о страницах с технической информацией, значит эти страницы открыты для индексирования. В таком случае, закройте технические страницы от индексирования с помощью файла robots.txt и создайте новый файл Sitemap.</p></div>Сайт глазами робота2012-09-09T09:01:51+00:002012-09-09T09:01:51+00:00/sayt-glazami-robota.htmlSuper Userwebadvisor@bk.ru<div class="feed-description"><p>В предыдущей статье мы рассматривали такое понятие как «валидность». Как вы помните, валидность - это соответствие стандартам. Таким образом, стандартизированный язык разметки для веб-страниц (HTML), с единым базовым набором тегов и атрибутов, «читается» различными браузерами и отображается в виде документа, удобного для просмотра пользователями.</p>
<p><span style="color: #666699;"><strong>Что происходит, если HTML код страницы содержит ошибки (не соответствует стандарту)? Отображает ли браузер невалидный код?</strong></span></p>
<p>Создатели веб-обозревателей позаботились о том, чтобы их браузеры умели интерпретировать и некорректные html-коды. Иначе даже единственный, пропущенный по невнимательности веб-мастера тег, не позволил бы пользователю, просматривать страницу и выводил бы сообщение об ошибке. Однако, каждый браузер, интерпретирует ошибочный код по своим правилам. Потому есть вероятность того, что одна и та же невалидная страница будет выглядеть в различных браузерах по-разному. Поэтому старайтесь избегать ошибок в html-коде.</p>
<p><span style="color: #666699;"><strong>А теперь рассмотрим принципы работы поисковых роботов. Как они реагируют на ошибки в html-коде.</strong></span></p>
<p>По принципу действия поисковый робот напоминает обычный браузер. Однако цели у него несколько иные. Если главной целью браузера является предоставление интерфейса между веб-сайтом и его посетителем, то цель поискового робота - анализ каждого документа с помощью специального алгоритма, для занесения информации о нём в базу данных поисковика. Споткнувшись об ошибку, робот прекращает обрабатывать документ. Речь здесь конечно идёт о более серьёзных ошибках, чем пропущенный закрывающийся тег.</p>
<p>Как бы различные движки не упрощали работу с сайтами, необходимо изучать HTML и CSS. Веб-мастеру часто приходится работать с html-кодом. Например, вы знаете, что наличие большого количества ссылок на сторонние сайты не лучшим образом сказывается на оптимизации сайта. Это вынуждает веб-мастера избавляться от ссылок, в том числе и на сайты разработчиков различных компонентов. Для этого приходится вносить изменения в html-код (удалять или изменять часть кода).</p>
<p>После любых экспериментов с кодом, проверяйте сайт на видимость поисковым роботом. Для этого рекомендую воспользоваться очень удобным сервисом, который находится по адресу http://www.pr-cy.ru/simulator. Здесь вы сможете бесплатно проверить сайт на многие показатели, в том числе увидеть сайт глазами робота, найти ошибки в HTML-коде, проверить сайт на валидность.</p>
<p>Вы можете проверить сайт на определённые показатели или сделать экспресс анализ сайта на все показатели сразу. Для того, чтобы проверить сайт на все показатели, пройдите по этому адресу: http://www.design-sites.ru/utility/express-analys.php и введите URL вашего сайта для экспресс-анализа и нажмите "GO". Затем, поочерёдно открывая страницы, посмотрите результаты проведённого анализа.</p>
<p>Теперь вы будете уверены, что ваш сайт не выпадет из индекса из-за нелепой ошибки, так как ситуация находится полностью под вашим контролем.</p></div><div class="feed-description"><p>В предыдущей статье мы рассматривали такое понятие как «валидность». Как вы помните, валидность - это соответствие стандартам. Таким образом, стандартизированный язык разметки для веб-страниц (HTML), с единым базовым набором тегов и атрибутов, «читается» различными браузерами и отображается в виде документа, удобного для просмотра пользователями.</p>
<p><span style="color: #666699;"><strong>Что происходит, если HTML код страницы содержит ошибки (не соответствует стандарту)? Отображает ли браузер невалидный код?</strong></span></p>
<p>Создатели веб-обозревателей позаботились о том, чтобы их браузеры умели интерпретировать и некорректные html-коды. Иначе даже единственный, пропущенный по невнимательности веб-мастера тег, не позволил бы пользователю, просматривать страницу и выводил бы сообщение об ошибке. Однако, каждый браузер, интерпретирует ошибочный код по своим правилам. Потому есть вероятность того, что одна и та же невалидная страница будет выглядеть в различных браузерах по-разному. Поэтому старайтесь избегать ошибок в html-коде.</p>
<p><span style="color: #666699;"><strong>А теперь рассмотрим принципы работы поисковых роботов. Как они реагируют на ошибки в html-коде.</strong></span></p>
<p>По принципу действия поисковый робот напоминает обычный браузер. Однако цели у него несколько иные. Если главной целью браузера является предоставление интерфейса между веб-сайтом и его посетителем, то цель поискового робота - анализ каждого документа с помощью специального алгоритма, для занесения информации о нём в базу данных поисковика. Споткнувшись об ошибку, робот прекращает обрабатывать документ. Речь здесь конечно идёт о более серьёзных ошибках, чем пропущенный закрывающийся тег.</p>
<p>Как бы различные движки не упрощали работу с сайтами, необходимо изучать HTML и CSS. Веб-мастеру часто приходится работать с html-кодом. Например, вы знаете, что наличие большого количества ссылок на сторонние сайты не лучшим образом сказывается на оптимизации сайта. Это вынуждает веб-мастера избавляться от ссылок, в том числе и на сайты разработчиков различных компонентов. Для этого приходится вносить изменения в html-код (удалять или изменять часть кода).</p>
<p>После любых экспериментов с кодом, проверяйте сайт на видимость поисковым роботом. Для этого рекомендую воспользоваться очень удобным сервисом, который находится по адресу http://www.pr-cy.ru/simulator. Здесь вы сможете бесплатно проверить сайт на многие показатели, в том числе увидеть сайт глазами робота, найти ошибки в HTML-коде, проверить сайт на валидность.</p>
<p>Вы можете проверить сайт на определённые показатели или сделать экспресс анализ сайта на все показатели сразу. Для того, чтобы проверить сайт на все показатели, пройдите по этому адресу: http://www.design-sites.ru/utility/express-analys.php и введите URL вашего сайта для экспресс-анализа и нажмите "GO". Затем, поочерёдно открывая страницы, посмотрите результаты проведённого анализа.</p>
<p>Теперь вы будете уверены, что ваш сайт не выпадет из индекса из-за нелепой ошибки, так как ситуация находится полностью под вашим контролем.</p></div>Проверка кода сайта на валидность2012-09-09T08:55:03+00:002012-09-09T08:55:03+00:00/proverka-koda-sayta-na-validnost.htmlSuper Userwebadvisor@bk.ru<div class="feed-description"><p>В работе по созданию и продвижению сайта вы обязательно столкнётесь с таким понятием как валидность. Валидность - это мера соответствия.</p>
<p>В сайтостроении - это соответствие HTML и CSS кода нормам, которые указаны в W3C (World Wide Web Consortium). W3C - организация, разрабатывающая и внедряющая единые технологические принципы и стандарты для Интернета (называемые "рекомендациями"). Целью создания стандартов является обеспечение совместимости между программными продуктами и аппаратурой различных компаний.</p>
<p>Как вы уже догадались, создавая сайт, вы должны позаботиться о том, чтобы код сайта был валидным. Код считается валидным, если он не противоречит ни одному из правил, которые указаны в рекомендациях.</p>
<p>Однако, хотелось бы отметить, относительно валидности кода сайта существует множество мнений. Существует мнение, что не обязательно строго придерживаться рекомендаций. Также есть мнение, что валидность кода влияет на позиции сайта в выдаче поисковых систем. Валидный код даёт положительную динамику в поисковой выдаче.</p>
<p>Невалидный код, содержащий ошибки, может привести к бану некоторых страниц или даже всего сайта. Например, одинаковый цвет текста и фона, может расцениваться поисковиками, как попытка скрыть продающиеся с сайта ссылки.</p>
<p>Можно ли добиться 100% валидности кода? Возможно. Но в нашей реальной отечественной действительности, к сожалению, не обойтись без отступления от правил. Этим отступлением, например, является тег noindex. Этот тег используется специально для Яндекса и служит для закрытия служебных участков текста от индексации. Хотя о том, стоит ли помещать ссылки в контейнер с данным тегом, идёт много споров. Многие считают, что поисковые роботы давно уже игнорируют noindex. Как бы ни спорили о целесообразности использования тега noindex, W3C воспринимает и расценивает его как ошибку в коде. Однако Яндекс предлагает следующий выход из положения. Для того чтобы сделать код валидным, использовать его в следующем формате:</p>
<p><!--noindex-->Текст, индексирование которого нужно запретить<!--/noindex--></p>
<p>Действительно, в таком формате W3C воспринимает код как валидный.</p>
<p>Несмотря ни на какие споры, я вам рекомендую время от времени проверять сайт на валидность. Это позволит вам найти и исправить ошибки в коде. Делать это нужно не только для того, чтобы ваш сайт соответствовал стандартам. Иногда, из-за ошибок кода, сайт выпадает из поля зрения робота. Именно так, поисковый робот сайт просто не видит. Более подробно об этом вы можете почитать в статье <a href="sayt-glazami-robota.html" target="_blank" title="Сайт глазами робота">«Сайт глазами робота»</a>. А пока, чтобы проверить сайт на валидность, вы можете воспользоваться любым онлайн сервисом. Самый популярный - <a href="http://validator.w3.org/" title="Проверить код на валидность">validator.w3.org</a>. Пользоваться им очень просто. Вставьте адрес сайта в строку "Адрес" и нажмите "Проверить", как на картинке ниже.</p>
<p><img src="images/raskrutka/validator.jpg" border="0" alt="схема" title="Проверка кода на валидность" style="float: left;" /></p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p>После проверки появиться окно, в котором будет указано количество ошибок и предупреждений. Ниже вы сможете увидеть детальную информацию о каждой ошибке (место нахождения ошибки, рекомендации по исправлению).</p>
<p><img src="images/raskrutka/validator1.jpg" border="0" alt="схема" title="Проверка кода на валидность" style="float: left;" /></p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p>Вот и всё. Проверяйте и исправляйте. А на вопрос, нужно ли при этом добиваться абсолютного соответствия стандартам W3C (W3C Recommendations), я отвечу так. Рекомендации (от лат. recommendatio - совет) - в международном праве означает резолюции международных организаций, совещаний или конференций, которые не имеют обязательной юридической силы. По моему мнению, прислушиваться к совету авторитетных организаций нужно. И стараться следовать их рекомендациям тоже. Но без фанатизма.</p></div><div class="feed-description"><p>В работе по созданию и продвижению сайта вы обязательно столкнётесь с таким понятием как валидность. Валидность - это мера соответствия.</p>
<p>В сайтостроении - это соответствие HTML и CSS кода нормам, которые указаны в W3C (World Wide Web Consortium). W3C - организация, разрабатывающая и внедряющая единые технологические принципы и стандарты для Интернета (называемые "рекомендациями"). Целью создания стандартов является обеспечение совместимости между программными продуктами и аппаратурой различных компаний.</p>
<p>Как вы уже догадались, создавая сайт, вы должны позаботиться о том, чтобы код сайта был валидным. Код считается валидным, если он не противоречит ни одному из правил, которые указаны в рекомендациях.</p>
<p>Однако, хотелось бы отметить, относительно валидности кода сайта существует множество мнений. Существует мнение, что не обязательно строго придерживаться рекомендаций. Также есть мнение, что валидность кода влияет на позиции сайта в выдаче поисковых систем. Валидный код даёт положительную динамику в поисковой выдаче.</p>
<p>Невалидный код, содержащий ошибки, может привести к бану некоторых страниц или даже всего сайта. Например, одинаковый цвет текста и фона, может расцениваться поисковиками, как попытка скрыть продающиеся с сайта ссылки.</p>
<p>Можно ли добиться 100% валидности кода? Возможно. Но в нашей реальной отечественной действительности, к сожалению, не обойтись без отступления от правил. Этим отступлением, например, является тег noindex. Этот тег используется специально для Яндекса и служит для закрытия служебных участков текста от индексации. Хотя о том, стоит ли помещать ссылки в контейнер с данным тегом, идёт много споров. Многие считают, что поисковые роботы давно уже игнорируют noindex. Как бы ни спорили о целесообразности использования тега noindex, W3C воспринимает и расценивает его как ошибку в коде. Однако Яндекс предлагает следующий выход из положения. Для того чтобы сделать код валидным, использовать его в следующем формате:</p>
<p><!--noindex-->Текст, индексирование которого нужно запретить<!--/noindex--></p>
<p>Действительно, в таком формате W3C воспринимает код как валидный.</p>
<p>Несмотря ни на какие споры, я вам рекомендую время от времени проверять сайт на валидность. Это позволит вам найти и исправить ошибки в коде. Делать это нужно не только для того, чтобы ваш сайт соответствовал стандартам. Иногда, из-за ошибок кода, сайт выпадает из поля зрения робота. Именно так, поисковый робот сайт просто не видит. Более подробно об этом вы можете почитать в статье <a href="sayt-glazami-robota.html" target="_blank" title="Сайт глазами робота">«Сайт глазами робота»</a>. А пока, чтобы проверить сайт на валидность, вы можете воспользоваться любым онлайн сервисом. Самый популярный - <a href="http://validator.w3.org/" title="Проверить код на валидность">validator.w3.org</a>. Пользоваться им очень просто. Вставьте адрес сайта в строку "Адрес" и нажмите "Проверить", как на картинке ниже.</p>
<p><img src="images/raskrutka/validator.jpg" border="0" alt="схема" title="Проверка кода на валидность" style="float: left;" /></p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p>После проверки появиться окно, в котором будет указано количество ошибок и предупреждений. Ниже вы сможете увидеть детальную информацию о каждой ошибке (место нахождения ошибки, рекомендации по исправлению).</p>
<p><img src="images/raskrutka/validator1.jpg" border="0" alt="схема" title="Проверка кода на валидность" style="float: left;" /></p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p>Вот и всё. Проверяйте и исправляйте. А на вопрос, нужно ли при этом добиваться абсолютного соответствия стандартам W3C (W3C Recommendations), я отвечу так. Рекомендации (от лат. recommendatio - совет) - в международном праве означает резолюции международных организаций, совещаний или конференций, которые не имеют обязательной юридической силы. По моему мнению, прислушиваться к совету авторитетных организаций нужно. И стараться следовать их рекомендациям тоже. Но без фанатизма.</p></div>Ключевые слова2012-09-07T12:01:07+00:002012-09-07T12:01:07+00:00/klyuchevye-slova.htmlSuper Userwebadvisor@bk.ru<div class="feed-description"><p>В этой статье мы будем рассматривать такие важные понятия для оптимизатора, как ключевые слова и релевантность.</p>
<p> </p>
<p><span style="color: #666699;"><strong>Ключевые слова для сайта</strong></span></p>
<p><strong><img src="images/raskrutka/raskrutka_22.jpg" border="0" align="right" /></strong>Ключевое слово это слово в тексте, которое в совокупности с другими словами представляет весь текст. В Интернете ключевые слова используются для поиска. Для того, чтобы сайт был найдет поисковиками, из ключевых слов составляется семантическое ядро сайта.</p>
<p>Семантическим ядром сайта называется набор слов, наиболее точно характеризующих вид деятельности сайта. Семантика в переводе с греческого - обозначающий. Представьте себе, что вам нужно материал сайта представить в очень сокращенном виде, даже не на уровне конспекта, а охарактеризовав несколькими словами (10 - 15) и при этом была бы понятна тематика сайта. Конечно для этого пришлось бы исключить все пустые, почти все ассоциативные, оставив только основные слова. Проще говоря, семантическое ядро представляет собой поисковый образ документа.</p>
<p>Для того чтобы поисковики находили сайт в глобальной сети, нужно правильно составить семантическое ядро сайта. Очень важно подобрать слова так, чтобы пользователи, попадая на ваш сайт, попадали на страницы с нужной им информацией.</p>
<p>Существуют сайты, которые бесплатно предоставляют сервис по автоматическому подбору ключевых слов или семантического ядра. Если вы сделаете анализ текста на таком сайте, то сможете увидеть, что поисковик математически вычисляет повторяющиеся слова. Такой набор слов можно подобрать самостоятельно, анализируя частоту появления слова в тексте. Но не забывайте, важна не только частота повторения слова, но и его значение.</p>
<p>Слова по значимости можно поделить на основные и ассоциативные. Ваша задача подобрать слова, которые бы обеспечили наибольшую релевантность страницы.</p>
<p> </p>
<p><span style="color: #666699;"><strong><a name="relevo"></a>Релевантность</strong></span></p>
<p>Релева́нтность (лат. relevo — облегчать) — семантическое соответствие поискового запроса и поискового образа документа (страницы).</p>
<p>Проще выражаясь, это оценка степени соответствия. Чем выше релевантность страницы, тем выше вес данной страницы по отношению к ключевому слову. А это означает, что в результатах поиска релевантная страница будет выдаваться раньше.</p>
<p>Удобнее всего подбирать ключевые слова с помощью сайтов, предоставляющих сервис по анализу сайта. Наберите в поисковой строке «анализ сайта онлайн». Перед вами откроется большой выбор сайтов, услугами которых вы можете воспользоваться. Вам остаётся выбрать сайт, предоставляющий такой сервис и вставить адрес страницы вашего сайта в строку для проверки.</p>
<p>Советую для анализа сайта воспользоваться сервисом <a href="http://istio.com/rus/text/analyz/" target="_blank" title="Онлайн сервис по проверке текста">ISTIO</a>. Благодаря этому сервису вы сможете не только подобрать ключевые слова, но и проверить текст на орфографические ошибки, на плагиат, посмотреть карту сайта (наглядно видно самые употребляемые в статье слова).</p>
<p>Небольшая ремарка. Нужно учитывать под какую поисковую систему вы оптимизируете сайт. Так как потенциальные посетители сайта пользуются разными поисковыми системами, вы можете поверять и подбирать фразы под определенный поисковик. Советую воспользоваться услугами следующих сервисов:</p>
<ul>
<li>http://adwords.google.com/select/tools.html</li>
<li>http://wordstat.yandex.ru/</li>
<li>https://adstat.rambler.ru/wrds/</li>
</ul>
<p>Работать с ними очень просто. Нужно набить фразу в поисковик и вы увидите варианты. Не сложно, но есть одно но... Для правильного подбора нужно знать не только количество запросов, но и количество переходов по этим запросам. Чтобы получить такие данные советую воспользоваться сервисом: budget.webeffector.ru</p>
<p>На основе данных анализа, подберите ключевые слова и внесите их в настройки сайта. Для этого нужно войти в Административный Раздел и кликнуть по меню Сайт - Общие настройки</p>
<p><img src="images/raskrutka/raskrutka_1.jpg" border="0" align="left" /></p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p>В открывшемся окне выберите вкладку сайт. В разделе Настройка Метаданных заполните поля:</p>
<ul>
<li>в пункт Значение тэга <meta> вы должны внести краткое описание сайта, т.е. кратко обозначьте тематику сайта;</li>
<li>в пункте Ключевые слова тэга <meta> для всего сайта должно находится семантическое ядро сайта, т.е. подобранные вами ключевые слова</li>
</ul>
<p><img src="images/raskrutka/raskrutka_2.jpg" border="0" align="left" /></p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p>Сохраните изменения. Мы сделали важную часть работы, подобрав ключевые слова для сайта. Но это только первый шаг, проделанный нами на пути к оптимизации.</p></div><div class="feed-description"><p>В этой статье мы будем рассматривать такие важные понятия для оптимизатора, как ключевые слова и релевантность.</p>
<p> </p>
<p><span style="color: #666699;"><strong>Ключевые слова для сайта</strong></span></p>
<p><strong><img src="images/raskrutka/raskrutka_22.jpg" border="0" align="right" /></strong>Ключевое слово это слово в тексте, которое в совокупности с другими словами представляет весь текст. В Интернете ключевые слова используются для поиска. Для того, чтобы сайт был найдет поисковиками, из ключевых слов составляется семантическое ядро сайта.</p>
<p>Семантическим ядром сайта называется набор слов, наиболее точно характеризующих вид деятельности сайта. Семантика в переводе с греческого - обозначающий. Представьте себе, что вам нужно материал сайта представить в очень сокращенном виде, даже не на уровне конспекта, а охарактеризовав несколькими словами (10 - 15) и при этом была бы понятна тематика сайта. Конечно для этого пришлось бы исключить все пустые, почти все ассоциативные, оставив только основные слова. Проще говоря, семантическое ядро представляет собой поисковый образ документа.</p>
<p>Для того чтобы поисковики находили сайт в глобальной сети, нужно правильно составить семантическое ядро сайта. Очень важно подобрать слова так, чтобы пользователи, попадая на ваш сайт, попадали на страницы с нужной им информацией.</p>
<p>Существуют сайты, которые бесплатно предоставляют сервис по автоматическому подбору ключевых слов или семантического ядра. Если вы сделаете анализ текста на таком сайте, то сможете увидеть, что поисковик математически вычисляет повторяющиеся слова. Такой набор слов можно подобрать самостоятельно, анализируя частоту появления слова в тексте. Но не забывайте, важна не только частота повторения слова, но и его значение.</p>
<p>Слова по значимости можно поделить на основные и ассоциативные. Ваша задача подобрать слова, которые бы обеспечили наибольшую релевантность страницы.</p>
<p> </p>
<p><span style="color: #666699;"><strong><a name="relevo"></a>Релевантность</strong></span></p>
<p>Релева́нтность (лат. relevo — облегчать) — семантическое соответствие поискового запроса и поискового образа документа (страницы).</p>
<p>Проще выражаясь, это оценка степени соответствия. Чем выше релевантность страницы, тем выше вес данной страницы по отношению к ключевому слову. А это означает, что в результатах поиска релевантная страница будет выдаваться раньше.</p>
<p>Удобнее всего подбирать ключевые слова с помощью сайтов, предоставляющих сервис по анализу сайта. Наберите в поисковой строке «анализ сайта онлайн». Перед вами откроется большой выбор сайтов, услугами которых вы можете воспользоваться. Вам остаётся выбрать сайт, предоставляющий такой сервис и вставить адрес страницы вашего сайта в строку для проверки.</p>
<p>Советую для анализа сайта воспользоваться сервисом <a href="http://istio.com/rus/text/analyz/" target="_blank" title="Онлайн сервис по проверке текста">ISTIO</a>. Благодаря этому сервису вы сможете не только подобрать ключевые слова, но и проверить текст на орфографические ошибки, на плагиат, посмотреть карту сайта (наглядно видно самые употребляемые в статье слова).</p>
<p>Небольшая ремарка. Нужно учитывать под какую поисковую систему вы оптимизируете сайт. Так как потенциальные посетители сайта пользуются разными поисковыми системами, вы можете поверять и подбирать фразы под определенный поисковик. Советую воспользоваться услугами следующих сервисов:</p>
<ul>
<li>http://adwords.google.com/select/tools.html</li>
<li>http://wordstat.yandex.ru/</li>
<li>https://adstat.rambler.ru/wrds/</li>
</ul>
<p>Работать с ними очень просто. Нужно набить фразу в поисковик и вы увидите варианты. Не сложно, но есть одно но... Для правильного подбора нужно знать не только количество запросов, но и количество переходов по этим запросам. Чтобы получить такие данные советую воспользоваться сервисом: budget.webeffector.ru</p>
<p>На основе данных анализа, подберите ключевые слова и внесите их в настройки сайта. Для этого нужно войти в Административный Раздел и кликнуть по меню Сайт - Общие настройки</p>
<p><img src="images/raskrutka/raskrutka_1.jpg" border="0" align="left" /></p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p>В открывшемся окне выберите вкладку сайт. В разделе Настройка Метаданных заполните поля:</p>
<ul>
<li>в пункт Значение тэга <meta> вы должны внести краткое описание сайта, т.е. кратко обозначьте тематику сайта;</li>
<li>в пункте Ключевые слова тэга <meta> для всего сайта должно находится семантическое ядро сайта, т.е. подобранные вами ключевые слова</li>
</ul>
<p><img src="images/raskrutka/raskrutka_2.jpg" border="0" align="left" /></p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p>Сохраните изменения. Мы сделали важную часть работы, подобрав ключевые слова для сайта. Но это только первый шаг, проделанный нами на пути к оптимизации.</p></div>Уникальность текста2012-09-07T11:44:52+00:002012-09-07T11:44:52+00:00/unikalnost-teksta.htmlSuper Userwebadvisor@bk.ru<div class="feed-description"><p>В этой статье мы рассмотрим такое важное для веб-мастера понятие, как уникальность текста. Возможно, вы слышали о том, что поисковые системы особенно ценят уникальные статьи. Что это значит?</p>
<p>К слову «уникальный» можно подобрать массу синонимов – единственный, неповторимый, эксклюзивный, исключительный и др. Таким образом, становиться понятным, уникальная статья – это авторское творение, не похожее на другие, единственное в своём роде. Наполнение сайта с помощью прямого копирования контента с других сайтов, вещь не только бесполезная, но и опасная. Копирование и публикация чужих статей, а также заимствование фрагментов чужих статей, без указания источника заимствования, является плагиатом. Плагиат (речевое воровство) подразумевает нарушение авторских прав и влечёт за собой уголовную ответственность.</p>
<p>Поисковые системы определяют копированный контент и исключают его из поисковой выдачи. Это касается также лёгкого рерайта и копипаста. Рерайтинг, от английского rewriting - переписывание текста. Копипаст, от английского cut, copy, paste - вырезать, скопировать, вставить. При этом способе статья создаётся из фрагментов, скопированных из разных источников.</p>
<p>Что же делать, спросите вы, ведь Интернет заполнен всевозможной информацией, получается, что и писать то уже не о чем, обо всём уж написано. Здесь я однозначно могу сказать, сайты создают для того, чтобы делиться информацией. Если вы это можете сделать лучше других - очень хорошо. Совпадение отдельных идей не является плагиатом. Создание нового произведения невозможно без идеи, а идея авторов не имеет.</p>
<p>Хотелось бы заметить, плагиат легко определить в художественной литературе. В Интернете используют различные жанры - художественно-публицистические, информационные, аналитические. При подаче информации, часто используются общепринятые понятия, выражения и термины. Например, если вы напишите «Уральские горы разделяют Европу и Азию», вас невозможно обвинить в плагиате, так как это – общеизвестный факт. Если вы проверите это выражение на уникальность, уникальность окажется нулевой, и всё по той же причине, так как это общеизвестный факт. Даже если вы попытаетесь изменить выражение, например « Уральские горы являются границей между Европой и Азией» или «Европа и Азия разделена Уральскими горами», при проверке уникальности текста окажется, что вы в этих выражениях не оригинальны.</p>
<p> </p>
<p><span style="color: #666699;"><strong>Как проверить уникальность текста</strong></span></p>
<p>Уникальность текста можно проверить с помощью онлайн-сервисов или специальных программ, установленных на компьютер.</p>
<p>Идеальных приложений по оценке уникальности не существует. Проверяя один и тот же текст в разных программах, вы получите разные результаты. Однако, тестирование статьи на уникальность необходимо по следующей причине. Для поисковиков уникальным является текст, в котором не имеется совпадений с текстами, находящимися в базе данных поисковых систем. Определённые участки текста, созданного вами, могут совпадать с уже существующими текстами в Интернете. Естественно, из-за этого оценка уникальности снижается. При проверке уникальности, программа выделяет участки неуникального текста. Вы можете повысить уникальность текста методом перестановки предложений и словосочетаний или заменой некоторых слов синонимами в выделенной области текста.</p>
<p>Каждый выбирает для себя наиболее удобные способы для проверки уникальности текста. Я предпочитаю использовать программы, установленные на компьютере. Программы обновляются, всегда под рукой - это удобно. <a href="http://www.etxt.ru/?r=norka26" target="_blank" title="Etxt ">Etxt Антиплагиат</a> и <a href="http://advego.ru/2AFA6jBjhv" target="_blank" title="Advego">Advego Plagiatus</a> - программы, которые вы можете скачать и установить на свой компьютер. После установки откройте программу, вставьте в окно редактора текста скопированный текст и проверьте на уникальность. Фрагменты текста с совпадениями будут выделены определённым цветом. Вам останется только отредактировать эти фрагменты таким образом, чтобы не было совпадений с текстами других веб-ресурсов. Если вы предпочитаете онлайн-проверку, Etxt и Advego также предоставляют возможность проверить текст на уникальность, орфографию, сделать seo-анализ текста.</p>
<p>Хотелось бы заметить. Поисковые системы учитывают не только уникальность текста, но и его полезность. Можно создать статью, со 100% уникальностью, но совершенно бесполезную. И наоборот, можно написать полезную статью, но в борьбе за уникальность, потерять авторский слог и стиль. К сожалению, для поискового робота, с его «алгоритмическим мозгом», это не важно.</p></div><div class="feed-description"><p>В этой статье мы рассмотрим такое важное для веб-мастера понятие, как уникальность текста. Возможно, вы слышали о том, что поисковые системы особенно ценят уникальные статьи. Что это значит?</p>
<p>К слову «уникальный» можно подобрать массу синонимов – единственный, неповторимый, эксклюзивный, исключительный и др. Таким образом, становиться понятным, уникальная статья – это авторское творение, не похожее на другие, единственное в своём роде. Наполнение сайта с помощью прямого копирования контента с других сайтов, вещь не только бесполезная, но и опасная. Копирование и публикация чужих статей, а также заимствование фрагментов чужих статей, без указания источника заимствования, является плагиатом. Плагиат (речевое воровство) подразумевает нарушение авторских прав и влечёт за собой уголовную ответственность.</p>
<p>Поисковые системы определяют копированный контент и исключают его из поисковой выдачи. Это касается также лёгкого рерайта и копипаста. Рерайтинг, от английского rewriting - переписывание текста. Копипаст, от английского cut, copy, paste - вырезать, скопировать, вставить. При этом способе статья создаётся из фрагментов, скопированных из разных источников.</p>
<p>Что же делать, спросите вы, ведь Интернет заполнен всевозможной информацией, получается, что и писать то уже не о чем, обо всём уж написано. Здесь я однозначно могу сказать, сайты создают для того, чтобы делиться информацией. Если вы это можете сделать лучше других - очень хорошо. Совпадение отдельных идей не является плагиатом. Создание нового произведения невозможно без идеи, а идея авторов не имеет.</p>
<p>Хотелось бы заметить, плагиат легко определить в художественной литературе. В Интернете используют различные жанры - художественно-публицистические, информационные, аналитические. При подаче информации, часто используются общепринятые понятия, выражения и термины. Например, если вы напишите «Уральские горы разделяют Европу и Азию», вас невозможно обвинить в плагиате, так как это – общеизвестный факт. Если вы проверите это выражение на уникальность, уникальность окажется нулевой, и всё по той же причине, так как это общеизвестный факт. Даже если вы попытаетесь изменить выражение, например « Уральские горы являются границей между Европой и Азией» или «Европа и Азия разделена Уральскими горами», при проверке уникальности текста окажется, что вы в этих выражениях не оригинальны.</p>
<p> </p>
<p><span style="color: #666699;"><strong>Как проверить уникальность текста</strong></span></p>
<p>Уникальность текста можно проверить с помощью онлайн-сервисов или специальных программ, установленных на компьютер.</p>
<p>Идеальных приложений по оценке уникальности не существует. Проверяя один и тот же текст в разных программах, вы получите разные результаты. Однако, тестирование статьи на уникальность необходимо по следующей причине. Для поисковиков уникальным является текст, в котором не имеется совпадений с текстами, находящимися в базе данных поисковых систем. Определённые участки текста, созданного вами, могут совпадать с уже существующими текстами в Интернете. Естественно, из-за этого оценка уникальности снижается. При проверке уникальности, программа выделяет участки неуникального текста. Вы можете повысить уникальность текста методом перестановки предложений и словосочетаний или заменой некоторых слов синонимами в выделенной области текста.</p>
<p>Каждый выбирает для себя наиболее удобные способы для проверки уникальности текста. Я предпочитаю использовать программы, установленные на компьютере. Программы обновляются, всегда под рукой - это удобно. <a href="http://www.etxt.ru/?r=norka26" target="_blank" title="Etxt ">Etxt Антиплагиат</a> и <a href="http://advego.ru/2AFA6jBjhv" target="_blank" title="Advego">Advego Plagiatus</a> - программы, которые вы можете скачать и установить на свой компьютер. После установки откройте программу, вставьте в окно редактора текста скопированный текст и проверьте на уникальность. Фрагменты текста с совпадениями будут выделены определённым цветом. Вам останется только отредактировать эти фрагменты таким образом, чтобы не было совпадений с текстами других веб-ресурсов. Если вы предпочитаете онлайн-проверку, Etxt и Advego также предоставляют возможность проверить текст на уникальность, орфографию, сделать seo-анализ текста.</p>
<p>Хотелось бы заметить. Поисковые системы учитывают не только уникальность текста, но и его полезность. Можно создать статью, со 100% уникальностью, но совершенно бесполезную. И наоборот, можно написать полезную статью, но в борьбе за уникальность, потерять авторский слог и стиль. К сожалению, для поискового робота, с его «алгоритмическим мозгом», это не важно.</p></div>