DiRecTor Опубликовано: 20 января, 2004 Жалоба Share Опубликовано: 20 января, 2004 В безопасности ли положение вашего сайта в результатах поиска? Данная статья рассказывает о том, кто и как выполняет работы по продвижению сайтов в поисковых системах, чем может грозить недобросовестно выполненная работа, чего следует опасаться, выполняя работу по продвижению сайта самостоятельно. Оптимизация сайтов для поисковых систем (SEO - Search Engine Optimization) представляет собой набор мер, призванных улучшить видимость сайта в поисковых системах, т.е. позиции в результатах поиска по запросам, подходящим к тематике сайта. Существуют оптимизаторы-одиночки и SEO-фирмы различного масштаба и качества выполняемой работы. В целом занимающихся оптимизацией сайта для поисковых систем можно разделить по качеству и надежности работы на несколько групп: Выполняющие только работу по продвижению сайта, имеющие мало опыта, действующие наугад. Результаты работы таких оптимизаторов ненадежны, качество работы может быть довольно низкое. Ловко использующие запрещенные методы раскрутки. Результаты могут быть довольно успешны, но с большой вероятностью они быстро исчезнут, как только будет распознан поисковый спам (модераторы поисковых систем могут сами вычислить использование поискового спама, либо конкуренты могут «настучать»). То есть эффект может быть быстрый, но на короткое время. Те, кто уже зарекомендовали себя на рынке услуг по продвижению в поисковых системах. Эти фирмы (либо независимые консультанты) делают качественную работу, результаты которой сохраняются длительное время. Такие услуги дороги, но они действительно того стоят. С тех пор, как появились поисковые системы, появились и различные приемы, которые беспринципные вебмастеры и сомнительные SEO-фирмы используют для искусственного повышения позиции в поисковиках. Как только поисковые системы узнали об этих приемах и техниках, они стали придумывать способы их выявления, не требующие от модератора просмотра каждого сайта (это просто невозможно, учитывая, что сейчас современные поисковые системы прекрасно индексируют более миллиарда страниц). В то время как большинство систем становятся все более и более «умными» в плане распознавания «спама» и наказывают или удаляют «спамерские» сайты, существует печальный побочный эффект такой эффективности - сайты некоторых компаний, которые непреднамеренно поступают неправильно, попадают в категорию «спама». В данной статье я приведу список некоторых проблем, которые могут навредить сайтам, а также предложения, как избежать наказания или удаления поисковиками. Один из способов избежать проблем - это упреждающие действия. Проблема №1: Плохие ссылки Большая часть Интернета основана на сайтах, ссылающихся друг на друга (сама поисковая система - это просто очень большое собрание ссылок). Сравнительно недавно появился акцент на ссылки сайта, как часть формулы позиционирования в поисковиках (обычно называемого «индекс цитирования» или «link popularity»). Сравнительно недавно поисковые системы стали уделять большое внимание ссылкам на сайт. При ранжировании сайтов по релевантности некоторому запросу поисковыми система учитывается индекс цитирования (существуют разновидности: тематический ИЦ и взвешенный ИЦ в Яндексе, PageRank в Google)." В связи с этим стало крайне важным тщательно выбирать сайты, с которыми вы обмениваетесь ссылками. Google, родоначальник методик позиционирования страниц на основании не только свойств страниц, но и внешних факторов, часто наказывает (назначает, так называемое, пенальти) сайты, содержащие ссылки на «плохих соседей». «Плохими соседями» Google называет те страницы, которые определяются им, как искусственно поднимающие индекс цитирования. Надо заметить, что сайты наказываются только, когда они ссылаются на такие страницы, а не те на них (что хорошо, так как вемастеры не могут контролировать ссылки на других сайтах). Если какая-либо страница вашего ресурса содержит ссылки на другие сайты, важно убедиться, что они не наказаны поисковиком. Для этого можно скачать «Google toolbar» . Большинство страниц в Интернете будут снабжены «Pagerank'ом», который представляет собой зеленую полоску на панели. Чтобы уберечься от размещения ссылки на сомнительный ресурс, не ставьте на своем сайте ссылок на те страницы, у которых нет зеленой полосы (особенно, если вся шкала серая). Такие страницы могут быть наказаны, а размещение ссылки на них приведет к тому, что ваш сайт также будет наказан. Однако, не стоит пренебрегать обменом ссылками с сайтами только потому, что у них очень короткая зеленая полоса - эти сайты не наказаны, а ссылки с них на ваш ресурс в скором времени могут стать ценными. Также очень важно периодически проверять, не попали ли те сайты, на которые у вас уже есть ссылки, в черный список поисковой системы. Известно, что ссылки - это один из наиболее мощных инструментов продвижения сайта. Однако не стоит этим чрезмерно увлекаться. Например, российские поисковики наказывают сайты, которые обмениваются ссылками с сайтами, не совпадающими по тематике (это называется искусственным наращиванием индекса цитирования или «неопотистский спам»). Проблема № 2: Скрытый текст Почти все поисковики используют слова на страницах сайтов как один из факторов ранжирования страниц по релевантности. Это значит, что если текст на ваших страницах содержит определенные вами ключевые слова, то у вас будет больший шанс попасть наверх результатов поиска по этим словам, чем у тех сайтов, в текст которых они не включены. Некоторые вебмастеры, которые заботятся об этом, но не хотят, чтобы их посетители видели такой текст (обычно по чисто эстетическим причинам), начинают обогащать содержание страниц ключевыми словами, написанными тем же цветом, что и фон страницы. Человек-то такой текст не увидит, но его увидит «паук» поисковой системы (программа, которая индексирует страницы), и, следовательно, повысит позицию страницы. Однако уже давно все основные поисковики «осознали» это, и теперь наказывают страницы, использующие такую тактику. К сожалению, некоторые, ни в чем не виновные сайты, все еще наказываются за подобную практику, хотя текст на их страницах уже виден. Скажем, на странице белый фон, на котором расположена синяя ячейка таблицы с белым текстом внутри. И, хотя текст прекрасно различим для посетителя, поисковая система не распознает того, что белый текст находится в ячейке с синим фоном - она только «понимает», что фон страницы белый. Казалось бы, звучит абсурдно, но, тем ни менее, это реалии современного развития поисковых систем. Чтобы избежать неприятностей, никогда не делайте ни в каких местах вашей страницы текст того же цвета, что и основной фон страницы! Иногда используются и более изощренные способы скрывания текста от пользователя. Не смотря на то, что поисковые системы могут поначалу это проглотить, наивно полагать, что они никогда не догадаются, что на странице что-то нечисто (кстати, в этом им могут легко помочь ваши конкуренты, написав кляузу в стиле «а вот они вас спамят - примите меры!») и не исключат (или накажут понижением позиций для начала) в следствие этого. Проблема № 3: Ключевые слова Как упоминалось выше, слова на вашей странице могут являться важным фактором в позиционировании вашего сайта. Подразумевается, что если страница содержит определенный процент некоторого слова, то можно сказать, что содержание страницы определенно связано с этим словом. Однако, вполне возможно, что «хорошего будет не в меру«. «Плотность ключевых слов» («Keyphrase Density»), как ее обычно называют, является отношением числа ключевых слов на вашей странице к общему числу слов в ее тексте (подробнее о плотности ключевых слов). Хотя разные поисковые системы «предпочитают» разную плотность ключевых слов, почти все они устанавливают максимальное ее значение, превышение которого ведет к тому, что страница наказывается. В большинстве случаев через этот порог трудно переступить, не делая текст нечитаемым и бессмысленным. Но, особенно когда ключевое слово является названием компании, плотность непредумышленно может стать непомерно большой. Например, если ваша компания называется «Интеллектуальные технологии«, и вы построили текст так, что ее название встречается почти в каждом предложении, то плотность ключевых фраз «Интеллектуальные технологии» может вырасти до опасного значения, что поставит ваш сайт под угрозу наказания поисковиком. Чтобы решить такого рода проблемы, пробегитесь по всему тексту и убедитесь, что он звучит нормально, а также, что ни одна фраза не повторяется слишком часто (например, в более чем половине всех предложений). Проблема № 4: Маскировка (клоакинг) Маскировка - это, строго говоря, показ пауку поисковой системы не той страницы, которую на самом деле увидит пользователь. Это означает, что сервер маскирующейся страницы проверяет уникальный адрес каждого посетителя, и, если посетителем является паук, он «скармливает» ему страницу со специальным наполнением, которое разработано для улучшения позиции сайта по конкретным запросам. На самом деле, каждая крупная система сейчас строго наказывает такие сайты при обнаружении (а это не так уж и легко сделать - ведь, требуется проверка модератором каждой страницы, на которую падет подозрение). Однако, существует возможность приобретать постоянно обновляемые базы адресов пауков, что позволяет удачно эксплуатировать маскировку. Но это уже тема следующей статьи. К тому же, даже имея постоянно обновляемую базу данных адресов всех поисковиков (или хотя бы основных), нельзя быть стопроцентно уверенным, что на вас никто не «настучит» модераторам поисковика, после чего последует ручная проверка и исключение из базы навсегда. К сожалению, попытки маскировки не всегда необходимы для обмана поисковиков. Некоторые сайты с высоким положением в списках результатов поиска маскируются лишь для того, чтобы другие не украли код их страниц. Однако, сегодня это необоснованно. С ростом таких параметров, как индекс цитирования, которые не зависят от самой страницы, неразборчивый вебмастер может «красть» куски кода со страниц с хорошим положением, но он не будет занимать те же места в ранжировании. В любом случае, применение маскировки, по какой бы то ни было причине, подвергает ваш сайт риску быть наказанным или удаленным поисковой системой, так что лучше не использовать эту технику! Вывод Поисковые системы становятся все более и более осведомленными о техниках их обмана, а также лучше распознают и удаляют страницы, нарушающие их правила. Важно помнить, что поисковики «принимают решения» на основе разностороннего опыта их пользователей и их предпочтений, и любой вебмастер или фирма, которые утверждают, что «они лучше знают» (а потом используют технику ухищрений), делают клиенту медвежью услугу. И, к несчастью, иногда методы выявления «спама», используемые поисковыми системами, приводят к тому, что хорошие сайты по тем или иным причинам попадают под критерии удаления или наказания. Примите во внимание изложенные выше пункты, и можете рассчитывать на то, что ваш сайт не попадет в их число. Автор: Scott Buresh Дополнения: dimokk Цитата Ссылка на комментарий Поделиться на других сайтах More sharing options...
DiRecTor Опубликовано: 20 января, 2004 Автор Жалоба Share Опубликовано: 20 января, 2004 Особенности работы поисковых систем В этой статье мы рассмотрим, как работают поисковые системы. Поисковые cистемы обычно состоят из трех компонент: агент (паук или кроулер), который перемещается по Сети и собирает информацию; база данных, которая содержит всю информацию, собираемую пауками; поисковый механизм, который люди используют как интерфейс для взаимодействия с базой данных. Описание работы механизмов поиска Cредства поиска и структурирования, иногда называемые поисковыми механизмами, используются для того, чтобы помочь людям найти информацию, в которой они нуждаются. Средства поиска типа агентов, пауков, кроулеров и роботов используются для сбора информации о документах, находящихся в Сети Интернет. Это специальные программы, которые занимаются поиском страниц в Сети, извлекают гипертекстовые ссылки на этих страницах и автоматически индексируют информацию, которую они находят для построения базы данных. Каждый поисковый механизм имеет собственный набор правил, определяющих, как собирать документы. Некоторые следуют за каждой ссылкой на каждой найденной странице и затем, в свою очередь, исследуют каждую ссылку на каждой из новых страниц, и так далее. Некоторые игнорируют ссылки, которые ведут к графическим и звуковым файлам, файлам мультипликации; другие игнорируют ссылки к ресурсам типа баз данных WAIS; другие проинструктированы, что нужно просматривать прежде всего наиболее! популярные страницы. Агенты - самые "интеллектуальные" из поисковых средств. Они могут делать больше, чем просто искать: они могут выполнять даже транзакции от Вашего имени. Уже сейчас они могут искать cайты специфической тематики и возвращать списки cайтов, отсортированных по их посещаемости. Агенты могут обрабатывать содержание документов, находить и индексировать другие виды ресурсов, не только страницы. Они могут также быть запрограммированы для извлечения информации из уже существующих баз данных. Независимо от информации, которую агенты индексируют, они передают ее обратно базе данных поискового механизма. Общий поиск информации в Сети осуществляют программы, известные как пауки. Пауки сообщают о содержании найденного документа, индексируют его и извлекают итоговую информацию. Также они просматривают заголовки, некоторые ссылки и посылают проиндексированную информацию базе данных поискового механизма. Кроулеры просматривают заголовки и возвращают только первую ссылку. Роботы могут быть запрограммированы так, чтобы переходить по различным ссылкам различной глубины вложенности, выполнять индексацию и даже проверять ссылки в документе. Из-за их природы они могут застревать в циклах, поэтому, проходя по ссылкам, им нужны значительные ресурсы Сети. Однако, имеются методы, предназначенные для того, чтобы запретить роботам поиск по сайтам, владельцы которых не желают, чтобы они были проиндексированы. Агенты извлекают и индексируют различные виды информации. Некоторые, например, индексируют каждое отдельное слово во встречающемся документе, в то время как другие индексируют только наиболее важных 100 слов в каждом, индексируют размер документа и число слов в нем, название, заголовки и подзаголовки и так далее. Вид построенного индекса определяет, какой поиск может быть сделан поисковым механизмом и как полученная информация будет интерпретирована. Агенты могут также перемещаться по Интернет и находить информацию, после чего помещать ее в базу данных поискового механизма. Администраторы поисковых систем могут определить, какие сайты или типы сайтов агенты должны посетить и проиндексировать. Проиндексированная информация отсылается базе данных поискового механизма так же, как было описано выше. Люди могут помещать информацию прямо в индекс, заполняя особую форму для того раздела, в который они хотели бы поместить свою информацию. Эти данные передаются базе данных. Когда кто-либо хочет найти информацию, доступную в Интернет, он посещает страницу поисковой системы и заполняет форму, детализирующую информацию, которая ему необходима. Здесь могут использоваться ключевые слова, даты и другие критерии. Критерии в форме поиска должны соответствовать критериям, используемым агентами при индексации информации, которую они нашли при перемещении по Сети. База данных отыскивает предмет запроса, основанный на информации, указанной в заполненной форме, и выводит соответствующие документы, подготовленные базой данных. Чтобы определить порядок, в котором список документов будет показан, база данных применяет алгоритм ранжирования. В идеальном случае, документы, наиболее релевантные пользовательскому запросу будут помещены первыми в списке. Различные поисковые системы используют различные алгоритмы ранжирования, однако основные принципы определения релевантности следующие: Количество слов запроса в текстовом содержимом документа (т.е. в html-коде). Тэги, в которых эти слова располагаются. Местоположение искомых слов в документе. Удельный вес слов, относительно которых определяется релевантность, в общем количестве слов документа. База данных выводит ранжированный подобным образом список документов с HTML и возвращает его человеку, сделавшему запрос. Различные поисковые механизмы также выбирают различные способы показа полученного списка - некоторые показывают только ссылки; другие выводят cсылки c первыми несколькими предложениями, содержащимися в документе или заголовок документа вместе с ccылкой. Когда Вы щелкаете на ссылке к одному из документов, который вас интересует, этот документ запрашивается у того сервера, на котором он находится. Характерные особенности работы поисковых систем Представленная ниже таблица включает характерные особенности работы основных автоматических поисковых систем (автоматические поисковые системы - те, которые для наполнения своей базы используют поисковых роботов). Показаны основные факторы, влияющие на индексирование и последующие ранжирование сайтов. Данные охватывают характеристики поисковых систем AltaVista, Excite, FAST Search, Go (Infoseek), Google, Lycos и Northern Light в той их части, которая создается с использованием поисковых роботов. Также таблица включает характеристику работы Inktomi в части, которую используют в своих результатах AOL Search, HotBot и MSN Search. Excite представлен в той доли, которая принадлежит Magellan и WebCrawler. Цитата Ссылка на комментарий Поделиться на других сайтах More sharing options...
Recommended Posts
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.