Регистрация / Вход

В России начали использовать встроенные сим-карты eSIM. Что это такое?

 

Что случилось?

Сотовый оператор Tele2 первым из «большой четверки» связи предложил своим клиентам использовать технологию встроенной сим-карты (eSIM). До этого eSIM в России можно было воспользо...

Майкл Льюис - Flash Boys. Высокочастотная революция на Уолл-стрит

Вышедшая в свет 1 апреля 2014 г. книга Flash Boys произвела фурор в финансовом мире Америки. В первую же неделю было продано 130 000 экземпляров, а ФБР объявило о начале расследования в отношении ...

Книга. Блокчейн: архитектура, криптовалюты, инструменты разработки, смарт-контракты

Книга познакомит вас с теоретическими и практическими аспектами технологии блокчейн. Во втором издании данной книги углубленно рассмотрены следующие темы: децентрализация, умные контракты, блок...

Как создать ноду Lightning Network

 

Мнение о том, что Lightning network (LN) — это альтернатива майнингу или мастернода биткоина, ошибочно. Молниеносная сеть — это только надстройка над основным блокчейном, призванная освободить би...

Криминальная революция криптовалют: о сомнительных персонажах, зарабатывающих на Биткойне

 

Трудно поверить, что {#emotions_dlg.art_alt}«криптовалютная революция»{#emotions_dlg.art_alt} началась десять лет назад. Я смутно припоминаю, как впервые услышал о Биткойне в одной из компьютерных лабораторий моего университета в 2008 г., в...

Интернет — это одна из сфер нашей жизни, площадка для общения. Загнать совсем его в прокрустово ложе и невозможно технически, и неправильно морально !

Бесплатная информация

Виджет показывает полезную и бесплатную информацию.

добавить на Яндекс

SEO: непросто, но и несложно

Рейтинг:   / 1
ПлохоОтлично 

 что же с SEO

В сложных профессиональных дисциплинах всегда есть основополагающие постулаты, которые нужно усвоить раз и навсегда. Как, допустим, и биржевом игре, изобилующем тонкостями, коим посвящены целые тома. Но, начиная игру, надо помнить, что и основе она представляет собой лотерею, с небольшими шансами на выигрыш.

 

Поисковое продвижение - тоже довольно сложное направление в веб, которое, тем не менее, строится на довольно простых правилах. Их можно обходить, применять как-то по своему, создавать с их помощью собственные технологии продвижения. Но забывать ни к чему. Ведь это базис, на котором построено все остальное.


Предыстория

Прежде чем начать говорить о технологиях про-движения сайтов, вкратце расскажу о том, как я сам освоил основы SEO. В первую очередь для того, чтобы вы поняли, мой материал - не рерайт, а часть (пусть и небольшая) моей собственной жизни.Так уж вышло, что много лет назад (еще в 2004 году), мне доверили создание и ведение сайта одной из довольно крупных ведомственных газет. Я, естественно, не был ни веб-мастером, ни программистом (а в продвижении сайтов тогда вообще мало кто разбирался), но горел энтузиазмом.

 

 Несколько месяцев я не вылезал из-за компьютера, нашел подходящую CMS (RunCMS, о ней сейчас уже мало кто помнит). Разобравшись наскоро в основах веб-дизайна, я модифицировал (методом «научного тыка») шаблон CMS, подогнал его под нужный формат, разместил логотип сайта и с помощью программеров сообщества RunCMS добавил необходимые модули (рубрикатор статей, фотогалерею, контакты).

Для меня в то время это было нечто невероятное, поскольку еще за год до новой работы я с трудом управлялся с Microsoft Word. А здесь пришлось освоить и графические программы и веб-верстку с HTML. Кроме того, я научился работаться PHPMyadmin, создавать базы данных, пересылать файлы удаленно, через FTP-доступ. Помучавшись с месяц, я установил и настроил сайт, начат размещать на нем статьи, фотографии. Но надо мной уже сгущались тучи.

В газете появился новый редактор, сыну которого - будущему веб-дизайнеру - необходимо было выпол¬нить практическую часть дипломной работы. Он удалил мой сайт и поставил вместо него пару своих, красиво оформленных под дизайн газеты HTML-страничек. Весь мой многомесячный труд пропал даром. Естественно, все это было сделано втайне, когда помешать я не мог. Не буду описывать то состояние, в котором я был. Обида - это самое малое, что пришлось прочувствовать на своей, так сказать, «шкуре».

К счастью, дела у меня, в общем-то, шли неплохо, я много работал, добился кое-каких успехов и со временем забыл эту грязную историю. Я простодушно считал, что знания, добытые мной, никогда мне больше не пригодятся. И ошибся. Спустя годы мне длительное время пришлось вести довольно большой российский автомобильный сайт. Вот тут-то все мои навыки и умения пришлись к месту. Вдобавок, я заработал неплохие деньги, на которые обустроил квартиру и дачу.

А тот злосчастный руководитель, который так обо¬шелся со мной, через несколько лет сам был уволен (теперь он трудится где-то в другом месте). Как-то недавно мы даже встретились с ним, и я высказал ему свою обиду. Но, думаю, он так ничего и не понял. Не бить же его за это, право...


Путь SEO

Путь SEO  Ну а что же с SEO, спросит пытливый читатель? Тут все очень просто. Как-то, через пару лет после описанных выше событий, крупный отечественный хостер, в целях рекламы, предложил IT-журналистам попробовать его виртуальный хостинг. Достался акка- унт и мне. К этому времени в сети уж было достаточно качественных и мощных CMS-движков. Я выбрал неплохую систему управления контентом (многие веб-мастера знакомы с надежной, как маузер, быстрой, нересурсоемкой и устойчивой к взлому CMS Datalife Engine), и смог всецело сосредоточиться на изучении тонкостей продвижения сайта. Естественно, это было просто увлечение, возникшее по мотивам моей потерянной работы. Но я посвящал ему довольно много времени. А поскольку интернет в то время был еще довольно дорогим, я нередко пользовался им в офисах газет и телеканала, где работал. Оставался, после того, как все уходили, и начинал «шаманить». Конечно, как новичок, я сразу наступил на все «грабли», которые только смог найти BSEO. Во-первых, я начал размещать на сайте копипаст с других ресурсов. А чтобы «раскрутиться» стал прописывать ссылки на свой сайт в различных каталогах, списки которых отыскал в недрах интернета. Через месяц я, к немалому своему удивлению обнаружил, что сайт уже нельзя найти в «Яндексе». Его там просто не было, несмотря на то, что неделей ранее я видел его в выдаче и позиции моего ресурса постоянно росли. Уже и не помню, кто посоветовал мне обратиться к Платону («Платон Щукин» - псевдоним, которым пользуются специалисты техподдержки Яндекса). Мне ответили. Кто тогда был Платоном, я не знаю, но этот человек серьезно мне помог и просветил (совершенно бесплатно). Вообще, Яндекс в те годы был гораздо более доброжелателен к пользователям и веб-мастерам. Платон посмотрел мой сайт и заявил, что я должен удалить весь неуникальный контент и избавиться от перекрестного линкования внутренних страниц в текстах. Отметил, что ставить линки, конечно, можно, но по делу. Они должны вести к полезной в контексте материала информации.

Из других замечаний он отметил неоптимизированные изображения, высокий «вес» страниц (рекомендовано не более 100 килобайт), отсутствие мета-тегов страниц и много чего еще «по мелочи».


Контент, я, конечно, удалил, но сайт мой снова попал в выдачу поисковика далеко не сразу. Как объяснил Платон, нужно было дождаться повторного обхода поисковыми роботами всех проиндексированных Яндексом сайтов Рунета. После того, как поисковик прогнал полученные им в ходе общего обхода данные и пере¬считал положение сайтов, мой ресурс вновь появился в выдаче. Произошло примерно через месяц.


Естественно, что уникальный контент в необходимом объеме я быстро создать не мог. И поступил по-другому. Поставил на сайт годовой PDF-архив одного бумажного издания, которого не было в интернете (тогда еще не все газеты имели собственные сайты). PDF-файлы в то время поисковики еще не индексировали как следует, и можно было со спокойной душой переносить всю информацию в интернет, не боясь быть забаненным.


Платон, посмотрел обновленный сайт, одобрил мои старания (про контент я, конечно, смолчал), сделав еще буквально несколько замечаний. Стоит сказать, что спустя месяц-два, сайт мой довольно быстро вышел на хорошие позиции в Google и Яндексе. У него были довольно высокие ТИц и Page Rank. Скажу без бахвальства, Page Rank 5 и сегодня получить не так просто. В то время Google был поменьше и занимал значительно меньшую долю рынка в Рунете, чем сейчас, но уже активно действовал в русскоязычном сегменте сети, и сбрасывать со счетов его не следовало.


Остается добавить, что хороших позиций в поиске я смог добиться благодаря тому, что усвоил и при¬менил на практике основные официальные правила продвижения или «белой» оптимизации), не допустив грубых ошибок.

 Основы продвижения


Основу продвижения и ранжирования в интернете составляет ряд простых постулатов, которые мне вкратце обрисовал еще тогда Платон. Первый и самый главный состоит в том, что сайт должен быть наполнен уникальным текстовым контентом, полезным для читателя (это правило до сих пор остается важнейшим фактором ранжирования в интернете).

Контент должен регулярно (как можно чаще) обновляться - особенно это касается новостных сайтов. График обновлений фиксируется программами поисковых роботов, которые, соответственно, будут чаще заходить на сайт и индексировать его.

Сайт не должен быть перегружен линками на сторонние ресурсы (в этом случае поисковой алгоритм может занести его в разряд сборников ссылок и выбросить из поиска). Кроме того, любой сторонний линк «отбирает» у сайта небольшую часть его релевантности, а если таких ссылок много, то сайт может существенно опуститься в поиске.

Не стоит переигрывать и с внутренней перелинковкой страниц, поскольку поисковики могут отнести веб- ресурс к категории использующих недобросовестные элементы продвижения и понизить его релевантность (интересно, что многие до сих пор используют не-добросовестное перекрестное линкование, которое, фактически, является манипулированием результатами поиска, считая это вполне законным методом «белого продвижения»). Не стоит перегружать сайт иллюстрациями (это сильно утяжеляет страницы и затрудняет индексацию).

Их необходимо оптимизировать для веб (оптимальные размеры - до 100 килобайт). Примерно такими же по размеру (до 100 Кб) должны быть и стандартные странички сайта.

Необходимо разбить ресурс на логичные разделы и снабдить рубрикатором (для облегчения индексации и поиска). Все java-скрипты и подозрительные для поисковых машин ссылки необходимо закрыть специальными тегами, запрещающими индексацию (подробнее об этом - позже).

Естественно, мета-теги каждой страницы должны давать краткую, но исчерпывающую информацию о ней. Заголовок статьи, новости или пресс-релиза должен быть построен так, чтобы отражать содержание текста (всяческих метафор, нечетких сравнений, профессионального, фирменного и жаргонного сленга и проч. лучше избегать).

В начальной части текста (во вступлении) стоит разместить одну-две ключевые фразы (естественно, контекстно обоснованные), также отражающие содер¬жание материала или новости. В этом случае поисковик, который читает заголовки и отображает начальные фразы текста, покажет поль¬зователям реальную информацию, - именно то, что вы хотите им рассказать. Соответственно, и пользователь по своему запросу получит именно то, что ему нужно. А в противном случае вы столкнетесь с явлением, ко¬торые специалисты окрестили «сайтовой слепотой». Т.е., пользователи не будут видеть в поиске нужных им материалов с вашего сайта. Естественно, пользоваться этими советами нужно, аккуратно, без излишнего усердия, за которое можно попасть «под нож» поискового алгоритма.
Чего не любят поисковики?

Предупреждаю, что данная информация добыта эмпирическим путем, так как в реальности все тонкости работы поисковых алгоритмов засекречены, дабы не допустить недобросовестного продвижения. Тем не менее, все, о чем я пишу, реально работает, и этому можно найти подтверждение на любом SEO-форуме.

На одном IP не стоит располагать несколько сайтов, особенно если их структура и информационное напол¬нение схожи (поисковые системы могут заподозрить вас в создании сети сайтов и понизить ранжирование вашего ресурса).
Поисковые системы не любят и активно банят ката¬логи сайтов и ссылок (так называемые линкофермы). В свое время (лет семь назад) веб-мастера подметили, что размещение ссылок во множестве каталогов подни¬мает рейтинг сайтов. Это логично, поскольку формула ранжирования как раз и опирается, в том числе, и на количество ссылок на сайт на сторонних ресурсах.

Каталоги ссылок и сайтов были довольно популярны, делились на «белые», со ссылками на качественные сайты и «черные» с линками на сателлиты и прочую дребедень. Сейчас любые каталоги, кроме нескольких десятков официально признанных, банят почти сразу, как только они создаются. Банят и понижают рейтинг сайтов, ссылки на которые размещены на страницах подобных ресурсов. Аналогичная мера применяется к сайтам, перенасыщенным сторонними ссылками или напоминающими каталоги. Аккуратно нужно обращаться с различными RSS-информерами, информационными блоками с других ресурсов. Дело в том, что ближе к середине прошлого десятилетия RSS-информеры были одним из средств продвижения и информационного наполнения совер¬шенно бесполезных сайтов. Веб-мастера создавали пустые странички, на которые ставили информер - и простейший ресурс был готов.
Внутренние блоки, вроде «Похожие статьи» или «Новости по теме» поисковые системы также считают «злом» и априори заносят в разряд подозрительных, поскольку они могут быть элементами недобросовестного манипулирования поиском. Некоторые веб-мастера блоки эти тоже закрывают от индексации.

Поисковые системы не любят дубликаты картинок. И хотя поиск по изображениям, в основном, опирается на повторяющиеся фрагменты описания, размеры, вес и т.д., используется и цифровые сигнатуры картинок. Все это в комплексе позволяет (хотя и не всегда) вычислять дубликаты изображений и снижать релевантность сайтов, на которых они размещены.

Поскольку процедура эта сложная и не всегда дает точный результат, поисковые системы подозрительно относятся к новым фотохостингам и сайтам, перегруженным графикой, с небольшим объемом текстовой информации. Не слишком жалуют поисковые системы вновь создаваемые социальные сервисы. Дело в том, что, как правило, полезной информации там немного. Все, что видит поисковой алгоритм на главной странице - это одну и ту же форму авторизации и пару заголовков. На какие позиции в поисковике можно рассчитывать, имея столь куцую информационную составляющую?

Кроме того, после прошедшего в конце прошлого десятилетия «бума социальных сетей», когда почти каждый веб-мастер поднимал на своем домене какой- нибудь «сервис знакомств», поисковые системы стали осторожничать при индексации такого рода проектов. Если на них немного посетителей, то такие ресурсы быстро попадают под фильтры, а затем и в бан. При¬мерно то же происходит с не имеющими трафика «мега- порталами» и прочим аналогичным мусором.


СЕО-биржи

Модель работы SEO-бирж основана на принципах определения релевантности сайта поисковыми системами. Чем чаще он упоминается и чем авторитетнее ресурсы, на которых найдены ссылки на него, тем выше позиции сайта в поиске. SEO-биржи, как раз и занимаются перепродажей ссылок на авторитетных сайтах, которые находятся на высоких позициях в поиске.

Было время, когда SEO-биржи позволяли веб-мастерам неплохо зарабатывать. Правда, это время закончилось, году эдак в 2010-м. Именно тогда Яндекс начал борьбу с крупнейшей в Рунете ссылочной биржей Sape. Правда, она и сейчас предлагает свои услуги, но уже не так выгодна веб-мастерам и своим создателям. Асайты, которые пользуются ее услугами, рискуют угодить в бан. Мое мнение, кстати, подтверждают посты известного SEO-блоггера «Арбайтена».

ТИц, Page Rank или трафик?

ТИц - показатель, который отражает индекс цитирования и авторитетность того или иного сайта с точки зрения поискового сервиса Яндекс. Page Rank - аналогичный показатель Google. Они, безусловно, важны, но всего лишь, как числовые величины для оптимизаторов и веб-мастеров. В первую очередь потому, что каждый поисковик использует еще несколько сотен различных критериев для определения релевантности сайта. Подробно и популярно можно почитать об этом, например, вот в этой статье «Нью-Йорк Тайме». Не зря опытные веб-мастера презрительно называют ТИц и PR «пузомерками».

Главным же для любого сайта остается его тра-фик, посещаемость. Чем больше у сайта уникальных посетителей, которые не ищут его в поисковиках, а вводят адрес в соответствующей строке браузера или подключаются к нему из закладок, тем меньше этот сайт зависит от поисковых систем. Если посетителей очень много, то разработчики сайта могут допускать ошибки в его оптимизации, размещать на нем большое количество копипаста и т. д. Им практически ничто не угрожает. Ну, кто отнимет у них посетителей, если они приходят, минуя всех остальных интернет-посредников, включая даже поисковые системы? Другое дело, что при правильной оптимизации, число посетителей на таком сайте может возрасти вдвое - за счет трафика с тех же самых поисковых систем...


Рерайт - «за» и «против»

Этот небольшой раздел немного уведет нас от основ¬ной темы. Но, речь будет идти о все той же оптимиза¬ции - об одном из ее инструментов - рерайте. Главная задача информационного (и не только) сайта - поиск интересного и полезного для пользователей контента. Но, здесь очень часто и возникает серьезная пробле¬ма. Редакция сайта может состоять из трех, четырех, максимум десяти человек, один из которых - бухгалтер, другой - программист, а еще двое наполовину менед¬жеры по рекламе, наполовину - курьеры.

Те же, кто готовит статьи и новости, загружены работой, что называется, «по самое не могу». И даже если бы они могли, то не сумели бы ежедневно писать по десять статей на разные темы, про различные события или технологии (если речь идет, например, об IT). Они просто не смогут быть достаточно компетентны в С++ и одновременно в .NET, в Java и в Ruby, даже будучи семи пядей во лбу. Они не смогут участвовать одновременно в пяти компьютерных выставках, которые проходят в противоположных частях планеты и не посетят дата центр Google в Гренландии. Просто не смогут.

Но, сайт, тем не менее, придется наполнять материалами, так как в этом и состоит задача редакции. Ведь читатели хотят видеть статьи и новости. И не только из НАН и компьютерного магазина на углу Калинина и Свердлова, а со всего мира. В ситуации, когда статьи нужны, а копипаст неприемлем, на помощь приходит рерайт. Хороший, качественный, с использованием нескольких источников.

С помощью обычного мозга, клавиатуры и интернета, любую статью, при наличии соответствующих навыков, можно переделать так, что не только Google и Яндекс, но даже сам автор оригинала не сумеет узнать свое творение. К слову, поисковики так и не научились (и не научатся в обозримом будущем) отличать оригинальные статьи от хорошего рерайта. И не использовать его для развития и оптимизации информационного сайта будет даже не ошибкой, а обидным упущением, граничащим с абсурдной некомпетентностью. Конечно, все хорошо в меру. И все же, без рерайта сегодня не обойтись...