Справочник от Автор24
Поделись лекцией за скидку на Автор24

СЕО продвижение

  • 👀 982 просмотра
  • 📌 922 загрузки
Выбери формат для чтения
Загружаем конспект в формате pdf
Это займет всего пару минут! А пока ты можешь прочитать работу в формате Word 👇
Конспект лекции по дисциплине «СЕО продвижение» pdf
СЕО ПРОДВИЖЕНИЕ Поисковое продвижение. История. Устройство поисковой системы. Ранжирование в поисковой системе. Позиции в поисковой системе и трафик. Сниппеты. Бессылочное ранжирование: алгоритмы и факторы. Таргетинги и синергия. 1 ПОИСКОВОЕ ПРОДВИЖЕНИЕ Если у вас есть свой собственный сайт, то вам просто необходимо знать о SEO. Хотите привлечь на сайт больше посетителей, чтобы иметь возможность продемонстрировать им свои товары и услуги или же просто заработать в интернете? Это желание осуществимо! Единственное, что для этого нужно – продвинуть сайт в ТОП-10 выдачи поисковых систем. А чтобы сайт был в заветном ТОПе, нужно знать основы оптимизации и продвижения сайта в поисковых системах и уметь ими пользоваться. Начнем со знакомства с понятием СЕО. SEO расшифровывается как Search Engine Optimization, что в переводе означает поисковая оптимизация или же оптимизация под поисковые машины. SEO оптимизация Смысл этих трех слов – это оптимизация сайта для дальнейшего продвижения сайта в рейтинге поисковых систем. Чем выше позиция вашего сайта в выдаче поисковика, тем больше вероятность, что посетитель зайдет на сайт, так как примерно 100% заходит по первым трем ссылкам поисковой выдачи, далее тенденция к уменьшению – до десятой ссылки первой страницы выдачи добираются 20-50% пользователей. На вторую страницу выдачи поисковика заходят 10-20%. Следовательно, для всякого ресурса наиболее желанно место именно в первой десятке поисковой выдачи. Но, к сожалению, сайтов-конкурентов слишком много, а десятка всего одна. Появляется резонный вопрос: как же 1 покорить это вершину и выбиться в лидеры? И тут SEO-оптимизация сайта приходит на помощь. Поисковую SEO-оптимизацию условно можно разделить на три части: Первая часть заключается в работе внутри сайта. В нее входят исправление возможных ошибок, добавление и изменение контента, HTMLкода страниц сайта, перелинковка и так далее. Так называемая внутренняя оптимизация. Насколько действенным будет первый шаг, зависит только от Ваших усилий и знаний в этой области. Нужно так же учесть, что алгоритмы поисковиков немного различаются и поэтому оптимизация под Google должна чуть-чуть отличаться от оптимизации под Яндекс. Вторая часть SEO-оптимизации – это раскрутка сайта самостоятельно. На этом шаге необходимо вывести ресурс на первые позиции с помощью групп мероприятий, выполняющихся вне сайта (на других сайтах, в каталогах статей, форумах, закладках и прочих площадках), задача которых нарастить необходимую ссылочную массу и продвинуть сайт по целевым запросам, а так же увеличить его авторитетность. Это называется продвижением сайта или внешней оптимизацией. Третья часть заключается в поддержании достигнутых позиций и улучшении полученных результатов. Наблюдение за своими результатами и показателями конкурентов, изменение ключевых слов, текстов для ссылок, содержания сайта, корректировка площадок – все это обязательно нужно иметь в виду, чтобы сохранить занятые позиции. Почему сайту необходимо быть именно на первых местах в поисковых системах? Причин здесь несколько. Во-первых, топовые места в поисковых системах можно сравнить с престижными районами города. Обычно первое впечатление о компании клиент получает еще до посещения организации, узнав, где она располагается. Чем престижнее район, тем большее доверие 2 питает клиент, а соответственно, больше шанс, что он выберет именно Вас. Работает стереотип: если фирма расположена в самом центре города, то эта фирма процветает. Аналогично этот стереотип работает и при SEO продвижении. Сайты, находящиеся в ТОПе – это, как правило, наиболее уважаемые сайты. Во-вторых, хорошее месторасположение привлекает гораздо большее число посетителей. На сайты, расположенные на первых десяти позициях (ТОП-10, т.е. первая страница выдачи), обратят внимание более 95-ти (!) процентов пользователей. Если же поисковая система выдает сайт фирмы на четвертой странице и дальше, то менее чем у 2-ух процентов пользователей хватит терпения дойти до этой страницы. Поэтому, чем выше сайт в ТОПе, тем больший трафик у него будет. Мы рекомендуем по наиболее важным запросам находиться в ТОП-5 результатов поиска. 2 ИСТОРИЯ Впервые речь о необходимости поиска возникла после появления гипертекста в конце сороковых годов. Переломный момент наступил, когда скорость роста информационных ресурсов превысила скорость усваивания информации. Проще говоря, если пользователь первых сетей получал информацию о новых ресурсах и публикациях в виде дайджеста и вполне мог сориентироваться, где что находится по архиву подписки, то через несколько лет никакой дайджест уже не мог охватить размеры сети. Так появились первые механизмы поиска - тогда ещё очень примитивные и использующие 100% совпадение запроса с текстом. Количество документов стало увеличиваться, а уровень подготовки пользователя - падать (к сети подключались не только специалисты в области информации, но и обычные учёные, не зависящие от компьютеров). Потребовался нечёткий поиск, поиск по синонимам и многое другое. К 3 середине 90-х годов была необходима сложная система оценки релевантности выдачи запросу. Например, результат поиска по запросу «автомобиль» мог превышать несколько миллионов источников, причём чётких механизмов ранжирования ещё не существовало. Как раз в этот момент Интернет стал коммерческим: Wall Street вложилась в интернет-рекламу, и многие компании начали продвижение в сети. Первые места в выдаче поисковой системы сулили баснословные прибыли - и начали появляться специальные методики оптимизации. Первая легальная оптимизация проводилась банальным увеличением количества тематического текста на сайте. Если поисковый робот считал, что ресурс наиболее подробно раскрывает тему, он оценивал его выше. Этот параметр непосредственно зависел от количества страниц сайта, их внутренних связей и плотности ключевых слов запроса в тексте. Поисковые системы столкнулись со множеством «чёрных» способов оптимизации — попыток влиять на результаты выдачи с помощью страниц с бессмысленным набором слов, многочисленных дубликатов одних и тех же статей, белого текста с ключевиками на белом фоне и так далее. Вторая эпоха поискового продвижения началась в тот момент, когда Google (крупнейший американский поисковик) ввёл систему pagerank или PR - уровень популярности страницы сайта. Робот полагал так: даже если сайт огромен и полностью охватывает тему, он никому не интересен, если на него нет ссылок с других ресурсов. Ссылочный фактор в продвижении стал одним из самых важных, наступил перелом рынка поисковой оптимизации. Традиционные «гарантированные способы» перестали действовать: требовалось учитывать множество самых разнообразных факторов ссылочного ранжирования. Если ещё за год до этого мысль покупать ссылки казалась вебмастерам дикой, то после появления системы PR это стало нормой. Ссылка становилась новой сетевой валютой - и многие пытались 4 заработать на них, размещая каталоги ссылок на своих сайтах, либо добавляя свой ресурс в тысячи каталогов — исключительно для получения ссылок. Всё оказалось не так просто: ссылка с одного авторитетного ресурса были намного весомее, чем сотни ссылок с каталогов или домашних страничек. Поисковые системы увеличивали точность своих алгоритмов, отсекая возможности для обмана роботов — и лёгкие выходы в топ выдачи практически прекратились. Легальный способ поднятия сайта начал требовать очень много времени — вместо привычных трёх-четырёх недель (по сложным запросам) — нескольких месяцев. Поисковое продвижение стало искусством и областью для профессионалов. Современное поисковое продвижение - это тщательная работа по суммарному наращиванию множества факторов, влияющих на рейтинг сайта. По сути, это работа по превращению сайта в действительно полезный и интересный ресурс (нужный пользователям поисковых систем) и информирование робота о его высокой ценности. В 2007 году с широким распространением Web 2.0 родилась концепция SEO-2 или продвижения «от обратного». Традиционная модель предполагала, что сайт искусственно поднимается до вершины выдачи, после чего «обрастает» естественными ссылками и удерживается там. SEO-2 предлагает создавать яркие информационные поводы, которые распространяются волной вирусного типа по сети: на источник ставятся ссылки - и сайт поднимается в выдаче. Практически все современные стартапы используют как SEO-1, так и SEO-2 модели. 3 УСТРОЙСТВО ПОИСКОВОЙ СИСТЕМЫ «Современные поисковые машины обрабатывают десятки тысяч обращений в секунду. Как это происходит?» 5 3.1 Поисковые системы на физическом уровне Современная поисковая машина — это сложнейшая структура, состоящая из сотен тысяч, а в Google — миллионов физических серверов. Вся информация, которая на них хранится, распределена и надежно защищена по дата-центрам всего мира. 3.2 Серверное помещение яндекса При своем зарождении, в «далеком» 1997 году обработкой запросов для пользователей Яндекса и выдачей результатов поиска занимался всего один сервер, который располагался в кабинете одного из основателей компании и который был слабее любого современного домашнего компьютера! Представляете, как все быстро менялось, если уже к 2000 году у Яндекса было около 50 серверов. Каждый месяц число серверов увеличивалось и, со временем, это привело к появлению собственного датацентра (сейчас у Яндекса их уже четыре). Современный дата-центр — это сотни серверов, объединенных в единую сеть, которые позволяют справляться с большим объемом запросов и высокой посещаемостью сервиса. Вот характерный пример: посещаемость только поиска Яндекса за февраль 2012 года составила 28,3 миллиона человек. 3.3 Логическая схема работы поисковых систем Когда пользователь хочет что-то найти в интернете, он вводит запрос. Этот запрос обрабатывается - «балансировщиком нагрузки» — специализированным устройством, которое автоматически перенаправляет запрос пользователя в наименее загруженный на данный момент кластер. Это позволяет максимально эффективно использовать имеющиеся вычислительные мощности. Затем поисковый запрос перенаправляется в «метапоиск». Эта система получает все необходимые данные и узнает, к какому типу данных 6 этот запрос относится. На этом же этапе запрос проверяется на орфографию, здесь же определяется, из какого региона поступил запрос и стоит ли по нему показывать региональные сайты. 3.4 Логическая схема обработки запроса яндекса Далее метапоиск проверяет, не было ли похожего запроса к системе в последнее время. Это связано с тем, что некоторые запросы становятся весьма популярными в определенные моменты, происходящие в мире и Сети (значимое событие, катастрофа или даже рекламная кампания нового продукта), некоторые популярны постоянно (например, связанные с событиями в социальных сетях). Чтобы снизить нагрузку, поисковая система некоторое время хранит ответы на запросы пользователей в кэше и в случае повторных обращений, показывает уже готовые результаты, вместо того чтобы формировать ответы заново. Если при проверке не получилось найти уже готовый ответ в кэше, поисковая система начинает формирование нового ответа и запрос пользователя передается дальше, на серверы «базового поиска». Именно в базовом поиске находится индекс поисковой системы, разбитый на отдельные части и распределенный по серверам, поскольку поиск по частям всегда быстрее. Стоит обратить внимание, что каждый сервер имеет несколько копий. Это позволяет не только защитить информацию от потери, но и распределить нагрузку. Если информация с конкретного сервера окажется слишком востребованной и один из серверов будет перегружен, проблема решится подключением копий этого сервера. По результатам поиска каждый сервер базового поиска возвращает метапоиску результаты, связанные с запросом пользователя. Далее к работе подключается алгоритм ранжирования «Матрикснет», который и определяет, на каком месте в поисковой выдаче будет каждая конкретная ссылка. 7 3.5 Процесс индексирования Индексация — это такой роботы «совершают поход» по процесс, во время которого поисковые сайтам и собирают с их страниц разнообразную информацию и заносят ее в специальные базы данных. Вот завести с ними личное знакомство! Потом эти данные каким-то образом обрабатываются, и по ним строится индекс — выжимка из документов(веб страниц). Именно по индексу поисковая система ищет и выдает ссылки на сайты, исходя из запросов пользователей. Рассмотрим процесс индексирования на примере Яндекса. В поисковой системе есть 2 типа роботов: быстрый (быстро-робот) и основной. Задача основного робота — индексация всего контента, а быстрого — занесение в базы данных самой свежей информации. Планировщик поискового робота составляет маршруты посещения и передает его «пауку», который ходит по выбранным страницам и выкачивает из них информацию. Если во время индексации в документах обнаруживаются новые ссылки, они добавляются в общий список. 3.6 Последовательность процессов индексирования яндекса Документы в индекс попадают двумя способами: 1. Автоматически, когда поисковый робот сам переходит по внешним и внутренним ссылкам; 2. Либо владелец сайта может сам добавить URL через специальную форму(«аддурилка») или через установленную на сайте Яндекс.Метрику. Этот сервис передает url страниц на индексацию Яндексу. При желании можно не устанавливать код Метрики на сайт или отключить данную опцию ее в интерфейсе. 8 3.7 Скорость индексации и обновления страниц В идеале, вновь созданная страница должна быть сразу же проиндексирована. Однако большие объемы информации затрудняют скорость индексации новых страниц и обновления старых. Роботы поисковых систем постоянно обновляют поисковую базу данных, но чтобы она была доступна пользователям, ее необходимо переносить на «базовый поиск». База данных переносится туда не полностью. Исключаются зеркала сайтов, страницы, содержащие поисковый спам и другие ненужные, по мнению поисковой машины, документы. Однако для некоторых типов информации такая скорость обновление неприемлема. Например, процесс индексирования новостных сайтов. Размещенные новости должны быть доступны в поисковой системе практически сразу после их добавления. Для ускорения индексации часто обновляемых страниц и существует специальный «быстрый робот», который посещает новостные сайты несколько раз в день. Основными инструментами управления индексацией сайтов являются robots.txt, метатеги, теги, атрибуты noindex и nofollow. Robots.txt — это текстовый файл, в котором можно задавать параметры индексирования как для всех поисковых роботов сразу, так и по отдельности. Тег и метатег noindex отвечают за индексацию текста или самой страницы, а nofollow — за индексацию ссылок. Помимо обычных текстов, размещенных на сайтах, все современные поисковые системы умеют индексировать и документы в закрытых форматах. Существуют некоторые ограничения на типы данных, размещенных в этих файлах. Так, в PDF индексируется только текстовое содержимое. Во flash-документе индексируется текст, который размещен только в определенных блоках и т.д. 9 3.8 Типы роботов поисковых систем Среди всех существующих поисковых роботов стоит выделить четыре основных:  индексирующий робот;  робот по изображениям;  робот по зеркалам сайта;  робот, проверяющий работоспособность сайта или страницы. Некоторые посторонние роботы могут маскироваться под роботов Яндекса путем указания соответствующего user-agent. Вы можете проверить подлинность робота с помощью идентификации, основанной на обратных DNS-запросах. Определить, какой робот к тебе зашел, можно с помощью лог-файла, который обычно доступен либо в админке, либо на ftp. Все существующие роботы представляются по одной схеме, но каждый имеет свое название. Например: «Mozilla/5.0 (compatible; YandexBot/3.0; +http://yandex.com/bots)» — основной индексирующий робот Яндекса. Индексирующий робот обнаруживает и индексирует страницы, чтобы создать базу для основного поиска. Робот по изображениям заносит в индекс графическую информацию, которая в дальнейшем отображается в выдаче соответствующего сервиса, например, Яндекс.Картинки или Картинки Google. Робот, определяющий зеркала, проверяет зеркала сайтов, прописанных в файле robots.txt. Если они идентичны, то в результатах выдачи поисковика будет только один сайт — главное зеркало. Существуют так же другие виды индексирующих роботов: индексаторы видео; пиктограмм (иконок) сайтов; робот, проверяющий работоспособность сайтов в Яндекс.Каталоге; индексатор «быстрого» контента на площадках новостных сайтов и др. 10 Важно понимать, что процесс индексации является длительным, за ним следует процесс обновления индексных баз, который также требует временных затрат. Поэтому результат внесенных на сайте изменений может оказаться видимым только через 1-2 недели. Существует еще специальный робот, который проверяет доступность сайта, добавленного через форму «Добавить URL» в Яндекс.Вебмастер. 3.9 Продвижение сайта Для того чтобы занять Продвижение сайта - раскрутка сайтов высокие позиции в поисковой выдаче, нужно активно заниматься раскруткой сайта – SEO оптимизацией. Существует много разных методов продвижения сайта и задача вeбмастеров и оптимизаторов заключается в том, чтобы найти наиболее эффективные решения, которые обеспечат скорую доступность ресурса по нужным нам ключевикам. Но при использовании того или иного способа, нужно быть очень бдительными, иначе есть риск нарваться на незаконный с точки зрения поисковика метод и запятнать свой сайт. Чтобы этого не случилось, нужно иметь представление о всех опасных и безопасных способах раскрутки сайта. Итак, методы продвижения сайта разделяют на черные, серые и белые. 3.9.1 Черные методы продвижения сайта Черная раскрутка применяется для сайтов, которые планируют жить весьма недолго. Конечно грамотная раскрутка сможет принести очень большое количество посетителей за маленький промежуток времени, но благодаря черной раскрутке посетители будут попадать на сайт только обманным путем и как только об этом узнает поисковая машина, сайт неминуемо навлечет на себя бан и другие санкции поисковых систем. 11 Отсюда вывод – черные методы продвижения являются самым неэффективным видом раскрутки сайта, который стопроцентно приводит к бану сайта. К черным методам раскрутки сайтов относятся:  покупка ссылок на ссылочных агрегаторах и биржах ссылок — теперь ни к чему хорошему не приводит. И Яндекс и Гугл теперь с легкостью вычисляют этот черный способ продвижения сайта и жестоко карают нарушителей. Если вы все же хотите попробовать биржи ссылок, удостоверьтесь, что купленных не более 20% от общей массы и смотрите, чтобы они проставлялись в контенте, а не в блоке «реклама»;  использование невидимого текста, который совпадает с фоном по цвету или очень близок к нему, что делает текс т незаметным глазу. Текс состоит из фраз, которые не имеют отношения к конкретному сайту, предназначение этой хитрости – привлечь на сайт посетителей, не целевых, попавших сюда только благодаря обману. Но поисковики, и в том числе Яндекс, научились распознавать эту уловку и автоматом отправляют сайт в черный список. Другими словами, сайт отправляется в бан;  создание дорвеев. Создается ресурс, состоящий из одной-трех страниц, цель этого ресурса — привлечение посетителей, после чего он перенаправляет их на основной сайт. На данный момент этот способ, в частности перенаправление (редирект) на основной сайт не пройдет, потому что поисковики не проиндексируют страницу, в мета-тэгах которой есть редирект;  клоакинг – разная выдача текстового содержания страницы поисковому роботу и посетителю;  поисковый спам. Выставляя в тексте ключевые слова, важно не переусердствовать, так как злоупотребление ключевиками в тексте может расцениться как поисковый спам. Это так же приведет к автобану; 12 использование линкаторов — программ автоматического обмена  ссылками и использование сервиса автоматического обмена статьями; спам по почте — беспорядочная отправка сообщений при  помощи программ с просьбой посетить сайт миллионам пользователям сети. Делать этого не стоит, а в некоторых странах это считается уголовным преступлением. Итак, ни внутренняя оптимизация ни внешняя оптимизация по черному не принесет ничего хорошего вашему сайту, так что не стоит пачкать об нее руки и сайт. 3.9.2 Серые методы продвижения сайта Белое продвижение сайта против черной раскрутки сайта Серые способы раскрутки сайтов являются чем-то средним между черными и белыми методами продвижения. В сущности, серые методы продвижения сайта являются полулегальными и поэтому существует риск, что продвигаемый ресурс могут забанить. К серым методам относят:  слишком частое использование тэгов «strong», «b» и других, которые дают возможность воздействовать на алгоритм ранжирования в поисковиках и помогают хоть немного подняться за счет них;  нетематический обмен ссылками и нетематическими статьями, а так же покупка ссылок на других сайтах;  использование сервисов автоматического обмена статьями, хотя пока еще поисковые системы не могут распознать сайты, которые ими пользуются и участвуют в них. Так же платные линкаторы, с помощью которых покупают ссылки на сайт. Поисковики знают, как распознать быстрое увеличение количества ссылок низкого качества, теперь уже эти действия не приводят к желаемому результату; 13  покупка мест для статей на других ресурсах или размещение за плату статей со ссылками на свой сайт. Владельцы таких сайтов, которые продают места под статьи могут попасть под санкции со стороны поисковиков, будет неплохо, если размещаемые статьи просто попадут под не учет ссылочного ранжирования текста статей, а покупатели мест рискнут только тем, что внешние ссылки с таких статей не будут учитываться поисковыми роботами. Тогда по идее таким способом пользовались бы, чтобы валить конкурентов, к примеру, накупить побольше статей со ссылками на сайт конкурента и настучать поисковику. 3.9.3 Белые методы продвижения Белые методы и способы продвижения сайта способы раскрутки сайта являются легальными. Но к сожалению использование белых методов для продвижения сайта ведет к большей затрате времени и денежного вложения, это обосновывается трудоемкостью этого процесса. К белым методам продвижения относятся:  постоянное добавление уникального и интересного контента на сайте, публикация различных информационных материалов и новостей;  просьба других популярных и авторитетных сайтов разместить качественную статью со ссылками на ваш сайт;  создание своей собственной рассылки, которая позволит получить дополнительный трафик;  регистрация сайта в каталогах и отметка на картах тоже помогает приобрести естественную ссылочную массу;  положительные отзывы со ссылкой на ваш ресурс с сервисов отзывов тоже пойдут в плюс;  не забывайте и подтягивать соц. сети: каждый репост и лайк дает плюс в карму сайта, так что обязательно ставьте кнопки социальных сетей на страницы своего сайта; 14  юзабилити сайта тоже играет большую роль: следите за тем, чтобы сайт был удобным для пользователей, чтобы навигация была простой и понятной, а информация настолько интересной и полезной, чтобы пользователи проводили у вас на сайте больше времени;  также ссылки с видеоканалов определенно будут бонусом для вашего ресурса;  покупка контекстной рекламы для получения целевых посетителей;  можно так же внести свой сайт в каталог Яндекса, это поспособствует дополнительным посещениям из ЯК, потому что там сайты сортируются по ТИЦ. Если ваша информация будет уж очень уникальна и интересна, ее разместят у себя и интернет-газеты, они, кстати, считаются весьма и весьма авторитетными ресурсами с точки зрения Яндекса. И если вы все-таки решили заняться раскруткой сайта легальным путем, то тогда «делайте сайты для людей», создайте по-настоящему интересный сайт, изобилующий информационным материалом, в котором действительно нуждаются пользователи. Даже Яндекс говорит, что реклама – это далеко не единственное, ради чего посетители приходят на сайт. 3.10 Сохранение позиций и поддержка результатов продвижения сайта Вот несколько рекомендаций, которые могут помочь сохранить позиции и поддержать результаты продвижения сайта:  постоянно публикуйте новые материалы. Это обновляет сайт в глазах поисковика, и говорит поисковым системам о том, что ваш ресурс не заброшен, что этот проект растет и развивается;  не спешите удалять контент, который на ваш взгляд устарел, сохраните его на сайте в виде блога или новостного архива и поставьте на эти статьи ссылки с обновленных страниц; 15  если вы пишите статьи для вашего ресурса, то не брезгуйте распространять их при помощи бирж статей, не забывая, конечно, проставлять в них ссылки на сайт. Это сохранит видимость сайта;  есть смысл публиковать пресс-релизы. Это поможет вызвать большое количество входящих ссылок, к сожалению, они будут не долгосрочными, но с их помощью можно получить долгосрочные ссылки;  не забудьте создать RSS-канал. Ленту новостей можно распространить в бесплатных каталогах RSS;  не забывайте следить за поисковыми алгоритмами, точнее за их изменениями. Очень важно оставаться в курсе всех новостей и применять их на практике. 3.11 Внутренняя оптимизация сайта Внутренняя SEO оптимизация сайта — это сборник мер, которые могут помочь индексировать сайт поисковым системам. Т.е. должна быть перелинковка между статьями, разделами, должны быть установлены специальные, помогающие плагины, установлена карта сайта и многие другие действия. Далее, в более приближенном виде, рассмотрим каждый пункт внутренней оптимизации сайта. 3.11.1 Специальные плагины для поисковой оптимизации Внутренняя оптимизация не возможна без использования специальных плагинов. Ставьте плагины, которые будут отображать под статьями ссылки на категории или статьи на вашем сайте. Так, пользователь, который будет прочитывать статью, сможет посмотреть похожие записи или статьи из этой же категории. Эти плагины имеют целых 2 плюса, человек наверняка прочитает названия похожих статей и если ему понравиться тема, прочитает еще несколько. Другой плюс — получение ссылки с нужным анкором. 16 3.11.2 Внешняя оптимизация Внешняя оптимизация заключается в работе с поисковиками, тематическими каталогами, биржами ссылок и другими сервисами с целью наращивания внешней ссылочной массы. Внешняя оптимизация сайта наращивание ссылочной массы. Это все нужно для продвижения сайта по целевым запросам и увеличения его авторитетности, потому что количество и качество ссылок, которые ведут на ресурс, имеет огромное значение. От правильной работы по наращиванию ссылочной массы на продвигаемый ресурс зависит успех продвижения – положение сайта на первой странице выдачи поисковых систем по нужным запросам. 17 4 РАНЖИРОВАНИЯ В ПОИСКОВЫХ СИСТЕМАХ Ранжирование - процесс распределение позиций в поисковой выдаче между сайтам по определенным запросам, основной задачей которого является выбрать 10 лучших документов по определенному запросу и поместить их на первой странице поиска. В самом начале развития поисковых систем веб-мастеру было достаточно прописывать больше количество мета-тегов к странице и его сайт ранжировался бы в ТОПе выдачи. Но поисковые системы постепенно совершенствуются. В этом имеется большая нужда, так как сайтов с каждым днем становится на порядок больше и пользователи становятся требовательнее. Исходя из этого, стоит 2 основных задачи у поисковых систем:  дать пользователю конкретный ответ на поставленный ответ и решить его проблему;  определить какой сайт сможет дать самый лучший ответ. Исходя из этих задач и происходит ранжирование. Чтобы оно происходило максимально эффективно существуют факторы ранжирования, из которых и происходит оценка сайта. Их можно разделить на 2 группы:  внутренние;  внешние. 4.1 Внутренние факторы ранжирования К внутренним факторам можно отнести все моменты полезности сайта и отсутствие каких-либо явных манипуляций, чтобы обмануть поисковые системы. Также сюда входит и анализ правильной технической составляющей (корректная верстка, чистый исходный код, настройка редиректов, зеркал сайта, robots.txt и друие). К основным внутренним факторам ранжирования можно отнести: 18  текстовое содержимое, то есть контент - происходит анализ текста, который вы публикуете на сайт. Идет определения качества контента по многим параметрам, основными из которых будут: уникальность текста, новизна, актуальность, релевантность запросу пользователя и естественность (правильная оптимизация статьи);  мета-теги и теги - наличие и правильное использование всех мета-тегов (ключевые слова, title и описание), а также тегов заголовков, выделений жирным, курсивом и так далее. Это очень важно, так как за неправильное и чрезмерное употребление всех этих вещей можно попасть под фильтр за переоптимизацию, что является явным знаком в сторону манипуляции поисковыми системами. Также мета-теги определяют релевантность документа, поэтому в заголовок, описание и ключевые слова нужно вписывать ключевые фразы, но делать это грамотно, чтобы не переоптимизировать контент и сделать его неестественным. Тоже самое касается и употребление ключей в тексте, когда их больше количество делает документ не читаемым для пользователя;  качество сайта в целом - сюда можно отнести все то, что делает сайт полезным и удобным. Как правило, это количество страниц на сайте, правильная и удобная навигация, перелинковка, количество страниц. Изобилие рекламы также сюда можно отнести. Также очень важным параметром является возраст сайта (не домена, а ресурса с момента первого попадания в индекс). 19 Рисунок 1 – Факторы ранжирования Улучшение внутренних факторов полностью зависит от нас, так как все происходит именно внутри сайта. Работать над его начинкой нужно постоянно. По мере роста проекта это становится сложней, но правильные правки и улучшение могут в разы улучшить продвижение сайта. К внутренним факторам я еще могу отнести качество внешних ссылок с нашего ресурса и их количество. По мере возможности необходимо ссылаться только информацию на на качественный вашей странице площадки, и помогают которые решить дополняют проблемы пользователей. Также стоит уменьшать их количество. 4.2 Внешние факторы ранжирования Факторы, которые оценивают взаимодействие ресурса с внешней средой интернета. Под ними подразумевают:  цитируемость сайта другими источниками, то есть количество обратных ссылок с других сайтов. Сюда можно отнести, как простое размещение ссылок на других ресурсах, так и размещение в авторитетных каталогах (dmoz, каталог яндекса, mail). Можно оставить данный фактор на естественный прирост, то есть ссылочная масса начнет расти само по себе. 20 Но это возможно только при достаточно хороших показателях посещаемости и качества контента. Только тогда вашим ресурсом захотят поделиться;  поведенческие факторы ранжирования - оценка поведения пользователя на странице, а также в выдаче поисковых систем, когда он делает выбор между сайтами в поиске. Над этими факторами необходимо постоянно работать, так как напрямую можно на них влиять, меняя структуру сайта, подачу контента и его качество. Но для этого потребуется заниматься аналитикой, что не всегда возможно новичками. Рисунок 2 – Внешние факторы ранжирования Поведенческий фактор можно выделить, как отдельную группу, так как он имеет множество показателей, которые оцениваются поисковиками:  время, проведенное на сайте - основополагающий фактор при оценке качества страницы. Если пользователь проведет долго времени на странице, то это явный знак, что там интересный и полезный контент. Чтобы 21 улучшить данный показатель, постарайтесь использовать, как можно больше точек захвата: видео, изображения, таблицы, списки и так далее;  показатель отказов - если посетитель зашел на странице и сразу ее покинул, то сигнал, что она не несет нужный ответ и не соответствует запросу;  количество просмотров страниц - больше подходит для оценки качества сайта в целом, так как больше количество просмотров других документов явно об этом свидетельствует;  показатель возвратов - если посетитель вернулся на ваш сайт еще раз в другой день или в этот же, чтобы прочесть другие материалы, то это большой плюс;  кликабельность (CTR) вы поисковой выдаче и другие - если на ваш сайт будут лучше переходит из поисковой выдачи, тем лучше для продвижения его страниц. Чтобы улучшить все эти показатели, необходимо работать над контентом. Нужно всегда давать четкий ответ пользователю. Если используете длинные статьи с обсуждением многих вопросов по теме, то постарайтесь сделать, чтобы посетитель в обязательном порядке нашел решение проблемы. Если же взять первый внешний фактор, подразумевающий наличие обратных ссылок на сайт, то на него также можно влиять и достаточно просто. Не секрет, что покупка ссылок на сайт также имеет место быть и дает еще ощутимый эффект. Однако, поисковые системы постоянно совершенствуют свои алгоритмы ранжирования и с каждым годом становится все сложнее находить действительно качественные сайты, чтобы приобрести на них ссылки. Раньше данный фактор исчислялся, по сути, только количеством обратных ссылок. Сейчас же 5 качественных обратных линков могут дать в 22 десятки раз больше эффект, чем 2000 плохих ссылок. Также ссылки должны быть естественными, чтобы поисковые системы понимали, что ссылка не является манипулятивной, а проставлена на нас вследствие качественной подачи полезного контента и решения проблемы пользователя. Предлагаю рассмотреть еще некоторые факторы ранжирования, которые не столь существенны, но при прочих равных условиях они могут дать приоритет вашему сайту при распределении позиций в выдаче.  Факторы домена - доменная зона, как ни странно, также влияет в продвижении, но не столь существенно. К основным параметрам домена можно отнести его уровень (лучше всего 2й, например, kostyakhmelev.ru), историю (не накладывались ли на него ранее санкции), наличие ключевого слова в доменном имени;  региональные факторы - по большей мере подходит для коммерческих запросов, когда пользователю выдается список сайтов именно по нужному ему региону. Если необходимо продвинуться за счет этих факторов какие-то страницы, то необходимо присвоить регион своему сайту в панелях веб-мастеров поисковых систем, употреблять названия региона на странице, а также ссылаться с сайтов, имеющих требуемое местоположение. На рисунке 3 показана диаграмма значимости поисковой системы Google. 23 Рисунок 3 – Диаграмма значимости для Google 24 5 ПОЗИЦИИ В ПОИСКОВОЙ СИСТЕМЕ И ТРАФИК Поисковый трафик – количество реальных посетителей, переходящих на ресурс по ссылкам, выданным поисковой системой. Достижение высоких показателей поискового трафика – одна из задач SEO-продвижения сайта. Поисковый трафик является гораздо более точным показателем эффективности продвижения, нежели его положение в поисковой выдаче, так как позиции при выдаче результатов поиска зависят от многих факторов, а алгоритмы ранжирования у поисковых систем периодически меняются. Проверять позиции сайта можно по-разному, существует несколько способов:  мониторинг вручную;  мониторинг с помощью спец. программ;  мониторинг с помощью спец. сайтов; Давайте подробнее разберем каждый из них. 5.1 Ручной мониторинг Самый банальный способ – проверять позиции вашего сайта вручную. В этом случае вы просто забиваете интересующие вас запросы в окне поиска ПС. Далее вам нужно будет искать сайт в поисковой выдаче. Чтобы не листать страницы поиска, настраиваем фильтр поисковых систем так, чтобы на одной странице отражалось по 50 сайтов. Например, для Яндекса: Фильтр поиска в Яндексе. Теперь ищем наш сайт (воспользуйтесь поиском в браузере – Ctrl+f): Позиция в Яндексе. Как видно, по запросу «как увеличить посещаемость сайта» блог находится за пределами ТОП-10 Яндекса. Нужно улучшать позицию! Аналогичным образом можно проводить мониторинг в других поисковых системах (в частности – в Гугле). 25 Единственное преимущество метода – нет необходимости устанавливать специальный софт или пользоваться какими-то сервисами. Но «идти этим путем» рационально в том случае, когда вам нужно проверить 1-5 поисковых запросов, если больше – то вы потратите много времени, проводя ручной мониторинг. 5.2 Программы для мониторинга Сейчас существует множество программ, которые позволяют отслеживать позиции сайта в поисковых системах. Их нужно скачивать на компьютер. Данный метод мониторинга подойдет тем, которые периодически занимаются проверкой позиций сайта в ПС. Скачав программу единожды, вы будете пользоваться ей долгое время. Одной из самых популярных программ для проверки позиций сайта стала бесплатная – SiteAuditor, которую можно скачать на официальном сайте — http://www.site-auditor.ru/. Сайт аудитор. Чтобы проверить позицию по запросам, выбирайте вкладку «Подбор запросов», вводите ключи (каждый с новой строки), далее переходите на вкладку «Видимость сайта»:  указываете адрес сайта вверху в белом окошке;  выбираете поисковые системы, в которых проводится мониторинг (в правом верхнем углу);  нажимаете кнопку «Проверить»;  ждете завершения анализа. Если по каким-то причинам вам не понравится Сайт Аудитор, попробуйте другие программы: http://sespider.ru/ — программа СеСпайдер. Очень гибкая, позволяет проверять множество поисковых запросов одновременно. Есть возможность выбора поисковых систем, в которых будет проводиться мониторинг. Принцип работы у программы аналогичен SiteAuditor. 26 5.3 Онлайн сервисы для мониторинга Онлайн сервисы для проверки позиций подойдут в том случае, когда вам нужно проверить большое число ключей, но вы не можете скачать программу (или не хотите). Преимущество данного метода мониторинга – проверка осуществляется не с помощью вашего интернет-соединения, вам не придется тратить свой трафик (это подойдет тем, у кого тариф интернета не безлимитный, и каждый мегабайт «на счету»). Вот несколько сервисов, которые подойдут для мониторинга позиций сайта:  Топвизор Введите адрес сайта, ключевое слово, поисковики, регион для проверки (для Яндекса) и заполните капчу. Недостаток сервиса – будучи неавторизованным, вы можете проверять только один ключ за раз. Для проверки большего количества запросов, вам придется зарегистрироваться.  mainspy.ru/pozicii_sajta Введите запросы (каждый с новой строки), настройте другие параметры и проверяйте позиции. Очень удобный сервис.  Еще http://www.siteposition.ru/check.php один незамысловатый онлайн-сервис, позволяющий осуществлять мониторинг.  http://www.seolib.ru/script/pos/ Здесь вы также можете проверить позиции сайта. Но сделать это можно ограниченное число раз (не более 5-ти в сутки для одного IP-адреса). 27 6 СНИППЕТЫ Сниппет — это блок информации о найденном документе, который отображается в результатах поиска. Он состоит из заголовка и описания или аннотации документа, а также может включать дополнительную информацию о сайте. Сниппет позволяет пользователю получить представление о документе или даже искомую информацию, не открывая сам документ. Как изменить заголовок и описание сайта в результатах поиска? Заголовок сниппета может составляться на основе HTML-элемента title. Описание сайта — на основе мета-тега . Если элемент title и мета-тег отсутствуют или, по мнению робота Яндекса плохо описывают документ, будут выбраны более информативные описание и заголовок, содержащиеся в тексте документа. В таком случае описание найденного документа, как правило, составляется автоматически на основе цитат из текста документа. Также может быть использовано описание сайта, предоставляемое Яндекс.Каталогом или DMOZ, — если такое описание точнее отвечает запросу и содержимому документа, чем сформированная аннотация. Чтобы отказаться от описаний из Каталога, в HTML-коде страниц разместите мета-теги и соответственно. Также могут быть использованы данные, размеченные по стандарту Open Graph, если алгоритмы Поиска сочтут их наиболее информативными. Чтобы добавить информацию для формирования сниппетов, в HTML-коде страниц внутри элемента head укажите заголовок страницы и название сайта в свойствах og:title и og:site_name. 28 Какие специальные данные могут быть показаны в сниппетах? В некоторых случаях сниппет может содержать дополнительную информацию, которую вебмастер может настроить самостоятельно. Это позволяет повысить информативность сниппета и предоставить пользователю дополнительные знания о сайте и компании. В данный момент доступно добавление и редактирование следующей информации, которая будет учтена при формировании сниппета:  особенности компьютерных программ, приложений и игр;  вопросы и лучшие ответы;  быстрые ссылки на разделы сайта (допускается только редактирование автоматически определенных ссылок);  регистр названия сайта;  адрес организации;  подробные данные об организациях и их услугах;  данные о товарах (цены и информация о доставке интернет- магазина);  подробности кулинарных рецептов;  детальные данные о рефератах;  детальные описания фильмов;  описание творческих работ с указанием автора и жанра. 29 7 БЕССЫЛОЧНОЕ РАНЖИРОВАНИЕ: АЛГОРИТМЫ И ФАКТОРЫ С 15 мая 2015 года заканчивается эпоха ссылочного продвижения. Отмена ссылок: что случилось?  «Яндекс» может отделить купленные ссылки от естественных;  по справедливому мнению поисковика деньги на развитие должны вкладываться в улучшение самого сайта, а не его внешних показателей;  чтобы улучшить экосистему Рунета Яндекс начнет вводить санкции за использование ссылок в рекламе;  бюджеты пойдут на другие виды рекламы и на оплату полезных профессий: дизайнер интерфейсов, контент-менеджер, аналитик трафика. 7.1 Минусинск: что делать?  Яндекс рекомендует снимать все платные ссылки как можно быстрее;  ставить все служебные ссылки в тег «nofollow», обычно это касается указаний студии-разработчика в подвале сайта;  похоронить стратегии получения внешних ссылок через биржи, ссылочный обмен, проплаченные посты в социальных сетях и переходы с дорвеев;  развить компетенции контент-менеджера и аналитика у человека, занимающегося сайтом в настоящий момент, убрать «лишних» людей, сливающих ваш бюджет на реклам;  направить бюджеты на контекстную рекламу, исправление ошибок на сайте и улучшения конверсии. 30 8 ТАРГЕТИНГИ И СИНЕРГИЯ Таргетинг - это специальные фильтры, применяемые в рекламных интернет-компаниях с целью увеличить процент целевого трафика на рекламируемый сайт, чтобы сэкономить бюджет. Виды таргетинга 1. Географический таргентинг Данный вид таргетинга позволяет задавать регионы, в которых нужно показывать рекламу для потенциальных клиентов. Например, если Ваша компания предлагает какие-то услуги в Москве, то чаще всего нет смысла показывать её по всей России. В этом случае лучше задать строго регион только Москву и область. Географический таргетинг активно используется поисковыми машинами, чтобы показывать в выдаче только те сайты, которые соответствуют региону пользователя. Я помню, что когда-то выдача содержала полную кашу по различным услугам. Например, на первом месте могли быть сайты из Москвы, Петербурга и т.п. Понятно, что это плохая выдача, поскольку пользователю приходилось самостоятельно искать сайты своих регионов. Для всех геозапросов должен применяться геотаргетинг. Определение региона происходит с помощью ip-адреса. 2. Временной таргетинг Временной тагретинг часто используется в контекстной рекламе. Так как многие фирмы не работают по выходным, поэтому нет смысла рекламировать сайт по выходным. В этом виде таргетинга можно задавать не только дни для показа, но и по времени суток. 3. Демографический таргетинг В данном виде таргетинга показ рекламы осуществляется лишь для определенных людей, которые удовлетворяют некоторым требованиям. 31 Например, пол, возраст, образование и т.п. Этот вид часто используется на сайте "Вконтакте" и других местах, где можно определить эти параметры. 4. Тематический таргетинг Этот таргетинг чаще всего используется в тизерах, где можно установить тематики, на которых стоит показывать рекламу. Весьма эффективный способ фильтрования, которым я лично используюсь. 5. Таргетинг по показам Можно задать число показов одному пользователю. На мой взгляд, весьма логичный фильтр, поскольку если пользователь не кликнул на рекламу 5 раз, то вряд ли он кликнет на 6. Значит, нет смысла ему показывать эту рекламу, т.к. она ему не интересна. 8.1 Синергия: СЕО + контекст Рисунок 4 – Синергия Синерги́я - это взаимодействие двух или более факторов, характеризующееся тем, что их действие существенно превосходит эффект каждого отдельного компонента в виде их простой суммы. Происходит от греческих syn (вместе) и ergos (действующий). Эффективность такой рекламы уже никто не ставит под сомнение, а учитывая постепенный переход от эры создания сайтов к эре их раскрутки (сейчас все меньше ниш, где у бизнеса вообще нет представительства в Интернете), именно контекст и 32 СЕО становятся самыми интересными рекламными инструментами в Интернете. Рисунок 5 – пример синергии По стоимости даже комплексные услуги по поисковому продвижению и контекстной рекламе стоят меньше, чем традиционные инструменты. В отличном охвате также сомневаться не приходится. Просто введите характерный для вашего бизнеса поисковый запрос в Вордстате и узнайте, сколько раз за месяц вы бы могли быть на виду у потенциального клиента. Быстродействие продвижения не очень высоко, так как на достижение цели - выход в ТОП - может понадобиться и полгода, а то и больше, а вот контекстная реклама - дает моментальные результаты. В стратегической перспективе тандем СЕО + Контекст также дополняют друг друга. Отдача от поискового продвижения остается с вами надолго, в то время как при отказе от контекстных объявлений показатели посещаемости и заказов изменятся сразу же. 33
«СЕО продвижение» 👇
Готовые курсовые работы и рефераты
Купить от 250 ₽
Решение задач от ИИ за 2 минуты
Решить задачу
Помощь с рефератом от нейросети
Написать ИИ

Тебе могут подойти лекции

Смотреть все 259 лекций
Все самое важное и интересное в Telegram

Все сервисы Справочника в твоем телефоне! Просто напиши Боту, что ты ищешь и он быстро найдет нужную статью, лекцию или пособие для тебя!

Перейти в Telegram Bot