SEO для брендів або як зібрати співтовариство: кейс Svitmam
19.10.2017
Доповідь про збір лояльного спільноти навколо бренду за допомогою прийомів SEO-просування. Розглянемо на прикладі сайту компанії Svitmam.
У цій доповіді я зробив акцент на не банальні SEO-прийомах, які реально важливо застосовувати для будь-якого глобального контентного проекту.
Зміст статті:
- Про проєкт Svitmam.
- Аналіз трафіку і існуючих каталогів.
- Визначення непотрібних груп сторінок.
- Особливості внутрішнього перелінкування.
- Технічні лайфхаки.
- Визначення стратегії лінк-маркетингу.
- Боротьба за ключові слова та ТОП.
- Аналіз результатів.
Про проєкт Svitmam
Svitmam — це соціальна мережа для мам, яка є проектом компанії Huggies. Huggies — це один з лідерів різноманітних дитячих товарів, таких як підгузники і т.п.
Маркетинг напрямки Huggies орієнтований сформувати аудиторію, максимально лояльну до свого продукту. Для цього Huggies вирішив створити портал Svitmam.
Концепція проекту полягає в тому, що на даному сайті публікуються статті для мам. Це якесь співтовариство, де кожна мама може створити свій профіль, поспілкуватися з подругами і фахівцями, оскільки на сайті працюють кваліфіковані люди, ті ж самі доктора, інші мами, які готові завжди дати раду.
Ця тема підкуповує цільову аудиторію тим, що з’являється лояльність до бренду і в цьому є основна фішка Svitmam. Коли до нас прийшов цей бренд на просування вони поставили досить просту мету — це популяризація порталу Svitmam для отримання нових користувачів, утримання старих, написання і формування правильної стратегії.
Завдання проекту були прості:
- Технічна оптимізація.
- Лінк-маркетинг (який включає аутріч, крауд-маркетинг, який включає роботу над піар-статтями.
- Контент-маркетинг, тобто підбір тем, робота над тим, щоб контент, який публікується, був максимально ефективним і збирав максимальний обсяг трафіку з пошукових систем.
Аналіз трафіку та існуючих каталогів
Першим блоком, який ми розглянемо, є аналіз трафіку з існуючих каталогів. Ви бачите таблицю, яка являє собою якийсь детальний аналіз того, що є на сайті Svitmam.
Що в цій таблиці?
Є розподіл по пошуковим системам і є аналіз кожного окремого каталогу. Портал складається з:
- сторінок користувачів;
- тем (тема — це статті, які публікуються професійними редакторами Svitmam);
- оголошення (місце, де люди можуть продавати, дарувати, купувати різні товари і т.д.);
- довідник різних підприємств (ті ж пологові будинки та інші, пов’язані з даною тематикою напрямки);
- сторінки спільноти. Оскільки Svitmam це соціальна мережа, то у користувачів є можливість створювати свій контент. Тобто є спільнота, наприклад, “висип у дітей” і в цій спільноті мами можуть створювати свої підтеми, ділитися досвідом, коментувати і т.д.
З одного боку, це є значущою фішкою, оскільки ми отримуємо User-Generated контент, який вкрай важливий для пошукової системи. З іншого боку, ми отримуємо слабо контрольований формування контенту (люди схильні копіювати звідкись контент, створювати дубльовані теми і т.д.), що, в принципі, є негативом для SEO. Тому аналітика трафіку існуючих каталогів для нас була важлива, як для будь-якого великого проекту.
На цьому ж слайді статистика говорить про те, що є оголошення, які займають 20 тисяч сторінок, але при цьому дають всього лише 1,5% трафіку. У пошуковій системі є логіка того, що у Google (та й у Яндекса) є ресурс сканування пошукової системи. Великим сайтам і SEO-фахівцям, які ведуть великі проекти, вкрай важливо спрощувати пошуковій системі сканування ресурсу. Сканування в подальшому впливає на індексацію сайту в пошуковій системі і його ранжування в пошуковій видачі.
На сканування сайту впливає:
- потужність сервера;
- швидкість завантаження сайту;
- авторитет сайту і т.д.
І кожному сайту Google призначає якийсь свій певний інтервал, за який Google може його просканувати. Для того, щоб збільшити даний інтервал і для того, щоб пошукова система ходила по максимально корисним для нас сторінок, ми можемо обробляти ті сторінки, які є менш корисними. Виходячи з цього, ми бачимо, що сторінки оголошень мають 20 тис. Сторінок, даючи 1,5% трафіку. Ними можна пожертвувати — оптимізувати, деякі сторінки закрити від індексації і заощадити ресурс пошукової системи, щоб проіндексувати і просканувати сторінки тих же статей або спільнот.
На практиці просування даного проекту ми бачимо, що є сторінки користувачів. Це приблизно 178 тисяч. З них 56 тис. – це сторінки фотографій. Тобто для кожної фотографії формується свою адресу, але дані сторінки є мало корисними, оскільки на одній html-сторінці є тільки одна фотографія. Логіка така, що є профіль користувача, є альбоми та фотографії. Таких профілів 60 тис. сторінок і завдання полягало в тому, щоб пошукова система не витрачала на них час. До нас прийшло досить просте рішення: зробити урли фотографій за допомогою хештегів. Якірна логіка формування URL допомогла зробити так, що пошукова система не вважає сформований url окремою сторінкою. Тому дана методологія допомагає спростити і зменшити логіку сканування.
Подібний аналіз must-have абсолютно для всіх великих проектів. Спеціаліст повинен розуміти, куди витрачається ресурс сканування, який обсяг сторінок є, яку частку трафіку дають дані сторінки. Надалі це допоможе прийняти рішення щодо скасування, закриття від індексації або іншими діями з даними цільовими сторінками. Це саме те, що ми зробили щодо сайту Svitmam.
Визначення непотрібних груп сторінок
Великі сайти, на яких користувачі самі генерують контент, вимагають більш ретельного аналізу. Є такий чудовий інструмент як Netpeak Spider, який дозволяє просканувати певні каталоги по сайту за допомогою спеціальних правил.
Чому я вирішив показати даний слайд? Тому що в процесі спілкування з SEO-фахівцями виявляється, що багато хто не вміють користуватися найпростішими методами визначення сканування сайту, щоб робити якісь подальші висновки по просуванню.
У правилах (вказуються в настройках) ми можемо задавати категорії, які можна і потрібно сканувати. Після сканування сайту ми отримуємо Excel-файл. Його ми сортуємо за розміром контенту від найменшого розміру контенту сторінки до найбільшого — і отримуємо список тих сторінок, який має мінімум контента в собі.
Далі ми аналізуємо дані сторінки і виявляємо закономірність — чому на даних сторінках є так мало контенту. В процесі ручного аналізу для даного проекту, ми виявили, що в індексі пошукової системи, та й на сайті, досить багато сторінок користувачів, які створили свій аккаунт, але не додали ні фотографії, ні опису себе, ні якісь свої щоденники — тобто нічого не створили. Така порожня сторінка марна, і таких сторінок досить багато. Якщо брати близько 170 тис. сторінок, то близько 30 тис. сторінок саме такого типу. Цю закономірність вдалося виявити саме завдяки тому, що ми просканували окремо каталоги і отримали ось такі дані.
Щоб такі сторінки не тягнули сайт вниз, ми виключили їх з індексу, поставили там правило: у разі, якщо користувач не заповнив жодної інформації про себе, воно ставить там новий індекс, знову ж таки, той же самий, і виходить, що ми допомагаємо ражіроваться інших сторінок подібним чином.
Особливості внутрішнього перелінкування
Якщо говорити про внутрішню перелинковке, тобто 2 правила, якими ми керуємося, щоб збирати сторінки, на які потрібно ставити посилання.
Правило 1
В SEO в багатьох моментах працює принцип Парето. Що це означає? Це означає:
- що 20% сторінок на сайті дають 80% трафіку;
- 80% решти сторінок дають всього лише 20% трафіку.
Тому для нас важливим моментом є саме визначення цих 20% сторінок, які вже дають якийсь результат, і взяти їх в першу ітерацію перелинковки, для того, щоб утримати ці сторінки, збільшити їх вагу і щоб вони і далі приносили якийсь трафік.
Правило 2
Друга фокус-група сторінок — це потенційні сторінки. В даному скріншоті ви бачите інформацію з нашої системи автоматизації. Що вона дає?
Ми збираємо структуру сайту, структуру всіх статей. Під кожну статтю збирається семантика.
Система автоматично підсумовує суми частотності всіх запитів і видає в таблиці. Ми можемо впорядкувати, вибрати сторінки з найбільшою сумою частотності – це будуть найбільш потенційні цільові сторінки, які можуть дати максимум трафіку.
Дані сторінки ми беремо в фокус-группу №2 і ставимо на них посилання. Знову ж, посилання ставляться за наступним принципом — формується 2 блоки:
- популярні статті;
- рекомендовані статті.
У популярних статтях виводяться посилання, які відносяться до 20% найефективніших, тобто це найпопулярніші по сторінках входу з органіки. І тут ставляться вже рекомендовані посилання на ось ці сторінки. Ставиться все може в рандомном порядку або за допомогою якогось алгоритму. Ми робили ручну логіку уявлення, оскільки вона була для нас максимально ефективною. Ми розуміли що, куди і за яким принципом ми ставимо. Таким чином ми збільшуємо вагу найпопулярніших сторінок і вага самих потенційних сторінок.
Інші корисні лайфхаки
Створення окремих карт сайту, обробка дублів тим користувачів, механізм перенесення спільнот в теми, зменшення вкладеності і довжини URL, обробка прихованого контенту. Це якісь особливості, про які потрібно знати будь-якому SEO-фахівця, для того, щоб успішно просувати сайт, подібні сайти, або навіть сайти інтернет-магазинів і т.д.
Створення окремих карт сайту
Що це нам дає? Ми в середині нашого Sitemap.xml формуємо посилання на інші подкарти сайту.
Всі ми знаємо, що Гугл рекомендує створювати в одній карті сайту не більше 50 тис. сторінок і ми дотримуємося цього принципу. Плюс до цього, ми кожну карту сайту розбиваємо під окремий напрямок. Наприклад, одна карта сайту створена під сторінки тим, друга карта сайту створена під сторінки співтовариств, третя карта сайту створена під сторінки користувачів і т.д. Виходячи з цього, ми можемо додати ці карти сайту в Search Console і побачити, скільки сторінок Гугл індексує. Виходить, наприклад, з 350 тис. сторінок Google індексує лише 136 тис. Сторінок. Якщо така ситуація виникає, а вона буває досить часто при неправильному налаштуванні індексації сайтів (особливо великих), то ми вивантажуємо кожен окремий Sitemap, заганяємо в інструменти, які допомагають перевірити, які сторінки не в індексі за даними окремих сайтмепам, і, знову ж таки, виявляємо закономірність, які сторінки Гугл не індексують. Ми можемо також вивантажити логи, подивитися, чи заходив Google на ці сторінки. Для цього можна взяти програму Screaming Frog і Log Analyzer. Вони допоможуть зрозуміти, якщо пошукова система заходить, але не індексує, значить проблема зі сторінкою, з контентом, змістом, типом сторінки. В такому випадку можна або закривати сторінку від індексації, або робити там логіку контенту і т.д.
Обробка дублів тем користувачів
Оскільки користувачі схильні створювати однакові теми з однаковою назвою та т.д., ми зробили ряд певних механізмів, які забороняють користувачам створювати теми з однаковою назвою (наприклад, коли користувачі намагається продублювати свою тему).
Буває таке, що користувач створив одну тему, йому не відповіли. Він створює таку саму, щоб вона підсвітити вище в стрічці в надії отримати відповідь. В даному випадку ми забороняємо створювати користувачам повні дублі і даємо їм можливість зробити якесь унікальне назву, виходячи з якого вже формуються метатеги, заголовки і т.д. Для пошукової системи це будуть різні сторінки, оскільки не дивлячись на схожі теми, коментарі до них будуть різні. Таким чином ми позбавляємося від появи дублів на сторінці сайту. Такі методики досить важливі для проектів, у яких є user generated контент. Якщо нічого з цим не робити, то буде створено дуже багато дублів, тайтлів і т.д.
Механізм переносу спільнот в теми
Оскільки в спільнотах створюється дуже багато корисних статей, інформації, то клієнт попросив правильно оформити механізм перенесення. Якщо є спільноти з корисним контентом, то його можна перенести в теми. Теми — це статті. Статті мають більш високу оглядовість на сайті, і тому це є резонним. Тут ми запропонували наступне: через адмін-панель можна перенести окремі спільноти в розділ статті, але, оскільки, вони повинно бути і там, і там, ми отримуємо дублі сторінки. Тут ми налаштовуємо canonical зі сторінки спільноти на сторінку статті, яку ми перенесли. І вивантажуємо в кінці місяця список зручних змін і пінгуем швидше за допомогою того ж самого add url google або Search Console для того, щоб пошукова система максимально швидко склеїв дані сторінки і поміняла видачу url на потрібні для нас.
Зменшення вкладеності і довжини URL
На слайді нижче показана статистика того, як на основі одного мільйона сайту як коротші урли більш високо ранжуються.
Тобто url до 50 символів мають найбільш високу ймовірність потрапити в ТОП1. Далі вже йде по наростаючій: чим довше ваш урл, тим більша ймовірність того, що ви будете нижче ранжуватися. Це є одним з невеликих чинників ранжирування. Але, тим не менше, коли ми міняли логіку структури за даним проектом, ми це врахували, заклали логіку генерації більш коротких урлов, прибрали проміжні папки, налаштували редиректи і більш швидко це склеїли. Це стало досить корисним елементом, адже дуже наочно видно, коли у тебе зі зменшенням вкладеність і довжин урла Google починає краще ранжувати ті статті, які були, скажімо, на 3-ій сторінці — вони потрапили на 1-ю тільки після зміни урлостроя і структури.
Обробка прихованого контенту
На сайті Svitmam деякі користувачі під статтями або під спільнотами залишають великі коментарі. Для того, щоб зробити максимально зручною можливість читати коментарі, клієнт приховує коментарі певного обсягу. Тобто, якщо коментарі більше 100 слів, то наступна частина ховається в кнопку “читати далі”. Для пошукової системи це не зовсім правильно, оскільки Гугл може розпізнавати даний напрямок, як прихований контент. Ми дали рекомендацію зробити скрипт, який під час завантаження відкриває сторінку з відкритим контентом, після завантаження сторінки коментар зачиняються. Таким чином пошукова система отримує відкритий візуальний контент, який можна добре обробляти і ранжувати, і сигнал, що у нас немає прихованого контенту. Користувач ж отримує видимість того, що коментар закритий. Ця методологія підходить для будь-якого інтернет-магазину, тому її можна спокійно використовувати.
Визначення стратегії лінк-маркетингу
Часто запитують “скільки потрібно посилань?”, “Яка повинна бути динаміка?” і т.д. На ці питання немає єдиної відповіді. Я хочу сказати, що посилань повинно бути стільки, скільки цього вимагає просування, тобто скільки можна отримати, щоб це не виглядало переспамом, і щоб ці посилання були максимально природними. Ми завжди дотримуємося принципу того, що динаміка повинна бути максимально плавної, але якщо є якісь інфоприводи, то ми не соромимося і максимально нарощуємо якийсь обсяг посилань. Статті, для яких ми це робимо, досить непогано вистрілюють і займають високі позиції на першій сторінці.
Дуже важливе питання — які посилання потрібно відхиляти в умовах роботи нинішнього “Пінгвіна”? Багато веб-майстри як і раніше чекают посилання CheckTrust.ru, відхиляють за показниками певним і т.д. Ми від цього пішли, оскільки проаналізували, як працює пінгвін, і виявили таку закономірність: за брендові посилання, навіть якщо вони стоять з поганих сайтів, пошукова система все-одно не карає. Тому ми аналізуємо тільки анкорний посилання, і відхиляємо тільки ті анкор, які стоять з нерелевантних або з неякісних статей. Тому дуже важливим моментом є аналіз саме анкорний посилань і відхилення тільки їх. А все брендові, безанкорние і т.п. посилання ми не чіпаємо і залишаємо, як є. Якщо вони погані, Гугл в умовах алгоритму “Пінгвін” просто не буде їх враховувати. А якщо раптом буде враховувати, то, відповідно, вони будуть передавати якийсь невелику вагу, який буде йти в плюс.
У чому логіка і перевага контентного проекту? У тому, що регіон посилальної маси може бути будь-хто. Зазвичай, якщо проект під Україну, то seoшнікі нарощують українські посилання. Оскільки проект контентний, то посилання можуть стояти абсолютно з будь-яких регіонів: Казахстану, Росії, Білорусії. За це Google не карає, оскільки це природно, тому частка трафіку з даних регіонів значуща. Так з’являється можливість отримувати різноманітну кількість посилань максимально безпечно, уникаючи покарань з боку пошукової системи.
Робоча схема, яку можна зараз застосувати, ви можете знайти в 2-х статтях. Перша — про отримання посилальної маси, друга – посилання на невеликій відеокурс по отриманню посилань, який зробила компанія Referr. Можна прийти, ознайомитися, подивитися. Там зібрані всі передові технології, ті моменти, за допомогою яких можна отримати хорошу кількість посилань.
Боротьба за ключові слова та ТОП
Сильно впливає складність видачі. Що таке складність видачі? Якщо подивитися на цей графік, то можна побачити, що досить великий обсяг видачі зайнятий різноманітними елементами.
Які це елементи? Наприклад, з’являється той же самий граф знань, з’являються локальні карти, з’являються якісь відповіді і т.д. Гугл намагається монополізувати максимально видачу, щоб користувач отримав прямо видачі відповідь на своє питання. Даний скріншот зроблений за допомогою сервісу Semrush.
Якщо подивитися на аналогічні тематики на зарубіжних ринках, то виходить відсоток монополізованої Гуглом видачі набагато більше. В Україні поки це не так критично, але ми вже почали відчувати, що Google “з’їдає” високочастотні запити і стає складніше отримувати трафік, тому що Google дає відповіді вже в своїй видачі. Тут вже потрібно застосовувати хитрощі, які допоможуть надалі ранжуватися.
Які хитрощі ми застосовуємо?
Ми надаємо тексту додаткові цінності за допомогою LSI. LSI — це латентно-семантичний індекс. Це додаткові слова, які допомагають пошуковій системі зрозуміти, що це максимально якісний контент і дають можливість максимально високо ранжируватися.
Що ми робимо?
- Конкуренти по ТОПу. Ми використовуємо сервіс ЛеммаТОП (http://lemmatop.yula-group.ru). Lemmatop дозволяє брати урли конкурентів і виділяти ті леми (окремі слова, наведені до першої формі), які використовують конкуренти, щоб використовувати на своїх сторінках. Знову ж таки, ми беремо тільки тих конкурентів, які вже високо ранжуються.
- Пошукові підказки. Ми використовуємо сервіс http://keywordtool.io/ru, який дозволяє на окремі напрямки, питання і статті, збирати додаткові слова, які можна включати в контент. Цим самим ми отримуємо високу додану вартість.
- Пошукові підсвічування Яндекса. Підсвічування Яндекса працюють таким чином, що за допомогою сервісу https://arsenkin.ru/tools/sp ми отримуємо ті запити, які Яндекс вважає природними, і які бажано включати в свої статті.
Тобто у нас є 3 блоку, за допомогою яких ми формуємо додаткові слова і напрямки. Під них ми формуємо більш чіткі зрозумілі статті.
Також у нас є ще одне дослідження. Це довжина контенту. Статті, у яких більш 2 тис. слів ранжуються вище. Це говорить про те, що Гугл любить контент, любить максимально якісне наповнення сторінки. І, крім текстового контенту, для пошукової системи зараз важливі інші елементи, такі, як якісь функції типу калькулятора, списки, таблиці, відео, фото і т.д. Дуже важливим моментом є те, що люди, які публікують і формують дані контенти, повинні бути максимально осмисленими. Під цей проект ми окремо підбирали лінкбілдера з оточення мам. Тобто ми спеціально знайшли дівчину, яка сиділа вдома з дитиною, і, яка формувала максимально корисні якісні відповіді на питання на різноманітних форумах. Це призвело до природного припливу реферального трафіку і одержуваних посилань.
Результати робіт над проєктом Svitmam
Якщо говорити про результати всього того, що ми робимо, то вони відповідають усім тим очікуванням, які є у клієнта компанії Svitmam.
Ми отримуємо постійний приріст пошукового трафіку, по-друге, ми збільшуємо базу нових користувачів, які приходять на сайт, тобто 72% користувачів — це нові, це місячні дані, і частка органічного трафіку становить 75%. І велика, навіть левова частина трафіку — це все органіка. Клієнтам вигідно інвестувати в просування даного ресурсу, тому, що SEO на даному етапі для цього тематичного проекту дає дуже хороші показники ROI і рентабельність інвестицій.