Оптимизация за търсачки

от Уикипедия, свободната енциклопедия
Направо към: навигация, търсене

Оптимизация за търсачки (на английски: search engine optimization, SEO) е процесът на подобряване видимостта на уеб сайт в търсачките чрез „натурални” или неплатени (нар. още „органични” или „алгоритмични”) резултати, който включва оптимизация на HTML-кода, структурата и текстовете на уеб сайт. Рекламирането на сайта и увеличаването на вътрешните и/или обратните връзки (backlinks) е още една от стратегиите за SEO оптимизация. Фактически, колкото по-рано (или по-напред в страницата) и по-често се появява един сайт в резултатите, толкова повече посетители е вероятно да му генерира търсачката. Така сайтът получава присъствие в Интернет пространството. Оптимизацията може да включва различни аспекти за търсене, като търсене в определена сфера или регион, както и търсене на картинки, видео или новини.

Като Интернет маркетингова стратегия оптимизацията за търсачки изследва как работят търсачките и какво търсят хората.

Множественото число на SEO може да се отнася за хора предлагащи услуги в тази сфера ("search engine optimizers" или seo оптимизатори - това са хората които извършват същинската оптимизация за търсачки).

История[редактиране | edit source]

Средата на 90-те години[редактиране | edit source]

Системните администратори и доставчици на съдържание започват оптимизирането на сайтове за търсещите машини в средата на 90-те години, когато първите търсачки са започнали да каталогизират ранното уеб пространство. Първоначално всичко необходимо, което уеб администраторите е трябвало да направят е да поставят адреса на страницата или URL-а в различни машини, които обхождали уеб сайта и извличали хипервръзките от него, които в последствие да бъдат индексирани.

Процесът включвал използване на програми наречени "паяци", които търсещите машини използвали за изтеглянето на страници от Интернет, които ги пазели на обособен за търсачката сървър, докато втора програма наречена индексатор, извличала различна информация от изтеглената страница, като думите, които съдържа, къде се намират те и значимостта на всяка от тях. Освен това биват запазени и хипервръзките, които съдържат, за да могат да бъдат обходени в по-късен момент.

Притежателите на уеб сайтове започнали да осъзнават важността, на това сайтовете им да имат по-висок ранг и видимост в резултатите на търсещите машини, предопределяйки появата на SEO практикуващите. Според анализатора Дани Съливан, се предполага, че фразата "оптимизация на уеб сайтове", е навлязла в употреба през 1997 г. Първата употреба на термина "оптимизация за търсачки" е била от Джон Аудит и компанията му Multimedia Group Marketing, документирана на една уеб страница в сайта на MMG от август, 1997 г.

Ранните алгоритми за търсене разчитали на информация предоставяна от уеб администраторите, като ключови думи, етикети с междинна информация или индексирани файлове от търсачки като ALIWEB. Етикетите с информация или мета таговете (meta tags), описвали накратко съдържанието на всяка страница, но използването на такива етикети за индексиране на страници се оказало неефективно, защото изборът на ключови думи може да се разминава с действителното съдържание на страницата. Неточна, непълна или несъстоятелна информация в етикетите може да доведе до показване на резултати, които на са свързани с търсенето.

Чрез включването на многото фактори, повечето от които в контрола на уеб администраторите, (като плътността на ключовите думи), ранните търсачки страдали от насилствено (манипулирано) класиране на резултатите. Тъй като успехът и популярността на търсачките се предопределя от способността им да предоставят на потребителите си резултати, които са максимално свързани с търсеното от тях, търсачките е трябвало да се адаптират. Така те създават по-сложни алгоритми, взимайки предвид допълнителни фактори, като така избягват показването на несъстоятелни резултати.

Проектът "Backrub" и създаването на Google[редактиране | edit source]

Създаването на PageRank[редактиране | edit source]

Студентите в университета Станфорд, Лари Пейдж и Сергей Брин, разработват проекта "Backrub", чрез който търсачката разчита на математически алгоритъм, за да даде оценка на популярността на уеб страниците. Принципът на този алгоритъм се базира на ранга на страницата или PageRank, като се взима предвид количеството и тежестта на входящите връзки. PageRank оценява каква е вероятността дадена страница да бъде посетена от случайно "сърфиращ" потребител и колко страници биват разгледани от това посещение. В действителност, това означава, че някои връзки са по-силни от други и следователно имат по-висок PageRank.

Въпреки, че PageRank е по-труден за манипулация, уеб администраторите вече са разработили инструменти за изграждане на връзки и схеми, които да повлияят на търсачките използващи тази технология. Има много сайтове, които са насочени към обмен, закупуване и продажба на връзки, често в голям мащаб. Някои от методите използвани за това е създаването на хиляди сайтове с цел спам на линкове.

Създаването на Google[редактиране | edit source]

Пейдж и Брин основават най-голямата към момента търсачка, Google през 1998 г. Тя привлича все повече верни последователи сред нарастващия брой Интернет потребители. Фактори, които не са свързани със самата страница като PageRank и анализ на хипервръзките са позволили на Google да избегне различни манипулации, които са се наблюдавали при търсачки, които са използвали свързани със страницата фактори, каквито са ключовите думи, междинните етикети, заглавията и структурата на сайта.

Началото на XXI-ви век[редактиране | edit source]

До 2004 г., търсачките са включили широк кръг от неизяснени фактори в техните алгоритми с цел намаляване на въздействието на манипулираните връзки. През юни 2007 г., в The New York Times, Саул Хансел, заявява, че Google използва над 200 различни алгоритми. Водещите търсачки, Google, Bing и Yahoo!, пазят в тайна алгоритмите, които използват за класиране на страници. Хора, изучаващи различни подходи за SEO, са споделили личните си наблюдения свързани с работата на търсещите машини, като така хвърлят по-добра светлина върху това как работят те.

През 2005, Google въвеждат персонализиране на резултатите от търсенията за регистрираните си потребители, в зависимост историята на предишните им търсения. През 2008 г., Брус Клей казва, че класацията на страници според ранга им е е напълно изместена от персонализираното търсене. Клей е на мнение, че това да се обсъжда как един сайт се класира е безсмислено, защото неговото място в класацията, ще бъде потенциално различно за всеки потребител. През 2007 г., Google обяви кампанията си срещу платените линкове, които влияят на PageRank-а. На 15-ти юни 2009 г., Google разкрива, че са предприели мерки за смекчаване последиците от PageRank стереотипа, чрез използването на връзки, които имат атрибут, възпрепятстващи проследяването им (nofollow links).

През декември на 2009 г., Google обявява, че ще използват историята на търсене на всичките си потребители за да се обогатят резултатите от търсенията, а търсенето в реално време (Google Instant) въвеждат в края на 2010 г. в опита си да направи резултатите от търсенията по-актуални.

Исторически, администраторите на сайтове са прекарали месеци, дори години в опити да оптимизират класацията на техните уеб сайтове. С нарастващата популярност на блоговете и социалните медии, водещите търсачки са променили техните алгоритми за да могат да класират по-бързо най-актуалните резултати.

Проектът "Панда" и "Пингвин"[редактиране | edit source]

Google Панда[редактиране | edit source]

През февруари 2011 г., Google обявява актуализация под кодовото име "Панда" (Google Panda)[1]. Целта ú е да намали класацията на нискокачествените сайтове (тези без полза за потребителите), и такива които съдържат копирано от друго място съдържание. В същото време, тя ще осигури по-добро класиране за висококачествени сайтове, сайтове с оригинално съдържание и информация. Според водещата търсачка тази актуализация ще даде по-добра възможност на хората да намерят най-подходящите отговори на въпросите си, по-бързо. Официално изявление в блога на Google гласи, че промените в алгоритмите от актуализацията "Панда", са повлияли на 11.8% от търсенията.

Google Пингвин[редактиране | edit source]

На 24-ти април 2012 г., Google стартира проекта "Пингвин" (Google Penguin)[2] актуализация, целта на която е да санкционира сайтове, които нарушават правилника за уеб администратори на Google, използвайки непозволени техники, познати като "black-hat SEO". За разлика от PageRank, обаче, Google прави всички новости за този алгоритъм обществени. Според проучвания на Google, актуализацията "Пингвин" се е отразила на 3.1% от търсенията.

Методи[редактиране | edit source]

Индексиране[редактиране | edit source]

Водещите търсачки, като Google, Bing и Yahoo!, използват софтуер, познат като роботи (robots), за да открие уеб страници за своите алгоритмични резултати от търсенето. Страници, които са в други търсещи машини, не е нужно да бъдат представяни, тъй като това става автоматично.

Някои от търсачките, предлагат платена услуга, която гарантира присъствието на изпратения в търсачката сайт, като таксата се определя на базата на посещения или Pay per Click. Тези услуги обикновено гарантират включване на сайта в базата данни, но не и специфично класиране в резултатите от търсенията.

Две са основните директории, директорията Yahoo и Open Directory Project, като и двете изискват човешка намеса и ръчно подаване на информация. Google предлагат инструменти за програмисти (Webmaster Tools), с посредством на които може да се изпрати карта на сайта (XML Sitemap), да се гарантира, че всички страници ще бъдат намерени, особено тези, които не са откриваеми посредством автоматизирания метод на търсене.

Роботите, които използват търсачките, може да взимат предвид различни фактори при обхождане на сайт, като така не всяка страница бива намерена. Те следят за най-различни показатели като например разстоянието на страница от главната директория на сайта, също може да е фактор, който да повлияе дали дадената страница ще бъде обходена или не.

Предотвратяване на индексирането[редактиране | edit source]

За да се предотврати намирането на дадена страница, така наречените роботи на търсещите машини могат да бъдат инструктирани да не достъпват определени файлове или директории. Това може да се направи от уеб администраторите на сайта чрез подаване на инструкции към роботите, зададени предварително във специфичен файл намиращ се в главната директория на домейна. Освен това, на самата страница могат да бъдат поставени етикети (meta tags), които изрично да изключват от базата данни на търсачките.

Когато търсеща машина посещава сайт, файлът с инструкциите намиращ се в главната директория на домейна бива прочетен първи, като това предопределя кои от страниците не трябва да бъдат обхождани. Страници, които обикновено имат забрана за обхождане включват тези, които съдържат лична информация, като потребителски профил или пазарска количка в един онлайн магазин.

През март 2007 г., Google предупреди уеб администраторите, че трябва да предотвратят индексирането на резултатите от вътрешните търсения, тъй като те се считат за спам.

Увеличаване на видимостта[редактиране | edit source]

Има много различни методи, с които да се увеличи видимостта на уеб страница в резултатите от търсене. Кръстосаните връзки (cross linking) към най-важните страници на същия сайт, може да подобри нейната видимост. Писане на съдържание, което включва често търсена ключова фраза, така че да бъде свързана с широк кръг от заявки за търсене, потенциално ще увеличи трафика. Честото обновяване на информация, може да накара търсещите роботи да се връщат по-често, като така ще придават допълнителна тежест на сайта. Добавянето на подходящи заглавия, както и ключови думи в етикетите на уеб страницата, може да подобри състоятелността на сайта в базата данни на търсачките.

Основни направления[редактиране | edit source]

При изчисляване на релевантността (степен на съответствие) на запитването машината за търсене (търсачка, Search Engine) отчита такива параметри на сайта като:

  • плътност на ключовите думи (фрази): Сложните алгоритми на съвременните търсачки позволяват провеждане на семантичен анализ на текста с цел филтриране на евентуален спам - когато ключовата дума/фраза се среща прекалено често в страницата (над определен процент от целия текст)
  • свързани думи: Google Търсене все повече набляга на цялостното съдържание на текста и се опитва да индексира страниците семантично, т.е. по смисъл. Със силно влияние е наличието на т.нар. свързани думи в текста. Например страница за български сувенири е добре е да включва информация за България, за български традиции, известни етнографски местности и др.
  • индекс на цитиране на сайта или количество и качество на ресурсите с хипервръзка към сайта: Много от търсачките не отчитат взаимните връзки между сайтовете, затова се предпочитат хипервръзките да бъдат от тематично сродни сайтове
  • данни за потребителското поведение: Много важен критерий за качеството на един сайт е доколко потребителите са доволни от сайта. Съществуват измерители на потребителското задоволство, които се използват от търсачките. Най-ясно разбираемите показатели са: време прекарано на сайта, брой разгледани страници, повече от едно посещение на сайта, граматично и правописно правилен текст.

Оптимизацията на един сайт включва работа с разнообразни вътрешни фактори — привеждане на текста на сайта в съответствие с избраните ключови думи (фрази), повишаване на качеството и количеството текстове на сайта, оптимизация на структурата, навигацията и вътрешните връзки, а също и с външни фактори — обмен на хипервръзки, регистрация в каталози и директории и други техники, целящи повишаване на броя и качеството на хипервръзките, насочени към конкретния ресурс.

Техники за оптимизация[редактиране | edit source]

SEO техниките за оптимизация може да се разделят на три основни категории. Техниките, която търсещите машини препоръчват като част от дизайна на сайта са така наречените „Бяла“ оптимизация. Съществува втори тип, които не са препоръчителни - „Сива“ оптимизация", и такива, които са в директен разрез с правилата на търсачките - „Черна“ оптимизация. По този начин търсачките се опитват да намалят влиянието на тези, които злоупотребяват и манипулират класирането, често чрез строго забранени от търсачките методи.

  • «Бяла» оптимизация: При тази оптимизация се цели резултатите, които се извеждат да се запазят по-дълго във времето, като се изключва използването на забранени методи за рекламиране и класиране на ресурси. Следват се правилата на големи търсачки като Google, Yahoo, Bing и др., и не се позволяват отклонения от тях. Важно е да се отбележи, че тези правила не са записани изрично, а по-скоро са като правилни насоки според съответната търсачка. Следването на тези насоки предполага създаване на съдържание в полза на потребителите, а не такова което цели подвеждането на търсещите машини и алгоритми с цел по-високо индексиране.
  • «Сива» оптимизация: Използват се методи и техники, които не са желателни за използване при търсачките — използване на „ферми за хипервръзки“, закупуване на връзки от високо класирани ресурси.
  • «Черна» оптимизация: Този вид оптимизация се опитва да подобри класирането, по начини, които включват измами. Примери за черна SEO техника са използването на скрит текст или текст с цвят, подобен на фоновия, също така и позициониране на елементи извън екрана. Друг метод е да се извеждат различни страници в зависимост от това дали се посещава от човек или от търсеща машина (т.нар. прикриване)или използването на т.нар. „doorway — страници“ и ресурси, създадени специално за роботите и паяците на търсачките. Методите за оптимизация и класиране на уеб сайт с използване на doorway са нарушение на правилата на търсачките.

Наказанието за използване на такива методи от черната оптимизация може да е чрез намаляване на класирането или цялостното му изключване от базата данни на търсачката. Прилагането на тези наказания може да станат автоматично, чрез включените в търсачките алгоритми или чрез ръчно преглеждане на сайта. Пример за това е премахването през февруари 2006 г. от Google на страниците BMW Германия и Ricoh Германия, поради използването на подвеждащи търсещата машина практики. И двете компании, обаче, бързо се извиняват и поправят инкриминираните си страници, като така възстановява позициите си в Google.

Оптимизиране на сайт[редактиране | edit source]

Препоръчва се оптимизирането да се извършва в най-големите търсачки: Google, Yandex, Bing или Yahoo!. Голяма част от останалите търсещи системи, използват информация от тях.

Етапите на оптимизацията условно се делят на външни (off-site) и вътрешни (on-site) фактори:

Вътрешна оптимизация[редактиране | edit source]

Чрез вътрешната оптимизация се цели постигането на повече посещения, посредством търсения в търсачки като Google, Yahoo! и др. по ключова дума или фраза. Към нея влизат валидният (според W3C[3]) HTML и CSS код, добре структурираното съдържание, както и правилно поставените заглавия и подзаглавия. Създаването на карта на сайта (sitemap) е още един похват спомагащ за този тип оптимизация. Тази карта служи за отбелязване на връзките в един сайт, като така дава възможност на "паяците", които използват търсещите машини, да се насочат към вътрешните страници на дадения сайт. Те са особено полезни при "по-дълбоки" сайтове, съдържащи много страници и категории. По-големите търсещи машини предлагат инструменти за администратори, като Google Webmaster Tools и Google Analitycs в които може да се регистрира или добави сайт в базата данни на търсачката, като така се гарантира обхождането му. Преобразуването на URL-а (адреса на страницата) в четим или "приятелски" формат е още една стъпка към по-добра вътрешна оптимизация. Пример за това е: www.example.com/#psj=1&q=page2, което може да изглежда по четим за човека начин като: www.example.com/Добре_дошли. Използването на такива адреси създава допълнителни ключови думи за съдържанието на страницата, които биват индексирани от търсачките.

Вътрешни фактори:[редактиране | edit source]

  • Определяне на търсената аудитория и организиране на съдържанието. Ядрото на сайта се съставя като се вземат предвид следното: съдържание на сайта, сайтове-конкуренти, статистика по търсени думи (примерно Adwords на Google).
  • Анализи на конкурентни страници — мястото им в търсачките, структурата и съдържанието им.
  • Анализ на страниците

Външна оптимизация[редактиране | edit source]

Външна оптимизация може да се определи като изграждане на онлайн авторитет или репутация на даден сайт. Най-често това се постига чрез поставянето на линкове (връзки) към сайта в други сайтове. Чрез използването на рекламни кампании, които да поставят тези връзки на сайтове с подобно с съдържание, до някаква степен се гарантират повече посещения със сходни с тематиката на сайта интереси. Поради това, че търсачките се стремят да извеждат полезни за потребителите резултати, то връзки, от даден сайт, които се срещат често биват тълкувани като полезни и съответно индексирани по-добре. Това обаче създава предпоставки за използване на забранени от търсачите методи, а именно закупуване на линкове в големи количества от източници с неизяснен произход.

Външни фактори[редактиране | edit source]

  • "Правилна" регистрация в основните търсещи машини и каталози. В "по-нисшите" каталози и търсачки може да се използват автоматизирани услуги за оптимизация.
  • Увеличаване на "индекса на цитиране": обмен на връзки между страници със сходно съдържание. Най-популярният "индекс" е PageRank в Google.

Поведенчески фактори[редактиране | edit source]

Поведенческите фактори представляват анализ и водене на статистика за дейността на потребителя. Това включва отчитане на продължителността на престой в страницата, отчитане на ключови думи посредством които потребителят е стигнал до страницата и къде точно в нея е бил препратен. Възползвайки се от тази информация SEO специалистите оптимизират към по-горно класиране появата на уеб страницата в общите резултати на търсачката.

Мета тагове и ключови думи[редактиране | edit source]

Целта на мета таговете и "ключовите думи" е да направят описанието на страницата, разбираемо от търсещите машини. За съжаление това е било използвано от така наречените "спамерите", които злоупотребяват с това. Заради тях търсещите машини практически са премахнали индексирането по ключовите думи и мета таговете, защото в резултатите при търсенето те често не дават искания от потребителя резултат. В момента от най-голямо значение е съдържанието на страницата, а не мета таговете. Повече "тежест" има текстът в определени тагове (<h1>..<h6>, <li>, <p>, <a>). Въпреки всичко това мета таговете не са напълно изключени и все още са важна част от оптимизацията.

Примери за мета тагове:

 <head>
 <title>До 60-70 символа</title> - заглавие (най-важната част)
   <meta name="author" content="xxx@xxx.xx" />
   <meta name="owner" content="xxx@xxx.xx" />
   <meta name="area" content="Industry" />
   <meta name="rating" content="General" />
   <meta name="description" content="Описание на страницата" />
   <meta name="abstract" content="" />
   <meta name="keywords" content="Ключови думи около 250 символа" />
   <meta name="copyright" content="" />
   <meta http-equiv="audience" content="Professional" />
   <meta http-equiv="content-type" content="text/html;charset=utf-8" />
   <meta http-equiv="Content-Language" content="bg" />
   <meta name="subject" content="ххх" />
   <meta http-equiv="cache-control" content="no-cache" />
   <meta http-equiv="pragma" content="no-cache" />
   <meta name="revisit-after" content="15 days" /> - интервал от време през, който "роботът" отново да сканира страницата
   <meta name="robots" content="index, follow" />
 </head>

Може да се каже, че единствените мета тагове, които все още имат важност са title, description и charset.

SEO и социалните сигнали[редактиране | edit source]

Постоянно нарастващите социални мрежи като Facebook, Twitter, Google+ и др., дават предпоставка за използването им като един от подходите за SEO. Чрез използването на социални мрежи се цели достигането до по-широка аудитория, като така потенциално нараства вероятността за повече посещения.

Социалната мрежа Google+ използва инструмент наречен "+1" за определена страница, като извежда резултати свързани със съдържанието на отбелязаната страница при използване на подобни ключови думи. Така се засилва персонализираното търсене, като добавя човешки фактор към алгоритмите на търсачката. Според Google тези и други социални сигнали се използват за т.нар. социален авторитет, който добавя допълнителна тежест, различна от PageRank.

Авторство в Google+[редактиране | edit source]

Система, представена от Google през 2011 г., удостоверяваща автентичността на дадено съдържание в Интернет пространството. Базира се на свързване на статия, материал, документ и други със съществуващ профил в социалната мрежа Google+. По такъв начин се гарантира авторство върху публикации от всякакво естество. На търсещия в Интернет пространството потребител се дава възможност да види освен резултатите от своето запитване, а също така и препратка под формата на профилна снимка в кръг на автора в Google+, с цел автентичност и добиване на по-ясна представа кой стои зад написаното. С използването на системата за авторство драстично се намалява възможността за попадане на частично копиран или изцяло копиран материал от трети лица и се гарантира качествено съдържание.

Краят на SEO?[редактиране | edit source]

При по-внимателен поглед се вижда, че част от софтуерни приложения, които излизат на пазара включват в себе си и методи за събиране на данни за потребителите и за определени страници. Тази информация се използва за създаване на алгоритми, отчитащи популярността на страниците (как потребителите откриват и използват дадена страница) и даже какъв процент от тях стават впоследствие евентуални клиенти (конверсия). Известна програма от такъв тип е Google Analytics, мощен инструмент за анализ на посещаемостта на даден уеб сайт за webmaster-ите, която обаче доставя и значителна информация на Google.

Като краен резултат, SEO от автономна услуга започва да прераства в комплекс от маркетингови решения за оптимизация.

SEO състезания[редактиране | edit source]

Първото SEO състезание е организирано от германски уебмастъри (Schnitzelmitkartoffelsalat, стартирано на 15 ноември 2002 г. в немската usenet група de.comm.infosystems.www.authoring.misc.) Англо-говорещите пък са стартирали състезанието “nigritude ultramarine” организирано от SearchGuild and DarkBlue (Dark Blue Sea Ltd), което по непотвърдени данни се води за родител на всички SEO състезания. Стартирано е на 7 Май 2004 г.

На последното SEO състезание от 2012 г. — SEO Olympics 2012 - България печели 3 медала. Първо място по най-добър екип за оптимизиране, второ място по правилни отговори на задачите и трето място по тренд на растеж на групата.

Източници[редактиране | edit source]

  1. Google Panda
  2. Google Penguin
  3. W3C: World Wide Web Consortium