Първите шест глави на тази книга показаха “как да се направи оптимизация” за 95% от читателите. Следващите две глави обясниха значението на измерването на резултатите и непрекъснато усъвършенстване на стратегията и тактиката.
Сега следва това – главата за разни неща. Цял куп неща, които са твърде подробни, твърде предполагаеми, или твърде странни, за да се включат в първите 8 глави.
Какъв е смисълът?
Така че какво има в тази глава? Ами, през цялата книга ви обещавах да ви разкажа малко повече за инструментите, обещах да обясня малко повече технически подробности и да ви предупредя за няколко “подводни камъка”, в които можете да се препънете.
Направих тази глава, така че да можете да минете и без нея, тъй като на повечето читатели никога няма да им се наложи да разбират от тези неща. Но ми хрумна, че има много глупави (а и умни) идеи, които просто трябва да бъдат обяснени или показани. Така че има и малко от тях.
Готини инструменти, които можете да ползвате
Когато за първи път начертах плана на издание 2007 г. на SEO Fast Start, имах огромен списък от инструменти, които можех да включа.
Колкото повече разглеждах процесите, толкова повече осъзнавах колко малко инструменти действително са ни необходими. След като получим вашата обратна връзка в портала, ще добавя ревюта за инструментите, от които най-много се интересувате и, ако открием готини инструменти, ще ви уведомим.
Технически неща
В този раздел ще притичам набързо през някои технически неща, най-вече с използването на връзки към онлайн ресурси. Има много технически подробности в SEO, но голямата част от тях никога няма да са от значение за вас.
Ако имате въпроси, които не са отговорени тук, проверете на портала за повече информация и, ако не намерите отговор, просто кажете!
Robots.txt
Robots.txt е обикновен текстов файл, който качвате в главната директория на вашия сайт. Паяците търсят първо този файл и го обработват, преди да индексират сайта ви. Robots.txt казва на паяка кои страници може да обходят.
Полезно е да се показват примери, за да се разбере наистина как работи дадена технология, така че това и ще направим. Най-простия вариант на robots.txt файла е:
User-agent: *
Disallow:
Това е всичко! Първият ред посочва потребителския агент – едната звездичка означава, че следните редове се прилагат за всички агенти. Празното място след “Disallow:” означава, че нищо не се ограничава. Този robots.txt файл не прави нищо – той позволява на всички потребителски агенти да видят всичко на сайта.
Сега, нека го направим малко по-сложно – този път искаме паяците да не ходят по нашата /faq директория:
User-agent: *
Disallow: /faq/
Виждате ли колко е лесно? Наклонената черта показва, че това е директория. Без наклонената черта не само /faq директорията, но и всеки файл, чието име започва с “faq” ще бъде забранен. Можете също да добавите още директории към забранения списък:
User-agent: *
Disallow: /faq/
Disallow: /info/about/
Това е лесно, но какво ще стане, ако искаме да забраним достъпа само до един файл? Не е трудно:
User-agent: *
Disallow: about.html
Disallow: /faq/faqs.html
Сега нека конкретизираме. Досега създадохме правила, които се прилагат за всички паяци, но какво да правим за отделен паяк? Просто използвайте името му:
User-agent: googlebot
Disallow: /faq/
Сега, нека комбинираме индивидуален контрол на паяк с хващане на всички (catch-all):
User-agent: googlebot
Disallow: /
User-agent: *
Disallow: /faq/
Този набор от команди, разказва Googlebot да мине нататък – наклонената черта (“/”) сама по себе си означава, че целия сайт е забранен. Останалите потребителски агенти ги държим само далеч от /faq директория.
Всеки запис във файла robots.txt се състои от ред за user-agent, последван от една или повече забранителни директиви. Празният ред между двата записа за потребителските агенти е необходим за правилното обработване на файла.
Ако искате да добавите коментари, можете да използвате знака “#” по този начин:
# keep spiders out of the FAQ directory
User-agent: *
Disallow: /faq/
Можете да използвате произволен текстов редактор, който записва текст в уеб-ориентиран формат. Аз харесвам Notepad или Unixedit – и двете са безплатни.
Google е създал собствено разширение за robots.txt формата, който позволява използването на “заместващи символи (wildcards)”, за да направи частично съвпадение на имената на файловете. Yahoo вече също поддържа формата, като тяхната документация (http://www.ysearchblog.com/archives/000372.html) е доста по-добра от тази на Google.
XML Sitemaps
При Google може да добавите своята карта на сайта (sitemap) чрез конзолата на Webmaster Tools (http://www.google.com/webmasters/sitemaps). При Yahoo, можете да използвате инструмента Site Explorer (siteexplorer.search.yahoo.com) да добавите карта на сайта в XML формат или списък с URL адреси, които да обходят.
Добавянето вече не е необходимо, тъй като големите три (Google, MSN и Yahoo) се събраха и се споразумяха за стандартен протокол, който е описан в www.sitemaps.org. Този нов протокол ви позволява да посочите местоположението на вашата XML сайт карта във файла robots.txt.
Има много инструменти, които могат да подпомагат изграждането на XML карта на сайта, както и програмисти заети с разработване на възможности за добавяне на сайт карти към най-разнообразни приложения като блогове, онлайн магазини, както и системи за управление на съдържание. Ако не можете да създадете автоматично карта на сайта, ви препоръчвам GSite Crawler (www.gsitecrawler.com), който е безплатен.
301 и 302 Пренасочвания
Не всеки трябва да разбира от пренасочвания, но едно пренасочване, което задължително трябва да създадете, ако е възможно, е пренасочване 301, което да съчетае версиите “http://www.example.com” и “http://example.com” на вашия сайт в едно.
Пренасочванията ще се появят също, ако трябва да преместите даден сайт, или ако имате партньорски (affiliate) линкове, които водят към сайта ви. Това е една обширна тема и едва ли бих могъл да се справя с нея по-добре, отколкото Иън МакАнерин вече е направил на: http://www.mcanerin.com/EN/articles/related.asp
Тънкостите, които могат да ви гепнат
Има няколко неща, които могат да ви докарат проблеми с търсачките, освен спамa. Тези неща обикновено не са смъртоносни, но могат да бъдат опасни, ако не се справите с тях. Първото е дублиране на съдържанието, и е тясно свързано с “капани за паяци” или безкрайни цикли.
Дублиране на съдържанието и тагът “каноничен линк”
Вече споменах за дублиране на съдържанието, в най-баналната форма – страници, с еднакво или с много малко уникално съдържание. Има по-коварна форма на дублирано съдържание, която може да възникне при динамични сайтове и да има стотици или хиляди URL адреси, които показват едно и също съдържание, ако някой скрипт не е добре написан.
GSite Crawler (споменат по-горе) може да открие “точен дубликат” на съдържание, така че ако го използвате, ще ви помогне да откриете най-лошия вид дублиране на съдържание.
През февруари 2009 г.Google обяви ново решение (http://www.google.com/support/webmasters/bin/answer.py?answer=139394), което ви позволява да добавите таг за дублирана версия на страница, като посочите на паяк един “каноничен” URL.
Просто добавете този маркер в секцията на вашите страници:
Това няма да реши всички проблеми с дублирано съдържание, но може да е полезно, за страница за конкретен продукт, който спада в няколко категории, при електронен магазин. С добавянето на този маркер, можете ефективно се обедините всички тези страници (и линк сок) в едно.
Капан за паяци
Капана за паяци е безкрайна поредица от страници, сочещи към други страници, които сочат към други страници, които … и т.н. Най-добрия (или най-лошия) пример е “вечния календар”, който ще откриете на сайтове с календар за събития. Страницата “Май 2007 г.” има линк към “Юни 2007 г.”, който ако последвате, има линк към “юли 2007 г.”, и така нататък до края на времето. Повечето от тях също ще ви върнат и назад във времето, към зората на Вселената.
Паякът не знае, че никога няма да спре да получава страници… ако е добре програмиран, в крайна сметка ще спре проверката, но е много по-добре да използвате robots.txt, за да държите паяците настрана от тези капани. Лесли Род е създал програма, наречена Optispider (www.windrosesoftware.com/optispider/), където може да проверите вашия сайт за тези въпроси.
А какво ще кажете …
Има много добри идеи и много откачени идеи, плаващи в света на SEO. В този раздел ще се опитам да ви дам няколко уточнения, така че поне да разбирате за какво по дяволите говорят хората.
Скрито семантично индексиране
Скрито семантично индексиране (LSI) е най-новата концепция, претендираща да се настани на сцената на SEO (и хищническия маркетинг). Ако искате да разберете как работи, погледнете описанието му в Уикипедия: http://en.wikipedia.org/wiki/Latent_semantic_indexing
Ако това не ви говори нищо, не се притеснявайте… никоя от търсачките още не са приложили LSI и, доколкото мога да твърдя, са много далеч от прилагането му, дори и да искаха, защото това ще отнеме много повече компютърни ресурси, отколкото някоя от тях е готова да използва.
Ако някога те приложат LSI, система “бърз старт” ще сработи добре, защото естественото писане и линкване на свързани страници е добре и при LSI.
Двойни листинги и Супер листинги (известно още като Sitelinks)
Google обикновено позволява само две страници от един сайт да се появяват на една страница с резултати (SERP). Ако имате страница на първа позиция и друга на десета, те реално ще се появят като първите два резултата, като втората е подравнена по-навътре от първата. Това се нарича “двоен листинг” и е една от причините, поради които планираме за всеки от основните си ключови термини за търсене да имаме по две страници.
От време на време Google показва много повече от два линка от даден сайт – например, ако потърсите в Google “уеб класиране за напреднали” най-вероятно ще видите това в действие. Това се нарича “супер листинги” или “Sitelinks” и има много теории как да ги получите… и всички най-вероятно са грешни. Това се прави автоматично, когато Google смята, че доста добре разбира кой точно сайт търсите.
В “Пясъчната кутия на Google” (Google Sandbox)
Няма съмнение, че новите сайтове трудно се настаняват на върха на класациите на търсачките. Не знам дали това е особено вярно за Google, но изглежда, тъй като всички се притесняват най-много какво се случва при Google, явлението е наречено “Пясъчната кутия на Google”.
Теорията е, че Google поставя нови обекти в “задържащи клетки” или нещо такова, докато не остареят достатъчно, за да оправдаят внимание. На първо място, това определено не е начина, по който работи, но е напълно възможно новите сайтове да се считат за “ненадеждни” в началото.
Основната причина, поради която на новите сайтове им е трудно да се класират е, че трябва да им е трудно. На техните конкуренти им е отнело години да се наложат в мрежата. Години, за да изградят линкове, развият съдържание и т.н.
Не знам за лесен начин да се преодолее това, но не мисля, че задължително трябва да се чака година или две, за да се класира нов сайт. Знам, че е възможно, защото постоянно стартираме нови сайтове с учениците ми.
“SSA” наказания (връщане назад, класиране и пренареждане)
Преди време търсачките бяха доста елементарни машини. Те вземаха резултати от техния индекс, подреждаха страниците и представяха резултатите от търсенето на потребителя.
Сега има и трета стъпка – пренареждане. След като търсачките са подредили страниците, те прилагат още едно ниво (от “нещо”), за да променят реда на резултатите. Понякога това се вижда лесно, но обикновено е невидимо за нас като търсачи.
Google прилага някои очевидни преподреждания към някои сайтове. Една моя студентка попадна в този капан миналата година, с група от сайтове, които наследи. Един ден много първи места. Следващия ден много четиридесет и първи места.
На доста ключови думи сайтовете падаха точно с 40 места. След решаване на някои проблеми с дублирано съдържание и други, относно качеството на сайтовете, те като по чудо възвръщаха предишните си челни позиции.
Други сайтове са отпаднали от първа страница чак на последната (страница 99, резултати 991-1000). Това не са само единични случаи. Не знаем причината за това, но изглежда се случва главно със сайтове, които имат значителни проблеми с качеството, например:
Много малко уникално съдържание, което е резултат от липсата на ново съдържание или други сайтове “заемат” или копират (крадат) съществуващото съдържание
Неработещи линкове – както вътрешни препратки към несъществуващи страници, така и препратки към несъществуващи страници на други сайтове
Големи количества съдържание генерирано от машини или “прекопирани” страници, съдържащи само RSS емисии, и др.
Решаването на това, доколкото мога да посъветвам, е да се разчисти бъркотията и се подаде молба за повторно включване (reinclusion) през Google Webmaster Tools конзолата, като се обясни каква е било объркано и как е било оправено.
Всичките “големи 3″ търсачки правят някакъв вид пренареждане, което вероятно е базирано на обратната връзка с потребителите и математически модели, които предсказват удовлетворението на потребителя от даден резултатите от търсенето. Това е бъдещето, приятели.
Процес по Стартиране на нов сайт
Често ме питат какво правя при пускане на нов уеб сайт. Краткият ми отговор е, че използвам процеса “бърз старт” за създаването на добър сайт, т.е. добре оптимизиран, и започвам да го промотирам. Но има няколко неща, които не изпускам, при стартирането на нов сайт:
Добавяне на сайта в Yahoo и DMOZ (Стъпка 4, Етап 2) – нищо не казва “ние сме законен бизнес” по-добре от това да платите на Yahoo да прегледа сайта ви… и да го одобри.
Активна рекламна кампания плащане на клик (PPC), поне в Google AdWords. Докато работим върху PPC кампанията, неизбежно попадаме на неща, които можем да подобрим по отношение на сайта и работата на потребителите. Подозирам, но не мога да докажа, че “оценката за качество” на Google Adwords е сходна с тази, която Google използва, за да “пренареди” резултатите от търсенето.
Други маркетинг и промоционални дейности, които не са пряко свързани с оптимизация, но ще генерират линкове към сайта. Това включва неща като съобщение в медиите при пускането на сайта, реклама във вертикални директории, молба до блогъри да разгледат сайта и да дадат оценка и др.
Тайната за успеха в живота е …
Наистина не я знам, но ако ме видите на конференция или семинар, купете ми едно питие и ви обещавам да го изпия с най-голямо удоволствие. За съжаление, обещах книгата да не превишава 100 страници и сме вече там – иначе можеше да предположа нещо по въпроса.
Следете портала и се присъединете към разговора
Тъй като продължаваме да развиваме портала на SEO Fast Start, полезното съдържание там ще се увеличава – можете да се абонирате за бюлетина, ако все още не сте на:
http://www.seofaststart.com/
Относно програмата за обучение “Свобода за линковете”
Свобода за линковете (както споменах в края на глава 6) е моят нов 12 седмичен курс по изграждане на линкове, който включва много неща, които просто не мога включа в една книга.
За повече информация – ако искате да се присъедините към следващия курс или просто да се абонирате за бюлетина, отидете на www.linkiberation.com – там има редовни новини и безплатни съвети за изграждане на линкове за всички абонати, чрез редовен подкаст наречен “Телевизия за Свободни линкове”.
Моят видео курс за напреднали се продава за един долар…
Ако Бърз старт в SEO ви хареса, ще ви хареса и моя SEO видео курс за напреднали, “Stomping the search engines 2.0 (Настъпване в търсачките 2.0)” – реализиран в партньорство със StomperNet. Можете да видите най-новата оферта за курса на www.stomping2.com
Към момента на публикуване на книгата, имаше оферта за огромната сума от $ 1, ако пробно се абонирате за The Net Effect – месечно списание за онлайн маркетинг, за което пиша.
Пробния брой за списанието и за курса струва само един долар и, разбира се, имате 30 дни, за да решите дали искате да запазите или да отмените абонамента.
източник: sitershow.com
Няма коментари:
Публикуване на коментар