Vyhledávač Jyxo indexuje slova do 40 znaků
, prozdadil v SEO konferenci Michal Illich. Více v diskuzi Google index back old date, která pokračuje mj. diskuzí na téma indexování unikátních slov.
To zlé nelidské SEO
Když se mluví o SEO (optimalizace pro vyhledávače), tak se říká:
Dobré SEO je dobré pro lidi.
Když dělám stránky, tak si musím vybrat: buď dělám stránky pro lidi, nebo dělám SEO.
Naposledy jsem podobné výroky četl u Dušana Janovského pod spotem Dlouhé menu narušuje SEO a u Marka Prokopa v Proč je PageRank důležitý pro uživatele.
Zastávám názor, že rozumně dělané SEO je dobré pro lidi. Protože SEO není oborem, ve kterém se jen hledají tajné finty jak obelstít vyhledávač. Žádné finty v SEO nehledejte. Dovolím si tvrdit, že pro drtivou většinu webů SEO vůbec není optimalizace pro vyhledávače. Ve většině případů totiž stačí ovládat gramatiku a sloh (psát stručně a k věci), mít jasno ve struktuře vlastního webu (a tomu přizpůsobit navigaci) a dodržovat webové standardy. Toto je totiž ten nejlepší způsob SEO a vše ostatní je jenom čirá alchymie.
Pozor ale! I když je optimalizace stránek pro vyhledávače ve většině případů jednoduchá neznamená, že SEO není složité. Zdánlivý protimluv předchozí věty se totiž vysvětlí při pohledu na web. Na web, kde jsou stránky plné překlepů, obecných a rozvláčných plků, které jsou doplněny zmatenou navigací a proloženy odkazy, které napadla vicezdemie. To vše zabalené do obludného, nevalidního a semánticky nesprávného kódu.
Když totiž píšete pro lidi (a tím vlastně děláte SEO), tak se nemusíte křečovitě snažit, aby všechny titulky webu měly přesně 4, 5, 6, 7… (nehodící se škrtněte) slov. Nebo aby byla navigace ne delší než dlouhá a hustota klíčových slov byla právě 15,57 %. A když k tomu přidáte pár dalších věcí, které pomáhají lidem (a, světe div se, taky pozici ve výsledcích vyhledávání), máte vyhráno.
Souvislosti
- Skrývání textu narušuje hustotu klíčových slov – Martin Snížek
- Ovládněte tajné triky SEO – Marek Prokop
- SEO a praSEO – Petr Staníček
- Jak nedělat SEO – Jiří Bureš
Dobré adresy jsou dobré
Jednou z možností, jak vylepšit pozici ve výsledcích vyhledávání je používat dobré adresy. Klíčová slova v doméně, v cestě a jméně souboru někdy dělají zázraky. Není to ale jediná, a už vůbec ne hlavní, metoda úspěchu. A ještě jedna poznámka na závěr úvodu. Článek je určen hlavně pro méně pokročilé tvůrce webů. I když kdo ví. Realita naznačuje spíš opak.
Určitě znáte adresy typu www.example.com/zbz/ldnclx.htm
. Tohle je případ nic neříkající adresy. Možná by stálo za to použít třeba něco takového: www.example.com/lednicky/calex.htm
. Proč tedy používat hezké adresy?
- Vylepšují pozici ve vyhledávačích (více třeba u Seznamu, méně u Google). Znovu ale říkám: je to jen jeden z faktorů, který vylepšuje pozice.
- Zlepšují použitelnost. Vezměte si třeba takový seznam navštívených stránek, který některé prohlížeče rozbalí při psaní adresy. Co je lepší:
http://www.converter.cz/nobel_fyz_za.htm
nebohttp://www.converter.cz/fyzici/einstein.htm
? Samozřejmě bych mohl napsat příklad daleko horší adresy, ale co bych neudělal pro dva zpětné odkazy. - Diktování po telefonu nebo použití adresy v tisku (vynechám argument, že pěkné adresy usnadňují psaní celé adresy po paměti, to asi dělá málokdo – pokud ano, přihlaste se).
- Zjednodušená správa webu. To je silný argument pokud tvoříte statické stránky nebo když procházíte statistiky webu.
- Text adresy je často použitý ve zpětných odkazech (místo textu odkazu je uvedena hodnota z href nebo z adresního řádku).
Než se ale pustíte do předělávání webu mějte na paměti následující pravidla:
- Používejte dobře (logicky) vytvořenou adresu. Myslete na budoucí rozvoj webu. Myslete na strukturu informací, které publikujete.
- Pozor na velkou délku adresy. Tzn. rozumně používat počet úrovní zanoření a délku názvů.
- Je potřeba možnou vyřešit kolizi názvů (hlavně u zpravodajských webů apod.).
- Pozor na odmazávače adres, ke kterým taky patřím. To jsou ti, co občas navigují po webu tak, že odmazávají od konce v adresním řádku. Hrozí nebezpečí stránek 404 na neexistujícím indexu.
Kritici SEO teď namítnou, že manipulace s výsledky vyhledávání pomocí pěkných adres vynesou na čelní pozice přeoptimalizované stránky. Když pominu heslo, za kterým stojím, že obsah je králem, tak musím znovu zopakovat, že dobrá adresa je z pohledu vyhledávače jenom jedno hodnotící kritérium. A to ještě ne to nejsilnější. A taky si dovolím tvrdit, že schopný autor má kvalitní obsah. A schopnější má ještě navíc i lepší URL. Je to prostě další konkurenční výhoda.
A na závěr snad jenom doplním, že uživatelé nejsou stejní a že nic není dogma. A taky že vždy neplatí, že pěkné adresy jsou vždy lepší. Jsou prostě lepší skoro vždy.
32 a ne víc
Tak mě napadlo, kolik slov vlastně bere vyhledávač Google v potaz v položeném dotazu? Jednoduchým testem jsem zjistil, že je to 32 slov. Při zadání velmi dlouhého dotazu samotný Google vypíše, že předmět hledání může mít maximálně 32 slov.
Kdo by ale tolik slov zadával, přátelé? Zdá se, že pořád platí 2-3-4-1-5-6-7 nebo 2-3-1-4-5-6-7.
Souvislosti
Nálet refererových sarančat
- Referrer
- Adresa odkazu z jiné stránky na danou stránku. Většinou stránka, ze které přišel uživatel.
Refererový spam mě trápí už pár měsíců. Dnešní pohled do statistik serveru conVERTER mě ale dost ubral na náladě. Pominu skutečnost, že skutečné referery jsou na prvním, 57. a 340. místě. Pominu skutečnost, že více než 97 % hitů připadá na refererový spam. Co mě ale začíná dost trápit je skutečnost, že refererový spam vygeneroval za první čtyři dny září na mém serveru skoro 3 GB trafiku! A to mě začíná opravdu dost vadit (tady zafungovala autocenzura, protože původně věta obsahovala čtyřpísmenný výraz obsahující písmena es, er, té a dlouhé á).
Veškeré ataky refererového spamu směřují právě sem na weblog. Jestli to tak půjde dál, tak někdy koncem měsíce dosáhnu limitu měsíčního trafiku. A pak půjde celý web k ledu.
GSOG
Google Sitemaps Offline Generator (GSOG) je aplikace, která generuje ze statických (X)HTML stránek XML soubor pro Google Sitemaps. Autor GSOG Peter Šlosar právě vydal druhou veřejnou verzi 0.9.1.6.
Google images: Ukaž
Google Images začal pod informací o počtech zobrazených a nalezených obrázků zobrazovat přepínač pro zobrazení obrázků podle velikosti:
Filtr zobrazení obrázků podle velikosti
Filtr pravděpodobně rozděluje obrázky podle fyzických rozměrů. Velikost souboru není brána v potaz. Nabízí se 4 způsoby zobrazení:
- Libovolně velké (v originále All sizes).
- Velké (Large).
- Střední (Medium).
- Malé (Small).
Zároveň byl do odkazu přidán parametr imgsz
, který pro hodnotu medium má hodnotu small|medium|large|xlarge
, takže Google má nastaven větší interval. Je možné použít i jednu z hodnot.
Přesnou rozměrovou hranici, podle které Google vybírá obrázky jsem nezjistil. Z krátkého pozorování se zdá, že velké obrázky začínají někde pod hranicí 600 px, střední nad 75 px. Pokud ale testuji víc dotazů vidím, že se hodnoty prolínají. Je možné, že Google pracuje s plošným obsahem obrázků.
Centrum má nové vyhledávání
Centrum prý zvýšilo IQ svého vyhledávání. Ve výsledcích vyhledávacího dotazu nabízí fulltextové výsledky Morfea (dost nešťastně prosolené placenými odkazy).
Já a někteří blouznivci (to si o nás mysleli hlavně lidé z katalogů) neměli rádi, když katalogy na SERP fulltextového hledání slepovaly výsledky z katalogu s výsledky fulltextu. Někdy nabídly jen výsledky z katalogu. Zdá se, že se časy naštěstí pomalu mění.
Souvislosti
- Centrum.cz se přiklonilo k fulltextu – Marek Prokop
- Centrum – Nové vyhledávání – Pavel Prostřední
Shmoogle
Shmoogle je taková legrácka na téma Google. Shmoogle [šmůgl] vrací výsledky hledání na Google přeházeně. Tj. v náhodném pořadí. Pokud nechcete být frustrováni neustálou kontrolou, jak že si stojí Váš web ve výsledcích Google, přejděte na Shmoogle. Via Google Blogoscoped.
Souvislosti
Google Sitemaps
Google spouští beta verzi Google Sitemaps (via Webmaster-friendly). Služba by měla pomoci snadnějšímu a rychlejšímu indexování webů, zapojených do tohoto systému.
Pomocí XML souborů (generátor je k dispozici ke stažení), které obsahují strukturu webu (mapu webu), podstrkáváte Google aktuální (změněné) soubory ke crawlování.
Napadá mě otázka, jestli tak Google nechce odlehčit svým serverům tím, že bude distribuovat výkon na jiné počítače. To by nemuselo být zase tak špatné, protože odměnou by bylo rychlejší indexování. Na druhou stranu by ke stejnému účelu mohlo sloužit RSS (nevím, jestli Google crawluje RSS a odkazy v něm uvedené). Uvidíme, jestli se novinka uchytí.
Další informace: New „Google Sitemaps“ Web Page Feed Program.