A Google algoritmusok | Weboptim
A Google algoritmusok segítségével próbálja a felhasználók számára biztosítani, hogy megtalálják a keresett tartalmat. Régebben ehhez elég volt például a meta tag-ek beállítása, amiből a Google már megtudta az oldal témáját.
A Google fejlődésével azonban egyre inkább arra helyeződött a hangsúly, hogy a keresések során releváns tartalom várja a látogatókat. Az algoritmusok több száz tényező alapján határozzák meg, hogy melyik weboldal a legrelevánsabb adott keresési kifejezés szempontjából.
Az elmúlt néhány évben 3 nagy változás történt a Google algoritmusokban.
1. A Panda algoritmus
Az első változata 2011 februárjában jelent meg. A célja az volt, hogy a magas minőségű weblapok jobb eredményt érjenek el a keresésekben, a gyenge minőségűek pedig hátrébb kerüljenek.
Kezdetben „farmer update”-nek nevezték, mert a content farmokra helyezte a hangsúlyt. ( A content farmok olyan oldalak, amelyek a Google kulcsszavas keresésre fókuszálva készítettek gyenge minőségű tartalmakat.)
A Panda algoritmus tehát a weboldalak minőségére és megbízhatóságára épít.
Szakértők készítettek egy ellenőrző listát, a benne található kérdések megválaszolásával meghatározható, hogy egy holnap jó minőségű-e: googlewebmastercentral.blogspot.ca/2011/05/more-guidance-on-building-high-quality.html
Pontosan azonban senki sem ismeri az összes faktort, amit a Google használ a minőség meghatározására. A hangsúly a felhasználók számára értékes tartalom készítésén van. De mik is a legfontosabb tényezők?
- szűk tartalom kerülése: a rövid oldalak általában nem hasznosak. Hiába van egy weblapon sok indexelt oldal néhány soros szöveggel, a Google alacsony minőségűnek fogja sorolni.
- ne legyen duplikált tartalom: a tartalom nagy része más oldalakról lopott, oldalon belüli duplikációk – a 2 legfőbb mód, ami miatt a Panda algoritmus rossz minőségűnek sorolhatja weboldalunkat.
- alacsony minőségű tartalom kiszűrése: fő szempont egyedi és értékes tartalom készítése
Mit tehetünk ellene?
A Panda algoritmust a Google körülbelül havonta frissíti, a változások után mindig újra végignézi az összes oldalt, így ha valaki időközben eltávolítja a gyenge minőségű és duplikált tartalmat, az oldal megítélése visszaállhat (igaz, ez néha több időt is igénybe vehet).
2. A Pingvin algoritmus
2012 áprilisában vezették be. Célja a természetellenes linkprofilok kiszűrése volt. A frissítés óta az új, de nem természetes linkek is veszélyt jelentenek a weboldal rangsorolására.
A link egy szavazat a weboldalra. Minél megbízhatóbb oldalról érkezik, annál értékesebb. Ha sok linkünk van gyenge minőségű weboldalakról, az rontja az oldal megítélését a Google szemében.
A linkek vizsgálatakor fontos még az ún. anchor text (linkszöveg, amire kattintva a felhasználó eljut a weboldalra). Ha sok linknél egy linkszöveget használunk, akkor a Google úgy érzékeli, hogy adott szövegre releváns az oldalunk. Viszont ezt nagyon könnyű volt befolyásolni kulcsszavas linkek elhelyezésével, ennek megakadályozását is szolgálja a Pingvin.
Az algoritmus egy bizalmi faktor is egyben. Ha megbízhatatlan oldalakról érkezik sok link, akkor az a weboldal megbízhatóságát, és így helyezését rontja.
Mit tehetünk ellene?
Ugyanúgy, mint a Panda, időnként újra végignézi, és értékeli a weboldalakat. Ha az algoritmus miatt az oldal sokat romlott, akkor fel kell kutatni a természetellenes linkeket, és eltávolítani őket, vagy megkérhetjük a Google-t, hogy ne vegye figyelembe ezeket a webhely értékelésekor: google.com/webmasters/tools/disavow-links-main
3. A Hummingbird (kolibri) algoritmus
2013 augusztusában vezette be a Google. A többi frissítéssel szemben ez a keresési algoritmus az egész működésre hatással van.
Célja, hogy a Google jobban megértse a felhasználók keresését: a keresési kifejezéseket az adott kontextusban próbálja meg értelmezni, és a lehető legjobb megoldást nyújtani.
Különlegessége, hogy a kérdezz-felelek típusú kérdésekre egyből és pontosabb választ ad. Tehát valaki, ha nem a „Budapest legjobb étterme” kifejezésre keres, hanem arra, hogy „hol van a legjobb étterem Budapesten?”, akkor is releváns választ kap a kérdésére.
Mit tehetünk ellene?
A Hummingbird teljesen más, mint a Panda és a Pingvin. Az utóbbi kettő a weboldalak megbízhatóságát pontozza le (a linkek vagy a tartalom miatt), de a problémák kijavításával vissza lehet szerezni a Google bizalmát. Ha azonban a Kolibri miatt esik vissza az oldal, kevés az esély a kulcsszavak helyezéseinek visszaállítására.
Az algoritmus változások célja az, hogy a Google a lehető legjobb tartalmak elkészítésére, és közzétételére ösztönözze az oldal tulajdonosait és webmestereit. Fontos, hogy a tartalom a felhasználóknak készüljön, hiszen a Google célja az, hogy az emberek megtalálják, amit keresnek. Ha tudunk az emberek kérdéseire/ kereséseire válaszolni, akkor vagyunk a helyes úton.
Forrás: moz.com