Edit

Legújabb tartalmaink:

SEO, a nagy összefoglalás!
2. rész – SE, mint: Search Engine

Megosztás itt: facebook
Megosztás itt: twitter
Megosztás itt: linkedin
Megosztás itt: email

Érkezik a SEO összefoglalónk második része, melyben a search engine-ek műkődését ismerhetjük és érthetjük meg. Mivel egy-egy keresés alkalmával maga a keresőmotor hoz bírálatot weboldalunk felett, ezért érdemes megismernünk annak kiválasztási, rangsorolási módszereit, szempontjait; vagyis hogyan működnek ezek a válaszgépek.

macbook gb706542e1 1920

A keresés kezdetei

Az olvasók közül talán már nem sokan emlékeznek a PC, internet vagy okostelefon nélküli időkre, amikor egy releváns információért a könyvtárakban kellett akár órákat is tölteni. Később már elterjedt az internet, s vele egyidejűleg megszülettek az első keresőmotorok is (Wandex, 1993.; Aliweb, 1993; Lycos, 1994;…), amik percekre szűkítették ezeket az órákat.

Az igazi áttörést a Google 1996-os megalkotása jelentette, ami újszerű, PageRank algoritmusával lényegesen relevánsabb tartalmakkal szolgálhatott felhasználóinak.

Az internet, keresőmotorok fejlődése hasonló jelentőségű mérföldkövek az emberiség történetében, mint a vasút feltalálása volt a 19. században: Kinyílt és felgyorsult, megismerhetővé vált a világ.

A monitor mögött

Az operációs rendszerek, mobilalkalmazások korában az információhoz való hozzáférés szinte már egy második osztályos számára is játszi könnyedséggel megvalósítható. Ennek biztosítása azonban komoly mérnöki, informatikai tevékenység eredménye, s a színes, érthető felület mögött algoritmusok kívülről nehezen érthető sorai kommunikálnak egymással speciális nyelvükön, melyet csak a programozók és más szakemberek értenek meg.

search engine g14b2b0135 1920

Amikor rákeresünk egy kifejezésre a keresőmotorban, másodpercek töredéke alatt listázódik legalább egy oldalnyi találat. Ezt nevezzük SERPs-nek: Search Engine Result Pages: Keresőmotor találati oldalak.

Az első helyeken a fizetett hirdetésket láthajuk, majd utána az ún. organikus találatokat, amik saját értékük miatt kerültek a lista elejére. A SEO-t ezen helyek megszerzéséért alkalmazzuk. A jogos kérdés: Miért adott weboldal az első a sorban?

A világhálón óriási mennyiségű adat van jelen. A keresőmotorok célja a lehető legtöbb és legjobb minőségű tartalmak felfedezése. Teszik ezt az emberi agy működését felülmúló hatékonysággal azért, hogy egy-egy keresés esetén azok közül a legalkalmasabbnak véltekkel választ szolgáltassanak a felhasználóknak. Ehhez crawlereket, botokat, spidereket (webpászkázókat, pókokat) alkalmaznak, amik sajátos szenzoraikkal letapogatják a weboldalak tartalmát, minőségét, majd algoritmusuk alapján indexxel látják el őket, és a gyűjteményükben (Caffeine) raktározzák, ahonnét, keresés (query) esetén, szintén index alapján, a keresésnek legmegfelelőbb sorrendben a SERPs-en teszik láthatóvá őket.

A keresőmotor mindent lát!?

Nem teljesen. Ahogy az emberi szem, úgy a webpászkázók sem érzékelnek mindent, ezért szükséges olyan “fényben feltüntetni” weboldalainkat, amiben a crawlerek észreveszik őket. Ez a SEO egyik feladata (lsd. Technikai SEO). 

optimization g693fa8b0c 1920

A legális crawlerek csak a nyilvánosan elérhető (publicly available) weboldalakat pásztázzák át. Azokat is csak abban az esetben, ha megbizonyosodtak róla, hogy hozzáférhetnek az adatokhoz. A honlapokat, vagy azok bizonyos részeit ugyanis elzárhatjuk a kis tapogatók elől: a “robot.txt” a weboldalak törzskönyvtárában található. Itt adható meg a “disallow” jelzéssel, hogy a spider (=crawler=webpászkázó) megtekintheti-e az adott oldalt, s ha igen, akkor mely részeit. Ezekre példa, mikor regisztrációhóz, jelszóhoz kötött egy oldal hozzáférhetősége, s a belépés után elérhetô adatokat nem szeretnénk nyilvánossá tenni, illetve elérhetővé bárki számára. 

Amennyiben nem gondoskodunk a “robot.txt”-ről, akkor a crawler automatikusan letapogatja weboldalunkat. Ha nem tudja eldönteni, hogyan rendelkezett a weboldal tulajdonosa, akkor is érintetlenül hagyja azt.

Személyes adatok esetén, amiket semmiképp nem szeretnénk közszemlére tenni, “no-index” meta taggel lássuk el a honlapot, ugyanis nem minden crawler veszi figyelembe a “robot.txt”-t. Ezeket a beállításokat a Google Search Console-ban tehetjük meg. 

Webcrawlereket általában a keresőmotorok alkalmaznak. Az interneten nyíltan elérhető oldalakat összekapcsoló linkek hálózatán, mint pókhálón közlekednek a spiderek, s az elérhető és hozzáférhető weboldalakat átpásztázzák, indexet készítenek róluk, s adatbázisukba veszik, ahonnét, keresés esetén elővarázsolják azokat. 

Hogy átláthassák az információrengeteget, a spiderek a felfedezőmunkát a szempontjaik (relevancia, linkek száma, látogatottság stb.) szerint legfontosabb URL címekkel kezdik, majd haladnak az adatsűrűségben a linkek vonalán, figyelembe véve közben más instrukciókat is melyek egy-egy “kereszteződésnél” döntőek lehetnek. 

A weboldalak természetéből adódóan azok folyamatosan megújulhatnak, ami az újraindexelés igényét veti fel. Ezt meg is teszik a crawlerek, viszont meghatározott szempontok (köztük a népszerűség és relevancia) alapján súlyoznak, hogy melyik honlapot milyen gyakorisággal mérik fel újra.

Crawl Budgetnek nevezzük azt az URL mennyiséget, amelyet adott weboldalon a spiderek letapogatnak, biztosítva, hogy a valóban releváns tartalmak kapjanak indexet, hiszen a crawlerek csak egy adott mennyiségű URL-t tudnak feltérképezni egyszerre. Sajnos már a kezdetek kezdetén megjelent itt is a visszaélés, de ezek elsősorban a hírességeket, befolyásosabb üzletembereket találták meg szenzációhajhászat céljából. A webscraperek “tudatosan” “látogatnak” meg egyébként nem nyilvános, vagy “robot.txt.”-n letiltott esetleg “no-index”-elt oldalakat titkos, nem publikus adatok megszerzése céljából. De megfelelő informatikai segítség igénybevételével, ezeknek elejét lehet venni!

Felhasználói igények, rangsorolási szempontok:

Az általános jótanács minden honlapfejlesztőnek/tulajdonosnak, hogy a weboldalt a lehető leginkább fogyasztható tartalommal és formában tegye közzé. Ugyanakkor a kialakításnál fontos figyelembe venni a Google Guidelines-t is, mivel a válaszlehetőségeket Ő nyújtja a fogyasztó elé.

A keresőmotorok hasonlóan működnek, mint a pincér egy neves cukrászdában. Ismeri a betérő vendégeket; tudja, hogy karácsonykor bejglit, nyáron jégkrémet, augusztus 20-án az ország tortáját keresik leginkább. Mindig megkérdezi: “Mivel szolgálhatok?” S gyakran maga ajánl finomságot az eddigi fogyasztás alapján.

A ház ajánlatait mindig előtérbe helyezi (fizetett hirdetések), aztán olyan sorrendben ajánlja a desszerteket, ami, a pincér tapasztalatai alapján, a legmegfelelőbb a vendégnek. Tehát, bár a fogyasztók kattintásaiért alkalmazzuk a SEO-t, a keresőmotorok kritériumait kell szem előtt tartanunk.

Technikailag a rangsorolásokat a keresőmotor algoritmusai végzik. A Google esetében a legfontosabbak a Panda, Pingvin, Hummingbird, Pigeon, Phantom2, Mobilegeddon, Rankbrain, Opossum, Fred, Medic. Ezek megismerése nem kötelező, csupán ajánlott a hatékonyabb SEO-zás érdekében. A következő, harmadik részben róluk lesz szó.