1998-ban Sergey Brin és Larry Page, két egyetemista megalapította a Google-t, mely ekkor még egészen egyszerűen működött a mostani verzióhoz képest – az egyetemi Hirsch-indexet vették alapul, ami egy-egy professzor értékét aszerint határozza meg, hogy hányan hivatkoznak rá tudományos publikációikban. Az interneten értelemszerűen már nem számított a tudományos fokozat, ott ugyanezt a szerepet a linkek látták el.
Ezt az időszakot hívjuk WEB 1.0-nak. Ezt követte a WEB 2.0, a közösségi internetezés időszaka, majd az utóbbi pár évben átléptünk a mesterséges intelligenciára támaszkodó szemantikus web, a WEB 3.0 korába. Ez az új időszak pedig elhozta a régi típusú SEO halálát.
Mitől más a WEB 3.0?
Észrevetted már, hogy míg pár éve ha a Google fordítóba beírtál egy pármondatos szöveget nagyon esetlenül fordította le, addig mostanra közel tökéletes fordítást kapsz eredményül?
Hogyan képes erre a Google, mi történt az elmúlt pár évben?
A válasz az adatfeldolgozás módjának változásában van, a Google algoritmusának fejlődésében.
A kereső célja az, hogy a legrelevánsabb találatokat rendezze sorba egy adott keresőszóra (a hirdetések után természetesen, amelyekből a bevételének nagy része származik).
Hogyan dönti el, hogy ki a releváns? A tartalmi relevancia, felhasználói élmény és linkek száma / értéke alapján.
2000-ben ez így nézett ki:
Az lett az első, akinek a legtöbb linkje volt és a legtöbbször írta le – főleg a kiemelt helyeken, mint a címsorok, a képek neve és a linkek – az adott kulcsszót. A SEO-szakemberek dőzsöltek, azzal látványos eredményeket tudtak elérni, hogy a gyakornokokkal több tucat linkfarmra (pl.: lap.hu) regisztráltatták be az ügyfeleik weboldalait, vagy a fehér háttérre fehér tintával írták föl egy tucatszor az adott kifejezést.
KERESŐOPTIMALIZÁLÁS SEO MARKETING ÉN LESZEK AZ ELSŐ AKKOR IS HEHEHEHEHEHE MUHHAHAHAHAHA SEOSEOSEO KONTENT IS KING HIHIHIHI
2020-ban mi befolyásolja a rangsort?
Gondolom benned is megfogalmazódott már, hogy a korai algoritmust elég egyszerű volt befolyásolni és ez könnyedén vezethet egy torz versenyhez, ami a felhasználóknak nem kedvez.
Ki akar egy olyan szöveget olvasni, amiben mondatonként ismétlődik egyetlen szó? Miért lenne relevánsabb valaki attól, hogy ezer startlap jellegű cégtárban szerepel?
Ezeket a problémákat orvosolni kellett és a Google ezt meg is tette. Röviden összefoglalva az alábbi szempontok a legfontosabbak most:
- A felhasználó a király. A rendszer folyamatosan monitorozza a látogatók viselkedését az adott weboldalon és ez alapján határozza meg annak relevanciáját. Ez nem feltétlenül jelenti azt, hogy a rossz mutatók miatt „büntetve leszel”, hanem arra az adott kifejezésre/témakörre tekinti a kereső irrelevánsnak az oldalt.
- Kulcscszavak helyett a tartalmi (topic) relevancia számít. Ez a gyakorlatban úgy működik, hogy egyrészt nem egyetlen szót, vagy kifejezést elemeznek a robotok, hanem annak egyre tágabb környezetét is, továbbá a témakörben leginkább releváns találatok szakmai szókincsét tekinti az algoritmus benchmark-nak. Ez a magyarázat a fordítóprogram ugrásszerű fejlődésére is – egyre nagyobb kapacitással bírnak a Google szerverei és egyre több adatot dolgoznak fel. Nem szavanként, hanem mondatonként, vagy akár bekezdésenként értelmez az algoritmus egy szöveget és a fordítás során is ezt használja. Szövegkörnyezet alapján valószínűségi alapon például meg tudja mondani, hogy egy többjelentésű szót melyik értelmében használunk az adott mondaton belül (pl. nyúl).
Konkrétan úgy is lehet első egy szóra valaki, hogy az oldalán egyáltalán nem is szerepel az adott kifejezés, csak a témakör jellemző szavainak többsége.
- Linkek – a hivatkozások továbbra is az egyik legfontosabb faktort jelentik. A mennyiségük helyett viszont mostanra már sokkal kifinomultabb szempontokat figyel az algoritmus. A hivatkozás relevanciája, továbbá az hivatkozó oldal ereje és megbízhatósága (domain authority és trust index) lettek a meghatározó mutatók.
Mit jelent mindez a blogcikkekre nézve?
5-10 évvel ezelőtt a blog a szorgalmasak fegyvere volt a nagyokkal szemben. Az egyértelmű volt, hogy a „női ruha” kifejezésre például egy mikrovállalkozó nem tudott versenyezni egy multival, viszont az úgynevezett „long tail” kifejezésekre kiválóan lehetett optimalizálni.
Ez azt jelenti, hogy egy-egy témakörben van pár sokak által keresett erős kulcsszó – esetünkben ez a női ruha – és több tucat olyan hosszabb, részletesebb keresőszó, amit pár tíz ember keres ugyan csak havonta (ezek a long tail kifejezések), de ha elég sok ilyen kulcsszóra optimalizált az ember, akkor összeadva ki tudták adni egy erősebb kulcsszó kattintási számát.
A kisvállalkozó tehát cikkeket írt olyan címekkel, hogy legszebb tavaszi csipkés miniszoknyák, meg fehér, virágmintás póló.
Működik ez a stratégia 2020-ban is?
Sajnos jellemzően nem. A fenti long tail kifejezések ugyanis egy tartalmi körhöz tartoznak, és amennyiben a vezető oldal releváns a kulcsszóra, csak nem tartalmazza a megadott szórendben a keresett kifejezést, úgy ő fog elsőként rangsorolni, hiába a fáradtságos munka.
Kisebb versenyzőként egyedül a specializáció kifizetődő – hiába az erőfölény, ha mi egy részpiac szavaira sokkal magasabb relevanciát mutatunk. A női ruha kulcsszó ugyan nem lesz a miénk, de felépíthetünk egy erős webshopot az elegáns női ruhákra, vagy mondjuk a tunikákra. Kisebb büdzséből csak kisebb piacot lehet megnyerni.
A keresőnek írt cikkek kora leáldozott, 2020-ban már nem éri meg csak a rangsor miatt olyan blogposztokat írni, amelyeket az emberek várhatóan nem olvasnak.
Segítheti-e a keresőoptimalizálást egy blog?
Igen. Két esetben:
- Ha van egy hűséges és lelkes olvasótáborunk, akkor a pozitív statisztikákból a Google látni fogja, hogy a tartalmaink relevánsak az emberek számára és ez kedvezően fog hatni a rangsorra.
- Egy jó tartalomra (főleg egy ügyes PR-os munkája után) sokan hivatkozhatnak, ami növeli a domain értékét. Egy kifejezetten érdekes kutatásra például sokkal könnyebb linkeket építeni, mint egy termékoldalra.
Kíváncsi vagy, hogy még milyen esetekben érdemes blogot írni? Olvasd el ezt a cikkemet is: Kell-e blog az oldaladra 2020-ban?