1998-ban Sergey Brin és Larry Page, két egyetemista megalapította a Google-t, mely ekkor még egészen egyszerűen működött a mostani verzióhoz képest – az egyetemi Hirsch-indexet vették alapul, ami egy-egy professzor értékét aszerint határozza meg, hogy hányan hivatkoznak rá tudományos publikációikban. Az interneten értelemszerűen már nem számított a tudományos fokozat, ott ugyanezt a szerepet a linkek látták el.
Ezt az időszakot hívjuk WEB 1.0-nak. Ezt követte a WEB 2.0, a közösségi internetezés időszaka, majd az utóbbi pár évben átléptünk a mesterséges intelligenciára támaszkodó szemantikus web, a WEB 3.0 korába. Ez az új időszak pedig elhozta a régi típusú SEO halálát.
Észrevetted már, hogy míg pár éve ha a Google fordítóba beírtál egy pármondatos szöveget nagyon esetlenül fordította le, addig mostanra közel tökéletes fordítást kapsz eredményül?
Hogyan képes erre a Google, mi történt az elmúlt pár évben?
A válasz az adatfeldolgozás módjának változásában van, a Google algoritmusának fejlődésében.
A kereső célja az, hogy a legrelevánsabb találatokat rendezze sorba egy adott keresőszóra (a hirdetések után természetesen, amelyekből a bevételének nagy része származik).
Hogyan dönti el, hogy ki a releváns? A tartalmi relevancia, felhasználói élmény és linkek száma / értéke alapján.
Az lett az első, akinek a legtöbb linkje volt és a legtöbbször írta le – főleg a kiemelt helyeken, mint a címsorok, a képek neve és a linkek – az adott kulcsszót. A SEO-szakemberek dőzsöltek, azzal látványos eredményeket tudtak elérni, hogy a gyakornokokkal több tucat linkfarmra (pl.: lap.hu) regisztráltatták be az ügyfeleik weboldalait, vagy a fehér háttérre fehér tintával írták föl egy tucatszor az adott kifejezést.
Gondolom benned is megfogalmazódott már, hogy a korai algoritmust elég egyszerű volt befolyásolni és ez könnyedén vezethet egy torz versenyhez, ami a felhasználóknak nem kedvez.
Ki akar egy olyan szöveget olvasni, amiben mondatonként ismétlődik egyetlen szó? Miért lenne relevánsabb valaki attól, hogy ezer startlap jellegű cégtárban szerepel?
Ezeket a problémákat orvosolni kellett és a Google ezt meg is tette. Röviden összefoglalva az alábbi szempontok a legfontosabbak most:
Konkrétan úgy is lehet első egy szóra valaki, hogy az oldalán egyáltalán nem is szerepel az adott kifejezés, csak a témakör jellemző szavainak többsége.
5-10 évvel ezelőtt a blog a szorgalmasak fegyvere volt a nagyokkal szemben. Az egyértelmű volt, hogy a „női ruha” kifejezésre például egy mikrovállalkozó nem tudott versenyezni egy multival, viszont az úgynevezett „long tail” kifejezésekre kiválóan lehetett optimalizálni.
Ez azt jelenti, hogy egy-egy témakörben van pár sokak által keresett erős kulcsszó – esetünkben ez a női ruha – és több tucat olyan hosszabb, részletesebb keresőszó, amit pár tíz ember keres ugyan csak havonta (ezek a long tail kifejezések), de ha elég sok ilyen kulcsszóra optimalizált az ember, akkor összeadva ki tudták adni egy erősebb kulcsszó kattintási számát.
A kisvállalkozó tehát cikkeket írt olyan címekkel, hogy legszebb tavaszi csipkés miniszoknyák, meg fehér, virágmintás póló.
Sajnos jellemzően nem. A fenti long tail kifejezések ugyanis egy tartalmi körhöz tartoznak, és amennyiben a vezető oldal releváns a kulcsszóra, csak nem tartalmazza a megadott szórendben a keresett kifejezést, úgy ő fog elsőként rangsorolni, hiába a fáradtságos munka.
Kisebb versenyzőként egyedül a specializáció kifizetődő – hiába az erőfölény, ha mi egy részpiac szavaira sokkal magasabb relevanciát mutatunk. A női ruha kulcsszó ugyan nem lesz a miénk, de felépíthetünk egy erős webshopot az elegáns női ruhákra, vagy mondjuk a tunikákra. Kisebb büdzséből csak kisebb piacot lehet megnyerni.
A keresőnek írt cikkek kora leáldozott, 2020-ban már nem éri meg csak a rangsor miatt olyan blogposztokat írni, amelyeket az emberek várhatóan nem olvasnak.
Igen. Két esetben:
Kíváncsi vagy, hogy még milyen esetekben érdemes blogot írni? Olvasd el ezt a cikkemet is: Kell-e blog az oldaladra 2020-ban?