Mit rejtenek a Google Search kiszivárgott dokumentumai?
Egy dolgot rögtön szögezzük le az elején: nem szivárgott ki a Google kereső algoritmusa, és a SEO-szakértők sem kaptak hirtelen mindenre választ. De az információ, amely a héten kiszivárgott – a Google több ezer belső dokumentumának gyűjteménye – még mindig hatalmas lehetőségeket rejt. Példátlan betekintést nyújt ugyanis a Google belső, jellemzően szigorúan őrzött működésébe.
A 2500 dokumentum talán legjelentősebb felfedezése az, hogy a Google képviselői a múltban félrevezették a nyilvánosságot, amikor arról beszéltek, hogy az internet legnagyobb kapuőre hogyan értékeli és rangsorolja a tartalmakat a keresőmotorja számára.
Az, hogy a Google hogyan rangsorolja a tartalmakat, egy fekete doboz. A weboldalak túlélése a keresésekből generált forgalomtól függ, és sokan nagy erőfeszítéseket – és nagy költségeket áldoznak- tesznek azért, hogy megelőzzék a versenytársakat, és a találati listák élére kerüljenek. A jobb helyezés több látogatót jelent, ami több pénzt generál. Ennek eredményeképpen a profi webhelyek üzemeltetői a Google minden egyes nyilatkozatát figyelik, és a kereséssel foglalkozó alkalmazottak minden egyes közösségi médiás posztját monitorozzák. Az ő szavukat evangéliumként kezelik, ami viszont mindenkihez eljut, aki a Google-t használja a kereséshez.
A Google szóvivői az évek során többször is tagadták, hogy a felhasználói kattintások például a webhelyek rangsorolásánál szerepet játszanának. A kiszivárgott dokumentumok azonban többféle kattintást is említenek. Ezek jelzik, hogy ezek a felhasználók által tett kattintások a keresőoldalak rangsorolásánál is szerepet játszanak. Az amerikai igazságügyi minisztérium trösztellenes perének tanúvallomásai korábban feltártak egy Navboost nevű rangsorolási faktort. Ez a keresők kattintásait használja fel a tartalmak keresőben való előrébb helyezéséhez.
Már elemzik a kiszivárgott dokumentumok tartalmát
A kiszivárgás híre először azt követően terjedt el, hogy a hét elején Fishkin és Mike King SEO-szakértők közzétették a kiszivárgott dokumentumok tartalmának egy részét, a hozzájuk tartozó elemzésekkel együtt. A kiszivárgott API-dokumentumok a Google által gyűjtött adatokkal kapcsolatos információkkal és definíciókkal teli tárházát tartalmazzák. Ezek közül néhány információt adhat arról is, hogy a weboldalak hogyan kerülnek a keresőben rangsorolásra. A Google először kitért a kiszivárgott dokumentumok hitelességével kapcsolatos kérdések elől, szerdán azonban megerősítették azok valódiságát.
A dokumentumokban például nincs utalás arra, hogy a különböző attribútumok hogyan kerülnek súlyozásra. Az is lehetséges, hogy a dokumentumokban megnevezett attribútumok közül néhányat – például a „kis személyes oldalak” azonosítóját vagy a termékértékelések lefokozását – valamikor már alkalmaztak, de azóta már kivonták őket a forgalomból. Az is előfordulhat, hogy egyáltalán nem is használták őket a webhelyek rangsorolására.
Az a felvetés, hogy a világ legnagyobb keresőplatformja nem aszerint rangsorolja a keresési eredményeket, hogy a felhasználók hogyan viszonyulnak a tartalmakhoz, már önmagában is abszurdnak tűnik. De az ismételt tagadások, a gondosan megfogalmazott vállalati hivatalos válaszok és az szakmai kiadványok, amelyek megkérdőjelezhetetlenül hordozzák ezeket az állításokat, vitatémává tették ezt a SEO marketingesek körében.
A Google Chrome is fontos szerepet kap
A Fishkin és King által kiemelt másik fontos pont arra vonatkozik, hogy a Google hogyan használhatja a Chrome adatait a keresési rangsorolásban. A Google Search képviselői azt mondták, hogy nem használnak semmit a Chrome-ból a rangsoroláshoz. De a kiszivárgott dokumentumok arra utalnak, hogy ez nem biztos, hogy igaz. Az egyik szakaszban például a „chrome_trans_clicks” szerepel. Ez arról tájékoztat, hogy egy domainről mely linkek jelennek meg a fő weboldal alatt a keresési eredményekben. Fishkin ezt úgy értelmezi, hogy a Google „a Chrome böngészőkben az oldalakra történő kattintások számát használja, és ez alapján határozza meg a legnépszerűbb/legfontosabb URL-eket egy webhelyen, amelyek beleszámítanak annak kiszámításába, hogy melyiket vegye fel a sitelinks funkcióba”.
A dokumentumokban több mint 14 000 attribútumot említenek, és az elemzők majd hetekig fognak kutatni a dokumentumokban található utalások után. Már most említést tettek a „Twiddlerekről”, vagyis a nagyobb rendszer frissítéseken kívül alkalmazott rangsorolási finomításokról, amelyek bizonyos kritériumok alapján növelik vagy rontják a tartalmat. Megemlítik a weboldalak elemeit, például a szerző személyét, valamint a weboldalak „authoritásának” mérését. Fishkin rámutat arra is, hogy sok olyan dolog is van, ami nem nagyon van kibontva a dokumentumokban, például az AI által generált keresési eredményekről szóló információk.
Nos mit jelent mindez a SEO-szektoron kívül mindenki más számára? Egyrészt számítsunk arra, hogy mindenki, aki weboldalt üzemeltet, olvasni fog erről a kiszivárgásról, és megpróbál értelmet keresni benne. A SEO sokszor a falhoz vágja a dolgokat, hogy lássa, mi ragad meg. A kiadók, e-kereskedelmi cégek és vállalkozások valószínűleg különböző kísérleteket fognak végrehajtani, hogy megpróbálják tesztelni a dokumentumokban javasolt dolgok egy részét. Elképzelhető az is, hogy az történik, hogy a weboldalak elkezdenek egy kicsit másképp kinézni, vagy másképp viselkedni. Mindezt úgy, hogy a szektor szakértői megpróbálják értelmezni ezt az új, de még mindig homályos információdömpinget.