A tárhelyszolgáltató így segíti a keresőoptimalizálás eredményeit

Gyakran megfeledkezünk róla, hogy a jó SEO a tárhelyszolgáltató kiválasztásával kezdődik. A továbbiakban bemutatjuk, hogy a minőségi tárhelyszolgáltatás milyen módon segíti a keresőoptimalizálás eredményeit, illetve szót ejtünk arról is, hogy egy megbízhatatlan szolgáltatás milyen nehézségeket és veszélyeket tartogat.
Egy weboldal minőségi mutatói rengeteg ponton összefonódnak a tárhelyszolgáltatás minőségével. Érdemes alaposabban megismernünk ezeket, hiszen jelentős ráfordítást nem igényelnek.

 

Megbízhatóság és rendelkezésre állás mindenekelőtt

 

A tárhelyszolgáltatókkal szemben támasztott egyik legfontosabb elvárás az úgynevezett rendelkezésre állás, amivel százalékos formában találkozhatunk. Ez az érték azt jelöli, a teljes időtartam hány százalékában elérhető a honlapunk a látogatók számára. Egy ideális világban ez 100 százalék lenne, de teljesen természetes, hogy kisebb leállások előfordulnak még a legminőségibb szolgáltatások esetében is.

A keresőoptimalizálás és a rendelkezésre állás összefüggései azonban sok félreértésre adnak okot, ráadásul a helyzeten sokat rontottak a találgatáson alapuló írások. Egyes „szakírók” olyan hajmeresztő megállapítások leírásától sem riadtak vissza, miszerint a Google könyörtelenül büntet minden egyes leállást, azonnal porba hullnak a helyezéseink, az organikus forgalmunk csökkenni kezd, súlyosabb esetben a Google indexeléséből is kiesünk…

Ez természetesen nem igaz, csupán önös érdekből elkövetett rémhírkeltés. Tekintsük át, hogyan is működik a Google indexelési folyamata, ezek ismeretében már reálisabb képet kaphatunk a leállások hatásairól. Az indexelés folyamatainak kibogozásában Evenich András, a kulcsszo.hu vezetője volt segítségünkre.

 

Google robot feltérképezésnek módja

 

A Google különböző robotokkal, úgynevezett pókokkal pásztázza a világhálót. Ezek feladata, hogy feltérképezzék az oldalakat, illetve elraktározzák azokat az információkat, amelyek alapján megjelenhetnek a találati listán. A robotok elsősorban a hivatkozásokon keresztül közlekednek, keresik az új tartalmakat, illetve kutatják a régi tartalmak változásait. Maga az indexelés egy folyamat, ami több lépésben történik meg, így az azonnali szankció elve már el is bukott.
Amikor a Google robotja valamilyen módon megérkezik egy új oldalra, első körben a „felfedezés” fázisa játszódik le. Ha ez rendben zajlik, a webhelyhez társított egyéb mutatók függvényében bizonyos idő múlva megkezdődik a „feltérképezés” folyamata. Ezen a ponton érkezünk el a számunkra fontos kérdéshez: mi történik, ha a feltérképezés során a Google robotja nem éri el az oldalt?
Noha a pontos technikai folyamatot senki sem ismerheti, a Google fejlesztőmérnökei is csupán az algoritmus egyes részeire láthatnak rá, az alapvető működési sajátosságok mégis könnyedén értelmezhetők. Amikor a Google robotja megérkezik egy nem elérhető oldalra, felismeri a hibát, így természetesen a tárolt információhalmazt nem fogja szerverhibára és üres felületre módosítani. Ehelyett a nem létező url kap egy címkét, ami arra utasítja a robotot, hogy kicsit később nézzen vissza és kísérelje meg újból a feltérképezést. Ha a szerverhiba elhárult, nincs következmény, az újbóli feltérképezés megtörténik.

 

Szerverhiba miért káros a weboldalak életében?

 

Amennyiben a szerverhiba továbbra is fennáll, a Google robotja tovább próbálkozik a feltérképezéssel. Időről időre visszatér, azonban a saját erőforrásai kímélése érdekében ezt egyre ritkábban teszi. Irreálisan hosszú leállás után a nem elérhető oldalak elkezdenek kihullani az indexelésből, hiszen a Google már azt feltételezi, hogy az oldal tartósan megszűnt, így hiba lenne részéről az organikus találatok között megjeleníteni. Végül pedig nem csak az adott oldalak, hanem a teljes webhely kikerül az indexelt oldalak közül.

Természetesen ezt követően is lehetséges az újbóli indexelés, azonban bizonyos idő eltelte után az oldalak úgynevezett szignáljai véglegesen törlődnek. A szignálok tartalmazzák az egyes oldalak előéletére vonatkozó információkat, így ha ezek törlődnek, az újbóli indexelést követően az oldalak gyakorlatilag nulláról kezdik a pályafutásukat. Meg kell jegyezni, hogy a webhelyszintű szignálok némelyike megmaradhat, de a további aloldalak ilyen jellegű adatai véglegesen elvesznek. Ez pedig komoly visszaesést okoz az organikus forgalomban.

 

Mi veszélyes és mi nem

 

Röviden összefoglalva: A néhány perces leállások nem jelentenek veszélyt az organikus látogatottságra. A Google tervezőmérnökei is tisztában vannak azzal, hogy 100 százalékos rendelkezésre állás a legjobb minőségű tárhelyszolgáltatás esetén sem garantálható, így a rövid ideig tartó leállások semmilyen negatív hatással nincsenek a keresőoptimalizálásra. Valós problémát, bizalomvesztést és negatív változást a rendszeres, órákon át tartó leállások, illetve az egyhuzamban több napon át tartó szerverleállások okoznak. Ezek már jelentős csökkenést idézhetnek elő az organikus forgalomban, de ilyen esetben nem csak a SEO miatt kell aggódnunk: a nem elérhető oldalak miatt látogatókat, ügyfeleket és bevételt veszítünk.

 

Webhelysebesség és betöltődési idő

 

Talán nem túlzás azt állítani, hogy keresőoptimalizáló körökben az egyik leggyakoribb téma a webhelysebesség kérdése. Ahogyan a szerverek megbízható működése, úgy a webhelysebesség is szoros összefüggést mutat a felhasználói élménnyel.

A webhelysebesség, vagyis egy webhely ilyen jellegű teljesítménye elsősorban két fő tényezőtől függ: a tárhelyszolgáltatástól, illetve a webhely kódszintű és szinkronizálási megoldásaitól. Mindkettőről érdemes szót ejteni, hiszen kiváló teljesítményt csak akkor érhetünk el, ha mindkét területnek megfelelő figyelmet fordítunk.

A webhelysebesség jelentőségét jól mutatja az a mérési adat, miszerint az átlag felhasználók 1999-ben még 8 másodpercet voltak hajlandók várakozni egy oldal betöltésére, ma már ez az idő 2 másodperc alá csökkent. Ez jól mutatja, hogy a webhelysebesség mekkora jelentőséggel bír a konverziók elérésében, hiszen a tizedmásodpercek is hatással vannak a visszafordulási arányra. De hogyan kapcsolódik mindez a keresőoptimalizáláshoz, illetve az organikus forgalomnöveléshez?

A webhelysebesség és a keresőoptimalizálás elsődleges kapcsolata némileg bővebb magyarázatot érdemel. A Google minőségi irányelvei szerint nem szükséges mindent alárendelni a webhelysebességnek, ugyanakkor törekedni kell arra, hogy a látogatók számára viszonylagos gyorsaságot biztosítsunk. Mit jelent ez a gyakorlatban?

A webhelysebesség abban az esetben gyakorol jelentős hatást az organikus forgalmunkra, ha az oldalunk teljesítménye kifejezetten gyenge. Ez esetben természetesen negatív hatásra kell számítanunk. A lassú betöltődés azonban közvetett hatást is gyakorol az organikus keresési eredményekre, amelyek mellett nem mehetünk el szó nélkül.

 

Felhasználói viselkedés és a megfelelő tárhely kapcsolata

 

A Google algoritmusa egyre nagyobb jelentőséget tulajdonít a felhasználói viselkedés paramétereinek, ezáltal csökkenti a manipulálható rangsorolási tényezők súlyát. A látogatói viselkedés az egyik legmegbízhatóbb visszajelzés egy adott találat minőségéről, így a Google folyamatosan dolgozik az ilyen jellegű paraméterek kiértékelésén. Mivel a lassú betöltődési idő növeli a visszafordulási arányt, illetve csökkenti a webhelyen töltött időt, így a webhelysebesség közvetett módon komoly mértékben összefonódik a keresőoptimalizálással. Szerencsére tehetünk az eredmények javítása érdekében…

Számos dolgot tehetünk a sebesség javítása érdekében, de érdemes tudnunk, hogy ezek különböző mértékben járulhatnak hozzá a teljesítmény növekedéséhez. A megbízható tárhelyszolgáltató kiválasztása a sebesség biztosítása érdekében is rendkívül fontos; válasszunk megfelelő minőségű szolgáltatást! Néhány ezer forint megspórolása érdekében ne dobjuk ki az ablakon a látogatóink és ügyfeleink jelentős hányadát!

Ha biztosítottuk a megfelelő tárhelyszolgáltatást, vizsgáljuk meg a sebességoptimalizálás lehetséges lépéseit: milyen JavaScript és CSS elemek szerepelnek a hajtás feletti tartalomban, vannak-e céloldali átirányításaink, lehetséges-e a HTML, JS, CSS fájlok tömörítése, rendelkezésre áll-e a gyorsítótárazás, illetve használunk-e veszteségmentes tömörítést a képek esetében. Ha megvizsgáljuk ezeket a kérdéséket, illetve elvégezzük a szükséges módosításokat, akár jelentős sebességnövekedést érhetünk el.

Röviden összefoglalva: A webhelysebesség jelentős hatást gyakorol a felhasználói viselkedésre, így a Google helyezésekkel is összefüggésbe hozható. Érdemes erőfeszítéseket tennünk annak érdekében, hogy a honlapunk minél gyorsabb betöltődést biztosítson, így akár a keresőkből érkező forgalmunkat is növelhetjük.

 

Biztonság – Nem éri meg kockáztatni

 

A tárhelyszolgáltatás minőségét nemcsak a sebesség és a rendelkezésre állás határozza meg, hanem azok a mutatók és tulajdonságok is, amelyek a biztonságos működést igyekeznek szavatolni. Ma már alapvető elvárás, hogy a honlap tartalmáról időnként készüljön biztonsági mentés. Ez garantálja a visszaállítás lehetőségét abban az esetben, ha tényleg nagy a gond. Azonban a tárhelyszolgáltatás kapcsán is érdemes elmondani a nagy alapigazságot: a bajt jobb megelőzni, mint orvosolni.

Mindenképpen olyan szolgáltatót érdemes választani, ahol van lehetőségünk SSL tanúsítvány használatára. A legtöbb felhasználó számára teljesen ismeretlenül cseng az SSL (Secure Socket Layer) elnevezés; általában csak annyit látnak belőle, hogy a domain neve előtt HTTP helyett HTTPS szerepel.

De mit takar valójában az SSL? Az SSL garantálja, hogy a felek közötti kommunikáció titkosított csatornákon történjen. Ez alapvető elvárás olyan oldalakkal szemben, ahol bankkártyás fizetés történik, így a webáruházak esetében nem lehet kérdéses ennek a szükségessége. De vajon segíti-e a keresőoptimalizálást, illetve számíthatunk-e magasabb organikus forgalomra, ha áttérünk a biztonságos protokollra?

Az SSL protokoll jelentőségéről a Google szóvivők relatív sokszor beszélnek, ami azt mutatja, a keresőoptimalizálással foglalkozó szakértőket és a honlapok tulajdonosait kifejezetten foglalkoztatja a kérdés. A korábbi várakozással ellentétben a Google algoritmusa kisebb jelentőségű rangsorolási tényezőként kezeli az SSL protokollt, azaz önmagában egy HTTP-HTTPS váltás nem jár jelentős előnnyel a találati listán. Tehát magára az SSL protokollra elsősorban biztonsági megoldásként kell tekintenünk, nem pedig a keresőoptimalizálás hathatós segítőjére.

 

Számos érv a minőségi tárhelyszolgáltatás mellett

 

A cikkből kiderült, hogy a tárhelyszolgáltatás minősége számos ponton összefonódik a keresőoptimalizálással, illetve a természetes keresési forgalom növelésével. Ugyanakkor látni kell, hogy ezek a tulajdonságok hatással vannak a felhasználói élményre, a biztonságra és a megbízhatóságra is. Ma már alapvető elvárás minden egyes honlappal szemben, hogy kellően gyors működést tegyen lehetővé, leállások nélkül működjön és a lehető legnagyobb mértékben szolgálja a felhasználói adatok védelmét.

Ezek mellett sok érvet fel lehet sorolni, ami miatt a minőségi tárhelyszolgáltatásokat érdemes előnyben részesíteni az olcsó megoldásokkal szemben. Gondoljunk a tárhely bővíthetőségére, az adatforgalom korlátozásainak csökkentésére, az időzíthető szkriptek futtatására, a különböző adatbázisok használatára vagy akár a szakértő ügyfélszolgálatra. Mielőtt kiválasztjuk a számunkra megfelelő szolgáltatást, tekintsük át a különböző csomagajánlatokat! Sok esetben érdemes éves szinten néhány ezerrel többet fizetni, ha azok nagymértékben megkönnyítik a munkánkat.

Share

Szóljon hozzá!

*

Content Protected Using Blog Protector By: PcDrome.