Matt Cutts egy újabb videóval jelentkezett, amelyben egy megkeresés kapcsán mondta el gondolatait, a Google algoritmus frissítésekről.
A kérdés lényeg az volt, hogy a gyakori algoritmus frissítések miatt egyre nehezebb bízni a Google-ban, és érdemes-e a közösségi médiára építkezni, a Google helyett. Bár a kérdés kissé naiv, mégis néhány vonatkozásban érdekes lehet.
Matt Cutts elmondja, hogy a Google folyamatosan módosítja algoritmusát, és ez nem változott lényegesen az elmúlt időszakban. A Google-nak mindig az a célja, hogy a legjobb minőségű találati listát állítsa elő, így folyamatosan napirenden vannak az algoritmus frissítések (egy korábbi nyilatkozat szerint évente 5-600 algoritmus frissítés fut le, ezek közül csak az erőteljesebb hatásúakat érzékeljük).
Matt Cutts azt is elmondta, hogy az algoritmus frissítések nem árthatnak egy weboldalnak, ha az a célja, ami a Google-nak is, azaz a minél jobb találati lista összeállítása. Ha a weboldal kiemelkedő tartalmat nyújt, akkor a találati listán is jól fog szerepelni, függetlenül az algoritmus frissítésektől.
A Google webszemét ellen küzdő osztályának vezetője azt is elmondta, hogy a Google egyre jobban képes érzékelni azokat a manipulációs szándékú linkeket és egyéb trükköket, amelynek célja a találati lista befolyásolása. A fekete kalapos módszerrel egyre nehezebb lesz sikereket elérni, és a Google egyre jobb hatásfokkal leplezi le ezeket a szándékokat.
A kérdés másik felével kapcsolatban azt mondta, hogy szerinte a közösségi média egy teljesen más asztal, mint a keresőoptimalizálás. Célszerű lehet, ha szolgáltatásainkat nem csak egyetlen csatornára építjük, lehet ez a közösségi média, a szóbeszéd utáni terjesztés, a szaknévsor, a TV-s hirdetés és bármi egyéb.
A teljes videó itt tekinthető meg:
„Egyre nehezebb lesz spammelni a Google-t ”
A webszemét ellen küzdő osztályvezetőnek gyakorlatilag ez a központi üzenete, amióta megjelent a színen, hogy „segítse” a webmestereket; és ez lesz tíz év múlva is.
Az ún. spam pedig valószínűleg soha nem fog eltűnni – egyrészt mivel az algoritmus a folyamatos fejlődés révén legfeljebb tartja a lépést a „sötét” oldallal; másrészt mert a spam Google-féle definíciója folyamatosan változik. Éppen ezért hasznavehetetlen a következő kijelentés:
„az algoritmus frissítések nem árthatnak egy weboldalnak, ha az a célja, ami a Google-nak is”
ugyanis a Google célja novemberben már lehet, hogy más, mint októberben.
Tökéletes esettanulmány (talán érdemes lenne az ite.hu-n is feldolgozni) arról, hogy végső soron miért kilátástalan a Google „céljainak”, szabályainak, elvárásainak lekövetése, és miért hordoz alapvető kockázatot még az is, ha valaki az általuk kommunikált információkra alapoz:
http://searchengineland.com/the-structured-data-bruhaha-at-smx-east-174142
Köszönöm a linket!
Én azért egy kicsit másképpen látom a dolgokat. Nyilván a Goolgenak is alkalmazkodnia kell a sötét oldalhoz. Ha valami ami régen természetes volt, idővel spammé válik, akkor a Googlenak is le kell követni ezeket a változásokat.
Egy példa, ma a tömeges katalóguslink egyértelműen Sspamnek számít, de a web hőskorában teljesen természetes volt. Nem gondolom, hogy egy alkalmazott technika, ami később válik spammé egy oldal büntetését eredményezné, ha nem tömegesen volt alkalmazva.
A keresőoptimalizálásban és így a linképítésben is éppen ezért kell nagyon sok lábon állni, mert a büntetést általában a túlzott egyoldalúság eredményezi.
„ami régen természetes volt, idővel spammé válik”
Ha elolvasod a belinkelt cikket, látni fogod, hogy nem erről szól.