Arriva Gennaio e Google, come ogni anno, applica qualche nuova ed interessante sorpresa per ripulire un pò i propri indici.

Quest'anno Google presenta una piccola novità sugli spider, che dal 2 Gennaio hanno iniziato a leggere e rilevare sia i Css esterni che i Js inclusi nella pagina.

Dal 2 Gennaio a oggi, infatti, su alcuni siti monitorati ho potuto notare come Google abbia incluso i Css esterni e i file Js tra i file da controllare con uno spider dedicato.

Nei piccoli test effettuati posso confermare che Google sia in grado di rilevare un link "coperto" da Javascript anche se per ora la funzione "windows.open" sembra rimanere esclusa dalla rilevazione.

Sembra inoltre che Google sia capace non solo di leggere il Css ma capire anche come e dove viene utlizzato nella pagina, per esempio un H1 che diventa un testo normale o un Div che va a coprire o spostare uno specifico testo.

In questi giorni ho analizzato i siti scomparsi da Google guardando i vari Forum e in molti casi sembra che tale esclusione dipenda proprio dalla lettura dei file esterni, prima non rilevati o comunque non ben interpretati.

Analizzando le varie anomalie degli indici, ho notato come alcune perdite di posizionamento sono state causate da una riduzione del potenziale di LP, in parte
dovuto al fatto che Google abbia conteggiato anche i link in Js.

Nei vari siti penalizzati o bannati, ho visto che comunque su alcune situazioni lo spider di Google sia stato un pò troppo rigido e spietato, penalizzando soluzioni che tutto sommato sono più da attribuire a questioni grafiche che di posizionamento come alcuni div richiamati da Css che aprivano testi e menù "a scomparsa", un pò riproducendo la funzione anchor ma con testo a scomparsa.

Tra i motivi per spingere sulla lettura dei file esterni mi vengono in mente:
1) rilevare Css con funzionalità "testo nascosto";
2) capire se i vari H1, H2, ecc ecc sono formattati in modo strano, trasformando di fatto un titolo (H1) in un normale testo che di fatto "annullerebbe" la motivazione di utilizzare un tag H1, specifica dedicata a funzione di titolo.
3) rilevare testo "utile" incluso nei file Js, interfaccie di navigazione, ecc ecc;
4) rilevare meglio funzioni di testo nascosto tramite Css, Div e Js; sistemi che per ora, con qualche eccezione, Google non era in grado di monitorare.

Maggiori dettagli in futuro ;)
  1. Fabrizio Ventre

    Mi occupo di SEO e Lead Generation. Sono appassionato di tecnologia e innovazione e fondatore di alcune importanti testate hi-tech. Attualmente CoFounder e Seo Manager presso Omniaweb, Cofoudner Tag Padova, Hostplace.

In primo piano

Articoli collegati

Newsletter Seotopic.com

Ti è piaciuto questo articolo? Non perderne nessuno, iscriviti alla newsletter per riceverli una email ogni volta che verrà pubblicato un nuovo incredibile post.

Commenti

  1. Avatar

    E se fosse solo una cosa provvisoria per creare allarmismo e costringere tutti a correre ai ripari con le sitemaps? :)

    Rispondi
  2. Avatar

    Tutto ci può stare, ma dubito che la cosa sia "provvisoria". ormai google legge anche i file esterni in js o css, meglio prenderne nota. idem per i tag. h1 h2 ecc.

    Rispondi
  3. Avatar

    @sandro

    di aggiornamenti con effetti pesanti ma provvisori se ne sono già visti in passato, comunque la mia era una battuta relativa alle sitemaps. la prima cosa che molti suggerisocno quando non si sa come reagire ad una perdita di posizionamenti è...."facciamo la sitemap" :)

    Rispondi

Seotopic

Probabilmente il miglior blog Seo degli ultimi 150 anni. I seo si stanno estinguendo. Aiutaci a salvarli !!!!

Dove opero

Mi trovi a: Vicenza, Padova, Verona, Treviso, Venezia.

Contatti

Contatti e recapiti

  • Vicenza, Padova, Verona, Treviso, Venezia
  • Mobile: +39 345 9371774
  • Email: info@seotopic.com