SEO Spider

Lo spider è uno strumento che esegue una scansione attraverso link interni di siti, sottocartelle o URL, per verificare una serie di parametri tecnici “invisibili” a occhio nudo che descrivono le caratteristiche strutturali del dominio ed evidenziano errori e warning, falle da sistemare, problemi più o meno gravi, anomalie e ostacoli che possono compromettere le prestazioni del sito nella Ricerca Google.

Nello specifico, lo spider di SEOZoom è un tool completo per individuare errori di struttura, verificare lo status code HTTP delle pagine e delle risorse, controllare che meta tag, attributi e direttive siano correttamente impostati, per evitare che ci siano problematiche che possano complicare la scansione di Googlebot, sprecare crawl budget o addirittura impedire l’indicizzazione dell’URL su Google. Inoltre, grazie all’integrazione con gli altri strumenti della suite, puoi ottenere informazioni su ogni URL sottoposto a scansione, visualizzando immediatamente il numero di keyword, il traffico e altri dettagli strategici.

È uno strumento complesso: offre dati e analisi che da interpretare con attenzione, ma rappresenta anche il mezzo per compiere un passo avanti ed essere realmente in grado di migliorare il tuo sito web.

Puoi avviare la scansione da Progetto o direttamente dalla sezione nel menù laterale, attraverso il pulsante Crea una nuova Scansione; il numero di scansioni disponibili per ogni account dipende dal tipo di abbonamento sottoscritto, mentre non ci sono limiti all’avvio delle scansioni e quindi puoi anche avviare la medesima scansione più volte.

Nella finestra che si apre dovrai indicare il nome da dare alla scansione, decidere l’estensione (se restringere o meno l’analisi alla cartella inserita) e impostare l’URL da cui generare l’analisi (solitamente, il dominio com’è indicizzato, con un’attenzione al protocollo), ed eventualmente indicare un pattern da escludere dalla scansione

Dal punto di vista tecnico, puoi anche settare tre diversi aspetti:

  • Courtesy level: ogni quanti secondi lo spider deve scansionare le pagine del sito inserito. Se impostata a uno, lo spider scansiona il tuo sito ogni secondo.
  • Profondità di scansione: imposta il livello massimo di clic di distanza dalla home page a cui lo spider rintraccia le pagine. Il valore inserito ferma la scansione quando una pagina raggiunge appunto quel numero di clic dalla home page.
  • Pagine da scansionare: il numero massimo di pagine che lo spider può scansionare, che fa riferimento anche al limite derivante dal piano in abbonamento.

Se hai sottoscritto un piano Business e Corporate puoi gestire un’altra opzione, che riguarda i siti web che utilizzano framework javascript come React o Angular, cliccando su “Abilita rendering Javascript” per una scansione capace di analizzare anche questi elementi.

Una volta avviata la scansione, SEO Spider inizia a navigare il sito, la sottocartella o la URL indicati e lo stato ti aggiorna in tempo reale sul livello di completamento, passando da not started a in coda, poi in crawling e, infine, in finished.

A questo punto, terminata la scansione, SEOZoom ti fornisce un’analisi che mette in evidenza anomalie ed errori individuati, suddivisi per tab, con un elenco completo delle URL analizzate e dei relativi valori.

Ma come puoi usare tutte queste informazioni e, soprattutto, ti devi preoccupare se lo Spider trova tanti errori e warning nel suo sito? Dal nostro punto di vista, l’approccio a SEO Spider deve partire dal presupposto che le segnalazioni, gli Avvisi e gli Errori, sono tutti elementi tecnici legati alle impostazioni dello Spider: quindi è bene analizzare le singole sezioni per scovare errori e risolverli, ma a questo devi affiancare una visione ampia e consapevole degli aspetti tecnici, perché non tutte le voci sono un “problema” e hanno lo stesso peso. Ad esempio, e solo rapidamente, una pagina cruciale del tuo sito di cui hai inavvertitamente bloccato l’indicizzazione via robots è sicuramente un errore, mentre l’assenza di un alt text o la duplicazione di un H2 sono elementi secondari che non dovrebbero impattare sul posizionamento (o, quanto meno, non in maniera diretta e così netta).

E quindi, per avere un sito perfetto è sicuramente bene limitare il numero di segnalazioni dello Spider, ma non serve per forza puntare allo zero assoluto!

Torna su