John Mueller: Perché alcuni backlink non vengono indicizzati dai motori di ricerca?

Perché alcuni backlink non vengono indicizzati dai motori di ricerca?

Il Web è sempre più esteso e chi gestisce siti web ha sempre più difficoltà nel farsi trovare dagli utenti

I professionisti della SEO sanno bene quanto è difficile farsi indicizzare efficacemente dai motori di ricerca.

L’importanza Backlink

I backlink sono forse gli strumenti più efficaci per l’indicizzazione nei motori di ricerca. Per questo è assolutamente importante che “il backlink” al tuo sito venga indicizzato motore di ricerca, solo così il tuo sit acquisirà importanza.

Ma molto spesso nonostante il tuo sito sia ben indicizzato, tutt’altro si può dire dei backlink al tuo sito web che spesso non lo sono a sufficienza. Quindi, “Perché gli strumenti SEO non mostrano tutti i backlink?”

John Mueller di Google ci fornisce una onesta e chiara risposta

SearchEngine Roundtable riprende la risposta di John Mueller su Reddit. John Mueller di Google fornisce una spiegazione onesta e chiara sui motivi per cui Google e altri strumenti SEO non indicizzazione ogni URL o link sul Web.

Per chi lavora in questo settore forse sa già la risposta, ma sentirlo dire da Google ha tutto un altro effetto.

Il page-rank di Google è superato?

Why SEO tools don't show all backlinks?
byu/themexhub inSEO

John Mueller su Reddit sostiene che la scansione del web non è oggettiva ed è molto costosa. Il web cambia molto velocemente ed esiste moltissimo spam e URL spazzatura quindi l’indicizzazione spesso può essere inefficiente…

John Mueller Google: teoricamente impossibile analizzare tutto il web
John Mueller Google: teoricamente impossibile analizzare tutto il web

Queste sono le parole esatte di John Mueller su Reddit

Perché gli strumenti SEO non mostrano tutti i backlink?

Non esiste un modo oggettivo per eseguire correttamente la scansione del Web.

È teoricamente impossibile eseguire la scansione di tutto, poiché il numero di URL effettivi è effettivamente infinito. Poiché nessuno può permettersi di mantenere un numero infinito di URL in un database, tutti i web crawler fanno supposizioni, semplificazioni e ipotesi su ciò che vale realisticamente la pena scansionare.

E anche in questo caso, per scopi pratici, non puoi eseguire la scansione di tutto il tempo, Internet non ha connettività e larghezza di banda sufficienti per questo e costa un sacco di soldi se vuoi accedere regolarmente a molte pagine (per il crawler e per il proprietario del sito).

Oltre a ciò, alcune pagine cambiano rapidamente, altre non sono cambiate da 10 anni, quindi i crawler cercano di risparmiare fatica concentrandosi maggiormente sulle pagine che si aspettano di cambiare, piuttosto che su quelle che si aspettano non cambino.

E poi, tocchiamo la parte in cui i crawler cercano di capire quali pagine sono effettivamente utili. Il web è pieno di spazzatura di cui nessuno si preoccupa, pagine che sono state spammate fino all’inutilità. Queste pagine possono ancora cambiare regolarmente, possono avere URL ragionevoli, ma sono solo destinate alla discarica e qualsiasi motore di ricerca che si preoccupa dei propri utenti le ignorerà. A volte non è nemmeno solo spazzatura ovvia. Sempre di più, i siti sono tecnicamente ok, ma semplicemente non raggiungono “il bar” da un punto di vista della qualità per meritare di essere scansionati di più.

Pertanto, tutti i crawler (inclusi gli strumenti SEO) lavorano su un insieme molto semplificato di URL, devono capire con quale frequenza eseguire la scansione, quali URL scansionare più spesso e quali parti del Web ignorare. Non ci sono regole fisse per tutto questo, quindi ogni strumento dovrà prendere le proprie decisioni lungo il percorso. Ecco perché i motori di ricerca hanno contenuti diversi indicizzati, perché gli strumenti SEO elencano collegamenti diversi, perché tutte le metriche basate su questi sono così diverse.

Da John Mueller su Reddit

Per molte persone è forse una considerazione ovvia, ma non per tutti anzi.

Sono convinto che al crescere e della diffusione delle tecnologie digitali basate sul web sarà sempre più difficile farsi indicizzare, le informazioni in futuro saranno così tante che solo una piccolissima parte sarò raggiungibile.

Forse il “page-rank di Google” inizia a essere superato? Forse è necessario un nuovo algoritmo che sia più al passo con i tempi?

Forse si, forse no. Intanto speriamo che questo post venga indicizzato bene!

FONTI
- SEARCHENGINE ROUNDTABLE: https://www.seroundtable.com/why-google-does-not-crawl-index-every-url-33117.html
- Reddit:https://www.reddit.com/r/SEO/comments/tigvq6/why_seo_tools_dont_show_all_backlinks/