La profondità di scansione è la misura in cui un motore di ricerca indicizza le pagine di un sito web. La maggior parte dei siti contiene più pagine, che a loro volta possono contenere sottopagine. Le pagine e le sottopagine diventano più profonde in un modo simile al modo in cui le cartelle e le sottocartelle (o directory e sottodirectory) crescono più in profondità nell'archiviazione del computer.
In generale, più in basso nella gerarchia del sito Web appare una determinata pagina, minori sono le possibilità che appaia con un rango elevato in una pagina dei risultati di un motore di ricerca (SERP). La home page di un sito Web ha una profondità di ricerca per indicizzazione pari a 0 per impostazione predefinita. Le pagine dello stesso sito che sono collegate direttamente (con un clic) dall'interno della home page hanno una profondità di scansione pari a 1; le pagine che sono collegate direttamente dall'interno delle pagine con profondità di scansione 1 hanno una profondità di scansione di 2 e così via.
Un crawler, noto anche come spider o bot, è un programma che visita i siti Web e legge le loro pagine e altre informazioni per creare voci per un indice del motore di ricerca.