Siamo arrivati al primo giro di boa. Le prime 10 lezioni sono state dedicate alle configurazioni di base di Screaming Frog. In questa lezione vedremo come configurare le API per aumentare la precisione delle analisi che si possono fare con questo crawler.
Ma prima ricapitoliamo tutti i passi fatti fino a questo momento:
- Settaggi Base di Screaming FrogPrimi settaggi a cui fare attenzione I primi settaggi che devono essere fatti su Screaming frog sono quelli riportati all’interno del menù File->Settings->Settings Gli elementi principali da settare sono: Veniamo adesso alle 2 configurazioni fondamentali. Storage … Approfondisci
- Come recuperiamo i crawl?Se avete seguito la guida 1 avrete abilitato la memorizzazione in Disco. In questo caso può tornarvi utile il tab Crawl che trovate sotto File->Crawl In questa finestra troverete tutte le scansioni che avete fatto e … Approfondisci
- Come cambiare lo user agent?Cambiare lo user agent in Screaming Frog è sicuramente una delle operazioni più semplici. Ma perchè cambiare lo user agent? La configurazione di default di SF prevede l’utilizzo di user-agent “Screaming Frog SEO Spider” A volte … Approfondisci
- Robots.txt come gestirlo con Screaming FrogScreaming Frog in assenza di indicazioni specifiche per lo user agent che si sta usando leggerà il robots e come tutti i crawler lo rispetterà. C’è, però, una opzione dentro Configuration -> robots.txt per indicare al … Approfondisci
- Come includere ed escludere elementi in Screaming FrogOgni scansione è una “nuova avventura” e quindi dobbiamo essere capaci di scegliere cosa far scansionare al nostro Crawler e cosa no. Come abbiamo visto in precedenza il robots.txt ci aiuta in questa operazione ma in … Approfondisci
- Escludere tutti i parametri dagli URLIn alcuni casi è necessario scansionare un dominio senza considerare tutte le varianti di URL che vengono prodotte tramite i parametri. Ad esempio se scansionate un e-commerce potreste ritrovarvi in una situazione del genere in questo … Approfondisci
- Aggiungere dei parametri ad una scansioneIn alcuni casi può essere utile aggiungere un parametro a tutte le richieste di URL. Un caso tipico è quello di vedere una versione di una pagina che viene modificata tramite un parametro. Ad esempio, alcuni … Approfondisci
- Modificare i parametri HTTP delle richiesteVediamo adesso a cosa può servire conoscere l’intestazione HTTP per quanto riguarda Screaming Frog. Screaming Frog ha una opzione accessibile su Configuration -> HTTP Header per personalizzare l’intestazione HTTP. Considerate che le modifiche sullo user agent, … Approfondisci
- Come accedere a siti protetti da loginScreaming Frog ha la possibilità di accedere a siti che sono protetti da password con Basic Authentication (se non sapete cosa sia vi rimando alla guida per settare una Basic Authentication in modo veloce e quella … Approfondisci
- Come gestire il rendering con Screaming FrogSemplificando molto i siti sono formati da 3 elementi principali Ognuno di questi influisce positivamente o negativamente alla realizzazione del DOM che compone una pagina. Se non sapete cosa è il DOM, vi lascio una rapida … Approfondisci
Veniamo adesso alle API disponibili
Come vedete nell’immagine, oltre alle api di Universal Analytics che ormai si usano poco, troviamo quelle per Google Analytics 4, Google Search Console e PageSpeed di Google e poi ci sono 3 tool come Majestic, ahrefs e Moz.
Google Analytics 4
Per impostazione predefinita, SEO Spider raccoglie le seguenti 7 metriche in GA4:
- Sessioni
- Sessioni impegnate
- Tasso di coinvolgimento
- Visualizzazioni
- Conversioni
- Conteggio eventi
- Entrate totali
Ma si possono selezionare fino a 65 metriche disponibili tramite la API di Google Analytics 4.
Inoltre è disponibile una scheda “filtri” che consente di selezionare dimensioni aggiuntive. Ad esempio si può scegliere il raggruppamento dei canali per primo utente o per sessione e poi si può impostare come valore di dimensione (ad esempio) “ricerca organica”, per perfezionare la ricerca in base a un canale specifico.
Inoltre ricordiamo che in base alla selezione che viene inserita in Dimensions dove si può scegliere se selezionare landingPagePlusQueryString (quindi fare il match con l’intera URL compresa di parametri) oppure dullPageUrl per selezionare solo gli URL si possono avere dati molto differenti.
Anche le opzioni in General possono portare ad avere informazioni differenti
Google Search Console
Per impostazione predefinita, Screaming Frog recupera impression, clic, CTR e posizione media dalle API e queste impostazioni non possono essere modificate scegliendo cosa importare e cosa no.
Quindi ci troveremo su questa schermata
Come vedete c’è la possibilità di selezionare il Device (mobile, desktop, tablet), la country che è molto importante per alcune analisi. Il tipo di contenuto ed infine è anche possibile creare dei filtri personalizzati che sono molto utili in certi contesti.
Vedremo tutti questi casi in dei post che saranno dedicati all’analisi dei dati con Screaming Frog.
Non dimentichiamoci anche la parte di URL inspection che usa sempre le API per verificare se un URL che Screaming Frog sta scansionando è in indice o non lo è.
Page speed insight
PageSpeed Insights utilizza Lighthouse , quindi SEO Spider è in grado di visualizzare le metriche di velocità di Lighthouse, analizzare opportunità di velocità e diagnostica su larga scala e raccogliere dati reali dal Chrome User Experience Report (CrUX) che contiene anche i Core Web Vitals e si basa sul monitoraggio di utenti reali (RUM).
Per poter usare queste API è necessario procurarsi una API KEY da inserire nel campo apposito di Screaming Frog.
Una volta ottenuta la chiave, screaming Frog estrarrà di default una serie di metriche, ma vi consiglio di personalizzarle in base a ciò che vi occorre di volta in volta.
In alcuni casi vi serviranno i dati di laboratorio (Lab Data) in quanto non avrete molte informazioni sul Chrome UX Report. In altri casi vorrete proprio le informazioni del CrUX e quindi vi interesserà estrarre i Field Data, ovvero i dati reali degli utenti.
MAJESTIC
Abbiamo poi ultimi 3 tool che sono tutti usati principalmente per i dati di backlink
una volta effettuata la procedura per ottenere una chiave API (in immagine è stata oscurata) otterrete il limite di chiamata per le API in base al vostro piano.
Le metriche che vengono estratte di default da majestic sono
attenzione che in Data Source potete selezionare solo i dati Recenti o anche i dati storici. Come potete vedere nell’immagine molti altre informazioni possono essere estratte.
AHREFS
Anche Ahrefs segue le stesse logiche di Majestic.
una volta ottenuta la chiave API seguendo la procedura guidata molto semplice, sarete in grado di estrarre i dati dei backlink.
MOZ
Anche in questo caso, seguite la procedura guidata per poter estrarre i dati relativi ai backlink presenti su MOZ
Cosa possono servire le API, perchè è importante usarle e quando usarle?
Una volta configurate queste API a cosa ci servono?
Tutte queste API servono ad arricchire le informazioni che abbiamo per ogni URL che viene trovato durante la scansione.
Se ad esempio dobbiamo fare una migrazione e dobbiamo capire quali sono gli URL più importanti, avere i dati di Impression, Clic, Numero di Backlink e domini referral per ogni URL può essere determinante per avere un ordinamento e quindi prioritizzare i redirect 301 che andremo ad impostare.
Un altro caso molto utile è quello di scovare, tramite il collegamento GSC, gli URL orfani provenienti da GSC stesso. Quindi quali URL Google ha richiesto che attualmente non sono linkati internamente?
Ovviamente ci sono altri 1000 casi in cui le API possono servire, ma per andare così nel dettaglio vi consiglio di chiedere una consulenza per approfondire l’argomento.