Spesso capita di voler tenere costantemente monitorato un sito. Con Screaming Frog questo è possibile grazie a due cose:
- Scansioni automatizzate (scheduling)
- Configurazione di una dashboard looker Studio per tali scansioni (lo vedremo nel prossimo capitolo)
Ovviamente in tutto questo c’è un grande limite. Il PC dove viene eseguito Screaming Frog deve essere sempre acceso. Ad esempio un server (anche in cloud) potrebbe essere il luogo adatto.
Oggi, invece, dividiamo questo capitolo in 3 parti che ci serviranno quando settimana prossima vedremo come settare la dashboard di looker studio. In particolare andremo a lavorare sulla parte 2 di questa guida arricchendola.
Parte 1: Creare ed esportare la propria configurazione
Prima di tutto è necessario creare una propria configurazione “Tipo” che ci servirà poi per essere importata nella scansione automatizzata.
Parte 2: Programmare la scansione automatizzata
Come seconda parte, bisogna fare i semplici passi che potete vedere nel video, in cui si ha la possibilità di creare una scansione programmata.
Parte 3: Lanciare la scansione da riga di comando
Come ultimo step, basta fare clic con il tasto destro per ottenere una stringa simile a questa
"C:\Program Files (x86)\Screaming Frog SEO Spider\ScreamingFrogSEOSpider.exe" --history --task-name "Scansione Giornaliera TBW" --crawl "https//thebreakingweb.it/" --config "C:\Users\Orecchio\Screaming Frog Academy\Configurazione_TBW.seospiderconfig" --use-google-search-console "New Account 5" "https://thebreakingweb.it/"
da lanciare da riga di comando sul vostro cmd (su windows)