Riprendiamo il nostro racconto dell’evento SEO Serious Monkey 2019 passando alla seconda giornata di speech. Se ti sei perso l’inizio puoi recuperare leggendo l’articolo del primo giorno.
Ricaricate le batterie nella notte, eravamo pronti per affrontare il secondo giorno di speech. Prima di iniziare, è necessario fare una premessa: nella notte tra il 9 e il 10 maggio si è svolto il Google I/O, l’evento dove l’azienda di Mountain View annuncia le prossime novità dal mondo Google: tra tutte, quella più importante per noi SEO è stata che il motore di rendering dei Googlebot è stato aggiornato a Chronium 74, ossia l’ultimo disponibile.
La notizia ha particolare importanza perché, fino a quel momento, il motore utilizzato per i crawler Google era obsoleto e pertanto incapace di interpretare correttamente pagine Web sviluppate utilizzando le ultime tecnologie o particolari applicazioni di Javascript.
I relatori del giorno 2 sono quindi arrivati a presentare i loro speech con la novità di Google uscita poche ore prima: uno spunto interessante per integrare gli interventi abbastanza tecnici che hanno caratterizzato l’ultima giornata dell’evento.
Speech – Giorno 2
Giulia Rognoni e Paolo Amorosi – Il difficile e controverso rapporto tra Google e Javascript
I due ragazzi di Pro Web Consulting hanno portato uno speech che affrontava il difficile rapporto tra Google, Javascript e la SEO. Come gli altri relatori, Giulia e Paolo sono stati costretti a modificare in parte le loro Slide proprio a seguito dei recenti annunci del Google I/O, ma il loro speech è stato comunque molto interessante, preciso e puntuale.
Il rapporto tra SEO e contenuti il cui rendering è gestito da Javascript è sempre stato problematico, in quanto il motore dei Googlebot non era sempre in grado di individuare ed elaborare correttamente tali testi portando ad un diverso “giudizio”, limitato alla sola parte che era stata visibile/intepretabile per lui.
I vincoli del Javascript in ottica SEO, nonostante l’aggiornamento del motore di rendering del Crawler1, sono ancora diversi e Giulia e Paolo hanno saputo rappresentarli e trasmetterli perfettamente.
Per maggiori informazioni su questa particolare tematica consiglio di consultare la documentazione Google sulla SEO e Javascript o di visionare i video della serie Javascript SEO curati dal bel Martin Splitt.
Enrico Altavilla – La SEO che stiamo ignorando: ottimizzare con immagini, metadati e segnali esterni
Interessante intervento quello di Altavilla nel quale, con esempi semplici e concreti, ha dimostrato le capacità di elaborazione delle immagini da parte di Google con il servizio Google Cloud Vision API2.
Cosa sono le Google Cloud Vision Api?
Si tratta di elaborati modelli di intelligenza artificiale che consentono di estrapolare molte informazioni da una singola foto, permettendo di applicare azioni predittive e offrendo delle comode API REST per permettere agli sviluppatori di interfacciarsi con i dati ottenuti.
Detto così il concetto può forse rimanere nebuloso: per questo Altavilla ha presentato diversi esempi pratici di come funziona.
Carichi una foto qualunque e ottieni quello che l’intelligenza artificiale è stata in grado di estrarre e comprendere come:
- Singoli oggetti e brand presenti nella foto caricata
- Persone (nel caso siano note con relativo Nome e Cognome, etc…)
- Umore presunto della singola persona
- Molte altre informazioni correlate a quella foto e al suo contesto
Volete fare una prova? Certo che si!
A questo link potete testare quali informazioni Google Cloud Vision Api è in grado di interpretare e offrire sotto forma di comodi dati strutturati in Json.
Su questo argomento abbiamo fatto qualche domanda ulteriore e questo è quello che è venuto fuori:
- Si tratta di un algoritmo che analizza cosa è rappresentato nella foto e dove questa foto è utilizzata, in quali siti web, in quale contesto, con quali informazioni correlate, etc…
- I metadati EXIF3 presenti nelle foto sono considerati tra i tanti fattori che vengono presi in considerazione;
- Sul discorso performance dei siti e Score Pagespeed rimane valido che le immagini vanno compresse e ottimizzate nei nuovi formati WebP.
Francesco Terenzani – WPO: Ottimizzazione step-by-step del front-end di un e-commerce
Un gran lavoro quello di Francesco Terenzani, che ha spiegato passo dopo passo come ha ottimizzato ogni singolo aspetto di un Magento 2 (non proprio famosissimo per essere una scheggia). Lo speech è stato molto tecnico e specifico, spiegando i singoli passaggi per ottimizzare ogni fattore di performance: il defering dei javascript, il minfy, il defering delle immagini e molto altro.
Per ogni aspetto ha indicato utili tool e librerie che sono state implementate per giungere a score di performance molto elevati!
Riccardo Mares – Cosa me ne faccio dei Log?
Un altro degli speech che più ho apprezzato. Sarà per il background da sviluppatore prima, da sistemista poi e da Consulente SEO ora, ho davvero apprezzato vedere la SEO associata ai Log del Server (come dovrebbe): è uno degli aspetti più complessi per chi non è propriamente un nerd dell’informatica! 🙂
Mares ha evidenziato come l’attività di analisi dei Log sia utile per “studiare” il comportamento dei crawler di Google e degli altri motori di ricerca. Sebbene qualcuno potrà pensare che avendo già installato Analytics non si abbia necessità di altri strumenti di tracking, è proprio studiando i Log che si potrà comprendere quanto questa affermazione sia sbagliata.
Se un pdf del sito è altamente consultato, su Analytics non comparirà poiché lo strumento non traccia la visualizzazione di un file pdf e, quindi, chi monitora il sito potrebbe non avere alcuna percezione di eventuali visite (anche corpose) che avvengono a determinati elementi. Solo analizzando i file di Log si potrà capire se ci sono URL che il crawler consulta frequentemente, se ci sono appunto file pdf che generano traffici di cui non siamo a conoscenza e molte altre informazioni utili che soltanto scendendo al livello sistemistico dei Log potranno essere individuate.
Per l’analisi dei Log sono stati consigliati vari tool tutti molto utili e che stiamo iniziando a testare anche in Agenzia. Tra tutti Screaming Frog Log Analyzer e l’analisi tramite la configurazione ELK Stack4
Matteo Zambon – Ultima chiamata per il volo SEO-CRO-SEO: l’aumento delle conversioni viaggia di fianco alla SEO.
Lo speech di Matteo si è focalizzato sullo studiare, sotto l’aspetto SEO, gli strumenti di ottimizzazione conversioni (CRO) scegliendo, tra tutti, Google Optimize5. Questo strumento permette di effettuare degli A/B test in maniera approfondita e comoda.
Le domande che si è posto Zambon in merito all’utilizzo di questo strumento erano di natura SEO, ossia:
- Durante un A/B Test, quale Title/Description indicizzerà Google? Sempre l’originale o quella dei test?
- Lavorando sui Canonical il risultato cambia?
- Ci sono rischi di problemi legati alla duplicazione contenuti durante un A/B test?
Partendo da queste e altre domande SEO, Zambon ha mostrato tutti i singoli test effettuati per determinare come l’uso di un sistema di Ottimizzazione CRO impatti sull’aspetto SEO e quali siano le configurazioni ottimali per evitare eventuali problemi in tal senso.
Emanuele Vaccari – Siti oversize: eliminare le pagine inutili per piacere di più ad utenti e Google
Vaccari, nel suo speech, ha confermato una tendenza che ultimamente viene spesso consigliata ossia quella di cancellare le pagine inutili del sito al fine di ottimizzare/migliorare la SEO e, di conseguenza, il traffico del sito.
Nonostante possa sembrare strano che per migliorare il traffico bisogna eliminare contenuti, è proprio questa la conferma che ha dato Emanuele Vaccari. Sebbene ci sia la tendenza, purtroppo per noi, ad allargare orizzontalmente i topic del sito iniziando a scrivere contenuti distanti dalla finalità iniziale pur di intercettare altro traffico, è proprio la verticalizzazione e l’eliminazione di qualsiasi ambiguità, contenuto duplice o povero che nel tempo porta al miglioramento e al rafforzamento dei risultati SEO delle pagine che meglio spiegano/intercettano/rispondono ai topic di interesse.
Jacob Zucchi – Metodi NLP per analizzare i contenuti come un motore di ricerca
L’intervento di Jacob Zucchi, Head of Digital Strategy presso Wellnet, è stato forse il meno tecnico della giornata, ma sicuramente uno dei più interessanti.
Avendo un background da umanista, Zucchi ha iniziato il suo speech parlando delle basi della semiotica (significante e significato) e di come Google si stia evolvendo: in casi di disambiguazione, il Motore di Ricerca prova a fornire le risposte che, in base al contesto in cui la parola è posta, sono le più coerenti secondo lui. Non più una mera ricerca di stringhe all’interno di un documento al fine di trovare quello che ne ha di più.
Partendo da questi cenni basilari dello studio del linguaggio, Zucchi ci ha introdotti al tipo di analisi in Wellnet dove tramite l’applicazione di Metodi NLP (Natural Language Process)6 riescono ad analizzare grandi dataset di siti e relativi contenuti per arrivare ad avere indicazioni, così come fatto già da Losero nello speech del giorno 1, quali fattori e con quale configurazione, risultano più significativi per il posizionamento su Google.
Giovanni Sacheli – Progressive Web App
Lo speech di Giovanni Sacheli ha mostrato al pubblico l’importanza di trasformare il proprio sito Web in una Progressive Web App (PWA)7 ossia una pagina/sito web responsive il cui comportamento è però simile ad un App mobile.
Da quanto dimostrato, l’impatto sulla fidelizzazione del Cliente e sulle statistiche di lettura/consultazione del sito è rilevante e, oltre ciò, c’è un chiaro segnale da parte di Google nell’andare in questa direzione. Sul nuovo (neanche poi tanto ormai) strumento Google Lighthouse utilizzato per il debug e la verifica delle performance di un sito Web, l’aspetto PWA è contemplato e gli viene associato uno score.
La conversione del proprio sito Web a Progressive Web App non è un’attività complessa ma richiede, comunque, delle capacità di programmazione. Il risultato che si otterrà sarà la possibilità di installare il proprio sito come App.
In WpSEO avevamo già effettuato questo lavoro e, se volete vedere in pratica in cosa consiste, basta navigare le nostre pagine da un cellulare Android e poi cliccare sui 3 puntini del browser:
Scegliere dal menu l’opzione “Aggiungi a schermata Home” e a questo punto dare un nome all’App o confermare quello che prende in automatico:
Una volta cliccato su “Aggiungi” troveremo l’icona sul nostro cellulare e potremo consultare il sito come se fosse un’App a tutti gli effetti.
Conclusioni
Anche quest’anno siamo tornati dal Serious Monkey soddisfatti e pieni di idee da testare e approfondire. Confermiamo quanto già detto in passato: siamo convinti che sia uno degli eventi migliori in Italia per quanto riguarda la SEO e non vediamo l’ora di scoprire cosa ci riserverà la prossima edizione!
Link di Approfondimento
- Search Engine Land sull’aggiornamento del motore di rendering di Googlebot
- Sito Ufficiale Google Cloud Vision Api
- Metadati EXIF su Wikipedia
- Guida ad ELK Stack su Log.io
- Cos’è Google Optimize
- Natural Language Process su Wikipedia
- Progressive Web App su Wikipedia
Contenuti
- 1 Speech – Giorno 2
- 1.1 Giulia Rognoni e Paolo Amorosi – Il difficile e controverso rapporto tra Google e Javascript
- 1.2 Enrico Altavilla – La SEO che stiamo ignorando: ottimizzare con immagini, metadati e segnali esterni
- 1.3 Francesco Terenzani – WPO: Ottimizzazione step-by-step del front-end di un e-commerce
- 1.4 Riccardo Mares – Cosa me ne faccio dei Log?
- 1.5 Matteo Zambon – Ultima chiamata per il volo SEO-CRO-SEO: l’aumento delle conversioni viaggia di fianco alla SEO.
- 1.6 Emanuele Vaccari – Siti oversize: eliminare le pagine inutili per piacere di più ad utenti e Google
- 1.7 Jacob Zucchi – Metodi NLP per analizzare i contenuti come un motore di ricerca
- 1.8 Giovanni Sacheli – Progressive Web App
- 2 Conclusioni