News:

Wondering if this will always be free?  See why free is better.

Main Menu

appunti per l'ottimizzazione....

Started by francescop, April 08, 2014, 09:47:32 AM

Previous topic - Next topic

francescop

scrivo qui... magari poi finisce sul manuale....!

è da parecchio che uso smf accanto al mio sito principale e, sinceramente, non mi ero mai posto alcun problema fino al momento di passare ad un design responsive per le pagine della parte principale... pagine statiche...
quindi ho testato il forum con google page speed.... e mi sono messo a piangere.... un bel 70 di score contro un bel 100 delle pagine statiche.... per non parlare della sezione dedicata al mobile... 50 secco!

bene... mi sono rimboccato le maniche.... ed ho effettuato i seguenti "lavori" di manutenzione...

1) sezionato il forum (mediante mod smf-media) in modo da avere un tema desktop ed uno mobile indipendenti...

2) sul tema di default (curve per la versione 2.0.7)
- ho compresso tutti i fogli di stile;
- ho ridotto allo stesso modo gli script;
- ho modificato il codice di index.template e boardindex (per il momento) inserendo prima delle chiamate degli script "async" quindi sono diventati, ad esempio, da <script type="text/javascript" src=" <script type="text/javascript" async src=".

e con questo siamo arrivati ad un bel 93!!

3) per prevenire contenuti duplicati (non guasta) ho inserito nel file wireless.template <meta name="robots" content="noindex, nofollow"> ad ogni generazione di intestazione (principalmente serviva per le pagine wap2... ma comunque);


ancora da fare... ma con calma....
- ad evitare che G (o qualunque altro crawler) vada a pescare pagine bloccate da robots... inserirò un bel rel="nofollow" nei link interni...
- guadagnare ancora qualcosina in termini di performance ottimizzando le pagine in php....
- inserire stabilmente noindex,nofollow in tutte le pagine di amministrazione, utente ecc.... e su questa parte ogni suggerimento è ben accetto!!

emanuele

Ciao e benvenuto francescop! :)

Guide ed affini sono sempre i benvenuti! ;D

Suggerimenti:
1) async onestamente non son sicuro serva in molti casi (se non nel punteggio) perché essendo il tema xhtml 1.1 e non html5 i browser probabilmente lo ignoreranno (oltre al fatto che mi viene da sospettare, se viene rispettato, possa anche essere dannoso per certi script lanciati in giro per la pagina dato che questi vengono eseguite aspettandosi che lo script esista, ma se viene caricato in asincrono potrebbe non esistere nel momento in cui la funzione viene chiamata),
2) i crawler hanno un rispetto piuttosto variegato per robots.txt (mi spiego un po' meglio: robots.txt non è un file che *esclude*, ma un file che *sconsiglia*, se il crawler lo rispetta il contenuto non viene indicizzato, ma se il crawler lo ignora il contenuto viene comunque indicizzato e/o scaricato), quindi metterci dentro qualcosa non è sinonimo di bloccarne l'accesso ai crawler,
3) rel="nofollow" nei link interni... per quale motivo? Tu vuoi che google indicizzi il tuo sito o che rimanga alla homepage? ??? <= /me non è un guru del SEO, quindi potrei ignorare qualcosa,
4) in php non c'è moltissimo da ottimizzare, al massimo puoi guadagnare qualcosa ottimizzando il db (per esempio alcune tabelle traggono molto giovamento dal passare a innodb), poi gli avatar... dai una scorsa a questo link: http://wiki.simplemachines.org/smf/Performance_enhancements
5) risparmiati la fatica di toccare le pagine di amministrazione: a meno che non hai i permessi completamente fot***ti nessun visitatore (e questo sono i crawler) vedrà mai un link ad una pagina di admin, quindi sarebbe fatica sprecata. ;)


Take a peek at what I'm doing! ;D




Hai bisogno di supporto in Italiano?

Aiutateci ad aiutarvi: spiegate bene il vostro problema: no, "non funziona" non è una spiegazione!!
1) Cosa fai,
2) cosa ti aspetti,
3) cosa ottieni.

francescop

aaalllora.....

- che "async" non sia propriamente compatibile con il codice sono perfettamente d'accordo... ma pare funzionare comunque (o meglio... con i browser più recenti sembra non dare problemi)...

- il nofollow.... principalmente l'ho inserito verso tutti i link di amministrazione e simili per evitare noie (che tra le altre cose avevo avuto all'inizio) derivanti dalla presenza delle sole direttive di disallow in robots. La scelta è stata frutto delle lunghe discussioni sul forum webmaster di Google (dunque non a caso): robots è un "consiglio"... noindex, nofollow... meglio ancora... e stavo meditando a z-robots in htaccess.... considerata la presenza di una sitemap e link intrasito alle varie pagine del forum ipotizzo solo una indicizzazione più lenta (al massimo) ma non un blocco alla httome... non questo no! Sulle pagine diverse dalla versione desktop (wap2 in particolare) ritengo che l'intervento su wireless.php sia doveroso... nell'indice di G mi sono trovato l'indicazione di contenuti duplicati proprio per queste pagine e "tagliare la testa al toro" la reputo la soluzione migliore (piuttosto che intervenire via htaccess o con le esclusioni di webmaster tools). Per le pagine in versione mobile nativa (ho installato la mod ed il tema di smf-media) ho lasciato libero accesso in quanto oggi big G utilizza crawler distinti quando riconosce la situazione...

altre "limaturine" le ho fatte giusto per limitare l'impiego di risorse del server (anche attivare gzip non è che guasti  ;D se è possibile ovvio)....

il prossimo step è markuppare rdf i contenuti (escludo hxxp:schema.org [nonactive] anche se viene letto dagli strumenti di test di G... ma non mi pare il massimo sotto il profilo validazione del codice!!) ma sinceramente non ho ancora capito come viene generata la pagina di visualizzazione del post e quindi non ho ancora idea di dove inserire i vari elementi (gli equivalenti rdf di name, description e articlebody di hxxp:schema.org [nonactive])....

emanuele

Quote from: francescop on April 09, 2014, 09:13:54 AM
- che "async" non sia propriamente compatibile con il codice sono perfettamente d'accordo... ma pare funzionare comunque (o meglio... con i browser più recenti sembra non dare problemi)...
Se ti accontenti di un "pare" allora ok. :P
Va beh, d'altronde i miei sono solo sospetti, quindi le probabilità che qualcosa non funzioni sono relativamente basse.

Quote from: francescop on April 09, 2014, 09:13:54 AM
- il nofollow.... principalmente l'ho inserito verso tutti i link di amministrazione e simili per evitare noie (che tra le altre cose avevo avuto all'inizio) derivanti dalla presenza delle sole direttive di disallow in robots.
Mi viene da chiedere (per curiosità) come mai hai messo i link di amministrazione in robots dato che tanto non sono mai raggiungibili da utenti non registrati? (Va beh, a meno del remoto caso che un tuo admin/moderatore non posti in pubblico un link, ma un link...) Se non sono raggiungibili non sono indicizzati. E quindi il nofollow e il robots diventano inutili.

Quote from: francescop on April 09, 2014, 09:13:54 AM
robots è un "consiglio"
L'importante è esserne coscenti, perché ho visto molte persone piombare qui (o altrove, non ricordo) sbandierando che nonostante robots i crawler accedevano ai loro contenuti. ;)
Ed allo stesso modo, il tuo:
Quote- ad evitare che G (o qualunque altro crawler) vada a pescare pagine bloccate da robots... inserirò un bel rel="nofollow" nei link interni...
lascia intendere che "nofollow" e robots siano dei "blocchi quasi assoluti", cosa non vera. Entrambi sono indicazioni di massima che link non sono da seguire o pagine non sono da leggere, poi che il crawler li rispetti o meno (google può, altri non lo fanno) è un'altra storia. ;) (So che tu lo sai, ma molti non lo sanno e leggendo potrebbero avvalorare le loro convinzioni sbagliate. ;))

Quote from: francescop on April 09, 2014, 09:13:54 AM
Sulle pagine diverse dalla versione desktop (wap2 in particolare) ritengo che l'intervento su wireless.php sia doveroso... nell'indice di G mi sono trovato l'indicazione di contenuti duplicati proprio per queste pagine e "tagliare la testa al toro" la reputo la soluzione migliore
Actually...la soluzione migliore sarebbe quella indicata in questa pagina:
https://support.google.com/webmasters/answer/66359?hl=en
A google piacciono estremamente le pagina wap/2/imode/print, il perché è probabilmente da ricercare nella carenza di markup rispetto ad una normale pagina di SMF (mia ipotesi messa in piedi al volo ora), quindi negargli questo strumento sembra un po' "eccessivo", mentre re-indirizzarlo dove invece dovrebbe andare sarebbe più "conciliante". Credo.

Quote from: francescop on April 09, 2014, 09:13:54 AM
il prossimo step è markuppare rdf i contenuti (escludo schema.org anche se viene letto dagli strumenti di test di G... ma non mi pare il massimo sotto il profilo validazione del codice!!) ma sinceramente non ho ancora capito come viene generata la pagina di visualizzazione del post e quindi non ho ancora idea di dove inserire i vari elementi (gli equivalenti rdf di name, description e articlebody di schema.org)....
Auguri. :P
Display.template.php

Però... neanche google è messo poi così bene. :P
http://developers.google.com/speed/pagespeed/insights/?url=http%3A%2F%2Fwww.google.com%2F&tab=mobile


Take a peek at what I'm doing! ;D




Hai bisogno di supporto in Italiano?

Aiutateci ad aiutarvi: spiegate bene il vostro problema: no, "non funziona" non è una spiegazione!!
1) Cosa fai,
2) cosa ti aspetti,
3) cosa ottieni.

francescop

QuoteMi viene da chiedere (per curiosità) come mai hai messo i link di amministrazione in robots dato che tanto non sono mai raggiungibili da utenti non registrati? (Va beh, a meno del remoto caso che un tuo admin/moderatore non posti in pubblico un link, ma un link...) Se non sono raggiungibili non sono indicizzati. E quindi il nofollow e il robots diventano inutili.

Alla prima installazione (2.0 se non ricordo male) e senza alcuna modifica al file robots.txt mi sono ritrovato con praticamente tutte le pagine (amministrazione, utenti e via dicendo) nell'indice (secondario) di G e Bing... quindi decisi di bloccare tutto... la "prassi personale" è continuata fino ad oggi anche perché, a mano a mano che il forum è stato indicizzato è aumentato il martellamento di bot e crawler "non rispettosi" (bloccati via htacces....). Il dubbio che comunque ci fossero stati accessi alle pagine (dove non potevo inserire un noindex,nofollow) è stata la segnalazione (nell'indice secondario... cioè come contenuti omessi) delle pagine incriminate bloccate dal file robots... dunque da "qualche parte" l'url della pagina era noto ma la pagina non raggiungibile per i crawler corretti (non so se mi sono espresso bene).


QuoteActually...la soluzione migliore sarebbe quella indicata in questa pagina:
hxxp:support.google.com/webmasters/answer/66359?hl=en [nonactive]
A google piacciono estremamente le pagina wap/2/imode/print, il perché è probabilmente da ricercare nella carenza di markup rispetto ad una normale pagina di SMF (mia ipotesi messa in piedi al volo ora), quindi negargli questo strumento sembra un po' "eccessivo", mentre re-indirizzarlo dove invece dovrebbe andare sarebbe più "conciliante". Credo.

Conosco bene quella pagina del supporto... la scelta di agire direttamente sulle intestazioni generate dal file wireless.php è stata dettata dalla considerazione (personale) di preferire l'esclusione piuttosto che la "concorrenza" dei contenuti.... ovvio che sono considerazioni che sono maturate dall'implementazione del forum in poi (sempre per il problema dei contenuti duplicati)


QuotePerò... neanche google è messo poi così bene. :P
;D

emanuele

Quote from: francescop on April 10, 2014, 08:21:57 AM
Alla prima installazione (2.0 se non ricordo male) e senza alcuna modifica al file robots.txt mi sono ritrovato con praticamente tutte le pagine (amministrazione, utenti e via dicendo) nell'indice (secondario) di G e Bing... quindi decisi di bloccare tutto... la "prassi personale" è continuata fino ad oggi anche perché, a mano a mano che il forum è stato indicizzato è aumentato il martellamento di bot e crawler "non rispettosi" (bloccati via htacces....). Il dubbio che comunque ci fossero stati accessi alle pagine (dove non potevo inserire un noindex,nofollow) è stata la segnalazione (nell'indice secondario... cioè come contenuti omessi) delle pagine incriminate bloccate dal file robots... dunque da "qualche parte" l'url della pagina era noto ma la pagina non raggiungibile per i crawler corretti (non so se mi sono espresso bene).
Amministrazione, utenti e via dicendo sono tre cose *estremamente* diverse. ;)
"Praticamente tutte le pagine" è un'altra affermazione piuttosto pesante, perché se mi dici che indicizza le pagine di admin, vuol dire che hai i permessi sballati e non è un problema di "ottimizzazione". Ammesso e non concesso che ci sia qualche link di admin "esposto" all'esterno (ed in precedenza hai nominato la sitemap, quindi mi verrebbe quasi da pensare sia questo mod a creare il problema) l'unica cosa che potrebbe indicizzare è la pagina che richiede la password, quindi null'altro.
Utenti, sì, certo che ci sono i link, li vedi in quasi ogni pagina.
Admin sarei curioso di vedere quali link fossero. Onestamente ci sto pensando da 3 giorni e non riesco ad individuare dove tale link. Oltretutto, ho un sito per puro caso con "annesso" google webmaster tools, e tra le url indicizzate, action=admin proprio non lo vedo.

Quote from: francescop on April 10, 2014, 08:21:57 AM
QuoteActually...la soluzione migliore sarebbe quella indicata in questa pagina:
https://support.google.com/webmasters/answer/66359?hl=en
A google piacciono estremamente le pagina wap/2/imode/print, il perché è probabilmente da ricercare nella carenza di markup rispetto ad una normale pagina di SMF (mia ipotesi messa in piedi al volo ora), quindi negargli questo strumento sembra un po' "eccessivo", mentre re-indirizzarlo dove invece dovrebbe andare sarebbe più "conciliante". Credo.

Conosco bene quella pagina del supporto... la scelta di agire direttamente sulle intestazioni generate dal file wireless.php è stata dettata dalla considerazione (personale) di preferire l'esclusione piuttosto che la "concorrenza" dei contenuti.... ovvio che sono considerazioni che sono maturate dall'implementazione del forum in poi (sempre per il problema dei contenuti duplicati)
Beh, se conosci bene quella pagina, sai anche che usare il "canonical" non è concorrenza di contenuti, ma segnalare che quella pagina esiste "per una ragione", ma la pagina "da mostrare" è un'altra.


Take a peek at what I'm doing! ;D




Hai bisogno di supporto in Italiano?

Aiutateci ad aiutarvi: spiegate bene il vostro problema: no, "non funziona" non è una spiegazione!!
1) Cosa fai,
2) cosa ti aspetti,
3) cosa ottieni.

Advertisement: