Home » Varie » Google nuovo algoritmo vs content farm: ma quali sono le categorie colpite?

Google nuovo algoritmo vs content farm: ma quali sono le categorie colpite?

Le content farm sotto il mirino di Google, ma quali sono i siti davvero soggetti a penalizzazioni?

Da circa un mese si è divulgata a macchia d’olio la notizia nel web di questo nuovo algoritmo sviluppato dal motore di ricerca più famoso della rete. La maggior parte dei siti e blog di tutto il mondo di internet hanno speso almeno un paio di righe su questa news che lascia un po’ preoccupati e un po’ sollevati allo stesso tempo, vedremo meglio di seguito perché l’una e l’altra cosa.
La definizione di content farm che ci propone wikipedia è questa:

Nel contesto del World Wide Web (www), content farm (fattoria di contenuti) è un termine usato per descrivere una società (sito web in questo caso) che dà lavoro a un gran numero di scrittori freelance per generare grandi quantità di contenuto testuale che è specificamente progettato per soddisfare gli algoritmi dei motori di ricerca automatizzati. Il loro obiettivo principale è quello di generare introiti pubblicitari attirando il maggior numero di lettori pizzandosi nelle prime pagine dei motori di ricerca.

1x1.transOk, fin qui non c’è nessun problema particolare eccetto il fatto che, questi siti che si rispecchiano nella definizione di sopra, sono tutti, o quasi, siti fotocopia l’uno dell’altro a seconda della lingua principale dei contenuti che pubblicano o fanno pubblicare dai loro utenti. Il problema di fondo, quindi, è la non originalità di questi contenuti, spesso e volentieri scopiazzati dalla rete e incollati in decine di siti (Aggregatori di notizie soprattutto, che le catturano in automatico). In breve, accade spesso che Goggle si ritrova con diverse pagine indicizzate a capolista, ognuna con decine di siti diversi ma ognuno dei quali contenente lo stesso identico articolo.

Una cosa positiva certamente, se Google tenderà davvero a favorire i blog e siti con contenuti originali, ma forse sarebbe bastato stabilire una preferenza temporale nell’algoritmo (che si è sempre dimostrato tanto potente) in base alla data e l’ora della pubblicazione di un contenuto nel web sin dal principio, in modo da penalizzare immediatamente i contenuti duplicati/copiati.

Gli effetti di questo cambiamento di Google influiranno anche sui social bookmark?

In fin dei conti anche questi sono siti che contengono centinaia di migliaia di pagine spesso già presenti in altrettante pagine di altri siti del genere. Siti come digg.com, diggita.it, rischiano penalizzazioni tanto quanto gli aggregatori famosi come liquida e wikio? Solo il tempo ci risponderà.

E in che cosa consiste questa penalizzazione? Al momento si parla di perdita di posizioni nelle SERP e di Pagerank.

Aggiornamento: Il blog ufficiale di G Italia ha postato un articolo tradotto dall’inglese all’italiano, precedentemente pubblicato sul blog inglese, in cui vengono spiegati a grandi linee le raccomandazioni da raccogliere e gli errori da evitare a seguito dell’algoritmo definito Panda Update.

Condividi l'articolo
Sottoscrivi
Notifica di
3 Commenti
più nuovi
più vecchi più votati
Feedback in linea
Vedi tutti i commenti
Piter
10 Luglio 2011 17:13

Ciao, sapete qual è la cosa realmente positiva in tutto questo? Quella che moltissimi webmaster e blogger europei si sono messi a sistemare, aggiornare, migliorare, perfezionare, in una sola parola ottimizzare, il proprio sito per evitare penalizzazioni dopo la mazzata che è arrivata a parecchi webmaster che gestivano siti in inglese.

Gedeo
15 Marzo 2011 09:57

Salve, Google non vuole penalizzare solo i siti scopiazzati l’un l’altro ma anche quelli con contenuti poveri di linguaggio e di scarsa qualità, quelli scritti tanto per scrivere insomma.