Google będzie zwalczać duplikowane treści

Pawel Cebula, 02-02-2011 | Źródło: wired

Problem powielania tych samych treści na wielu różnych stronach internetowych jest doskonale znany Google. W związku z tym wprowadzone zostały odpowiednie zmiany w algorytmie wyszukiwarki.

Mianem "scraper sites" określa się strony, które automatycznie pobierają treści z innych serwisów, mają niekorzystny wpływ na wyniki wyszukiwania. Google oczywiście już od dawna "premiuje" treści oryginalne (unikalne) i te, które pojawiają się najszybciej. Mimo to dochodziło jednak do sytuacji, w których oryginalna treść była traktowana jako kopia przez co była uznawana za mniej wartościową.
 
Wprowadzane zmiany są częścią nowości, które mają zmniejszyć ilość spamu pojawiającego się w indeksie wyszukiwarki. Jednym z tych mechanizmów jest właśnie funkcja odpowiadająca za bardziej trafne określanie tego, na której stronie mamy do czynienia z oryginalną treścią, a na której jest to po prostu duplikat.
 
W efekcie wyniki wyszukiwania powinny być bardziej precyzyjne - wyższe pozycje zajmować będzie witryna z autorskimi treściami niż tzw. "scraper site".
Ocena 2.62/5 (52.39%) (284 głosów)
  • Śledzik
TAGI: google   strona   indeks   scraper   site  

Komentarze:


  • Dodał: Gość data: 2011-02-02
    przydało by się, bo spamu jest masa...


Dodaj komentarz:


Temat:
Twój nick:
Komentarz:
 

Prosimy o kulturę wypowiedzi. Komentarze zawierające niecenzuralne zwroty, bądź obrażające inne osoby będą usuwane. Kod HTML w wypowiedziach jest niedozwolony. Wydawca nie odpowiada za treść komentarzy.