Le Spamdexing
2 pages
Français
Le téléchargement nécessite un accès à la bibliothèque YouScribe
Tout savoir sur nos offres

Le Spamdexing

-

Le téléchargement nécessite un accès à la bibliothèque YouScribe
Tout savoir sur nos offres
2 pages
Français

Description

Les méthodes de Spamdexing visées par GOOGLE

Sujets

Informations

Publié par
Nombre de lectures 17
Langue Français

Exrait

Fiche conseil n°7 mai 2012
Le Spamdexing, c’est quoi?
Définition
Définition WIKIPEDIA : «Lespamdexingest un ensemble de techniques consistant à tromper les moteurs de recherche sur la qualité d'une page ou d'un site afin d'obtenir, pour un motclef donné, un bon classement dans les résultats des moteurs (de préférence dans les tout premiers résultats, car les utilisateurs vont rarement audelà de la première page qui, pour les principaux moteurs, ne comprend par défaut que dix adresses).
Le mot «spamdexing» est un néologisme anglophone composé du substantif «spam» et du suffixe «dexing» pris sur le terme «indexing» signifiant référencement. Au Canada, l'Office québécois de la langue française propose comme traduction de «spamdexing». En France, on n'a pasréférencement abusif» « encore proposé de traduction officielle.
Elle est parfois sévèrement punie par les moteurs, même s'il n'y a pas de code de conduite précis pour les référenceurs (il est parfois difficile de distinguer le référencement abusif de la SEO, l'optimisation « honnête »). Les techniques habituelles de référencement abusif consistent par exemple à truffer unepage satellite de listes de motsclefs (pour attirer les utilisateurs de moteurs qui font une recherche sur ces mots), ou à créer des dizaines de sites qui pointent les uns vers les autres (link farms oupépinières de liens) pour améliorer leur classement dans les moteurs qui jugent la qualité d'une page en fonction du nombre de liens pointant vers elle »
Les méthodes de Spamdexing visées par GOOGLE PANDAa été lancédébut 2011 aux E.U, puis dans les pays anglophone avant d’arriver en France durant l’été 2011.PANDAn’est pas un algorithmecomme les autres, il s’agit plutôt d’unfiltre de nettoyagequi a pour objectif delutter contre le spam vial’achat massif de liensou via descontenus de faible valeur.
Dans les 2 cas, l’objectif des webmasters qui gèrent ces sitesest de créer le plus possible de traficpour ensuite générer des revenus via les espaces publicitaires. PANDAvise principalement à4 formes de sitesweb etcertains procédés de Spamdexing.
4formes de sites web
Les fermes de contenus les fermes de contenu génèrent descontenus de très faible qualité mais en très grande quantitéà partir de l’étude des mots clés les plus tapés dans les requêtes. Ce contenu estensuite inséré dans des pages parfaitement optimiséespour les moteurs de recherche.Les agrégateurs de contenus Ce sont des sites qui récupèrent tout ou partie d’informations circulant sur le web et qui sont ensuite agrégées de manière + oupro.
www.auditredacweb.comPRESTATIONS WEBMARKETING :PageAudit de site Internet • Rédaction pour le web • Veille sur Internet1 /2
Parmi ces agrégateurs on retrouve les sites d’offres d’emploi, d’annonces immobilières, d’offres de formation.Les comparateurs de prix Comme leur nom l’indique, en fonction des thématiques traitées, ces sites vont chercher les informations sur différents sites et les agrègent. Lemécanisme est toujours le même : une très bonne optimisation des pages, qui engendre du trafic, et ce trafic est vendu pour générer des revenus publicitaires. Les sites de questions/réponses ou forums Ces sites sont visés car Google s’est rendu compte qu’un grand nombre de questions restaient sans réponse. En consultant ces sites linternaute est déçu car il ne trouve pas la réponse quil est venu chercher et il y a production de pages web qui ne servent à rien. 6 procédésde Spamdexing
Le cloaking 3 conseilsC’est une méthode qui permet de proposer un contenu différent à Soyez propriétaire de tous vos l’internaute et au moteur de recherche.Méthode très utilisée en cas contenus éditoriaux, d’animation flash. Pour Google une seule règle, le moteur et  Ayez des contenus webde l’internaute doivent avoir accès au même contenu.qualité à forte valeur ajoutée, Le content spinning  Ne souscrivez pas à des offres Il s’agit de méthode de réécriture automatique qui cherche à tromper de liens payants non naturels.les robots. Vous prenez un texte sur un site, vous le faites passer dans une moulinette qui va changer des mots ou le temps des verbes, utiliser des synonymes… et vous pouvez même pouvoir sortir plusieurs versions d’un même texte. Bien entendu, l’intérêt éditorial de tels textes est très faible.Le scrapping Des robots copient un contenu sur un site et le collent sur un autre site. L’indexation de pages de moteur interneGoogle interdit l’indexation de pages de résultats issus du moteur inteElles doivent êtrerne du site. désindexées. Duplicate content C’est la reproduction à l’identique d’un texte à l’intérieur d’un site ou sur plusieurs sites.La notion de Duplicate Content affecte tous les sites vitrine ou marchand. Ce n’est pas une pénalité pour un site mais par contre ça engendre une moins bonne visibilité des pages dupliquées. Le simple fait de corriger améliore le référencement.
Les systèmes de liens artificiels Régulièrement vous recevez des offres vous proposant de créer des centaines voir des milliers de liens vers votre site pour favoriser son référencement naturel. Surtout ne souscrivez pas à de telles offres car vous exposer votre site aux foudres de PANDA et depuis peu de PENGOUIN.Les liens proposés sont complètement artificiels et sans aucune valeur pour l’internaute. Déjà de nombreux sites proposant ces liens ont été pénalisés par Google.
GOOGLE rend hommage à Pierre Karl FABERGE
www.auditredacweb.comPRESTATIONS WEBMARKETING :Audit de site Internet • Rédaction pour le web • Veille sur InternetPage2 /2