Vous êtes ICI: Accueil » News
  • Comment Contrer Google Panda?


    15-12-11
    Internet étant actuellement un outil d’information indispensable, les sites et autres blog fleurissent sur la toile avec une vitesse vertigineuse. Certains de ces sites pourtant ne sont que des doublons d’autres sites, recélant des informations quasi identiques donc inutiles et surtout à but commercial et privent l’apparition d’autres sites en première page de Google le moteur de recherche du géant américain.
     
    Souciant de cette saturation du web, Google a mis en place un algorithme permettant de mieux gérer les informations à paraitre sur son moteur de recherche. Ce système est nommé «Google Panda». Google Panda est un moyen pour Google de sanctionner les sites qui publient massivement des contenus sans valeur ajoutée, les sites qui n’ont que pour finalité de générer des revenus publicitaires. Plus clairement, Google Panda affecte les sites web dont les contenus pêchent par leur piètre qualité, pénalisant ainsi les comparateurs de prix et le nombre de portails généralistes. De ce fait, plusieurs sites verront leur classement sur Google être placé loin derrière d’autres sites permettant à certains de remonter la pente et de paraitre plus visiblement dès la première recherche sur Google.
     
    Dorénavant, le contenu des sites doivent être beaucoup plus pertinent et rédigé de façon unique. Actuellement, l’algorithme de Google a été mis à jour sous la désignation de Google Panda 2 est encore plus exigeant en termes de rédaction et de publication dans les sites que celui précédemment lancé. Les sites qui subiront le déclassement vont littéralement s’effondrer ainsi que la rentabilité de leurs business en un seul jour. Cette réalité est omniprésente dans l’esprit des chefs d’entreprise qui mettent leurs vitrines sous forme de site et dépendent fatalement du géant américain pour l’opération de leurs ventes.  

    Cela a eu des impacts et a suscité l’avis des spécialistes comme le référencement « SEO » en France et à l’étranger, pour analyser et trouver des moyens pour éviter d’être déclassé et pour les sites affectés de regagner leur position. Il a été donc constaté que l’algorithme de Google fonctionne comme un filtre qui repose sur un seuil, les pages qui franchissent sont affectées mais les autres ne le sont pas, il n’existerait aucune façon dont Google Panda affecte une page.    Ce seuil paraît varier en fonction du domaine. La présence de liens entrants pointant sur le site et la qualité de ces liens influeraient sur le déclenchement de la sanction. Des liens entrants provenant de sites de piètre qualité pourraient représenter un handicap. A contenu équivalent, les pages ne bénéficiant d'aucun lien entrant seraient les premières affectées, suivies par les pages qui n'ont comme liens entrants que des liens issus de fermes de liens, et enfin viendraient les pages dont les liens entrants proviennent de sites gouvernementaux ou d'un panel de sites variés. Lorsqu'une page est affectée, il semblerait qu'elle chute dans les classements sur la quasi-totalité des mots-clés, et non sur quelques mots-clés seulement. Le seuil au-delà duquel Google Panda se déclenche ne paraît pas basé sur une page unique. Plusieurs pages semblent devoir répondre aux critères pour que tombe la sanction. Toutefois, des pages proposant un contenu de qualité peuvent être affectées si elles appartiennent à une rubrique présentant de nombreux contenus de faible qualité. Quant au ratio pages de qualité sur pages de mauvaise qualité, il est difficile de se prononcer. Généralement, pour que la rubrique tout entière soit affectée, le nombre de pages de mauvaise qualité semble devoir excéder le nombre de pages de qualité, même si parfois, un ratio d'un cinquième peut suffire à faire couler l'ensemble de la rubrique. Une fois affecté, il est possible de se tirer des griffes de Panda en désindexant les pages dont les contenus sont mis en cause ou encore en les supprimant.
     
    Mais il faut aussi avoir en tête qu’une perte de position ou un déclassement sur un mot clé n’est pas forcément dû à une sanction de Google Panda. Il faut vérifier si l’on a des problèmes sur son site web ou peut-être qu’un ancien nom de domaine oublié et non redirigé peut créer des cafouillages dans Google qui dupliquera les informations. L’effet du contenu dupliqué en effet, est aussi une grande source d’ennui, si votre site est neuf et que vous rédigez des articles de façon quotidienne, il suffira qu’une personne copie et colle vos articles sur un site qui détient un rang de fiabilité plus ancien et il aura un taux d’indexation plus élevé et sera considéré comme propriétaire de l’article. Il faut aussi éviter de nouer alliance avec les sites peu recommandables en stratégie de maillage.
     
     Beaucoup de personnes à présent font appel à des prestataires pour avoir une meilleure place sur la toile ou appelée techniquement «référencement naturel». Les clients restent toutefois sceptiques à l’idée de voir leur site en première ligne sur le moteur de recherche Google et surtout si celui-ci et en concurrence avec plusieurs sites du même secteur depuis des années. La première place est convoitée surtout par les entreprises leur assurant une plus grande visibilité mais surtout et obligatoirement, de réaliser des ventes. Tout est également question de concept, de tarif et d’offre commerciale. Il reste qu'en termes de référencement sur internet, l'opacité est devenue la règle. Difficile alors de pouvoir s'appuyer sur des données fiables. La faute à trop de paramètres variables. La faute aux éditeurs de sites eux-mêmes car ils apprennent vite. Comme les experts en affaires savent spéculer avec les niches fiscales, les rois du marketing éditorial savent jongler avec les mots clés du référencement.
     
    Pour contrer Panda, mieux vaut produire régulièrement des contenus uniques et originaux pour en tirer l’exclusivité, éviter les grandes présences de pavés publicitaires et le partenariat avec les sites inadéquats. Google Panda en effet, juge de la qualité d’un site sur l’ensemble du contenu et non sur une seule page. C'est non seulement la garantie d'éviter le risque d'une sanction par Google mais cela permet en plus d'augmenter les chances de voir ces contenus relayés sur les réseaux sociaux tels que Twitter, Google+ et Facebook, des facteurs dont on sait aujourd'hui qu’ils tiennent une place non négligeable dans l'algorithme des moteurs de recherche.
     
    Le 15/12/2011 par Page-Internet.net
  • Référencement Google : Panda rebat les cartes de l'Internet français


    22-11-11

    Trois mois après l'application du nouvel algorithme de référencement de Google en France, les sites font le bilan. Un résultat mitigé.

    Panda, la toute nouvelle version 2.5 de l'algorithme déployée par le moteur de recherche Google au printemps et déclinée depuis le mois d'août sur les sites français, aurait eu des répercussions surprenantes sur les performances de leur trafic.

    Selon l'éditeur de logiciels d'analyse de recherche pour les entreprises Searchmetrics, plusieurs grands sites marchands ont ainsi récemment accusé des pertes de trafic : Vertbaudet.com (- 68,33 %), Pixmania.com (- 30,24 %) ou encore Govoyages.com (- 27,16 %). Quant au site de l'Apec, il a perdu plus de 20 % de son trafic.

    Mais, alors que Google Panda est censé déclasser les sites de "faible qualité éditoriale" et réduire la visibilité des "fermes de contenus" dans les résultats de requête, on découvre, toujours à la faveur de la dernière étude de Searchmetrics, qu'une immense majorité de sites dont le trafic avait été torpillé par le nouvel algorithme de Google ont recouvré leurs performances d'avant Panda. Même s'il est encore trop tôt pour mesurer avec précision l'ampleur des "dégâts". Au final, selon les déclarations officielles de Google, "cette mise à jour de Panda impacte les résultats perçus par les utilisateurs pour 6 à 9 % des requêtes en moyenne".

    Reste qu'en termes de référencement sur internet, l'opacité est devenue la règle. Difficile alors de pouvoir s'appuyer sur desdonnées fiables. La faute à trop de paramètres variables. La faute aux éditeurs de sites eux-mêmes. Car ils apprennent vite. Comme les experts en affaires savent spéculer avec les niches fiscales, les rois du marketing éditorial savent jongler avec les mots clés du référencement.

    Avis aux comparateurs de sites et aux e-commerçants : pour éviter les foudres de Panda, mieux vaut produire régulièrement des contenus uniques et originaux, limiter la grande présence de pavés publicitaires et ne pas pointer vers des sitesinadéquats. Car le moteur géant juge de la qualité d'un site sur l'ensemble de ses contenus et non sur une seule page. Par ailleurs, il sanctionne les sites en Flash et ne prend plus en compte les mots clés dans les noms de domaine. "Google a tendance à considérer qu'une page web pour laquelle un internaute va voter à l'aide d'un bouton Facebook ou Twitter devient une page pertinente, analyse Xavier Paulik, président de l'éditeur de logiciels Tiki'Labs. Autrement dit, il est conseillé d'éditer des contenus qui puissent être largement relayés par les réseaux sociaux." C'est dire si le référencement marque la victoire du social sur le content....Lire la suite

    source : lexpress.fr

  • Google entend lutter plus efficacement contre le référencement abusif


    16-11-11

    Référencement Google : Les ancres de lien, les snippets, les recherches d'image, les résultats datés ou plus frais sont affectés par de récents changements opérés par le moteur de Mountain View. Florilège et explication de ces modifications.

    Google vient de faire paraitre une liste regroupant bon nombre des améliorations de son algorithme réalisées au cours des deux dernières semaines. Mountain View apporte ainsi quelques petites précisions sur des changements en cours déjà bien expliqués ou plus discrètement mis en place.Google explique vouloir agir dans un souci de transparence, mais précise également pouvoir le faire car les détails de ces modifications ne peuvent pas être manipulées à des fins de Black Hat Seo... Mountian View indique par ailleurs songer à réitérer ce genre d'annonces.

    Plus de Rich Snippets et de résultats frais

    Plusieurs des modifications récemment mises en place impactent les Snippets, les extraits de page qui s'affichent dans les SERPS et qui accompagnent les liens. D'abord, Google annonce que ces extraits pourront être désormais plus souvent issus du texte de la page Web elle-même "plutôt qu'issus du header ou du menu."Ensuite, Google explique avoir étendu la présence des Rich Snippets (contenus plus riches comme des vignettes, des étoiles d'avis, etc.) pour le catalogue des applications iOS et Android. L'avis des internautes, l'image et le prix de ces applications s'afficheront donc dans les résultats de Google. Le moteur rappelle avoir déjà mis en place ces Rich Snippets pour les e-commerçants, les sites de recettes, les critiques, les vidéos et même, plus récemment, pour la musique.

    Google revient également sur sa dernière mise à jour de Caffeine, également nommée Google Freshness Update, qui a pour but d'améliorer la fraicheur des résultats proposés par le moteur. Google précise ici une nouvelle fois que cette modification d'algorithme va impacter près du tiers des recherches – un chiffre qu'il faut nuancer, comme l'explique l'expert Olivier Duffez. En outre, dans ce nouveau billet officiel, le moteur baisse d'ailleurs de lui-même cette proportion qui pouvait faire peur, en précisant que seuls "6 à 10% des résultats seront affectés de manière notable".Google appréhendant désormais différemment les contenus plus récents, Mountain View explique également dans ce nouveau billet améliorer la pertinence des résultats lorsque la recherche couvre une période données.

    Google contre le Black Hat SEO

    Dans son billet, Google annonce également avoir changé sa façon de prendre en compte l'ancre des liens entrants pour générer les titres des pages dans ses résultats. Google, comme d'habitude ne détaille pas, mais cette amélioration semble également pouvoir permettre à Google de déjouer des pratiques de black Hat (Google Bombing, nuage de liens dupliqués désormais considérés comme "non pertinents", etc.)Autre amélioration qui n'avait pas encore fait l'objet d'annonce officielle jusqu'à présent et qui pourrait contrarier certaines pratiques de spamdexing : Google a également modifié son algorithme pour la recherche d'image. Il ne prendra plus en compte un signal émanant "d'images ayant des références dans plusieurs documents sur le Web". Google semble ainsi changer l'importance accordée à des images présentes sur plusieurs sites.Le but : cesser de récompenser des voleurs d'images (pratique dite du "hotlink") qui pouvaient d'ailleurs pénaliser le référencement d'un site tiers ou améliorer le sien sans respecter les recommandations de Google. Un webmaster "longtemps victime des hotlinkeurs ou des voleurs d'images "fait d'ailleurs remarquer sur un forum spécialisé que "que quasiment plus aucune de ses images volées n'apparaît dans les SERP de Google Images"....Lire la suite

    source : journaldunet

  • Google améliore encore son algorithme : 35% des requêtes impactées


    04-11-11

    Un nouvel algorithme mettant en avant des résultats encore plus "frais" a été déployé par Mountain View. Le nombre de requêtes impactées dépasse celles touchées par Panda.

    Alors que Google Panda continue de secouer le Web, Google vient d'annoncer une nouvelle mise à jour de son algorithme. Cette dernière a pour but d'afficher des résultats encore plus "frais" et donc plus pertinents, selon le blog officiel de Google. En tout 35% des requêtes doivent être impactées et faire remonter ces résultats jugés plus frais. Pour rappel, Panda avait impacté, selon Google, 12% des requêtes dans les pays anglo-saxons et entre 6 et 9% en France...Lire la suite

    source : journaldunet