Vous êtes ICI: Accueil » News
  • Les recherches effectuées par les utilisateurs de Google seront cryptées?


    02-11-11

    Récemment, la firme américaine Google a annoncé officiellement sa décision d’utiliser un protocole plus sécurisé, le SSL, dans le but de protéger ses utilisateurs. Toutes les données reçues et recherches effectuées par les utilisateurs de Google seront désormais cryptées, limitant ainsi l’accès aux sites web non sécurisés. Ce nouveau protocole est très indiqué pour ceux qui utilisent une connexion Internet non sécurisée telle qu’un Wifi non sécirisé entre autres. 

    L’outil «Référer» présent sur les sites web ne sera plus, par ailleurs, disponible. Cette décision n’est autre que la concrétisation d’une option déjà prise par la société au mois de mai de l’année 2010. En mettant en place ce nouveau système, tous les internautes devront dans quelques jours utiliser le protocole SSL pour lancer leurs recherches sur le web. Si auparavant, les internautes utilisent l’adresse Https://encrypted.google.com ou Http://www.google.com pour accéder au site de Google, désormais, ils devront introduire cette nouvelle URL sur la barre d’adresse, Https://www.google.com. C’est la présence d’un «S» après le protocole Http qui fait la différence entre l’ancienne et la nouvelle url. 

    Tous les utilisateurs du compte de Google seront redirigés automatiquement vers la nouvelle version plus sécurisée d’ici quelques temps. Les internautes qui n’utilisent pas Google devront introduire cette nouvelle url avant de lancer leurs requêtes pour bénéficier d’une connexion plus sécurisée. 
     
    Pour l’instant, la plupart de ces internautes ne se rendent même pas compte du changement. En effet, la mise en place de ce nouveau protocole n’affecte aucunement leurs recherches sur le net. Cette conversion ne tardera pas toutefois à se faire connaître vu que les sites en Https demandent pas mal de temps pour charger, contrairement aux sites en Http. La firme américaine Google a toutefois pensé à ce petit détail en mettant en place deux méthodes astucieuses connues sous les termes de SPDY pour Google Chrome et TLS False Start. 
     
    Si cette nouvelle a fait le ravissement de certains utilisateurs du web, notamment ceux qui se soucient de leur vie privée et de la protection de leurs données personnelles, ce n’est vraiment pas le cas de certains professionnels du SEO. 
     
    Désormais, il serait plus difficile pour ces derniers de procéder à un tracking de mots-clés sur Google. En d’autres termes, la détection des mots-clés utilisés par les internautes lors de leurs recherches ne sera plus possible. Grâce au nouveau protocole sécurisé, les internautes qui consultent un quelconque site ou un blog passent comme inaperçus lors de leur visite. Il sera difficile pour les référenceurs web, les éditeurs de site et les spécialistes du E-marketing d’identifier les mots-clés tapés par ces visiteurs lorsque ceux-ci se connectent en mode sécurisé. 
     
    Toutes les informations introduites par ces internautes sont en quelques sortes stockées dans la base de données de Google. Par ailleurs, ces éditeurs de contenus ne pourront plus connaître les mots-clés utilisés par leurs concurrents. 
    Le site de Google est devenu tout simplement moins ouvert et moins transparent pour ces éditeurs de site web. Se sentant lésés par rapport à cette nouvelle décision de Google, des professionnels issus du secteur du SEO ont lancé une pétition, dont l’objet consiste à demander à Google de renoncer au protocole SSL ou du moins à leur fournir les mots-clés les plus utilisés par les internautes afin de suivre l’évolution et l’efficacité de leur référencement naturel
     
    Selon ces professionnels, le blocage de la transmission des mots-clés référents les défavorise, notamment dans l’édition de leurs contenus. Il est devenu difficile pour ces spécialistes du web de fournir des contenus qui répondent aux besoins des internautes. 
     
    Ce ne sont pas uniquement les sites web de forte popularité qui en pâtissent mais aussi les portails de moindre qualité qui reçoivent très rarement de visites. Cette décision de Google les incitera davantage à opter pour les procédés de collecte de données black hat, tels les spywares. Si aucune solution n’est entreprise, l’utilisation des logiciels malveillants pourrait connaître dans quelques temps un considérable essor.
     
    La plupart des sites web, notamment ceux qui n’utilisent pas le protocole Https, n’hésiteront plus à opter pour d’autres moyens plus efficaces pour compenser leurs pertes de données en usant d’un système d’espionnage. 
    En effet, les sites en Https sont les seuls à pouvoir récolter un maximum de données sur l’utilisation des mots-clés par les visiteurs. Pour bénéficier de cet avantage, tous les sites web utilisateurs du compte Google devront migrer tôt ou tard vers ce nouveau protocole en utilisant le SSL. 
     
    Cette migration plus ou moins imposée par Google constitue une autre raison pour laquelle les professionnels du SEO ont mené cette pétition. Plus de 700 signatures ont été récoltées depuis le lancement de cette requête. La firme américaine a tenté d’apaiser les différentes critiques en proposant son Webmaster Tool comme solution aux problèmes des éditeurs de contenus. 
     
    Cet outil technologique permet à ces professionnels de détecter les 1 000 mots-clés les plus utilisés par les internautes durant un laps de temps de 30 jours. Bon nombre d’éditeurs et de référenceurs web se sont déjà lancés dans l’utilisation du Webmaster Tool pour suivre de près le trafic de mots-clés sur Internet. 
     
    Le contrôle périodique de ces données leur permettra de définir de nouvelles stratégies pour mieux optimiser leur référencement. 
    Les idées reçues de la part des spécialistes du net restent pour le moment très contradictoires.Pour certains d’entre eux, cette nouvelle politique de Google leur permettra de travailler en toute tranquillité, loin de l’espionnage de leurs principaux concurrents.

    Pour d’autres, la mise en place de ce nouveau système n’est autre que le renforcement de la position dominante de la firme américaine. 
    D’après ces utilisateurs du net, il est grand temps pour les référenceurs web d’opter pour d’autres outils technologiques ou d’autres logiciels pour suivre le trafic de mots-clés utilisés par les visiteurs et les sites concurrents. Les internautes, de leur côté, pourront utiliser d’autres moteurs de recherche pour lancer leurs requêtes. En optant pour ces solutions, les problèmes de dépendance vis-à-vis de Google et de ses services ne se poseront plus.
     
    Publié le 2 novembre 2011 par page-internet.net
     
  • SEO : Google annonce plus de transparence pour le réexamen des sites


    22-09-11

    Google indiquera désormais si un site a effectivement subi une pénalité, et si elle peut désormais être levée.

    A l'heure de Google Panda, et des craintes de pénalités liées, l'annonce de Google tombe à pic. Le moteur annonce en effet vouloir rendre le processus de réexamen SEO des sites "plus transparent". Mountain View va ainsi envoyer des réponses plus détaillées aux sites demandant, via le Google Webmaster Tool, un réexamen de leur pratique en matière de référencement naturel...Lire La suite

    source : journaldunet

  • Référencement Google Panda : et après?


    17-08-11

     

    Le système de référencement Google a touché votre site internet après la mondialisation, y compris en France, de l'algorithme Panda 2.4?


    Google a lancé un nouvel algorithme de recherche de son moteur plus tôt cette année pour la langue anglaise, et cette mise à jour algorithmique a été appelée "Panda". L'idée derrière Panda est d'introduire une variable de la qualité dans l'équation de classement des résultats montré par le moteur de recherche.

    Dans l'idéal et la théorie, des sites à contenu de bonne qualité verraient une augmentation de leur classement avec un bon référencement, les sites avec une qualité faible du niveau ou des fermes de contenu verraient une diminution...Lire la suite

    source : aquaportail.com

  • Google Panda : les noms de domaine ne seront pas impactés


    27-07-11

    On a déjà beaucoup parlé de "Google Panda" et des perturbations qu’il a causées aux États-Unis et au Royaume-Uni. Alors que son arrivée en France est imminente, qu’est exactement "Google Panda" et à quoi sert-il ?

    Les premières versions de "Google Panda", lancées aux États-Unis et au Royaume-Uni entre février et juin 2011, ont en effet provoqué quelques perturbations, certains sites se trouvant tout d’un coup mieux positionnés tandis que d’autres disparaissaient des résultats. "Google Panda" est en fait un filtre de nettoyage. Ce filtre, utilisé ponctuellement par Google, vise à nettoyer l’index du moteur de recherche des contenus estimés comme étant de faible qualité. Sont plus particulièrement visés les sites qui récupèrent les requêtes les plus souvent saisies par les internautes (appelés "fermes de contenus") et considérés par définition comme étant des contenus à faible valeur, ceux utilisant des méthodes comme le "scraping" (contenus volés, copiés/collés de dépêches…), le "spinning" (réécriture automatique de contenu, nouveaux textes sur la base d’un original), etc. On trouve aussi dans la ligne de mire de "Google Panda" les agrégateurs de contenus tels que les comparateurs de prix (dont l'indexation des résultats est très mal vue par Google), les sites de questions/réponses et, plus généralement, toutes les pages comportant peu d’informations (sur des forums, par exemple). Lire La suite...

     source :  domainesinfo.fr