Blekko continue de multiplier les innovations pour se faire une place à côté des géants Google et Bing :
- Plus de pages indexées, pour répondre notamment avec plus d'efficacité aux requêtes de "longue traîne"
- Classement automatique des résultats de recherche en catégories, par l'intermédiaire de tags
Notre avis :
Blekko aborde la recherche sur Internet d'une façon légèrement différente de celle de Google et Bing, en affirmant que l'accès à l'information est trop important pour que les utilisateurs ne disposent pas d'un véritable choix dans la manière dont celle-ci sera triée.
Ainsi, Blekko se base sur un système basé sur les sources et non sur les liens (comme Google et son Page Rank), et utilise des humains pour affiner la recherche dans certains domaines d'expertise.
Une étude de Pew Internet montre que les consommateurs se tournent de plus en plus vers Internet pour rechercher des informations préalables au sujet d'un commerce local : bar, restaurant ou autre...
La publication récente par Google d'une dizaine de vidéos présentant les Rich Snippets et la façon de s'en servir pour son site web est l'occasion de revenir sur le web sémantique et les microformats / microdonnées.
Notre avis :
Les rich snippets sont basés sur la sémantique, et utilisent un type particulier de données, appelées microformats ou microdonnées. Ce sont des éléments de contenu marqués par des balises spéciales, pour que les moteurs puissent comprendre leur signification. On signalera ainsi que telle chaîne de caractère est un numéro de téléphone, une adresse, une note de consommateur, un prix, une promotion, une date, etc. Ces données sont ensuite remontées dans les résultats de recherche, afin de les présenter directement aux internautes.
E-rbis, notre "CMS maison", intègre automatiquement la gestion de ces microdonnées, afin de donner à vos pages un intérêt plus grand dans les résultats de recherche (note consommateur, disponibilité, prix, etc.), et augmenter ainsi leur taux de clic.
Yahoo! Boss est un système permettant aux webmasters d'utiliser les algorithmes de recherche web de Yahoo! On peut tirer partie de cette technologie pour intégrer rapidement à son site web un moteur de recherche (interne ou externe), sans avoir à le programmer. Mais Yahoo! donne également accès à des API permettant d'utiliser des fonctions de base au coeur d'applications sur mesure et plus élaborées.
Un contenu traduit peut-il être considéré comme du duplicate content, et porter préjudice au référencement naturel ? Google, par la voix de Matt Cutts, affirme que ce n'est pas le cas pour l'instant, mais qu'il faut se préparer à ce qu'une différence soit faite entre les contenus traduits par des humains, et des traductions automatiques (du type Google Translate...)
Notre avis :
On ne sait pas exactement comment s'y prendra Google pour distinguer les bonnes traductions des mauvaises (comparaison avec les résultats de son propre outil de traduction ? intervention d'humains ?), mais nul doute qu'il saura le faire. Cela va de toutes façons dans la direction habituelle : toujours du contenu de qualité, destiné à des êtres humains et pas à des robots.
En cas de besoin, nous pouvons vous aider dans la recherche d'un partenaire de traduction.
La réponse officielle à une question récurrente, puisqu'il a souvent été remarqué que le lancement d'une campagne Adwords, ou l'arrêt de celle-ci, semblait avoir un impact sur le positionnement naturel. Il n'y a pourtant aucun lien entre les Adwords et le SEO, indique Matt Cutts.
Source : Source Matt Cutts
Notre avis :
Un communiqué contesté dans le milieu du SEO, puisque c'est bien l'inverse qui est régulièrement constaté sur les sites à fort trafic, mettant en oeuvre de grosses campagnes d'Adwords. Malgré le discours officiel de Google, nous vous conseillons de rester très prudent lorsque vous souhaitez interrompre une campagne d'Adwords de longue durée ou à fort investissement financier, et d'effectuer un retrait prudent et étendu dans le temps. Dans tous les cas, restez en contact avec votre chef de projet qui vous guidera et vous conseillera.
La société Hitwise a publié son classement des mots clés les plus demandés (aux Etats-Unis) sur les moteurs de recherche en 2011 : "Facebook" est en tête pour la troisième année consécutive, suivi par "YouTube".
Le top 10 n'est constitué que de noms de services ou d'applications web, telles que Craigslist, ebay ou Mapquest.
Notre avis :
Ce top 10 étrange, qui ne comporte aucune véritable requête du type "recherche d'information", aucun nom de célébrité ou d'émission télé, ni aucun sujet d'actualité, est en fait dû à un changement d'usage dans les navigateurs web : désormais, la barre d'adresse sert également de moteur de recherche. La première place du mot "Facebook" vient du fait que les internautes tapent le nom du site au lieu de taper son URL dans la barre d'adresse.
Même si l'étude concerne les Etats-Unis, il faut tenir compte de ce phénomène dans sa stratégie de SEO, voire de référencement publicitaire.
Mise à jour des Google Webmaster Tools avec une section présentant des statistiques sur les auteurs de contenus.
Ainsi, si vous vous êtes identifié comme auteur, grâce à votre profil Google+, et que les pages rédigées de votre plume sont taggées grâce à la balise <author> (dont nous parlions dans une précédente revue de presse), les Google Webmaster Tools vous communiquent désormais des statistiques sur le nombre d'impressions (dans les résultats du moteur Google) du contenu vous appartenant à travers le web.
Notre avis :
Une fonctionnalité extrêmement pratique, et qui constitue un pas de plus vers l'entreprise d'identification de tout le contenu en ligne par Google.
Il sera ensuite facile pour le moteur d'effectuer des classements de pages en fonction de leur auteur, de sa réputation et de son degré estimé d'expertise dans le domaine dont il est question sur chaque page (domaine qui pourrait être reconnu automatiquement, par exemple à la manière dont s'y prend Blekko pour tagger ses résultats - à lire un peu plus haut dans cette revue de presse).
Un article intéressant et sérieux sur les critères qui conduisent Google à considérer un site comme étant spécialiste d'un sujet. Il aborde des notions qui devraient être connues par chaque webmaster. A lire impérativement.
Lire l'article : Source Resoneo
Notre avis :
Une bonne présentation de la philosophie de Google, qui, loin de toutes motivations angéliques ou diaboliques, doit avant tout présenter des résultats pertinents et qualitatifs aux internautes. Il intéressant de comprendre par quels moyens logiques, voire mathématiques, le moteur tente de faire ce travail au mieux et le plus rapidement possible. En assimilant cette façon de "penser", on peut se mettre à la place du moteur et acquérir des réflexes sur la façon de lui présenter le contenu de son site web.
Nous en parlions il y a quelques mois ; Google a pour projet de rattacher chaque contenu web à son auteur (celui-ci disposant idéalement d'un compte Google+, permettant de retrouver toutes ses contributions éditoriales).
Il est maintenant possible de s'identifier en tant qu'auteur du contenu d'un site, en disposant simplement d'une adresse e-mail correspondant au domaine (adresse@monsite.com). En enregistrant cette adresse dans son profil Google+, on s'identifie comme contributeur du site web.
Source ManiacGeek
Notre avis :
Puisque Google+ vous permet maintenant de créer des pages entreprises (à rapprocher des pages marques de Facebook), vous pouvez réaliser cette opération avec un compte Google créé spécialement pour votre activité, et non pas avec votre compte personnel.
Google Analytics s'enrichit d'une nouvelle fonctionnalité importante : les données en temps réel sur le trafic de votre site. Il devient donc possible de connaître, en temps réel, non seulement le nombre de personnes en train de visiter le site (avec répartition par source : SEO, adwords, accès direct...), mais aussi leur comportement : pages les plus actives à l'instant, nombre de pages vues par visiteur dans les 60 dernières secondes, etc.
Lire l'article : Source Presse citron
Notre avis :
Il ne s'agit pas d'une révolution, mais d'une fonctionnalité pratique notamment pour suivre l'impact d'une campagne sur les réseaux sociaux, et l'optimiser en réagissant aux baisses de fréquentation. On peut ainsi imaginer de relancer l'intérêt des internautes via un tweet dès que le trafic diminue. Ou à l'inverse, il suffirait d’observer sur une journée les heures où la fréquentation est la plus importante pour par exemple mettre en ligne une offre promotionnelle. Il est fort probable que l’offre sera ensuite diffusée par les internautes sur leurs comptes Facebook et Twitter.
Un point sur la façon dont Google indexe les documents PDF, et donc la meilleure façon de lui fournir un contenu lisible et optimisé. A noter par exemple que les PDF sont aussi bien indexés que les pages HTML classiques, et qu'il vaut mieux, en conséquence, ne pas présenter le même contenu à la fois en HTML et en version alternative PDF, puisque cela peut être considéré comme du contenu dupliqué.
D'autre part, les images contenues dans un fichier PDF ne seront pas prises en compte dans Google Images.
Lire l'article : Source Abondance
Notre avis :
Voici une bonne nouvelle pour tous nos clients qui utilisent des fichiers pdf afin de faire passer plus d'informations (notices d'utilisation, description plus complète sur des produits, etc.)
Pensez à intégrer des mots clés dans vos pdf et à les rédiger de manière optimisée pour le référencement. Votre site pourrait connaître de bonnes surprises !
La dernier mise à jour redoutée de l'algorithme de Google, effectuée le 28 septembre, a causé de gros dégâts dans le référencement de certaines des plus grosses boutiques. La perte de visibilité a pu se monter, dans les cas les plus extrêmes, jusqu'à 99,5%.
Les cas les plus frappants, par la notoriété des commerçants et le taux de recul du référencement sont Vertbaudet (-68,33%), Pixmania (-30,24%) et Go Voyages (-27,16%).
Lire l'article : Source ecommercemag
Notre avis :
Nous ne remarquons aucun point commun sur l'activité de ces trois sites (ce sont tous les trois des sites marchands). Cependant il est à noter que les "produits" proposés par ces sites possèdent chacun une micro fiche descriptive qui se résume très souvent au nom du produit (comportant le mot clé) et à une description sommaire.
Google Panda serait donc plutôt enclin à sanctionner (comme nous le savons déjà) les sites qui proposent du contenu peu étendu et peu pertinent.
Si vous n'êtes pas certain de la qualité de vos fiches produit, votre chef de projet pourra vous aider à établir une stratégie de contenu qui trouvera grâce aux yeux de Google Panda !
Notre avis :
Nous ne le répéterons jamais assez : sans stratégie marketing logique et réfléchie, se lancer dans la création d'un site de e-commerce est prématuré et hasardeux. La création d'une baseline efficace fait partie des questions abordées au cours du brainstorming d'avant-projet. Mais elle n'est qu'une partie de la stratégie marketing globale, que nous vous aidons à mettre en oeuvre ou adapter sur le web.
Mise à jour de Google Analytics (uniquement sur la version américaine pour l'instant) : il sera désormais possible de suivre les chemins de conversion des visiteurs (entonnoirs) sur des durées beaucoup plus longues et en tenant compte de la succession de canaux empruntés au cours du temps (publicité online, adwords, référencement naturel, accès directs, etc.)
Lire l'article : Source Google
Les sitelinks sont les mini liens que Google affiche sous le lien principal dans ses résultats de recherche, lorsqu'il estime qu'il s'agit de la réponse la plus pertinente à une requête. Chaque lien pointe vers une sous-catégorie du site, pour faciliter l'accès à l'information.
Jusqu'à présent, ces liens étaient au nombre de 8 maximum. Google vient d'augmenter leur nombre à 12.
Lire l'article : Source Abondance
Notre avis :
Chaque sitelink dispose en plus aujourd'hui de son URL affichée en vert, ainsi qu'un d'une ligne de description. Cette nouvelle organisation offre un grand espace au premier lien de la page de résultats, et repousse tous les autres très loin. Ce n'est pas forcément une nouvelle difficulté de référencement naturel, car les sitelinks ne devraient continuer de s'afficher que sur des requêtes très particulières telles que les noms de marques.
Il reste possible, comme auparavant, de supprimer les sitelinks de son choix sur son propre site web, via l'interface des Webmaster tools. En revanche, il n'est toujours pas possible d'en ajouter.
Google simplifie la procédure de création d'annonces publicitaires (Adwords) pour les commerces locaux (c'est à dire ne disposant pas forcément de site Internet). L'annonce pourra pointer vers la fiche Google Adresses de l'établissement, contenant ses coordonnées et sa localisation sur une carte Google maps (permettant de générer un itinéraire à la volée).
Lire l'article : Source Goopilation
Notre avis :
La démarche de Google auprès des commerces traditionnels est à considérer dans une politique plus large de spécialisation sur le secteur ultra-local, qui s'inscrit elle-même dans l'orientation dite "SoLoMo" du web.
Le SoLoMo (Social-Local-Mobile) est le terme désignant la convergence des trois axes que sont les réseaux sociaux, les données de géolocalisation et les applications mobiles. C'est désormais la ligne directrice des gros acteurs du web (Google, Facebook, Groupon...)
C'est pour renforcer sa branche locale que Google semble ainsi parfois sortir du web et s'occuper aussi des organismes "offline". En donnant une visibilité sur son moteur à des commerces de rue, il permet d'offrir des résultats ultra-spécialisés aux internautes mobiles (Lo-Mo). L'aspect social (So) étant assuré par la panoplie d'outils liés au réseau Google+ (commentaires utilisateurs, bouton +1, ...)
Google a lancé récemment une expérimentation sur des balises indiquant qui est l'auteur d'une page web. Désormais, les auteurs sont mis en avant sur la version américaine du moteur de recherche, par l'affichage de leur nom ainsi que de la photo de leur profil Google, sur la droite des résultats.
Lire l'article : Source Abondance
Lire aussi :
Google veut comprendre qui est l'auteur d'un contenu sur le webNotre avis :
Cette fonctionnalité prend place au sein de la stratégie sociale de Google, dont le lancement de Google+ constitue la clé de voûte (voir plus loin dans cette newsletter). Google permet désormais à chaque individu de se constituer facilement un profil complet et détaillé, qui lui servira en quelque sorte de carte d'identité et de CV virtuel.
Grâce à ce profil, il est possible de partager des informations avec son réseau (même principe que Facebook), mais aussi d'aider Google à attribuer des contenus web à leur auteur, non pas de façon floue mais au contraire très précise. On peut donc maintenant "signer" le contenu de n'importe quel contenu web ; Google se charge ensuite de faire apparaître ces informations dans les résultats de son moteur de recherche.
En parallèle, votre profil Google se remplit petit à petit avec tous les contenus éparpillés sur Internet dont vous êtes l'auteur, à la manière d'un CV en temps réel.
Le contenu attribuable à un profil Google peut provenir aussi bien d'un compte Twitter, Flickr, d'un blog, des pages de contenu de votre site éditorial, ou bien de n'importe quelle page rédigée sur un site web partenaire. L'attribution nécessite l'intégration d'une balise "author" sur la page de contenu, ainsi qu'un lien depuis cette page vers le profil Google.
Elle nécessite surtout que vous disposiez d'un compte Google ! Si ce n'est pas déjà le cas, cela commence ici : https://profiles.google.com/
Un article étudiant l'influence des tweets sur le positionnement de la page web concernée. Celle-ci est évidente et pratiquement instantanée. Elle permet, dans l'exemple donné, de stimuler considérablement le positionnement de la page (elle remonte en 2ème place au bout d'1 heure), et de le stabiliser sur la durée.
Lire l'article : Source Ludovic Passamonti
Notre avis :
Nous en avions déjà parlé dans de précédentes newsletters, le test de cet article confirme le poids énorme des tweets dans le positionnement des pages web. Nous avons réalisé plusieurs tests en interne également, dont les conclusions recoupent celles-ci. Si vous souhaitez en savoir plus sur le community management et l'utilisation raisonnée de Twitter dans une stratégie de communication, Goldenmarket propose des formations personnalisées. N'hésitez pas à en discuter avec votre chef de projet.
Les microformats sont des balises permettant de rationnaliser les informations contenues dans les pages web, pour que les moteurs de recherche puissent les "comprendre" et les traiter. On indiquera par exemple que telle expression est un numéro de téléphone, telle autre une adresse, telle autre encore un prix ou une réduction.
Jusqu'à présent, plusieurs standards existaient pour ces balises. Récemment, Microsoft, Yahoo et Google se sont entendus sur une terminologie commune.
Source Clubic
Notre avis :
Les microformats sont particulièrement importants pour le référencement et dans l'utilisation de données hors du contexte brut des pages : les appréciations de consommateurs sur une fiche produit peuvent par exemple être remontées directement sur la page de résultat des moteurs de recherche, ainsi que le prix ou une réduction exceptionnelle. Nous travaillons depuis quelque temps déjà à intégrer leur gestion dans nos outils d'administration de sites.
Thinglink est un outil de tag qui permet, comme dans Facebook, de créer des légendes à l'intérieur d'une photo (sur un visage, un objet, le paysage...) et d'y attacher des liens hypertextes quelconques : vers une page de contenu, une fiche produit, une Google map, une notice PDF, un diaporama photo, un profil Twitter ou Facebook, etc.
Voir le siteNotre avis :
Un système convivial et très simple d'utilisation qui pourrait permettre par exemple, de créer des liens entre des pages de contenu éditorial et des fiches produits (notamment dans des secteurs où le visuel et la communication jouent un rôle très important, comme la mode ou les produits de luxe), ou bien de présenter une équipe, de faire de l'affiliation avec des sites marchands, ou simplement pour enrichir son contenu. A noter que, comme avec les sites de vidéos communautaires, il est possible d'intégrer rapidement une photo taggée dans son propre site grâce à un code "embed".
Yandex est le moteur leader en Russie, devant Google (même phénomène que Baidu en Chine). Il prend cependant des parts de marché dans d'autres pays, semble préparer une internationalisation de ses outils et viser une introduction en Bourse.
Lire l'article : Source Abondance
Notre avis :
Bing, Blekko et Facebook, sont loin d'être les seuls concurrents de Google. La complexité et la pertinence des algorithmes de Yandex en font un rival très sérieux pour Google. Sa progression dans les prochains mois est à suivre de près.
Une étude menée par la société Optify montre que les trois premiers résultats proposés par les moteurs de recherche thésaurisent près de 60% des clics des internautes :
1ere place : 36,4%
2ème place : 12,5%
3ème place : 9.5%
Lire l'article : Source Abondance
Notre avis :
Rien de bien nouveau à conclure, au-delà de la précision des chiffres : c'est évidemment le trio de tête qu'il faut viser. A noter par contre que pour les résultats de la longue traîne (c'est à dire des requêtes très précises et longues, générant indépendamment peu de trafic, mais très qualifié), le taux de clic du premier résultat est de 25%, donc que les clics sont mieux répartis.
Google News vient d'ajouter deux fonctionnalités de personnalisation des informations :
- News for you : suggestions d'articles basées sur l'historique de navigation
- Recommended sections : thématiques pouvant intéresser l'internaute loggé, en fonction des thèmes déjà consultés
Lire l'article : Source Abondance
Le nouvel "algorithme" de Google, destiné à nettoyer son index des fermes de contenu, est vraisemblablement basé sur les comportements des internautes. Or les données auxquelles Google peut avoir accès sont les suivantes : taux de rebond, taux de clic, durée de la visite, et un concept nommé "pogo sticking". Cet article les passe en revue en essayant de montrer comment les optimiser.
Lire l'article : Source Abondance
Notre avis :
Un article relativement important à lire, car d'après Matt Cutts (le porte-parole officieux de Google), l'algorithme Panda devrait être déployé en France dans les deux prochains mois. Il faut s'y préparer, même si a priori, la proportion de sites affectés sera nettement inférieure chez nous qu'aux Etats-Unis.
Les landing pages ("pages d'atterrissage") sont les pages de votre site sur lesquelles "atterrissent" les internautes ayant cliqué sur une publicité de type Adword / Adsense. Chaque visite étant payante de votre côté, il est important de capturer les internautes et de tout faire pour les transformer en clients. Optimiser ses landing pages ne s'improvisant pas, ce long article, assez détaillé, rappelle quelques pistes.
Lire l'article : Source Conseils Marketing
Notre avis :
Outre quelques principes généraux, la leçon à retenir est celle-ci : il faut sans cesse imaginer de nouveaux chemins de conversion et les tester. Les "split tests" renvoient aléatoirement les visiteurs sur des versions différentes des pages, afin de mesurer chaque fois l'écart de transformation. On progresse ainsi par étapes, en essayant toujours d'aller vers une simplification du tunnel de conversion (diminuer le nombre de clics, mais pas à tout prix - voir l'article suivant de la newsletter) et de l'ergonomie (réduire le nombre d'éléments susceptibles de détourner l'attention, trouver des moyens de mieux faire comprendre le message...)
Lorsque les règles ergonomiques et les conventions du web entrent en conflit, que faut-il privilégier ? Voici un exemple "limite" : la conception de ce panier fait gagner un clic dans le tunnel de commande, mais elle s'écarte de la configuration habituelle des paniers d'achat. La répercussion sur le taux de transformation n'est pas connue, mais le cas pose clairement problème et mérite réflexion.
Lire l'article : Source Capitaine Commerce
Notre avis :
Il serait abusif de tirer de cet exemple la conclusion que les conventions du web sont toujours supérieures aux règles ergonomiques. A notre avis, il est surtout important de se souvenir qu'une boutique en ligne ne devrait pas servir de laboratoire de test ergonomique (surtout au niveau du tunnel de commande, étape beaucoup trop délicate pour cela) et qu'avant de chercher à innover à tout prix, il faut se demander si l'état de l'art n'est pas plus simple et plus efficace. Ces questions seront posées et discutées avec votre chef de projet au moment de la conception de la modélisation.
Depuis maintenant quelques mois, Google indexe les tweets et les pages Facebook. Pas de solution miracle pour être bien référencé cependant, puisque comme une banale page web, une page Facebook doit être optimisée dans les détails pour remonter dans les premiers résultats. Cet article fait le point.
Source C2B interactive
Notre avis :
Remonter dans les résultats de Google avec sa page Facebook a un énorme avantage : vous pouvez communiquer sur votre société en temps réel, de la même façon qu'avec Tweeter mais avec des statuts beaucoup plus conséquents. Si votre page est bien positionnée, vos statuts seront remontés quelques minutes après avoir été postés sur Facebook.
Pour le référencement, de la même façon qu'avec n'importe quelle page web, il faudra commencer par étudier les mots clés les plus pertinents (en tenant compte du fait qu'on va renvoyer vers une page Facebook servant à la pure communication, et pas vers un site entier) avant de faire un travail d'optimisation technique et éditorial. A noter que ce travail de référencement aura également un impact dans le moteur interne de Facebook.
Nouvelle mise à jour de l'algorithme de Google, destinée à lutter contre les fermes de contenu. Panda (c'est son nom) permettra de juger beaucoup plus finement la pertinence d'un contenu, en fonction de l'utilisation qui en est faite par les visiteurs. Avec 12% des résultats du moteur affectés, c'est l'une des plus grosses mises à jour de l'algorithme depuis la création de Google.
Lire l'article : Source WebRankInfo
Notre avis :
L'algorithme jugera la pertinence des contenus en fonction du comportement des internautes qui y ont été exposés. On peut donc supposer que le taux de rebond et le temps passé sur les pages seront utilisés dans le classement des résultats de recherche. Attention donc notamment à l'évolution de ces statistiques sur vos pages (en notant que Google n'aura aucune indulgence : ce seront des sites entiers qui seront pénalisés si quelques mauvaises pages sont repérées).
Comme d'habitude, et comme nous ne cessons de le répéter, la production d'un contenu de qualité, original et pertinent doit toujours rester la préoccupation principale des webmasters.
Copie améliorée du système Instant de Google, proposant des résultats au fur et à mesure de la saisie d'une requête, Yahoo! Direct offre en plus des infos sur l'actualité, le sport, la finance, pouvant aider l'internaute dans sa formulation.
Lire l'article : Source Abondance
Google va intensifier cette année sa lutte contre les sites proposant peu de contenu original ou les "fermes de contenus" qu'il estime indésirables dans son index... Il faut donc s'attendre à une nouvelle modification d'algorithme.
Lire l'article : Source Maroketing
Notre avis :
Nouvel algorithme de Google, mais peu de changement dans le fond, au final : Google persiste dans sa stratégie, et continuera de privilégier les sites correctement structurés, ayant un contenu original, pertinent et accessible.