Présentation Formation SEO du 18 septembre 2014

Transcription

Présentation Formation SEO du 18 septembre 2014
Forma&on Référencement Naturel : Ques'on Santé – 18 septembre 2014 Yves Vandeuren Services : •  Conseils en Marke'ng // Digital •  Ges'on de projets Web •  Forma'on, organisa'on de conférences Exper&se : •  (e)Marke'ng •  Ges'on de projets •  Ergonomie & Architecture de l’info •  Analyse fonc'onnelle •  E-­‐commerce consultant •  Réseaux Sociaux Enseignement : •  Ephec Bruxelles // Marke'ng •  Digital Marke'ng School Quelques clients Social Média : •  VW, CDiscount UK, Borderlinx, IFAPME… • Technofutur Tic,… Awex : •  Expert en Stratégie à l’Exporta'on (ESE) Suivez moi via h\p://yvandeuren.be Programme Forma&on Référencement 1. Origine du SEO : Google et ses concurrents 2. Fréquenta'on d’un site 3. Comment se comporte un moteur de recherche : PageRank 4. Web Analy'cs en deux mots 5. Op'misa'on du référencement 6. Trouver et op'miser les mots clés 7. Méthodologie de référencement : l’avenir du SEO 13h00 17h00 Origine du SEO
Les premiers moteurs de recherche Google … et ses concurrents
Origine du SEO
Au début du web, pas de moteurs de recherche, mais des engins spécialisés (the Wanderer mesure la taille
du web, Gopher est un protocole de classement) ou des indexeurs basiques (Archie indexe les fichiers
disponibles en ftp).
Premier moteur de recherche : Aliweb en 1993, il établi le principe de fonctionnement qui est toujours
d’actualité :
On déclare ("to submit") l’adresse d’une page = son URL (Uniform Resource Locator commencant par
http:// )
Le moteur envoie un "crawler" (ou “spider”) télécharger la page. La page est stockée sur le serveur du
moteur de recherche…
… où elle est traitée par un indexeur pour en extraire les informations (mots-clés, liens) et les
interpréter (importance, répétition…).
périodiquement, le "crawler" revient sur la page pour actualiser les informations (20% du trafic
d’internet vient des moteurs de recherche).
Au milieu des années 1990, le problème de l'indexation des sites web pour les rendre plus faciles à trouver
émerge, car la visibilité d’un site devient un facteur de plus en plus important : le SEO (« Search Engine
Optimization ») émerge en tant que champ de compétences
Selon Danny Sullivan, apparition du terme Search Engine Optimization vers 1997
Premiers algorithmes d’indexation
Aliweb requiert des fichiers "index", qui sont placés spécialement par les webmasters
et qui y déclarent l'adresse de leur pages, les mots-clés associés …
–  Mais ensuite les moteurs de recherche se basent sur des mots-clés insérés dans le
code des pages
•  Ce sont les étiquettes méta ou « meta tag » (meta parce qu’il s’agit de donner de
l’information … sur de l’information).
–  Mais on est confrontés aux limites de l’utilisation des meta tags comme indicateurs de
la pertinence des pages :
•  Les webmasters y mettent des mots-clés sans rapport avec le contenu réel du site dans le but
d'attirer du trafic = "spamdexing", "black hat"
•  .. résultat : à cette époque, trouver la bonne page web est une aventure…
–  Les premiers moteurs de recherche sont facilement manipulés et discrédités mais de
nouveaux algorithmes d’indexation, plus difficiles à tromper sont développés…
•  La course entre les moteurs de recherche et les webmasters qui veulent manipuler
les résultats de recherche pour attirer du trafic s'engage…
Google : les débuts
Des étudiants de Stanford, Larry Page et Sergey Brin développent "backrub," un moteur de
recherche basé sur un algorithme d’indexation baptisé PageRank
–  PageRank = nom de l'inventeur, Larry Page
L'algorithme calcule un indice basé sur les liens entrants :
–  PR(page X) = Σ PR(des pages qui donnent un lien vers X)
Le principe n'est pas nouveau
–  Utilisé en recherche : citation index. On mesure l'importance d'un article au nombre de fois qu'il est cité
dans d'autres articles.
–  Le moteur de recherche Inktomi utilise déjà ce principe
–  … et déjà des webmestres ont développé des manières de le manipuler pour tricher (link farms)
Google est fondé en 1998.
–  Le moteur de recherche est :
•  Dépouillé (page légère)
•  Simple (recherche "et" par défaut)
•  Rapide
… et il devient très rapidement populaire (en quelques semaines et aux dépens d’Alta Vista)
Souvenez-­‐vous… Google, les chiffres :
• 
• 
• 
• 
Un index de plus de 40 milliards de pages (Google 2013, Bing 3.8 milliards)
–  44 000 employés dans le monde (2013)
–  Plus de 110 sites régionaux
La marque la plus populaire au monde[1] (ou 2ème)
Plus de 4 milliards de requête/jour (2012)
Slogan « Don't be evil »
–  Eric E. Schmidt, président du CA
–  Sergey Brin, directeur technique
–  Larry E. Page, directeur produits
Les concurrents de Google
• 
≈ 
• 
• 
Yahoo! Search,
Microsoft Live Search / Bing
Les outsiders : Exalead, Ask.com
Les annuaires et moteurs thématiques / régionaux
–  DMOZ
–  Baidu (百度, suit les consignes du ministère de la sécurité publique)
–  Une myriade de "micro" moteurs expérimentaux…
• 
De nouveaux venus ?
–  Mais le « ticket d'entrée » n'est-il pas aujourd'hui devenu énorme ?
Google comme étalon universel
Dans la plupart des pays, le référencement naturel est devenu une « chasse au classement
Google »
Google, les concurrents de demain
•  Des alternatives à la manière d’accéder au web et à la recherche « façon Google »
se développent à travers le « web social ».
–  Facebook, Twitter : les informations « pertinentes » sont proposées par les « amis »,
pas par un moteur de recherche.
–  Le temps passé sur le net est plus centré sur les interactions sociales proposées par
ces services
•  « monétiser le réseau social » vs. respect de la vie privée
–  Google : Gmail + Google agenda + mémorisation des recherches sous IP pendant plusieurs mois)
–  Facebook : les informations du profil, photos etc … sont cédées à Facebook (cf. le contrat
d’utilisation)
La fréquentation d’un site
Les trois piliers du trafic
Autres manières de capter du trafic
Les trois piliers du trafic 1. Les accès directs
•  Ceux qui mettent en marque-page votre site et y reviennent directement
–  Votre site fourni une réponse à leur besoin !
•  Que faut-il analyser ?
–  Qui revient, selon quelle fréquence, quelles pages, quel CTA…
–  But : comprendre qui sont ces « visiteurs fidèles »
2. Les moteurs de recherche
•  Ce référencement naturel … est le but de cette formation
–  Votre site est bien référencé ?
•  Que faut-il analyser ?
–  Quels mots clés, taux de rebond, quelle fidélisation ensuite, première visite ?
–  taux de transformation = apport réel à l’objectif du site (cliquer sur des annonces, partager,
contribuer…)
3. Netlinking : Les sites référents
•  Ces sites vous recommandent …
–  Ou vous détestent, mais le résultat est le même…
–  Lien fort avec le ranking de votre site
–  Il peut aussi s’agir des liens sponsorisés que vous achetez… (SEA).
•  Que faut-il analyser ?
–  Ranking et autres liens de la page qui vous « link »
–  Raison de la citation, mots-clés des liens, conversion apportée…
Autres manières de capter du trafic
Elles sont multiples..
•  Campagnes Email
•  Affiliation
–  Afficher des produits en échange d'une commission sur les ventes
•  Cadeaux à des bloggeurs influents
•  Comparateur / Comparison Engine
•  Nouveaux vecteurs = réseaux sociaux, community management
– 
– 
– 
– 
– 
Facebook
Twitter
LinkedIn
YouTube
…
Comment se comporte un moteur de recherche
PageRank
Page Rank (PR)
Google utilise, dans son algorithme de pertinence, la notion de "PageRank" (nommé "PR"
par les experts du domaine), pour mesurer la "popularité" d'un site web. Un PageRank est
toujours associé à une page web (pas à un site).
Ce "PageRank", dont la barre d'outils de Google fournit une indication notée de 0 à 10, est
calculé à deux niveaux (quantitatif et qualitatif) à partir du nombre de liens pointant sur une
page web.
Dans un premier temps, l'aspect quantitatif est pris en compte. Plus il y a, dans l'index de
Google, de pages contenant un lien hypertexte vers un document donné, plus la
"popularité de premier niveau" de ce dernier sera considérée comme élevée.
Dans un second temps, la qualité de chacune de ces pages pointant vers vous est prise en
compte. Plus la page B pointant vers la page A a un PR élevé, plus le PR de A augmente.
Donc un lien émanant d'une page "populaire" a plus de poids qu'un lien émanant d'une
page isolée, peu populaire car peu pointée par ses pairs.
Pour obtenir un bon PR (condition importante pour être bien classé sur Google), il faut
donc que des pages émanant de sites dits "populaires" (à fort PR) aient mis en place des
liens vers votre site, et notamment sa page d'accueil.
Son Algorithme ? UN SECRET bien GARDE !
–  Ces facteurs sont très nombreux (plus de 200 d'après
Google).
–  Leur nature et leur pondération sont secrets pour limiter
les chances de manipulations (et la concurrence des autres
moteurs de recherche).
–  Le terme "PageRank" est une marque déposée et a été
l’objet de brevets. Le brevet appartient à Stanford
University et Google en a l’usage exclusif, mais
l’algorithme a beaucoup évolué depuis le dépôt en 98.
–  Beaucoup de spéculations sur ce sujet, voyons
quelques-uns des paramètres connus…
Quelques-uns des 200 paramètres du calcul du
ranking
Sur la page (« onpage »)
–  Ancienneté / Fréquence d’actualisation
–  Texte = visible sur la page / Code = Meta tags = non visibles sur la page
Sur le site (« onsite »)
–  Lien internes, arborescence, fil d’ariane (« Breadcrumbs »)
–  Paramétrage sur Google outils pour les webmasters (Sitemap..)
Hors du site (« offsite »)
–  Liens entrants en (petite) partie visibles via une recherche Google link:http://fr.wikipedia.org
• 
• 
Leur PageRank,
Âge, Social bookmaking, tweets…
Un débat : Google utilise t-il les données qu’il stocke sur le comportement des
internautes pour le calcul du PageRank ?
•  Temps passé sur le site, statistiques renvoyées par la barre d’outil google, citations
d’URL dans Gmail, requêtes avec l’URL du site, marque-pages Google, âge/sexe/
localisation des internautes, leurs recherches précédentes …. les licences de ces
services précisent souvent que non..
Web Analytics & Webmasters tools
Analytics pour faire quoi exactement ?
ü 
ü 
ü 
ü 
ü 
Suivre la provenance des visiteurs
Améliorer la conception et le contenu du site
Optimiser les campagnes marketing
Comparer les indicateurs / benchmarking
Alertes automatiques / personnalisées
Mais aussi répondre à certaines questions :
•  Quels mots clés attirent les visiteurs qui passent le plus de temps sur mon site ?
•  Quelle variante de l’annonce a déclenché le plus de clics entrants ?
•  Page de destination la plus visitée ?
•  Abandons : Quels éléments poussent les visiteurs à abandonner leur navigation ?
•  Y-a-t-il un problème technique sur mon site ?
Webmasters Tools
Permet de suivre
ü  L’indexation de son site
ü  Soumettre une sitemap
ü  Connaître la dernière date de passage du googlebot
ü  Liste des erreurs, liens morts etc.. détectés par le robot
ü  Positionnement du site sur les 10 principaux mots-clés/expressions-clés
ü  Impressions = nombre de recherche où la SERP affiche le site
ü  Clic = nombre de clics amenant au site
ü  Liste des sites donnant des backlinks
ü  Plus exhaustive qu’une recherche link:http://monsite.com
ü  Autres outils utiles
ü  Google guidelines liste de bonnes pratiques conseillées.
ü  Yahoo! Site Explorer est analogue à GWT
Optimisation du référencement
Optimisation OnPage
Deux variantes :
1.  Texte : visible sur la page
2.  Code : non visible sur la page
Optimisation OnPage : choix du titre de la page
Le titre est : formation webmarketing namur
–  L’« image de marque » qui apparaît sur le snipet de la page de résultats de recherche.
• 
• 
C’est le texte du lien,
Le reste de la description étant le meta tag meta name="description" .. ou sinon les premiers mots de la page, sa date..
–  Le mot-clé le plus fort pour le robot indexeur
Entre 7 et 10 mots
–  Éviter les termes « tarte à la crème » ( "page", "bienvenue"…)
–  Un titre propre à chaque page
Le titre doit reprendre les mots clés importants
–  Il donne un résumé de la page (éviter les pages multi thèmes)
–  De plus en plus détaillé quand on descend dans l’arborescence du site
Optimisation OnPage : rédaction du texte
Voir le chapitre sur les mots-clés / formation Ecriture Web
Le cloaking (texte caché visible pour le robot indexeur, mais invisible par le lecteur) a
suscité beaucoup de tentatives pour leurrer les moteurs de recherche
–  Techniques : Meta tags, identification des images, texte blanc sur fond blanc, caché derrière une
image, balise <div>, noframes, noscript, display:none ..
ü  Les robots détectent de plus en plus les données cachées,
ü  Ils baissent le TrustRank* des pages
* Algorithme visant à combattre les pages internet de spam
Optimisation OnPage : le code - Meta Tags
Meta = des “données sur les données”
<HEAD>
<TITLE>titre de la page</TITLE>
<META name="description" content="description du contenu, snipet">
<META name="keywords" content="mots clés séparés par des espaces">
</HEAD>
Balise des images
<IMG SRC="url_de_l_image"
ALT="Texte remplaçant l'image si elle ne s’affiche pas =mot-clé pour google Images"
TITLE="Texte à afficher, =mot-clé pour google Image">
<meta name="robots" content="valeurs">
all : Le robot indexe tout (= défaut)
none : Le robot n'indexe rien du tout
noindex : Votre page n'est pas indexée mais les liens sont suivis
nofollow pour toute une page ou comme attribut de lien : voir diapo suivante
rel="nofollow"
Permet au webmasters de spécifier que ce lien ne doit pas compter dans le PageRank
Balise inventée en 2005, notamment par un "responsable antispam" de Google
Les autres moteurs de recherche se sont ralliés au système
Prévient le spamdexing, notamment pour les sites :
•  Ouverts aux commentaires
•  Forums de discussion, commentaires de blogs
•  De crowdsourcing
•  Wikis…
Optimisation “Onsite”
•  Règle des "3C" :
–  Contenu
–  Code
–  Conception,
Optimisation “Onsite” : structure du site
Ergonomie = Facilité de lecture du site pour un internaute
•  Plan du site
•  Navigation
Breadcrumbs Belgique > Province de Namur > Sombreffe > Ligny
Facilité de lecture du site pour un indexeur
•  Fonction "Analyser comme Googlebot"
Intérêt des CMS pour mettre à jour la structure
•  Wordpress, Joomla, Magento…
Optimisation “Onsite” : fichiers spéciaux
Robots.txt
–  Spécifie aux robots indexeurs le comportement qu’il doivent adopter
•  Indexer ou pas, suivre les liens etc..
Sitemap.xml
–  Cartes sémantisée des pages du site à visiter
<loc>http://www.example.com/?id=what</loc>
<lastmod>2009-09-22</lastmod>
<changefreq>monthly</changefreq>
<priority>0.5</priority>
Fichier d’identification
–  Pour valider par Google qu’on est bien le responsable d’un site.
Optimisation “Onsite” : Choix techniques
Réécriture d'URL
–  http://www.discounteo.com/tv-video/televiseur/tv-lcd
Cas du Flash
–  Désormais indexé par Google dans certains cas.
Cas des sites dynamiques
–  Facteurs pénalisants et de leurs solutions (frames, formulaires, AJAX, JavaScript, sessions,
contenus dupliqués, etc.)
« Le contenu c’est ce qui compte avant tout »
Contenu = le texte visible par le lecteur, mais aussi les médias (images, vidéo), la
facilité de navigation, l’ergonomie/affordance, l’interactivité, au global l’expérience du
site..
Symptômes d’une faiblesse de contenu :
• 
• 
• 
• 
Taux de rebond = les internautes ne restent pas sur le site
% élevé de nouveaux visiteurs = pas de retour
Peu d’entrées directes (pas de mémorisation du site en marque-pages)
…
Optimisation “Offsite” / Netlinking
Content is King
Links are Queen
Optimisation “Offsite” : backlinks
Les liens vers votre site sont le facteur le plus
important du référencement naturel
•  Sauf via des sites de spam, de TrustRank
faible…
Ces liens sont plus efficaces s’ils viennent de
sites
•  Couvrant le même domaine
•  À fort PageRank
Échange de liens
•  Plus efficace s'ils ne sont pas directement
réciproques (complaisance)
Optimisation “Offsite” : efficacité des liens
Les mots-clés dans les liens sont plus ou moins pondérés
Moins efficace :
•  Cours de référencement <a href=“article1783.html”>ici</a>.
Efficace :
•  On y propose un <a href=“article1783.html”> cours de référencement </a>.
Encore plus efficace :
•  On y parle de <a href=“cours-referencement.html” title=“cours de référencement
”> cours de référencement </a>.
Optimisation “Offsite” : netlinking
Rechercher des partenaires pour augmenter le ranking du site.
•  Cet aspect prend de plus en plus d’importance, la gestion des
partenariats est un élément clé pour ce poste.
•  Les fonctions du référenceur s’approchent ici de celles de community
manager.
Types de liens :
•  liens de ressources : pointent vers des ressources utiles
•  Liens réciproques : le site A pointe vers B, qui pointe vers A en
échange. Des annuaires d’échanges de liens peuvent aider à la mise
en contact.
•  Spam de liens : Un robot insère des commentaires dans les site web
2.0 pour augmenter le PageRank d’un site (blogs, wikis..). Stratégie
neutralisée par les balises nofollow.
•  Liens internes : toutes les pages du site affichent un lien vers la page
principale.
Les annuaires
•  Un référencement dans un bon annuaire compte
plus qu'une myriades de pages mineures.
•  Yahoo directory
•  DMOZ
–  Obstacles:
•  Difficile de se faire accepter
–  Gérés par des opérateurs humains, souvent des volontaires (DMOZ)
–  Formulaires complexes, délais …
•  Attention aux faux annuaires / spamdexing
La déclaration aux moteurs de recherche
•  Ajouter l'URL de votre site à Google
–  Seule la page de premier niveau d'un site est à soumettre (« to
submit »)
–  Il n'est pas nécessaire d'indiquer les liens mis à jour ou obsolètes.
Les liens désactivés disparaissent au cours de l'exploration
suivante
–  Voir aussi dans le chapitre "outils"
•  … Google webmasters tools.
Référencement et réseaux sociaux
Synthèse : White Hat ou Black Hat ?
White Hat : Contenu de
qualité, site agréable et pertinent
pour l'utilisateur
§  Optimisation des mots-clés
raisonnable
§  Stratégie de netlinking
honnête (=non rémunérée)
§  Ne pas exiger de résultats
immédiats (effet sandbox)
§  Rien à cacher
Black Hat : Manipuler les moteurs de
recherche… au risque du bannissement des
résultats de recherche
§  Occultage (transmettre une page différente
au moteur de recherche et au visiteur)
§  Texte caché (Cloaking)
§  Répéter abusivement un mot-clé,
mots-clés sans rapport avec le
contenu réel (Keyword stuffing)
§  Pages en double / contenu copiécollé d’autres sites (Scraper site)
§  Achat abusifs de noms de domaine
(Cybersquatting, Domain spam)
Rien qui cherche à tromper
l’internaute ou les moteurs
de recherche
§  Globalement, le spamdexing
Trouver et optimiser les mots clés
L’audit de mots-clés, pourquoi ?
§  Pas de SEO possible sans un travail fin sur les mots-clés
– 
Le ranking n’a aucun sens dans l’absolu
Seul compte le résultat d’une recherche sur les mots-clés entrés par les personnes
auxquelles le site s’adresse.
– 
– 
Attirer n’importe quel trafic ne sert à rien dans 95% des cas
»  coût de la bande passante
»  fort taux de rebond = internautes déçus
»  voire sanction ..
Le design/audit/veille de mots-clé permet de repenser/recadrer un site
§  Objectif de l’audit de mots-clés - la sélection de mots ou groupes de mots selon
deux considérations :
1. 
2. 
L’adéquation aux objectifs du site (peu de conversion)
La concurrence
– 
est-il réellement possible de conquérir une bonne place sur ce mot-clé ?
Un préalable : fixer l’objectif
Qu’est-ce qui est attendu du site ?
–  Plus de visiteurs ?
–  Plus de visiteurs certes, mais que vont ils faire?
• 
Trois visites avant une inscription à la newsletter, chacune avec des besoins
différentes..
–  Une certaine réputation / image de marque ?
–  Positionnement sur des catégories de visiteurs spécifiques ?
–  Un visiteur « branché » n’utilisera pas les mêmes mots-clés, que les jeunes, les
seniors etc…
–  Plus de visites ?
• 
Viser des mots-clés à fort trafic et faible concurrence
Dans la tête .. du visiteur qui recherche ce que
vous proposez
Étapes :
1.  Quelles questions l’internaute se pose t-il ?
2.  .. Et donc : quelles recherches tape-t-il ?
3.  Compiler les mots et phrases-clés correspondantes,
chercher les variantes, le nombre de recherches …
4.  Les prioriser et les trier.
Outils de recherche de mots-clés
•  Dictionnaire des synonymes (ou maj-F7 sous MS Office)
•  Sites spécialisés Google
–  Trends
•  http://www.google.com/trends
•  Voir ci-après
–  Générateur de mots clés :
•  récupérer un fichier csv avec des idées de mots-clés avec le Google
Adwords Keyword Tool
•  https://adwords.google.com/select/KeywordToolExternal
Étude des prix des enchères pour l’achat de mots-clés
•  Microsoft’s adCenter Labs keyword forecast
•  http://adlab.msn.com/Keyword-Forecast/
Nombre de mots clés saisis sur les moteurs
de recherche
•  1 seul mot : 13 %
–  (donc requête contenant plus d’un mot : 87% : = 6 fois plus)
– 
– 
– 
– 
2 mots : 28 %
3 mots : 27%
de 3 à 5 mots : 52 %
de 4 à 10 mots : 31 %
(source : rankstat.com, chiffres arrondis)
La longue traîne
•  …. et la longue traîne (Long Tail)
•  La plupart des recherches des internautes accédant
au site vient :
• 
• 
• 
• 
Des combinaisons et permutations de mots-clés
De mots-clés qui sont dans le texte, mais paraissaient peu importants
De variantes (pluriel, fautes d’orthographe, coquilles…)
Pour une variante, le trafic est faible, mais la quantité de combinaisons est
telle qu’elle pèse aussi lourd que les mots-clés « star ».
Rédaction et placement efficace des mots-clés
•  Typographie
–  <h1 class=“header”>titre avec mots-clés importants</h1>, idem h2, h3…
–  Ou en <b> gras </b> …
•  Mots-clés importants en tête de page... et de phrase
–  Moins efficace : “de nombreux domaines sont concernés (bla bla bla bla bla bla bla bla)
par la gestion de projet.”
–  Plus efficace : “la gestion de projet comprend de nombreux domaines, dont…”
•  Répéter sans abuser, mais quand même …
–  Efficace : “la gestion de projet a évolué depuis 1970. Les outils de gestion de projet
sont notamment…”
•  Mettre les mots-clés liés à proximité les uns des autres
–  Moins efficace : “la gestion est un point majeur des projets”
–  Plus efficace : ““la gestion de projet est un point majeur ”
•  Mettre les mots-clés dans le nom du site
–  Plus efficace : http://gestiondeprojet.com
Rédaction : Content is King
•  Il faut avant tout un bon contenu
–  Informations
–  Services (via le mashup, et actualités/recherche personnalisée, alertes,…)
–  Liens vers des ressources..
•  Economie de l’attention
–  Marchés web où l’offre est abondante (dévalorisée) et la ressource rare
devient le temps et l’attention
–  les consommateurs de contenu acceptent de donner leur attention en échange
de services
Conclusion
Méthodologie & quel avenir pour le SEO ?
Stratégies de référencement
Une méthodologie en 4 temps
1.  Audit
•  Évaluer les sites concurrents, élaborer une stratégie, examiner les motsclés, trouver sa valeur ajoutée
2.  Conception
•  Développer le site, l’optimiser
3.  Référencement
•  Soumission, netlinking…
4.  Optimisation / Suivi
•  Un processus continu de web analytics, de mise à jour et d’amélioration
Les huit commandements du SEO
•  Le ranking n’est pas une fin en soi, il faut savoir
précisément ce que l’on souhaite en faire
•  Connaître et surveiller ses concurrents
•  Concevoir ses pages et son site avec soin « dans la
peau d’un robot indexeur » : mots-clés, titres etc…
•  … mais se rappeler que « content is king »
•  Links are queen : établir une politique de liens
•  Embaucher des experts.. ou travailler dur
•  Pas de résultats garantis ou stables : un suivi
permanent
•  Ne pas dépenser tout son temps/budget à concevoir un
site, il faut des ressources pour le référencement et
le suivi
Qu’est-ce que la réussite ?
On a réussit lorsque :
1.  Les gens viennent sur le site (Référencement, netlinking …).
2.  Restent pour le consulter (Taux de rebond)
3.  Agissent de la manière attendue = conversion
Taux de conversion =
–  taux de conversion online = inscription, abonnement à une newsletter,
téléchargement…
–  … + taux de conversion offline = recherche de votre asbl, appels téléphoniques,
fréquentation d’un événement…
4.  Sont fidélisés = Mettent l'adresse du site dans leurs favoris, reviennent, s’abonnent
(Mise à jour de l'information, pull/push, RSS...).
5.  Le recommandent à leurs connaissances (Social bookmarking, marketing viral...).
Le facteur principal de promotion d'un site est son utilité, son contenu, content is King
Le référencement est donc nécessaire mais pas suffisant.
Mais aussi…
• 
• 
• 
• 
Internet mobile, géolocalisation
Image search optimization, recherche de vidéos
Social media optimization, marketing viral sur Facebook
Google Authorship
Ranking is dead
Thèse de Bruce Clay en 2008, à propos des SERP de plus en
plus adaptées à l’internaute.
Passage d’une algorithmique générale => personnalisée
•  Quelle localisation ? Quelle heure…
•  Quels amis ? Quels objets connectés à proximité ?
•  Quel comportement : historique de recherche, de consultations,
trajectoire ..
•  …
Applications très larges la télévision du futur n’a pas
de « chaines », mais des « envies »
Quelques liens
A visiter…
http://www.abondance.com
https://www.google.com/webmasters/tools/home?hl=fr
www.webmarketing-com.com
http://woorank.com/
http://www.webrankinfo.com/
n
eure
d
n
a
V
Yves
ltant
u
s
n
o
ing C uren.be
t
e
k
r
ande
al Ma
.be
Digit : http://Yv bequiet 8
Web il : Yves@ 5 20 39 6 n
e
Ma +32 49
deur
n
:
a
v
e
/in/y
hon
Té l é p i n k e d i n :
L

Documents pareils

mots-clés

mots-clés Le fichier robots.txt doit être placé obligatoirement à la racine de votre site ; sinon les orbots ne le découvreront pas et ne suivront pas ses règles et paramètres. Par ailleurs, le fichier doit ...

Plus en détail