03 janvier 2010

Bonne Année 2010 !

Le Référenceur Nantais vous adresse tous ses vœux de prospérité pour cette nouvelle année ! Et ce blog du référencement qualitatif vous livre au passage quelques conseils pétris de sagesse et de bon sens pour bien réussir votre référencement organique en 2010 :

Le contenu reste ROI : même avec tous les widgets du monde et le dernier design à la mode, les visiteurs ne reviendront pas sur votre site si son contenu sonne creux,

Pensez multi-diffusion : vérifiez la compatibilité inter-plateforme/navigateurs et l'accessibilité de vos sites. De plus en plus d'internautes passent par leur Iphone (et autres smartphones : Blackberry, Galaxy...), leur console de jeux, leur PC ultra-portable, etc : optimisez vos formats et le temps de chargement de vos pages !

Travaillez et re-travaillez l'ergonomie de vos contenus. La compétition est rude. Votre message doit être clair, ciblé, et votre contenu doit être repérable rapidement. 2010 sera l'année de l'experience utilisateur (user experience).

Utilisez des outils adaptés à vos besoins : frameworks, CMS, blogs, forums, newsgroups... Optez toujours pour des plateformes et des logiciels éprouvés. Faites-vous conseiller : ne perdez pas trop de temps à développer ce qui a déjà été fait, mais ne vous jetez pas non plus sur la première solution open source que vous croisez. Analysez vos besoins. Comparez les solutions. Réfléchissez !

Que cette année vous apporte la sérénité !

05 novembre 2009

Réussir son référencement avec le CMS E-Majine de Medialibs

Le CMS E-Majine de l'éditeur Medialibs propose depuis longtemps de très nombreux outils pour optimiser le référencement naturel de son site web administrable.

Régulièrement sont ajoutées de nouvelles fonctionnalités ou des améliorations sont appliquées aux modules déjà présents.

à l'heure où tous les CMS s'adaptent à la demande du marché, voici un rapide tour d'horizon des bonnes pratiques pour un référencement naturel optimal !

L'onglet "référencement" est présent dans la licence de base d'E-Majine. Il s'articule autour de deux onglets : "référencement global" et "référencement par rubrique". Nous verrons dans ce billet la partie concernant ce référencement global, c'est à dire appliqué par défaut à toutes les rubriques pour lesquelles un autre paramétrage ou d'autres mots-clé n'auront pas été définis.

Le premier permet de spécifier le titre du site, les séparateurs de titre, les balises meta description, mots-clé, ainsi que moultes autres balises (Dublin Core, Robots, ICRA, etc) tout en vous donnant la possibilité de créer les vôtres.

Il vous permet ensuite de définir le fichier robots.txt, de générer automatiquement et d'éditer le fichier sitemaps.xml (en fait compressé), de définir le nom de domaine par défaut, éventuellement les noms de domaine par langues, puis de définir le comportement en cas de pages non trouvées (en-têtes http 404 ou re-direction permanente, lien vers plan du site ou vers page d'erreur, etc).

Tout cela est quasiment la norme aujourd'hui. Voyons maintenant ce que propose E-Majine en plus (sous réserve d'avoir activé les modules correspondants):

Génération d'un lien automatique vers la page courante depuis les titres de niveau 1 (lorsque présent dans le contenu);

Remontée automatique du titre et de la description des éléments publiés suivants :

Articles (de quelques natures qu'ils soient : en bloc, libre, préformaté), actualités, évènements, billets de blog, forum.

Le plus intéressant concerne les modules possédant une arborescence propre, comme le catalogue, l'annuaire, les petites annonces... car il est alors possible de faire remonter le(s) critère(s) de son choix dans l'URL de la page courante, le titre, la description, ainsi que les mots-clé !

Ces paramètres vous permettent donc de rendre "unique" chaque page de votre site, et de sélectionner pour les modules avec rubriquage les termes que vous souhaitez mettre en avant, le tout de façon automatisée.

Pour finir sur l'onglet référencement global, un formulaire vous permet de soumettre votre site afin qu'il soit intégré dans l'annuaire de références des solutions Medialibs, afin de faire bénéficier vos sites du bon positionnement des pages "références" de l'éditeur :

Pour les sites propulsés par E-Majine :

http://www.medialibs.com/medialibs/exemples/references-e-majine/

et pour les sites propulsés par Izi-Media :

http://www.medialibs.com/medialibs/exemples/references-izi-media/

Nous verrons dans un second temps l'onglet "référencement par rubrique".

16 octobre 2009

Intégration xHTML/CSS pour Internet Explorer 6

Une traduction de l'anglais vers le français d'un article récapitulant de façon exhaustive les bogues d'Internet Explorer 6 de Microsoft liés à l'intégration xHTML/CSS.

Un billet long mais intéressant qui permet finalement d'éviter pas mal de problèmes d'intégration graphique pour les autres navigateurs, et qui peut donc être classé dans la catégorie "bonnes pratiques".

http://blogs.medialibs.com/yf.php/post/2009/09/16/Comment-corriger-plus-de-25-bogues-dInternet-Explorer-6

04 septembre 2009

Recrutement chez l'éditeur de logiciel Medialibs : 3 postes à pourvoir

Medialibs, éditeur de solutions en ligne (logiciels de création de sites administrables avec e-commerce, annuaire, petites annonces, forums, blogs, etc) recrute !

* Un(e) Commercial(e) Sédentaire
* Un(e) Conseiller(ère) Technique / Formateur(rice)
* Un(e) Développeur(se) Web

Consultez tous les détails en ligne sur :

http://www.medialibs.com/medialibs/recrutement/annonces/

07 juillet 2009

Le microcosme des moteurs de recherche toujours vivant

Bing ! remplaçant Live Search de Microsoft, et récemment Exalead proposant une bétâ de la nouvelle mouture de son moteur à la zapette magique...

Le (cocorico !) français Exalead ne s'endort pas sur ses lauriers. Loin du buzz et des annonces coup de poing de révolution, il s'installe à la force de ses innovations dans le paysage francophone. Et il continue sans cesse d'évoluer.

Essayez-le !

http://www.exalead.fr

02 avril 2009

CMS, E-Majine et Izi-Media au Quebec

Medialibs à Montreal ! Des sites internet administrables avec E-Majine et Izi-Media en Amérique du Nord...

18 mars 2009

Critères et coefficients pris en compte par Google pour référencer un document web : encore du bruit...

Incroyable de constater que le bruit ne cessera jamais autour des "mythes" concernant le fonctionnement des algorithmes utilisés par les moteurs de recherche...

J'en veux pour preuve cet article plein de bonne foi puisqu'on nous parle de "source sûre" :

http://www.jarodxxx.com/index.php?post/2009/03/15/Optimisation-de-referencement-google%2C-notation-de-chaque-balise

et qui mentionne, je cite, l'ordre d'importance accordé par Google pour chacune d'elles ? (les balises HTML).

L'article présente des coefficients d'importance attribuée par le célèbre moteur de recherche aux balises les plus connues, ainsi que d'autres critères (liens entrants, age du site, fréquence des mises à jour...) dont la plupart semblent "logiques" (la sémantique, c'est pas pour les toutous, les serveurs donnent la date de création/modification de chaque fichier demandé, brevets déposés par Google pour connaître l'âge d'un nom de domaine et accorder un coefficient relatif au site crawlé, etc)

Mais pour le reste, c'est ... intriguant.

Passons sous silence la fameuse balise "H7" qui est mentionnée par la source sûre, le reste est moins frappant mais tout aussi sujet à caution :

Précision de la grammaire et orthographe : 1.8 / 5

Validation du document au W3C : 1.4 / 5

Performance historique du site tel que mesuré par le temps passé sur la page, les taux de clics de SERPS, les visites directes, Signets, etc ... 2.8 / 5

Vérification du site via webmaster central : 1.3 / 5

Le meilleur coefficient étant à mon avis celui-ci :

Qualité du contenu du document : 3 / 5

Certes, une pondération doit être effectuée sur l'ensemble de ces critères, et document par document, mais quand même...

Certes, les critères listés dans l'article en question ne sont pas absurdes ou dénués d'intérêt, enfin je souhaiterais que la qualité d'une page soit aussi bien valorisée, mais il est dommage de ne pas présenter plus d'indications, ni de pondérer ces données qui sont présentées comme faisant autorité.

De là à penser que ce document sert à valoriser le travail d'une agence de référencement lors du rendez-vous commercial avec un prospect, il n'y a qu'un pas ;-)



06 janvier 2009

Meilleurs voeux et bons positionnements pour 2009 !

Le référenceur nantais vous souhaite une excellente cuvée 2009, charnue, pleine de liens entrants pertinents et de visites transformées ;-)

Que cette année voit s'allonger un peu plus la traîne de vos "long tail" alimentée par vos contenus toujours plus riches et commentés.

11 septembre 2008

Le référencement naturel toujours au coeur du SEM

Le 5 septembre 2008 s'est tenue à Saint-Florent-le-vieil (dans le Maine et Loire, à 45 minutes de Nantes et 35 d'Angers) la Convention d'Ete de Medialibs, éditeur des solutions de publication et de gestion de contenus pour l'Internet E-Majine et Izi-Media. (Medialibs propose aussi des développements Open Source basés sur Typo3, mais c'est une autre histoire...)

Durant la matinée, dont le thème était "L'avenir du web", les différents conférenciers ont pu exposer leurs visions critiques sur leurs domaines d'excellence : l'infogérance et les réseaux, le référencement naturel, le webmarketing, les RIA et RDA...

A l'occasion de sa présentation qui a fait mouche auprès des agences de communications partenaires de Medialibs, Sébastien Billard a recentré le débat sur les bonnes pratiques du référencement organique en 2008.

Retrouvez sur le blog du site Relevant Traffic les liens relatifs à cette présentation "Le référencement en 2008 : état des lieux et perspectives" et au diaporama en libre consultation.

02 mai 2008

Billet complet sur a réécriture d'URL (URL rewriting)

Etat de l'art de la ré-écriture URL des principaux blogs, frameworks, et CMS, Open Source ou propriétaires...

30 mars 2008

Mode d'emploi du fichier Sitemap

Voici un billet qui reprend de façon complète les informations disponibles à propos du fichier sitemap destiné à être lu par les robots des moteurs de recherche afin d'améliorer l'indexation de pages web au sein de leurs bases.

05 décembre 2007

Le blog DMOZ

S'ouvrir au monde et faire connaître l'annuaire DMOZ au travers de billets sur les retours d'expérience d'éditeurs bénévoles du plus grand annuaire édité par de vrais gens, voilà en résumé le crédo du blog officiel de l'ODP lancé fin Septembre 2007.

Et ce n'est pas un mal, puisque malgré le fait que toutes les ressources liées à l'annuaire soient déjà en ligne, et ce depuis longtemps, en ces temps de récession de l'attention il est utile d'asséner encore et encore les vertus et les mécanismes de l'outil de recherche : comment soumettre son site, comment devenir éditeur bénévole, comment fonctionne l'ODP, à quoi cela sert-il ? etc

Toute action de communication autour de l'annuaire DMOZ est utile selon moi, et j'en fais presque systématiquement echo sur ce site, pour une raison des plus simples :

Il est relativement facile de tromper les robots des engins de recherche, il est beaucoup moins facile de duper des éditeurs humains.

A noter qu'un blog des éditeurs francophones (Association des éditeurs francophones de Dmoz - Open Directory) existe depuis longtemps :

http://www.aef-dmoz.org/blog/

Longue vie aux blogs DMOZ !

05 novembre 2007

Postes à pourvoir : formateur et intégrateur web

Medialibs (éditeur de solutions logicielles de publication pour internet) recrute actuellement plusieurs types de profils pour compléter son équipe. D'une part un formateur/une formatrice, d'autre part un intégrateur/une intégratrice internet. Tous deux spécialisés xHTML/CSS 2.

Les pré-requis sont une solide culture web (historique, protocoles, standards, logiciels...) et une capacité à coder à la main avec un simple éditeur de texte. Expérience d'outils CMS ainsi que de la conduite de projets web un plus. Déplacements dans toute la france pour le poste de formateur.

Postes à pourvoir de suite dans le département de Maine et Loire (49), à 60 kilomètres de Nantes et 30 d'Angers.

Tous les détails en ligne sur le site de la société Medialibs.

01 novembre 2007

Les besoins des entreprises en référencement

J'ai l'occasion de vérifier régulièrement la pression que subissent la plupart des agences web lorsqu'il s'agit de proposer des sites optimisés pour le référencement à leurs clients.

En effet, en tant que formateur sur une solution logicielle de type CMS développée par la société Médialibs, je cotoie développeurs, intégrateurs, graphistes et chefs de projet web pour lesquels certains termes comme "référencement", "optimisation", "positionnement web" forment une ritournelle qui flotte de plus en plus à leurs oreilles.

Et j'en suis fort aise, puisque la solution e-majine permet de conçevoir des sites internet administrables optimisés pour le référencement, c'est à dire comportant des modules génériques ou spécifiques aux rubriques pour les noms de page, titres, description, mots-clés mais également contenus alternatifs aux images et autres objets de type flash et ré-écriture d'URL... Tout cela nativement, sans plug-in à installer. La génération et l'intégration des fichiers robots.txt et du sitemap (en cours) est également proposée. D'autres modules sont également à l'étude.

Enfin, le tout est servi en XHTML strict valide, et les gabarits ont massivement recours aux CSS2 pour l'optimisation du poids des pages.

De quoi ravir et rassurer les agences de communication qui cherchent une solution complète (et simple d'utilisation) de publication web ;-)

E-majine pour concevoir et administrer vos sites web (e-commerce, annuaires, fora, newsletters...)

Izi-Media pour créér et gérer en mode WYSIWYG vos sites de quelques pages.

http://www.medialibs.com

04 septembre 2007

ODP au coeur du web et des annuaires

L'Open Directory Project / DMOZ : quelques catégories presque au hasard :

Emploi Intérim et freelance indépendant en France

Marketing et publicité

Création de site internet en Loire-Atlantique

Lorsqu'il s'agit de bien référencer vos sites de qualité, commencez par l'ODP !

21 août 2007

Web 2.0 (et plus), mascarade identitaire ?

Faisant fi de toutes les définitions qui peuvent tenter de décrire le "phénomène" web 2.0, je retiens principalement le fait que ce terme englobe les notions de communication participative, collaborative, communautaire.

Le web 2.0, finalement, c'est une immense agora, un lieu d'échange au sein duquel tout le monde donne son avis sur tout.

Mais au sein de ce brouhaha demeure la question essentielle d'identifier clairement son ou ses interlocuteurs, ce qui est depuis le début du cyberspace le propre du virtuel : n'importe qui peut avancer masqué. Il est très facile de se forger une adresse email, de brouiller les pistes de son lieu de connexion en passant par des relais (serveurs proxy), tout comme nicher un logiciel espion au sein d'un programme inoffensif afin de recueillir des données sensibles comme vos mots de passe.

Il convient donc d'être attentif, vigilant, et de ne pas divulguer des informations personnelles sur le réseau. Internet permet de recouper rapidement et sans frais des parcelles de vie des individus, et d'en extraire une vision globale. Un peu comme si un detective privé se garait non loin de votre domicile pour noter vos allées et venues, identifier vos connaissances, vos parents et proches, dresser un portrait de vos habitudes. Sauf que c'est plus facile et moins contraignant via Internet. Dans quel but ? Cibler des groupes de consommateurs ? Usurper une identité ? Assembler des panels à des fins statistiques, et qui seront revendus ?

Quoiqu'il en soit, l'anonymat est en baisse sur Internet. Les fournisseurs d'accès se doivent, lorsque mandatés, de fournir les données de connexions des internautes soupçonnés de fraude (téléchargement illégal de musique ou vidéos par exemple). Tout comme les serveurs relais, qui doivent stocker également ces données. Tout comme de nouvelles solutions quant à la signature des courriers electroniques (après PGP et consorts) permettant d'authentifier l'expediteur sont en cours de réalisation. Parallèlement, certains composants matériels des ordinateurs chez certains constructeurs et assembleurs informatiques sont tatoués. Enfin, les couches logicielles tentent elles-aussi de dresser des cartes de fournisseurs et de réseaux (de sites) "dangereux" et d'en prévenir l'accès, afin de "protéger l'utilisateur".

Bref, certains parlent de contrôle, d'autres de sécurisation, tout dépend du point de vue et des intérêts en jeu.

Mais le principal tournant vient de ce web 2.0 qui, en facilitant l'accès à la publication sur internet via des outils open source comme les blogs, cms et autres plateformes communautaires mises à disposition du public "gracieusement", a engendré un phénomène de société : la mise à disposition d'autrui d'informations personnelles.

Ce qui apparaît comme inoffensif aujourd'hui risque de coûter à bien des personnes impudiques ou trop bavardes.
Mais surtout, comble de l'ironie, Internet apparaît alors comme le Grand Facilitateur pour tous les "internautes professionnels" chargés de collecter des informations personnelles. Et ces même professionels, bien sûr, avancent masqués, ou presque (cf. "La fin de l'anonymat sur Wikipédia", Journal Ouest France, édition du dimanche 19 août 2007, page 4, par Donatien Huet).

Moteurs de recherches spécialisés dans la recherche d'information personnelle :

http://www.trombi.com
http://copainsdavant.linternaute.com
http://www.spock.com
http://www.zoominfo.com
http://www.wink.com

(Y ajouter les moteurs "classiques").

Compléments d'info :

Ouest France Jeudi 9 aout 2007 "Sur Internet, Spock sait tout de vous" par Nicolas Barriquand)

"Social Networks, une cible de choix pour les fraudeurs"

Guide comparatif de différents sites communautaires à l'usage des musiciens

25 juillet 2007

Stratégies de dé-référencement

Poursuivant dans le cheminement de la mascarade identitaire évoquée dans le web 2.0, il apparaît que les intérêts sans cesse croissants d'un bon référencement amènent de nouvelles pratiques (enfin, nouvelles, tout est relatif, disons plutôt "de plus en plus adoptées").

En effet, pour monter dans les classements des pages de résultats des moteurs de recherche sur des mots-clé donnés, il faut, on le sait, optimiser le code des pages de son site (cf. du bon usage des balises, de la sémantique, du code valide et accessible, etc), bien mailler les pages par des liens internes, utiliser un sitemap, bien sûr indexer son site dans les moteurs et annuaires, etc.

Parfois cela ne suffit pas, et/ou parfois cela prend "trop" de temps. Certains ont alors recours aux techniques pas très déontologiques dites "black hat seo" qui consistent à obtenir des résultats en travaillant également sur les sites des autres, de la compétition, des concurrents.

Puisque votre site ne grimpe pas dans les classements, faites descendre les autres !

Je ne vais pas lister ici les techniques à appliquer (chercher "duplicate content" ou "duplication de contenu", "duplication de sitemap", "soumission annuaires blacklistés", etc) mais en exposer une presque drôle tellement elle est culottée.

Certains ne reculent pas devant le fait de téléphoner, sous couvert d'identité plausible (trouvée sur internet), afin de demander aux administrateurs d'annuaires internet de retirer certains sites de leurs pages. Il m'est ainsi arrivé d'avoir un message de la sorte pour un site dont le l'ordinateur du propriétaire, "infecté par un virus", aurait malencontreusement inscrit tout seul un site sur plusieurs annuaires.

Le plus étonnant étant que mon annuaire est entièrement manuel et ne souffre d'aucune automatisation possible car il n'utilise pas de script. A la rigueur, je reçois du spam en vrac, mais pas de soumission de site dûment remplie avec tous les champs correspondant exactement aux libellés, lesquels ne portent pas de noms conventionnels.

On est tenté d'y croire, ou en tous cas de croire à une expliquation moins "avouable" : le site en question va fermer, ou la société concernée commence à faire des envieux, ou le patron ne peux plus répondre à la demande (son site est déjà pas trop mal référencé) , que sais-je encore ?

Mais quand même, pourquoi pas un mail ? Parce que les écrits restent et que ce n'est pas souhaité ?

Le message précise alors que la personne rappellera sous huitaine si le site n'a pas été retiré.
Le ton est limite cordial.

Que faire alors ? Soustraire le site de ses pages ? Mener l'enquête et tenter de vérifier/démasquer l'identité de l'appelant ? Tenter de contacter la personne mentionnée sur le site en question et lui expliquer qu'un tiers, le cas échéant, tente de dé-référencer son site ?

Bref, vous l'aurez compris, de l'intimidation qui fonctionne à tous coups ou presque, car devant l'équation "passer 10 secondes à retirer le site / passer plus de temps à tenter d'en savoir plus", le webmaster a vite fait son choix.

29 mai 2007

Guerre des moteurs de recherche

Longtemps annoncé ici ET là, le moteur MEGAGLOBE fait son apparition en version beta.

http://www.megaglobe.com/fr/?la=fr

Encore de nouveaux classements et positionnements, car encore d'autres bases interrogées, et sûrement d'autres algorithmes et filtres appliqués.

L'internaute est invité à s'inscrire. L'internaute inscrit apprend alors que le moteur rétribue à sa façon la fidelité...

02 mai 2007

L'effervescence du second tour des élections présidentielles 2007

Selon le cercle vicieux ou vertueux (tout est affaire de point de vue) de la mise en abyme de l'actualité politique française depuis plus de 3 mois, c'est à dire au lancement de la campagne politique pour l'élection d'un nouveau chef de l'Etat français, jamais l'information politique faite communication faite marketing (là aussi, l'ordre est variable) n'aura été autant relayée par les médias traditionnels et innovants (technologies de l'information et de la communication), reprise et déclinée sur tous les supports de communication, avec un réseau de relations qui ne serait pas sans piment s'il fallait le quantifier et le qualifier à l'aide, par exemple, de l'algorithme de détermination du Page Rank Google.

Imaginez un instant la transposition aux médias offline et l'incidence sur le online : un lien (une phrase de 10 secondes) du journal télévisé de France 3 télévision citant le blog d'un des candidats à la présidentielle aurait quel poids ?

Le millier de connexions au site cité (en passant par des déperditions et des intermédiaires si l'URL n'a pas été directement nommée, par exemple approximations orthographiques et utilisations de moteurs de recherche) s'ensuivant va logiquement générer à son tour un "lien retour" vers le broadcast du passage télévisé qui sera inséré dans le site (rubrique "on en parle" ou "revue de presse", il s'agit de toujours alimenter l'actualité et le sacro-saint buzz !)

L'excellent site Blogopole.fr (Observatoire pour les Présidentielles) propose une cartographie interactive des sites (sites institutionnels, sites de fans, blogs, sites communautaires, etc) gravitant dans la sphère politique, comme par exemple ce site personnel qui présente le duel Ségolène Royal Nicolas Sarkozy sous un angle pragmatique en reprenant les programmes des candidats point par point, convergences et divergences.