Le Retour à la Terre ouvre le 20 août

Logo du Retour à la TerreIl aura fallu la détermination sans faille de Catherine et la motivation exceptionnelle de son équipe pour maintenir le cap et respecter cette date d’ouverture fixée depuis plusieurs mois en dépit de tous les obstacles que l’on rencontre sur ce type de projet…

Le pari est en passe d’être gagné et son magasin « Le Retour à la Terre » ouvrira ses portes le 20 août.

Cette ouverture imminente nous a conduit à mettre en ligne dès ce week-end le site du Retour à la Terre bien qu’il soit encore en construction.

Pour ce site qui présentera non seulement le magasin mais également notre démarche et nos vergers, j’ai souhaité privilégier la facilité de mise à jour et ai choisi de le « motoriser » avec WordPress que Catherine connaît bien puisque c’est également le moteur de son blog.

Le style a été réalisé par Laurent Henriot et appliqué au site sous forme d’un « thème » WordPress spécifique.

Mangez vos mauvaises herbes

Si la promotion assurée à son insu par la DGCCRF a sorti l’ortie de l’ombre et contribué à réhabiliter cette plante y compris dans ses usages alimentaires, beaucoup d’autres « mauvaises herbes » sont non seulement comestibles mais également délicieuses.

Comme Catherine l’a déjà mentionné, nous consommons régulièrement la consoude qui pousse près de la rivière qui coule en bas de notre verger et ce week-end j’ai essayé de consommer d’autres plantes sauvages qui se sont révélées tout aussi délicieuses.

Il existe beaucoup de livres consacrés aux plantes sauvages comestibles ou aux légumes oubliés (beaucoup de nos mauvaises herbes sont en effet des légumes anciens passés de mode) et nous en avons plusieurs dans notre bibliothèque mais j’ai préféré me munir de l’encyclopédie des plantes bio-indicatrices de Gérard Ducerf que je n’avais encore jamais utilisée de cette façon.

J’ai suivi en septembre 2007 la formation de Gérard Ducerf sur les plantes bio-indicatrices organisée par le GRAB-HN et n’ai pas manqué d’utiliser ce guide pour évaluer les terrains que nous avons eu l’occasion de visiter mais je n’avais pas encore tiré parti des indications sur l’usage culinaire de ces plantes. C’est maintenant chose faite…

J’ai commencé par une plante que je connaissais déjà. Une affreuse mauvaise herbe connue sous le nom de « laiteron » que j’avais eu l’occasion de goûter à l‘île Amsterdam. Les ouvriers Réunionnais qui hivernaient avec nous n’avaient pas leurs pareils pour tirer parti des ressources naturelles de l’île et ils nous avaient appris à utiliser cette plante pour parfumer les plats de riz. Depuis, je m’étais rangé à l’avis général et avais réappris à considérer cette plante qui ressemble à un chardon mâtiné de pissenlit comme « mauvaise »…

Gérard Ducerf affirmant que cette plante est comestible crue, j’ai essayé des salades composées constituées de laiteron et d’autres plantes sauvages.

Il n’y a plus beaucoup de laiteron dans notre verger et dans la mesure où ce sont des plantes indicatrices « d’engorgements en eau et en matière organique provoquant des hydromorphismes et des anaérobioses » je ne m’en plaindrai pas! J’ai tout de même trouvé deux beaux pieds, l’un qui est vraisemblablement un laiteron rude (sonchus asper) et l’autre un laiteron des champs (sonchus arvensis).

Leurs feuilles sont fermes, un peu dures et légèrement amères. Elles sont également légèrement épineuses sans aller jusqu’à piquer la langue ou le palais.

Pour les accompagner, j’ai aussi cueilli :

  • des feuilles de pissenlit qui sont un peu plus amères que le laiteron en cette saison,
  • des feuilles d’épilobe hirsute (epilobium hirsutum), une autre « mauvaise herbe » que nous avons tendance à arracher parce qu’elle se montre volontiers envahissante et dont les feuilles un peu duveteuses se révèlent avoir un goût proche de celui de la mâche,
  • des feuilles de petite oseille (rumex ocetosella) au goût agréablement acide,
  • du mouron blanc (stellaria media) au goût très fin,
  • de jeunes feuilles de plantain lancéolé (plantago lanceolata) au léger goût de champignon,
  • des fleurs d’églantine (rosa canina) au goût fruité et sucré
  • des fleurs de pâquerette (bellis perennis).

J’ai essayé plusieurs combinaisons qui se sont avérés aussi bonnes les unes que les autres accompagnées d’huile d’olive et de vinaigre de miel…

Le très léger goût de champignon des jeunes feuilles de plantain m’a donné envie d’essayer autre chose et j’ai tenté une omelette au plantain qui a été un véritable régal.

Que retenir de tout cela?

Tout d’abord, bien entendu, que nos jardins regorgent de ressources culinaires qui poussent naturellement et attendent que nous les cueillons.

Mais ce qui m’interpelle le plus c’est la manière dont nous avons non seulement oublié ces ressources et préféré acheter dans des magasins ce qui pousse naturellement (ce n’est qu’un des nombreux exemples de « marchandisation » de la nature) mais également été poussés à les détruire en utilisant au besoin des herbicides de synthèse plus dangereux les uns que les autres. Nous avons été véritablement conditionnés pour être non seulement des consommateurs mais également les complices de ce processus.

Insaisissables identités numériques

J’ai passé un après midi passionnant à l’atelier « Apparaître, paraître, disparaître » organisé par la Fing.

Les exposés de Dominique Cardon, Philippe Rigaut, Arnaud Belleil et Pascal Levy-Garboua étaient intéressants et, combinés à la discussion qui a suivi, cela me confirme qu’en matière d’identité numérique je dois faire figure de dinosaure puisque je m’obstine à entretenir une seule et même identité numérique et à la rattacher à mon identité physique par des artifices tels que mon éternel tee-shirt XMLfr!

Plutôt que d’essayer de faire un compte rendu qui ferait double emploi avec celui que devrait publier la Fing, je préfère retranscrire ici quelques réflexions qui me sont venues alors que je rentrais chez moi.

Ces discussions ont mis en lumière un besoin de mieux définir la notion d’identité numérique.

Alors que j’ai tendance à considérer mon identité numérique comme la somme de tout ce que l’on trouve à propos de moi sur le web, il m’a semblé que beaucoup de personnes considèrent une identité numérique comme un « compte » sur un site Web. Ainsi, quand il a été question de savoir combien d’identités numériques chacun d’entre nous possédait, il a semblé naturel de compter le nombre d’applications sur lesquelles nous avons créé des comptes.

Michel Desbois a fait remarquer que les choses n’étaient pas si simples et que l’on pouvait avoir plusieurs comptes et donc plusieurs identités sur une seule application.

Certes, mais on peut également, ce qui est mon cas, être dans la situation inverse et avoir une seule et même identité numérique sur plusieurs applications et même sur le Web en dehors de ces applications. Partager une même identité numérique sur plusieurs applications est assez simple : il suffit d’utiliser le même nom ou pseudonyme et de créer des liens entre ces applications.

Quelque soit le rayonnement des grandes applications Web 2.0, il me semble également très important de prendre en compte ce qui est publié sur le Web en dehors de ces applications.

Je suis consultant indépendant et mon identité numérique est ce qui me sert d’action marketing. C’est quelque chose que je constitue patiemment depuis 1999 et j’ai tendance à considérer qu’elle est trop importante pour en confier plus que des bribes à ces sites.

Certains de ces sites ont des conditions d’utilisation qui leur permettraient s’ils le souhaitaient de l’exploiter sans mon accord et d’autres peuvent y ajouter des publicités qui pourraient être contre productives.

De plus et cela semble encore plus important, je ne suis pas certain de pouvoir leur faire confiance pour assurer la pérennité de mon identité électronique.

Depuis 1999, bien des services que l’on croyait immuables ont disparu, ont changé de formule ou ont été achetés par d’autres sociétés.

J’ai écris récemment deux articles l’occasion du huitième anniversaire de XMLfr et du dixième anniversaire de XML et ai eu l’occasion de faire quelques recherches de ressources Web ayant huit ou dix ans. Certains jouent remarquablement le jeu et c’est le cas par exemple de Yahoo! qui assure toujours la redirection des URIs des messages egroups.com vers le même message sur yahoogroups.com. J’espère que ce sera également le cas si Yahoo! est acheté par Microsoft mais la plupart des liens ont disparus, y compris des liens de billets postés sur les blogues O’Reilly.

Si j’avais utilisé plus massivement les services offerts en 1999 ou 2000, beaucoup des documents que j’ai produit à cet époque et qui constituent aujourd’hui mon identité numérique auraient disparu.

Aussi paradoxal ou prétentieux que cela paraisse, je pense donc prendre moins de risques en gérant mon identité numérique en dehors des grands sites Web 2.0!

Ceci dit, aussi simple soit elle, ma définition de l’identité numérique comme étant l’ensemble des informations disponibles sur une personne ou un pseudonyme ne va pas sans poser problème…

J’ai la chance d’avoir un nom suffisamment peu répandu pour que l’on puisse facilement repérer sur le Web ce qui fait partie de mon identité numérique. Les choses ne seraient pas si simples si j’avais un nom beaucoup plus courant, ou pire, si j’avais le même nom de quelqu’un de beaucoup plus connu. Dans ce cas, comment définir les contours de mon identité numérique?

Entreprise 2.0, serions nous déjà demain?

J’ai déjeuné aujourd’hui avec Christian Fauré qui fait partie des membres fondateurs de notre planète XMLfr et que je ne connaissais encore que par Internet interposé.

Christian est responsable d’une cellule SaaS (Software As A Service) chez Atos-Origin, une situation idéale pour observer l’impact du Web 2.0 dans les grands groupes.

Il affirme que le bouleversement que j’avais prévu il y a bientôt deux ans dans mon billet Web 2.0 et entreprises 1.0 est en de se produire même si ce n’est pas pour les raisons que j’évoquais.

Ce n’est tant par le biais des usages que cette révolution a commencé que par celui de réduction de coûts. Et cette réduction de coûts qui était le deuxième facteur que j’envisageais dans mon billet ne porte pas tant sur l’utilisation de logiciels libres ou de méthodes agiles que sur l’externalisation de logiciels sous forme de services.

Quel est le lien entre SaaS et Web 2.0?

Ce lien est multiple et porte sur les trois volets du Web 2.0 tels que je les ai décrits :

  • c’est le volet social du Web 2.0 et la convivialité retrouvée sur le Web qui rend acceptable l’externalisation sous forme de services de logiciels à forte interaction avec les utilisateurs tels que les suites bureautiques;
  • le concept de SaaS est indissociable du volet architectural du Web 2.0 qui consiste à considérer le Web comme une plateforme;
  • SaaS s’appuie sur le volet technique du Web 2.0 (XML, HTTP, REST, Ajax, …).

De plus, c’est l’expérience acquise en développant leurs applications Web 2.0 grand public qui donne leur crédibilité aux Google et autres Amazon qui sont aujourd’hui les acteurs incontournables de la lame de fond SaaS.

Si cette analyse se confirme, et je ne vois rien qui puisse l’infirmer, nous sommes à la veille d’une véritable industrialisation de l’informatique qui va profondément bouleverser les services informatiques des entreprises.

Il n’y a rien de très nouveau dans ce que j’expose ici, mais je ne pensais pas que cela se produirait aussi rapidement et que des grands groupes étaient en train de franchir le pas aujourd’hui même.

Des nouvelles de XSV (XML Schema Validator)

Henry Thompson vient d’annoncer une nouvelle version (3.1) de son processeur de schémas XSV.

Pourquoi s’intéresser à XSV alors qu’il y a d’autres implémentations du langage de schémas W3C XML Schema?

XSV est écrit par Henry Thompson et Richard Tobin et Henry Thompson est l’éditeur le plus emblématique de la recommandations W3C XML Schema. XSV est donc une implémentation de référence qui devrait être particulièrement respectueuse de la recommandation et c’est un des outils qui m’ont servi de juge de paix lorsque j’ai écrit mon livre sur ce langage.

L’autre raison pour laquelle vous pourriez vouloir vous intéresser à XSV est qu’il est écrit en Python et que Python manque très cruellement d’implémentations décentes de W3C XML Schema.

Enfin, XSV permet de visualiser, sous forme d’un document XML suivant un schéma assez peu lisible il est vrai, le fameux « PSVI » (Post Schema Validation Infoset), ce qui est assez rare pour être souligné.

Malheureusement, XSV avait jusqu’à présent deux gros défauts :

  • Henry Thompson a toujours été beaucoup plus intéressé par la première partie de la recommandation dédiée à la structure des documents qu’à la deuxième partie dédiée aux types de données et que l’implémentation de la deuxième partie était très incomplète.

  • XSV exigeait l’utilisation d’un parseur XML (PyLTXML) partiellement écrit en C dont l’installation me laissait des souvenirs épouvantables.

L’annonce mentionnant que ce dernier point était levé, j’ai pensé qu’il était intéressant de tenter à nouveau l’expérience.

J’ai donc essayé d’installer XSV à partir de sources puis à partir de son package Debian sur mon poste de travail (Ubuntu Gusty) et dans les deux cas, les installations se sont passées sans problème notable.

Quelques points méritent toutefois d’être signalés :

  • S’il est vrai que XSV peut se passer de parseur spécifique, il faut dans ce cas installer une version ancienne de « PyXML », un module nécessaire au support de XML sur les premières versions 2.x de Python. La plupart des fonctions de PyXML ont maintenant été intégrées à Python, PyXML n’est plus maintenu et son utilisation peut poser des problèmes de coexistence avec les fonctions intégrées.

  • L’installation du parseur spécifique (PyLtXML) se fait maintenant sans problème que ce soit à partir des sources ou du package Debian. Je pense que cette option est moins risquée que l’utilisation de PyXML.

  • Les packages Debian pour XSV et PyLtXML installent ces bibliothèques sur Python 2.4. Pour les utiliser avec Python 2.5, il faut donc les recopier ou utiliser l’installation à partir des sources.

  • XSV ne semble pas tenir compte de la variable PYTHONPATH pour rechercher les DTDs de XML Schema dont il a besoin. Ce problème peut être résolu en créant des liens symboliques sur ces DTDs.

Sans être parfaite, l’installation est donc effectivement beaucoup plus facile que sur les versions que j’ai utilisé en 2001 et devient à la portée d’un être humain!

En ce qui concerne le support des types de données, la documentation ne mentionne plus dans la liste des restrictions que « le reste des types de données simples notamment les types xs:duration ».

XSV semble donc devenir petit à petit une bibliothèque réellement utilisable, que ce soit pour les programmeurs Python en quête d’une implémentation W3C XML Schema ou pour les gourous XML cherchant une implémentation de référence.

Sun se paye le M de LAMP

Sun vient d’annoncer son intention d’acheter MySQL, la base de données qui est devenue la principale base de données des applications Web et est utilisée notamment par Google et Amazon mais également par le plupart des blogs.

Sun aura sans doute considéré qu’être le M de « LAMP » (Linux, Apache, MySQL, PHP) est sans doute un bon moyen d’être de « . » de « .com » pour reprendre une de leurs anciennes taglines!

Cette annonce sera sans doute amplement commentée. Pour ma part, j’espère que ce rachat signifiera un meilleur support de XML par MySQL.

J’ai eu l’occasion de me pencher sur le support de XML par MySQL 5.1 pour le chapitre consacré aux bases de données du livre « Beginning XML » que j’ai coécrit avec Joe Fawcett (je lui ai laissé le soin de présenter SQL Server et ai consacré deux sections à eXist et MySQL). Ma conclusion est que si ces fonctionnalités sont un bon début, il y a encore bien du chemin à faire pour que le support de XML par MySQL soit digne d’une base de donnés moderne.

Compte tenu de l’implication historique de Sun dans XML, j’espère que ce rachat va accélérer le mouvement.

Puisque nous parlons de base de données modernes, une des références en matière de support de XML est sans doute Oracle.

C’est également aujourd’hui que ce dernier annonce le rachat de BEA. Quel rapport y a t-il entre ces deux annonces? Le rapport est de 8,5! Il en coûtera 8,5 milliards de dollars à Oracle pour acquérir BEA alors que Sun ne déboursera qu’un petit milliard de dollars pour acheter MySQL.

Sans vouloir sous estimer la valeur de BEA, il me semble qu’en terme de visibilité et de contribution au Web et à la « nouvelle économie », le rapport devrait être dans l’autre sens!

C’est sans doute la preuve qu’il reste plus difficile de valoriser des développements de logiciels open source que des développements commerciaux.

XForms ou pas XForms?

Yahoo! vient d’annoncer sa plateforme de développement pour mobiles (Yahoo! Mobile Developer Platform) et la nouvelle a été immédiatement relayée par les fans de XForms : Micah Dubinko titre « Yahoo! introduit XForms sur les mobiles » et Erik Bruchez « Yahoo! adopte XForms ».

La feuille de route publiée par Yahoo! est nettement plus prudente puisqu’elle se contente de dire que « beaucoup de la philosophie et de la syntaxe de Blueprint viennent de XForms ».

Lorsque l’on se penche sur le guide du développeur, on s’aperçoit que Yahoo! a effectivement emprunté des éléments de la recommandation XForms, mais que ces éléments ont été changés d’espace de noms et cohabitent avec des éléments empruntés de la même manière de XHTML et des éléments propres à Yahoo!.

Le résultat n’est donc pas plus proche de XForms que le WML du WAP Forum n’était proche de XHTML.

Si les défenseurs d’une approche déclarative peuvent se féliciter qu’elle ait été préférée par Yahoo! à une approche plus procédurale qui se serait appuyée sur JavaScript, je pense donc très exagéré de parler de succès pour XForms.

XForms a été conçu pour séparer la logique des formulaire de saisie de leur représentation de manière à pouvoir être exécuté sur différents types de terminaux et le développement d’une version « basique » a été lancée.

Les mobiles faisaient clairement partie des cibles de XForms et ont peut au contraire interpréter cette adoption d’un clone non vraiment compatible de XForms par Yahoo! comme un nouvel échec.

C’est d’autant plus regrettable que les implémentations de cette technologie montrent qu’elle représente un potentiel technique remarquable.

IE 6 prétend accepter application/xhtml+xml!

Un des facteurs qui a limité l’adoption de XHTML est sans aucun doute le fait que Internet Explorer n’accepte pas le type média « application/xhtml+xml » : bien que ce soit le type média officiel des documents XHTML et bien qu’Internet Explorer sache afficher les documents XHTML, si vous lui présentez un document avec ce type média il ne l’affiche pas mais propose à l’utilisateur de le sauvegarder ou des chercher une application capable de lire ce document.

Autrement dit, IE n’accepte les documents XHTML que s’ils se font passer pour des documents HTML!

A l’inverse, un navigateur tel que Firefox qui accepte le type média « application/xhtml+xml » affichera également vos documents XHTML si vous les faites passer pour des documents HTML, mais il les traitera très naturellement comme des documents HTML ce qui peut poser problème dans certains cas.

La solution idéale est donc de détecter si le navigateur accepte des documents XHTML et de présenter des documents XHTML ou HTML suivant le résultat de cette détection.

Cette fonctionnalité est proposée par Orbeon Forms bien qu’elle n’est pas mise en œuvre dans les installations par défaut. Pour la rendre opérationnelle, il suffit d’enlever les commentaires qui entourent la détection et le traitement différencié HTML/XHTML dans le pipeline epilogue-servlet.xpl.

Ce pipeline est exécuté pour effectuer les mises en formes finales et envoyer les documents aux navigateurs dans le cas où l’application est exécutée dans un servlet.

Le test correspondant est le suivant :

<p:choose  href="#request">
  <p:when test="contains(/request/headers/header[name = 'accept'], 'application/xhtml+xml')">
...

Sans être spécialiste Orbeon Forms, vous aurez compris qu’il s’agit de tester, dans un document XML représentant la requête HTTP, s’il y a une entête dont le nom est « accept » et qui contienne la chaîne de caractères « applications/xhtml+xml ».

L’élégance de la chose est qu’au lieu de tester qu’il s’agit ou non d’Internet Explorer, vous testez si le navigateur accepte les documents de type « application/xhtml+xml ». On peut donc espérer que ce test fonctionne quelque soit le navigateur et si IE accepte un jour ce type de document nous n’ayons pas à changer ce test pour que des documents XHTML lui soient servis.

Et ça marche : Firefox reçoit effectivement des documents XHTML et IE reçoit des documents HTML.

Sauf que… cela ne devrait pas marcher!

Si vous regardez une requête HTTP envoyée par IE, vous verrez quelque chose comme :

Accept: */*
Accept-Language: fr
Accept-Encoding: gzip, deflate
If-Modified-Since: Mon, 24 Dec 2007 08:52:18 GMT
User-Agent: Mozilla/4.0 (compatible; MSIE 6.0; Windows 98)
Host: localhost:8080
Connection: Keep-Alive

Au lieu de donner une liste des types de documents acceptés, IE utilise un joker et prétend accepter tout les types de documents.

Le test effectué par Orbeon Forms n’est pas conforme à la RFC 2616 puisqu’il ignore les jokers qui sont pourtant décrits dans la RFC. De plus, la RFC spécifie également qu’en l’absence d’entête « accept », il faut considérer que le navigateur accepte tout les types de documents.

Pour le rendre plus conforme à la RFC, il faut écrire :

<p:choose href="#request">
  <!-- See http://www.w3.org/Protocols/rfc2616/rfc2616-sec14.html -->
    <p:when
       test="contains(/request/headers/header[name = 'accept'], 'application/xhtml+xml')
               or contains(/request/headers/header[name = 'accept'], 'application/*')
               or contains(/request/headers/header[name = 'accept'], '*/*')
               or not(/request/headers/header[name = 'accept'])">

C’est encore un test un peu simpliste puisqu’il accepterait des types erronés tels que « mon-application/* » mais il est réagit correctement aux entêtes conformes à la spécification.

Ceci dit, le test étant maintenant correct, IE reçoit la version XHTML des documents puisqu’il déclare accepter ce type de document et il faut ajouter un deuxième test avec un traitement spécifique pour ce navigateur…

C’est ce qui est fait dans la version du pipeline epilogue-servlet.xpl utilisé par la version actuelle de la planète XMLfr.

Outre le fait que la réponse d’Internet Explorer, bien qu’étant conforme à la norme soit absolument inutile pour un serveur Web, ce qui me semble intéressant dans cette affaire, c’est la manière dont un test simple mais erroné fonctionne dans la majorité des cas pour de mauvaises raisons!

Support, service public et concurrence

Mon billet précédent était 100% factuel, mais cela me nous dispense pas d’essayer de comprendre comment on en arrive à de telles situations…

Monopoles et arrogance

Mon premier fournisseur ADSL a été France Telecom. C’était en 2000 et j’ai du changer pour deux raisons.

D’une part mon infrastructure reposait sur un serveur agissant en passerelle et propulsé par Linux (Debian) et France Telecom refusait de répondre à toute question technique si le problème n’était pas reproduit sur Linux.

Je me souviens d’un problème au niveau d’un de leurs routeurs. Au moyen de quelques « ping » et autre « traceroute », il était facile de prouver que le problème venait de chez eux et était indépendant de l’OS que j’utilisais. Lorsque j’ai essayé d’expliquer cela à la technicienne qui m’a répondu, j’ai senti qu’elle paniquait littéralement et elle est partie chercher son responsable qui n’a pas pour autant admis que je puisse ne pas utiliser Windows.

D’autre part, je tenais à avoir une adresse IP fixe et ce n’était possible que dans une formule « professionnelle » à 5000 Francs par ans qui ne m’apportait aucun accroissement de trafic ni autre service dont j’avais besoin. Une adresse IP fixe à 5000 Francs par an alors que les concurrents de France Telecom commençaient à les fournir gratuitement, c’était très cher payer!

L’attitude de France Telecom à cette époque (peut-être ont-ils changé depuis, je n’en sais rien) est caractéristique des entreprises en situation de monopole qui se croient dispensées d’écouter leurs clients.

Notre « opérateur historique » me fais souvent penser par son approche et son attitude à Microsoft. Les deux sociétés semblent d’ailleurs s’entendre pour le mieux. Elles ont les mêmes arguments de « démocratisation » d’une offre technologique passant par une négation de toute forme de diversité et cette approche a tendance à me faire fuir.

Impossible haut de gamme

Mon fournisseur suivant a été Nerim.

Nerim était plus cher que ses concurrents, mais j’aimais son indépendance, son côté plus professionnel, son attachement à Linux qu’ils utilisent en internet et son support client et tant que j’ai eu un abonnement de base avec un débit relativement bas, je n’ai eu qu’à me féliciter de Nerim.

Les problèmes ont commencé quand après quelques années j’ai souhaité passer à un abonnement plus haut débit.

Je précise que cela concerne une ligne située à Paris, relativement près d’un commutateur et sans problème technique particulier.

Cela n’a pas empêché que le tandem France Telecom / Nerim n’a jamais été capable de me fournir une connexion stable qui ne coupait pas au bout de quelques minutes.

La première réaction de Nerim a été de dire que c’était sans doute mon modem ADSL Netgear qui était en cause et de me conseiller un modem plus professionnel de marque Netopia qu’ils commercialisaient.

Lorsqu’il s’est avéré que les problèmes étaient plutôt pires avec le modem Netopia qui était un peu plus stable mais contrairement au modem Netopia interrompt toutes les connexions IP en cas de microcoupure, Nerim a consulté France Telecom, m’a répondu que les caractéristiques de ma ligne ne permettaient pas un tel débit et que la seule solution était de réduire le débit en gardant le même tarif.

Ils auraient, certes, pu faire un geste commercial, mais le problème de fond est que Nerim ciblant le « haut de gamme » n’a pas un marché suffisant pour dégrouper ses lignes. Le contrôle de la liaison au niveau des commutateurs leur échappe donc et ils ne peuvent pas vraiment contrôler la qualité de service (tout les autres opérateurs ont les mêmes problèmes sur les zones non dégroupées).

Je pense que c’est le concept même d’un FAI « haut de gamme » se concentrant sur la qualité plus que sur la quantité qui est irréaliste : la concurrence technologique et les investissements d’infrastructure sont tels qu’il faut du volume pour rester dans la course.

Un bas de gamme qui marche mais ne peut pas fournir un support de qualité

Ma ligne qui n’était pas capable de tenir le haut débit avec Nerim et France Telecom l’est devenue dès que Free l’a dégroupée.

En attendant ma freebox, je l’ai essayé avec le modem qui posait tant de problème à Nerim et le débit était satisfaisant et stable ce qui confirme bien un problème au niveau du commutateur puisque rien d’autre n’avait changé.

Depuis, et ce jusqu’à ce problème de téléphonie sur la freebox, je suis plutôt content du service fourni par Free, seule la qualité du téléphone laissant souvent à désirer.

Je pense que cela montre bien que la course en avant des opérateurs qui cherchent à amortir infrastructures et recherche technologique sur un volume toujours croissant est gagnante au niveau du service de base qu’est l’accès à Internet.

Ce service de base est un service sur lequel il y a un fort effet de levier et les économies d’échelle sont prépondérantes.

Par contre, ce n’est pas le cas du support technique dont le coût reste à peu de chose près directement proportionnel au nombre de clients et un support de qualité est incompatible avec les niveaux de prix actuels.

Un support de qualité coûte cher (même s’il peut rapporter gros)

Lorsque je travaillais chez Sybase, nous nous attachions à fournir un service de haute qualité.

C’était avant tout une question d’état d’esprit et ce n’était pas pour rien que Bernard, le patron du support France avait collé le logo de la SNSM sur son écran : chaque appel était considéré comme une action de sauvetage.

J’étais responsable du support deuxième niveau et là, l’ambiance était plutôt celle d’une salle de garde dans un hôpital…

Tout le monde savait que, sauf excès manifeste, personne ne nous reprocherait le temps passé à résoudre un problème mais qu’au contraire nous aurions des comptes à rendre pour chaque client mécontent. Cela valorisait notre travail et j’ai rarement vu des équipes aussi motivées.

Cela avait un coût, mais Sybase avait une approche haut de gamme, des produits dont le prix unitaire était élevé, des contrats de support basés sur le prix de ces logiciels et le support technique était le département le pus rentable de la société.

De plus, je pense que la satisfaction des clients n’a pas été étrangère à leur fidélité lorsque l’écart concurrentiel entre nos produits et ceux de nos concurrents a commencé à diminuer et que la rentabilité réelle du support technique était largement sous estimée!

Les choses se sont rapidement détériorées après le rachat de Powersoft lorsque Sybase a du affronter un grand nombre de « petits clients ». Compte tenu des montants plus faibles de leurs contrat de support, la direction à exclu de dépenser sans compter comme nous le faisions auparavant.

Ce support premier niveau a donc été externalisé à une société qui a employé du personnel moins bien formé et soumis à une pression plus forte et la qualité s’est rapidement dégradée comme c’est le cas chez nos FAI.

Un FAI qui comme Free se concentre sur le volume (et nous avons vu qu’il n’avait pas le choix) doit forcément contrôler le coût de son support.

Jusqu’où doit-il aller et est-ce compatible avec un minimum de qualité? Les questions restent posées!

Perte de la notion de service public

Un support de qualité est pourtant une condition nécessaire à l’accès à Internet de notre population et cet accès est un élément important de la compétitivité de la France.

On retombe donc sur une notion de service public : certains services de base (accès à l’eau, l’électricité, le courrier, le téléphone et maintenant Internet) devraient être accessibles à tous sans recherche de rentabilité.

La perte de la notion de service public (et de sa conséquence qui est que, comme nous le faisions chez Sybase, on dépense sans compter pour satisfaire ses utilisateurs) me semble être toujours perte de qualité.

Cette dégradation est bien visible dans le bureau de poste qui est à côté de chez.

J’y ai souvent vu les employés prendre le temps d’expliquer les tarifs aux clients pour les amener à choisir l’option la plus économique. J’y ai également vu des employés discuter longuement avec un SDF qui semblait un habitué des lieux et venait chercher un peu de contact humain autant que les quelques euros du mandat qu’il venait encaisser.

Tout ceci est en train de changer rapidement. Je ne sais pas si c’est le nombre d’employés qui diminue ou le nombre de clients qui augmente, mais les files d’attentes augmentent régulièrement bien qu’il y ait toujours un ou deux guichets sans employés.

Lundi dernier en allant chercher un recommandé, j’ai pu constater qu’un bon tiers du bureau avait été réaffecté à un nouveau comptoir dont l’objectif principal semble être de vendre des DVD d’Harry Potter. Et comme le distributeur qui permet d’affranchir le courrier sans faire la queue n’avait pas encore été réinstallé, la file d’attente battait tout ses records.

Il est peut-être plus rentable de vendre des DVD Harry Potter que d’acheminer une lettre à l’autre bout du monde pour quelques dizaines de centimes d’euros, mais il y a fort à craindre que l’accueil à La Poste soit bientôt du même niveau que le support de nos FAI!

Service public et concurrence

Si un peu de concurrence est nécessaire éviter que ne s’instaure un état d’esprit de monopole (on a vu que c’est ce qui m’a fait fuir France Telecom), comment éviter que la concurrence ne tue l’esprit de service public nécessaire pour maintenir un niveau de qualité acceptable?

N’est-ce pas là la clé du problème?