Simplicité informatique: Le maître mot de la troisième vague

Vendredi 16 Mars 2012

20 mai 2005 - L’informatique doit devenir plus simple sous peine de ne plus correspondre aux besoins de son marché. En 45 ans d’existence, la complexité informatique atteint son sommet et est la cause de dépenses considérables qui plombent l’économie mondiale. Il est donc grand temps de changer son fusil d’épaule afin de proposer une nouvelle forme d’informatique plus simple et plus omniprésente sous forme de biens courants.Chacun d’entre-nous a certainement déjà connu ce sentiment bizarre où l’ordinateur paraît s’être ligué contre son utilisateur, affichant un écran bleu, un message d’erreur incompréhensible et refusant, durant de nombreuses heures, à effectuer une simple opération, alors que tout semblait si bien fonctionner quelques instants auparavant. Une situation aussi énervante que parfaitement incompatible avec la promesse du « tout plug and play ». Dans de telles situations, l’informaticien chevronné peut se retrouver au même niveau d’incompétence que le plus jeune des néophytes.


Cité il y a quelque temps dans un article paru dans l’hebdomadaire britannique « The Economist » John Maeda vit quotidiennement ce genre de situations, sans être pour autant technophobe, puisqu’il a obtenu une maîtrise en informatique et un doctorat de design d’interface. Ce professeur du Massachusetts Institute of Technology (MIT) en design informatique est arrivé à la conclusion que, s’il ne maîtrisait pas la technologie nécessaire pour utiliser les ordinateurs domestiques malgré son important bagage en la matière, personne n’y parviendrait non plus et qu’il était temps de déclarer l’état de crise de l’informatique. Après avoir déposé ce postulat, John Maeda décida de prendre le taureau par les cornes et de saisir le problème à bras le corps en inaugurant un nouveau programme de recherche baptisé « Simplicity » dans le cadre du MIT Media Lab. Un projet dont la mission est de chercher des voies pour sortir l’informatique de ce chaos. Mais John Maeda n’est pas seul dans cette quête puisqu’il dispose déjà de bon nombre de sympathisants, dont l’auteur de l’article.

Avis aux aficionados de la technique : l’industrie informatique ne se porte pas bien. Greg Papadopoulos, technicien en chef du constructeur sun Microsystems déclarait il y a peu « que l’informatique se trouve aujourd’hui dans un état dont nous devrions avoir honte ». Cette citation est terriblement embarrassante lorsqu’elle s’exprime par la bouche de l’architecte suprême d’une des marques informatiques parmi les plus prestigieuses de la branche. La complexité ambiante retient l’industrie informatique en arrière. Beaucoup de fonctions acquises et développées à grand renfort d’espèces sonnantes et trébuchantes ne sont tout simplement pas implémentées en raison de leur complexité. Et la gestion de cette complexité représente assurément le principal défi actuel jeté à l’industrie informatique.

Le coût de la complexité informatique est aussi exorbitant que difficile à chiffrer. Selon le cabinet de recherche The Standish Group, deux projets informatiques sur trois échouent tout bonnement ou nécessitent plus de temps que prévu à voir le jour en raison de la sous-évaluation de leur complexité. Cette tendance est plus alarmante dans le cadre de gros projets informatiques dépassant les 10 millions de dollars puisque ce taux dépasse alors 98% ( !). Une étude du cabinet Gartner Group évalue la durée moyenne de panne d’un réseau informatique d’entreprise à 175 heures et la perte ainsi générée à 7 millions de dollars. Le pompon revenant aux collaborateurs itinérants – parmi lesquels les membres du service externe – qui coûtent à leur employeur quelque 4'400 dollars de frais informatiques supplémentaires par année et par tête. Mais la palme d’or de la prévision la plus effrayante dans ce domaine revient sans aucun doute au cabinet IDC. L’étude menée par ce dernier durant 15 ans sur un échantillon d’entreprises démontre que, si ces dernières investissaient trois quarts de leur budget informatique dans du nouveau matériel et des nouveaux logiciels quinze ans auparavant pour consacrer un franc sur quatre de leur budget à fixer les bogues du système, aujourd’hui sept à huit francs sur dix sont nécessaires pour améliorer l’existant plutôt qu’à racheter de nouveaux systèmes. Selon l’auteur de l’étude, la complexité informatique aura coûté en 2004 quelque 750 milliards de dollars à l’économie mondiale.

Que faire pour renverser la vapeur ?

Les plaintes résultant de la complexité technologique ne datent pas d’hier mais sont nées, il y a 45 ans, avec l’apparition du circuit intégré. Pourtant l’évolution du mal connaît une accélération rapide depuis le « dotcom-boom » de la fin des années nonante. Après une dizaine d’années de forte croissance, le secteur informatique a soudainement chuté en l’an 2001 et n’est jamais parvenu à retrouver sa forme depuis lors. Cet état de fait tend à traumatiser les vendeurs de technologie et annonce un changement important de paradigme. La clientèle n’est dorénavant plus avide de technologies révolutionnaires « chaudes » mais recherche des technologies dites « froides », telles que l’intégration de logiciels qui leur permettront de simplifier les interactions des différents systèmes informatiques cohabitant, tant bien que mal, depuis leur acquisition durant les années folles qui ont précédé l’éclatement de la « nouvelle économie ». Selon Merril Lynch, l’industrie informatique progresse en vagues successives durant une quinzaine d’années et la prochaine vague sera celle de la simplicité ou ne sera pas. Durant les années 70-85 les entreprises ont acquis des gros ordinateurs « mainframe », la seconde a poussé l’apparition du PC connecté à un serveur et la troisième vague qui prend actuellement son amplitude prônera la « tout-connectivité » des gadgets utilisés par tout un chacun. Si la vague du mainframe était dominée par les technologies propriétaires dont l’icône la plus célèbre était IBM, la deuxième vague du PC a été dominée par la standardisation logicielle de Microsoft et la multiplication exponentielle du nombre d’utilisateurs. La troisième vague verra converger bureau, voiture et domicile où chacun sera relié de façon permanente à Internet dans une ère où l’informatique sera devenue aussi présente et incontournable qu’un bien courant tel que l’électricité, l’eau ou le téléphone. Cette évolution implique donc une simplification de l’informatique sous peine de ne pas parvenir à se transformer en bien courant.

Ce changement de paradigme sera imposé par les utilisateurs eux-mêmes. Dans une dizaine d’années, la population mondiale sera composée essentiellement d’individus propices à l’utilisation quotidienne de l’informatique. Les industriels qui sauront répondre à leurs besoins d’ubiquité virtuelle et de simplicité deviendront les maîtres de la troisième vague. Il est donc grand temps de choisir son camp. Vous sentez-vous capable de le faire ?
Mathieu Janin
Mathieu Janin