Mathieu Janin 2.0

Double-prix pour double-cœur ?

Vendredi 16 Mars 2012

8 septembre 2005 - Une nouvelle génération de puces informatiques plus rapides vient défier les structures traditionnelles de l’industrie informatique. Saura-t-elle réagir intelligemment afin d’assurer sa pérennité ou est-ce le début d’une période encore plus chaotique qui verront s’affronter équipementiers contre éditeurs de logiciels ? Actuellement, les deux voies sont ouvertes.Dans son édition du 16 juillet dernier, l’hebdomadaire britannique « The Economist » consacre un article très documenté sur cette évolution informatique qui ne devrait laisser aucun acteur de ce marché indifférent. Nous vous proposons ci-dessous une synthèse de la tendance informatique de l’été. Durant les quarante dernières années, l’industrie informatique est parvenue à doubler la performance informatique des ordinateurs fabriqués tous les 18 à 24 mois selon le principe de la loi de Moore publiée en 1965 déjà par Gordon Moore, l’un des fondateurs du groupe Intel, principal fabricant de microprocesseurs du globe. Simultanément à ce gain de performance, le prix de vente des configurations stagnait d’années en années tout en offrant une performance de calcul supérieure, ce qui tendait à diminuer le coût réel de l’informatique et à contribué au boom économique qui a prévalu jusqu’à la fin du 20e siècle.


Si la loi de Moore continue à être d’actualité, les fabricants américains de puces informatiques, tels Intel et son concurrent AMD sont en train de changer les paradigmes de ce secteur industriel en révolutionnant l’approche de l’informatique utilisée dans un but professionnel. Ce changement se matérialise sous la forme d’une nouvelle architecture de puce encore plus performante que par le passé.

Les grands perdants à cette course à l’innovation pourraient être autant les grands éditeurs de logiciels (Oracle, SAP, IBM) dont les logiciels professionnels pourraient souffrir de l’arrivée de ces nouvelles puces mais également les utilisateurs finaux – les petites et moyennes entreprises – dont la vie économique dépend de ces logiciels et qui vont devoir s’efforcer d’enrayer la progression hors de leur contrôle des coûts de licences logicielles.

Pourquoi une telle frénésie dans le domaine des licences logicielles ? Durant ce mois, des quantités importantes de puces contenant deux processeurs centraux (cores) sur la même pièce ont été distribuées à large échelle sur le marché. Ce nouveau type d’architecture « double cœurs » permet aux équipementiers de fournir un dédoublement de la puissance de calcul tout en diminuant la chaleur émise par la puce.

Les puristes rétorqueront certainement que le « dual-core processing » n’est pas né de la dernière pluie et que des sociétés telles qu’IBM et SUN Microsystems proposent ce type de technologie depuis plusieurs années déjà. Mais ces dernier n’équipaient jusqu’à présent que des stations de travail Unix utilisées dans le monde scientifique et non pas dans l’économie.

L’approche « double-coeur » va s’appliquer à terme à l’ensemble des processeurs utilisés dans la vie industrielle et économique et qui font tourner des applications populaires de type Microsoft Windows, Linux, pour n’en citer que deux et qui ont contribué au succès du modèle Intel Pentium dans le passé. En avril 2005, Intel et AMD annonçaient séparément que tous deux allaient livrer des versions dual-core de leurs processeurs haut de gamme un peu plus tard cette année. Le modèle Opteron dual-core d’AMD a été le plus rapide à quitter les rampes d’assemblage du fondeur américain et est proposé en quantité commerciale au prix de $ 2,650 la pièce. Intel n’est pas en reste puisque l’autre fondeur compte écouler des versions double-coeur de ses puces de serveur Xeon et Itanium dans des volumes élevés quelques mois plus tard cette année encore. Et la demande se fait sentir puisque les principaux fabricants de serveurs – HP, SUN Microsystems et IBM – ont commencé à prendre commande de leurs nouveaux systèmes informatiques « dual-core ».

Cette évolution pourrait changer le modèle d’affaires de certains éditeurs de logiciels. Si deux processeurs sur une simple puce peuvent abattre deux fois le travail d’un simple processeur, pourquoi dès lors ne pas se faire rétribuer en fonction du nombre de processeurs qui utilisent leur logiciel ? Le principal fournisseur de base de données au monde, Oracle étudie la question et a déjà exprimé ses craintes en la matière en annonçant que sa clientèle se verrait facturer à l’avenir en fonction du nombre de coeurs et non plus du nombre de processeurs utilisés. Cet éditeur utilise actuellement deux modèles différents de licence. L’un se base sur les utilisateurs nominaux et se destine aux clients disposant d’un nombre plus ou moins fixe d’utilisateurs. L’autre modèle est destiné aux entreprises disposant d’une population d’utilisateurs difficile à définir et se base sur le nombre de processeurs qui tournent les logiciels Oracle à l’intérieur d’une entreprise.

IBM a été même plus circonspect en annonçant que ses licences logicielles destinées aux processeurs Opteron ou Xeon « single-core » ou « dual-core » seraient facturées à un prix identique même si elle n’a pas encore dévoilé sa politique de licence concernant ses grosses suites logicielles telles que DB2 et WebSphere.

Un autre éditeur tente de capitaliser sur l’ancien modèle. C’est bien évidemment le groupe Microsoft. En octobre dernier, le plus gros contributeur de Redmond annonçait qu’elle licencierait à l’avenir ses logiciels de serveur sur la base du nombre de processeurs et non pas sur le nombre de coeurs implémentés. Mais ce n’est pas l’altruisme qui guide le groupe de Bill Gates. C’est plutôt l’assurance que la clientèle utilisant la famille de produits Window Server n’aurait pas à payer plus cher lorsqu’ils actualiseront leur processeurs aux multicores.

Mais le dilemme de l’industrie logicielle en matière de licence ne s’arrête pas en si bon chemin. Deux autres développements majeurs pourraient venir renforcer cette certaine anarchie. Le premier facteur s’intitule « partitionnement et visualisation » et exprime le fait d’utiliser un simple ordinateur afin de créer l’illusion de disposer de multiples machines disposant chacune de leur propre système d’exploitation et disposant chacune d’un accès exclusif à l’ensemble des ressources réelles de l’ordinateur. Le deuxième facteur représente la tendance largement répandue au niveau industriel au « provisionnement rapide ». Une manière d’obtenir rapidement de la capacité de calcul sur demande. L’idée de ce concept est de rendre des ordinateurs entiers en tant que parties de disques durs ou de rendre disponible instantanément des « cores » individuels avec le système d’exploitation nécessaire et une pile entière d’applications logicielles afin de mener à bien une tâche de calcul spécifique.

Les groupes Hewlett-Packard et IBM ont développé de nouveaux types de licences dans ce sens permettant l’utilisation intermittente de logiciels mais le reste de l’industrie n’a pas suivi et se cherche encore dans ce domaine. Les jours des licences logicielles par installation semblent donc être comptés…au profit de licences gratuites financées par des coûts de maintenance et de support, à l’instar des principaux éditeurs open-source tels que Red Hat, Novell, Mandriva.

Dans tous les cas, les utilisateurs d’informatique disposent aujourd’hui d’une pléthore d’alternatives, ce qui devrait faire réfléchir les différents acteurs du marché afin de choisir le bon modèle qui leur permettra de pérenniser leurs activités à moyen et long terme. Un défi majeur de plus à relever pour l’industrie informatique.


La gravue des transistors continue son trend vers l’infiniment petit. De 90 nanomètres (nm) aujoud’hui, leur taille se réduira à 65 nm en 2006, puis 45 nm en 2007 pour avoisiner les 8 nm en 2017. Selon Intel, 70% des ordinateurs de bureau et une grande partie des portables seront équipés de puces à double cœurs dès la fin 2006. Et la multiplication des cœurs ne s’arrêtera pas en si bon chemin puisque les futures puces d’AMD et d’Intel devraient intégrer 4 cœurs d’ici à l’an 2008. Ces super-puces sont prédestinées à faire tourner les futurs systèmes d’exploitation très gourmands en puissance de demain, à l’instar de Longhorn, le successeur de Windows XP, annoncé pour l’été 2006.
Mathieu Janin

Mathieu Janin

Pensée socialnomique | GRI | ICT-SR | Award Corporate Communications | Conférences | Opinion | Bio | Communication 2.0 | xyz 2.o | Histoire de l'informatique | E-Commerce | ICT expos Romandie | E.glise | Röstigraben Relations | marketing non marchand | Männerchor | Mathieu Janin 1.0 | fcmv2013 | Actualité locale de Savigny et Forel (Lavaux)




Mathieu Janin : 5 people followed me and 4 people unfollowed me // automatically checked by https://t.co/7kCTRDR81I
Vendredi 26 Mai - 16:37
Mathieu Janin : Deux tiers des Suisses ne font pas confiance à l'UE https://t.co/zWl8h95BTX https://t.co/FLJgqFoisj
Vendredi 26 Mai - 13:03
Mathieu Janin : Un Suisse sur trois a recours au crédit privé https://t.co/FQJ3lR6vaM https://t.co/lOKq7kusYg
Mercredi 24 Mai - 11:04
Mathieu Janin : Les femmes au foyer sont de plus en plus rares en Suisse https://t.co/OdLZKeKCAa https://t.co/N4tZwQbxK6
Mercredi 24 Mai - 11:02


Les News



Inscription à la newsletter