Pourquoi l’informatique court à sa perte
Depuis les os gravés, en passant par les inscriptions cunéiformes sur argile, le boulier et la calculatrice mécanique de Pascal, le traitement de l’information numérique a évolué de manière exponentielle. Aujourd’hui, ce que l’on peut considérer comme la plus représentative preuve de l’intelligence humaine est sur le déclin technologique, à cause notamment d’une stupide loi énoncée dans les années 60.
Cause #1 : la Loi de Moore
En 1965, Gordon Moore, co-fondateur d’Intel, a établi à la suite de l’observation de l’évolution des composants électroniques, un principe disant que le nombre de transistors sur un circuit (électronique, puis intégré) double tous les 2 ans. Cela s’est avéré exact jusqu’en 2001.
Sauf que les limites des matériaux utilisés, notamment le silicium, font que la loi est de plus en plus difficilement respectée. De ce fait, les fréquences des processeurs plafonnent autour des 2.5 à 3.5 GHz, les gravures deviennent de plus en plus fines, augmentant drastiquement les erreurs de calcul car le silicium ne fait plus son travail d’isolant correctement (pour rappel, un semi-conducteur est un composant électronique qui est isolant et qui devient conducteur au passage d’un courant).
Les processeurs multi-cœurs, les machines multiprocesseurs, n’arrivent pas à répondre aux besoins de flexibilité. Le marché des ordinateurs fixe laisse la place aux systèmes portables et mobiles, à l’évolution plus que limitée donc au renouvellement intégral nécessaire. Quelques projets, comme le Motorala ARA, un smartphone 100% évolutif (tous les composants sont facilement interchangeables), restent encore au stade de prototype ou de projets. Et quand bien même cela existerait, la concurrence rendrait incompatible des produits entre eux… Mais cela est un autre point.
On peut rajouter à cela la lourdeur des systèmes d’exploitation, qui montrent que, même si on a des machines potentiellement 30 fois plus puissantes qu’il y a 10 ans, l’effet ne s’en fait pas ressentir… Quand j’ai commencé l’informatique en 1994, l’OS tenait sur une disquette, aujourd’hui il prend 3 DVD. Le rapport de multiplication est de, pour la loi de Moore, de 2048 (2 puissance 11), et pour le stockage de l’OS, de 8300 (3*4 Go / 1.44 Mo) ! On a ainsi la preuve que le logiciel a grossi plus vite que le matériel et qu’il est impossible, dans ces conditions, de mettre en avant les réelles performances d’un ordinateur.
Cause #2 : l’économie de croissance
L’économie de croissance, principe mis en place à l’entre-deux-guerres, oblige les entreprises de production de biens à toujours avoir une production supérieure d’une année sur l’autre. De ce concept naquit l’obsolescence programmée, c’est-à-dire la démarche délibérée de la part du fabricant à limiter la fiabilité et la durée de vie des biens produits.
Ainsi, si tout le monde possède un ordinateur, il va sans dire que tout le monde devra le changer plus rapidement ces temps-ci (autour de 3 ans) qu’il y a 15 ans (autour de 8 à 10 ans).
Etant donné que la croissance minimale est d’environ 2% par an, et que la population augmente de 1.8%, théoriquement le système devrait être en mesure de s’adapter facilement. Or, ce n’est pas le cas, et ce pour les raisons suivantes :
· Un des principes fondateurs de l’économie est non pas de répondre aux besoins primaires mais de générer des besoins secondaires, mettant le consommateur en état de dépendance
· Le système industriel, professionnel et social ne dispose pas de la flexibilité nécessaire à l’évolution de la population et de ses demandes
· Les marchés ne tiennent pas compte de l’évolution démographique liée à la natalité, la mortalité et aux flux migratoires, engendrant des contraintes d’ordre personnel, social, culturel, religieux, professionnel… Ainsi qu’aux disparités économiques de par le monde (les pays les plus riches ont une évolution démographique plus légère que les pays au fort taux de mortalité)
Cause #3 : le principe de concurrence et de liberté
Que celui qui croit que la concurrence est la meilleure solution pour apporter un équilibre économique mondial me jette la première pierre. L’évolution des procédés de fabrication et de distribution nous montrent aisément que la concurrence ne sert quasiment plus à rien :
· Concurrence de fabrication : la plupart des fabricants utilisent des ressources issues de quelques fournisseurs, et la valeur ajoutée n’est que rarement mise en évidence
· Concurrence de distribution : la vente directe d’usine via un service centralisé limiterait de nombreux problèmes liés aux minimums d’achat pour les revendeurs (ce qui peut expliquer des écarts de prix pour une référence donnée)
· Concurrence territoriale : l’artisanat ne peut pas souffrir de la concurrence territoriale, si la clientèle principale est une clientèle locale.
· Concurrence de services : certains services sont limités ou ont position de monopole, comme les transports en commun, les taxis. Cette concurrence n’entre en ligne de compte que si l’offre est supérieure à la demande.
· Concurrence agricole : les exploitations doivent en priorité produire des aliments de saisons, étant donné que les ratios de production frôlent avec ceux de l’agriculture intensive.
· Concurrence logistique : le transport des biens nécessite des spécialisations (froid, produits dangereux, dessertes courtes…)
· Concurrence informationnelle : le fait que l’information se situe en millions d’exemplaires sur tous les supports confondus induit une consommation de ressources qui peut être limitée à moins de 1% de ce qu’elle existe actuellement.
Sur le dernier point, si l’on imagine un service informatique mondial uniformisé et absent de toute notion de redondance, on peut mettre au placard plus de 99% des serveurs. Le système peut s’étendre aux émissions télévisuelles, dont une dizaine de chaines s’accapare plus de 80% de l’audimat, les revues et journaux, bref tout support d’information.
Existe-t-il des solutions ?
Le problème est récurrent dans tous les domaines : on ne peut augmenter une partie de l’idée sans diminuer une autre. Par exemple, si on blindait les voitures comme des chars d’assaut pour assurer la sécurité des occupants, on rendrait presque impossible leur sauvetage lors d’un accident. Ainsi, voici quelques propositions et leur problématique associée :
· Si une entreprise, ou une coalition, détenait Internet, on aurait un système qui tiendrait dans 1 ou 2 data-centers. On n’aurait qu’une porte d’accès à l’intégralité de l’information et on gagnerait en termes d’optimisation, d’économie d’énergie, etc. En contrepartie, ladite entreprise ou coalition se placerait en situation de monopole, et la qualité du service rendu s’en trouvera inéluctablement dégradée
· On peut imaginer des systèmes informatiques 100% modulaires (ordinateur, smartphone), mais la concurrence voudra que plusieurs systèmes se disputent le marché, jusqu’à peut-être n’en laisser qu’un. Ce fut le cas entre la VHS et le Betamax, le Blu-Ray et le HD-DVD, les milliers de chargeurs téléphoniques… Au final, les personnes qui auront acquis une technologie non retenue ne pourront pas faire évoluer leur dispositif, pour finalement le conserver en pièce de musée ou l’envoyer à la benne.
· On peut intégrer dans ladite modularité une gestion de modularité de puissance, ce qui permet non plus de changer les composants, mais de les associer. Ainsi, on pourra conserver une haute fiabilité de fabrication (>= 32 nm de gravure pour le silicium) et que chacun suive sa propre loi de Moore en fonction de ses besoins. En contrepartie, les éditeurs de logiciels resteront toujours de plus en plus exigeants en termes de performances minimales pour les nouvelles versions de leurs logiciels, rendant pour un grand nombre d’utilisateurs, une modularisation quasi permanente. D’un autre côté, le prix de la modularité sera bien supérieur à une configuration statique.
· Une reprogrammation des OS et logiciels est nécessaire pour les rendre plus performants. On peut très bien repartir sur une version très light et chacun récupèrera via Internet les composants dont il a besoin (interfaces graphiques, pilotes…). Un autre point serait de mémoriser la configuration matérielle pour ne pas avoir à tester à chaque démarrage qui est présent (la plupart des utilisateurs n’altèrent pas leur configuration), et de demander un scan en cas de changement. Cela impliquera des actions utilisateur à chaque ajout de matériel ou de fonctionnalités.
Le mot de la fin
Je suis personnellement triste que, pour des raisons aussi stupides qu’une loi archaïque, l’informatique prenne un tournant aussi absurde. L’économie mondiale est, par définition, un non-sens, étant donné que dans économie, il y a eco qui veut dire maison. Et que, étant donné les disparités de ressources (humaines, naturelles, financières) au sein d’un même pays, il est impossible d’appliquer une gestion mondiale généralisée, qui puisse donner une latitude de gestion suffisamment autonome aux provinces, en privilégiant l’économie locale.
L’informatique est très représentative de l’économie mondiale : des monopoles qui s’affrontent, des millions de solutions alternatives, des réformes qui n’arrangent qu’une minorité, une offre génératrice de demande… Tant que l’économie ne changera pas, l’informatique ne changera pas, et les deux courent à leur perte.