Pourquoi un PC rame ?

Par défaut

J’ai eu mon premier ordinateur en 1994, un Macintosh LCIII, processeur 33 MHz, 4 Mo de RAM et 80 Mo de disque dur. A cet époque, naïf et à l’esprit cartésien, je me disais que les nouveaux modèles allaient plus vite que les précédents. Ce qui est vrai sur le papier. Cependant, un test comparant un Mac de 1984 et un PC de 2007 montre que le Mac accomplit 57% des tâches plus vide. D’où vient le hic ?

Des composants hétérogènes

Tout d’abord, voyons le côté matériel. L’élément le plus rapide est le processeur, puis vient la mémoire vive (ou RAM), la carte-mère, pour finir sur les disques à mémoire (SSD) et les disques à plateau (HDD). Certains éléments n’entrent pas en ligne de compte, comme la carte graphique ou le BIOS de la carte-mère.

Pour bien comprendre le hic n°1, il faut savoir que l’information communiquant entre ces différents composants ira au plus vite à la vitesse du plus lent, comme un troupeau de moutons. Ici, on note le disque dur à plateaux. Les SSD sont en général 3 à 4 fois plus rapides. D’une manière générale, la diversité des composants et de leurs moyens de communication avec le processeur multiplie les contrôleurs, des intermédiaires de communication, et donc de traitement, surtout si les technologies de communication divergent, entre les instructions de longueur 32 et 64 bits par exemple.

De plus, la fameuse Loi de Moore, s’appliquant aux processeurs, n’est pas suivie par les autres composants. Certains se sont bien adaptés, comme les cartes-mères et la mémoire vive, mais les disques durs beaucoup moins (on était à 0.7 Mo/s en 1991 et 64 Mo/s en 2006, selon Moore on devrait être à 700 Mo/s, soit 10 fois plus…).

On peut également déplorer un contrôle systématique de l’état du matériel par le BIOS, le gestionnaire de périphériques interne, avant même le lancement du système d’exploitation. Celaprend en moyenne entre 5 et 10 secondes, alors qu’un mode “figé”, si aucun matériel n’a été ajouté ou remplacé, permettrait de passer outre ce temps.

D’un point de vue logiciel

Le système d’exploitation, ou OS pour son acronyme anglosaxon, est le premier logiciel chargé par l’ordinateur. Il permet de charger un ensemble de pilotes pour la communication avancée avec le matériel, des bibliothèques de fonctions pour d’autres logiciels, lire et écrire sur des supports, etc.

En somme, le principe fondamental n’a pas évolué depuis 1984.

Cependant, le poids des systèmes d’exploitation a considérablement augmenté : l’OS du Mac de 1984 tenait sur une disquette double-densité, soit 720 ko, Windows 10 tient sur 3 DVD, soit près de 19 000 des mêmes disquettes !!! En comparaison avec l’évolution de la vitesse des disques durs, l’OS est 100 fois plus lent !!! J’extrapole, car tous les composants d’un OS ne sont pas chargés au démarrage, et heureusement. Mais même si seulement 1% est chargé, on tombe sur les mêmes performances qu’un Mac de 1984…

De plus, tous les OS utilisent ce que l’on appelle un swap, une partie du disque dur utilisée comme mémoire vive de tampon. L’intérêt ? Je ne l’ai jamais su, mais cela a certainement dû être mis en place à une époque où la mémoire vive coûtait tellement cher que le ratio prix/performance le plus rentable était d’utiliser le disque dur, 25 à 50 fois plus lent que la RAM… Bref, ce concept n’est plus d’actualité, mais le swap, oui ! Et même si vous avez 32 Go de RAM, l’OS prendra du swap !

Enfin, les effets graphiques, comme la transparence et les animations, contribuent à fortement solliciter le processeur.

Comment s’en sortir ?

Plusieurs astuces permettent de trouver un PC digne de ce nom :

  1. mettre de la RAM (8 Go minimum) et désactiver le swap (si vous avez un OS 64 bits, sinon ça ne marchera pas)
  2. changer son HDD pour un SSD (technologie SLC ou MLC)
  3. utiliser un stockage à base de RAM (rien de plus rapide, mais le contenu est supprimé à l’extinction)
  4. supprimer de son OS tous les services et pilotes dont on n’a pas besoin (un peu compliqué, et beaucoup ont des dépendances)
  5. supprimer les effets graphiques (c’est moins beau mais plus fluide)

Tour de France !

Par défaut

Chers JEUeurs et JEUeuses, bonjour !

J’envisage, dans les semaines à venir, de faire un tour de France, et aimerais profiter de cette occasion pour rencontrer les JEUeurs et JEUeuses inscrit(e)s !

Ainsi, on pourra discuter du JEU, de son fonctionnement, du site, des améliorations possibles, se rendre des services…

N’hésitez pas à mettre à jour vos coordonnées, et à me contacter si :

  1. le principe vous sied
  2. si vous avez un p’tit souci en informatique !

JEUeusement,

Le fondateur du site j-e-u.org

Mails : POP ou IMAP ?

Par défaut

Vous avez certainement entendu parler des mails POP ou des mails IMAP. De quoi s’agit-il et quels sont les avantages/inconvénients de chacun ?

POP et IMAP

POP est le Protocole Agence Postale (Post Office Protocol, véridique) qui n’assure que la relève du courrier depuis le serveur de messagerie vers le client (Outlook, Thunderbird, etc.). Seule la suppression des messages est possible depuis le client.

IMAP, lui, est plus complexe car il assure une synchronisation bi-latérale (nouveaux messages, déplacement, état lu/non lu, suppression…).

Dans quel cas POP ?

POP n’est utile que si vous ne gérez vos mails que d’un seul endroit et conservez un historique de vos anciens messages, pour libérer de la place sur le serveur.

Dans quel cas IMAP ?

IMAP est recommandé pour la consultation depuis plusieurs appareils (PC, smartphone…). Mais la synchronisation fait que vous avez la même quantité de données utilisée sur vos clients que sur le serveur…

Et si ma messagerie sature ?

Certains clients de messagerie, comme Outlook ou Thinderbird (ce n’est pas le cas, par exemple, de Windows Live Mail), assure un système d’archivage, déplaçant les messages du dossier de synchronisation à un dossier local non synchronisé. le déplacement faisant croire à une suppression et le message est supprimé côté serveur. Les anciens messages restent consultables uniquement depuis le client de messagerie, et sont aussi supprimés des autres appareils synchronisés.

Acheter high-tech, mais léger…

Par défaut

Les produits high-tech (PC, smartphones…) sont très souvent livrés avec moultes logiciels qui, non seulement peuvent s’avérer inutiles, mais peuvent se charger systématiquement en mémoire, et réduire l’autonomie et la qualité d’utilisation ! Petit guide pour vous aider à acheter léger.

Smartphone : achetez hors opérateur

Les opérateurs, tels Orange, SFR ou Bouygues, ont tendance à rajouter leurs propres applications, qu’on ne peut désinstaller et dont on peut allègrement se passer. C’est un souci que l’on ne retrouve pas si l’on achète en grande distribution ou en magasin spécialisé (FNAC ou autre).

Autre conseil : pour les amateurs d’Android, limiter les marques à surcouches (Samsung, Wiko…), qui non seulement proposent des interfaces graphiques gourmandes en ressource, mais eux aussi fournissent des logiciels qu’on ne peut désinstaller. Idéalement, des marques comme Motorola ou Nexus, qui appartiennent à Google, limitent grandement ces désagréments.

Je ferai l’impasse des smartphones BlackBerry, MicroSoft et Apple, qui eux maîtrisent presque à 100% ce qui s’y trouve, et pour lesquels il n’existe pas de concurrence.

Le smartphone est-il une nécessité ?

Clairement, non, en tous cas, moins que l’oxygène ou les fraises Tagada. Nokia relance fièrement son 3310, et un grand nombre de fabricants proposent toujours des téléphones cellulaires simples, avec appels et SMS, plus 2-3 fonctions, comme alarme, calculatrice, répertoire… Doro s’est même taillé un marché en ne développant que des modèles pour séniors !

PC : privilégiez le sur-mesure

Tous les assembleurs de PC ont des partenariats avec des éditeurs de logiciel (MicroSoft, McAfee, Norton…) et proposent des versions d’évaluation de certains logiciels. De plus, ils proposent également pléthore de logiciels maison pour la garantie, l’économie de la batterie… Bref, une surcharge digne des smartphones !

Pour être tranquille, et si vous connaissez quelqu’un qui s’y connait un peu, voici 2 solutions :

  1. les revendeurs ont obligation d’accepter de vous vendre un PC sans licence Windows. Ainsi, ils peuvent reformatter le disque et vous économisez 100 € sur l’achat, équivalent au peix de ladite licence. Il ne restera qu’à installer un OS et les pilotes idoines.
  2. Achetez votre PC chez un assembleur/réparateur, qui lui mettra un système propre, sans logiciels tiers (sauf demande expresse de votre part).

Mon PC démarre en mode sans échec !

Par défaut

Microsoft Windows dispose d’un mode de démarrage appelé mode sans échec. Il propose ainsi la possibilité de démarrer avec un système minimal (sans pilotes ni logiciels au démarrage) pour réparer un problème qui mettrait à mal le fonctionnement normal de l’ordinateur.

Or, dans des cas aussi rares que des personnes se transforment en arbre dans certaines parties du monde (maladie de Levandowsky-Lutz), le PC peut décider de démarrer en mode sans échec, alors que tous les paramètres montrent le contraire !

Heureusement, Billou (Bill Gates, le fondateur de MicroSoft) a ajouté un configurateur de démarrage. Pour se faire :

  1. Cliquez sur Démarrer
  2. Cliquez sur Exécuter
  3. Saisissez la commande suivante dans la zone de texte : msconfig.exe
  4. Cliquez sur l’onglet Général
  5. Choisissez Démarrage sélectif, et cochez toutes les cases en-dessous
  6. Faites OK, et redémarrez

Synchroniser Outlook.com avec Outlook 2016

Par défaut

Outlook.com, ex-Hotmail, est le nouveau service unifié de MicroSoft pour les mails, contacts, calendrier, etc. Il possède la possibilité d’ouvrir un compte à partir d’une adresse mail extérieure, mais non sans conséquences.

En effet, si vous comptez utiliser Outlook 2016 du pack Office (et sûrement d’autres versions sont impactées), et que votre compte Outlook.com n’est pas basé sur une adresse @hotmail, @outlook ou @live, le logiciel de messagerie refusera toute synchronisation !

Pour pallier ce problème, il suffit de créer un alias de messagerie, comme expliqué ici. Et de rajouter le compte dans Outlook avec cet alias et votre mot de passe habituel pour Outlook.com.

Libérer la mémoire !

Par défaut

En informatique, il existe 2 types de mémoire :

  • la mémoire morte, ou mémoire de stockage (disque dur, disquette, CD, DVD…)
  • la mémoire vive, ou RAM, servant à l’exécution des programmes

Aujourd’hui, nous allons nous intéresser à la mémoire vive.

Son rôle

C’est une mémoire volatile, dans le sens où son contenu est totalement effacé lors de l’extinction de l’ordinateur. Elle est très rapide, et permet de charger les instructions nécessaires au bon fonctionnement des programmes.

Elle permet aussi de stocker les documents ouverts à l’édition (documents, classeurs, photos, vidéos, etc), avec une gestion plus ou moins bonne selon les cas…

Ses limites

Les programmes peuvent difficilement anticiper l’usage de mémoire vive dont ils devront disposer. A cette fin, les ingénieurs ont créé une mémoire virtuelle, ou swap, qui utilise une partie du disque dur comme mémoire auxiliaire. Le disque dur étant en moyenne 100x plus lent que la RAM, c’est pourquoi plus il y a de programmes lancés, plus ça rame !

Comment bien gérer ?

Quelques petites règles d’usage afin de limiter les ralentissements et les saturations :

  1. limitez les programmes qui se lancent au démarrage de l’ordinateur (appelez-moi pour vous expliquer comment faire, c’est assez spécifique)
  2. quittez les programmes que vous n’utilisez plus (ATTENTION : sur Mac, fermer une fenêtre ne quitte pas un programme, Cmd+Q ou Quitter dans le menu sont nécessaires)
  3. fermez les documents sur lesquels vous ne travaillez plus
  4. après de grosses manipulations de fichiers, faites une pause en redémarrant votre ordinateur
  5. dans tous les cas, pensez à éteindre votre PC au moins une fois par jour

Ces conseils sont également applicables à votre smartphone (Windows Phone, Android ou iPhone).

Impression impossible sous Windows : activer le spool

Par défaut

Windows, de par sa conception ancestrale et peu remise en question, utilise des services pour gérer des fonctions en tâche de fond (sans fenêtre apparente et limitant l’usage des ressources). Sauf que, sa réputation le précédant, la fiabilité de l’ensemble de l’architecture logicielle laisse sérieusement à désirer. Ainsi, se trouve-t-on parfois dans l’incapacité d’imprimer… parce que le service n’a pas démarré !

Mais bon, Bill Gates (ndlr : le fondateur de MicroSoft, et donc de Windows), dans son infinie sagesse, a prévu la possibilité de redonner un coup de démarreur. Pour se faire 3 solutions :

  1. brûler un cierge et chanter des incantations en langage binaire et en sautant sur un pied (la communauté scientifique ne préconise pas cette pratique, aucune étude n’appuyant l’efficacité de cette démarche)
  2. redémarrer le PC, en espérant qu’il n’y ait pas un composant qui empêche le démarrage du service
  3. Menu Démarrer, Exécuter, saisir services.msc, chercher Spouleur d’impression, cliquer dessus puis sur Démarrer

Et sur Mac ?

Le coeur de Mac OS X utilise un noyau Unix, dont la conception limite au maximum les interactions entre les services, en leur garantissant une totale autonomie d’exécution. De ce fait, la probabilité qu’un service en interrompe un autre est bien plus faible que sous Windows, et un simple redémarrage de la machine permet à 99% de remettre en route les services.

La fin de la loi de Moore ?

Par défaut

En 1965, Gordon Moore, alors ingénieur chez IBM, constata que la puissance des processeurs depuis 1959 doublait tous les 18 mois environ. Ce constat a dès lors été érigé comme Loi (totalement empirique) d’évolution des composants électronique.

Les conséquences de cette loi sont nombreuses :

  • les machines à concevoir les processeurs doivent être changées tous les 2 ans, à raison de plus d’1 milliards de dollars par chaîne de production, incitant un renouvellement rapide du marché des appareils électroniques, et laissant de côté les notions comme le recyclage, la multiplication des supports des données personnelles, etc.
  • les systèmes d’exploitation (Windows, Mac OS X) s’allourdissent plus vite que les machines ne deviennent rapides, donc le gain de performance pour des usages quotidiens n’est pas perceptible
  • les limites physiques du silicium le contraignent à une finesse de gravure de 32 nm (nanomètres), or cette limite a été franchie en 2011, notamment par les processeurs Intel Sandy Bridge, ce qui implique des incohérences quantiques, donc des calculs à faire 5 fois pour valider leurs résultats (d’où une usure prématurée des composants et une grande baisse de fiabilité des composants). Et il n’existe aucun concurrent capable de remplacer de manière aussi pronocée le silicium à très court terme.
  • la capacité à multiplier les coeurs au sein d’un processeur dispose aussi de ses limites (on arrive aujourd’hui à une moyenne de 4 coeurs, mais cela n’est pas suffisant pour compenser la Loi de Moore)

En février 2016, l’organisme de définition des directives dans la conception des semoconducteurs (ITRS) a établi la fin de la Loi en 2021, stabilisant la gravure des composants à 10 nm.

Les conséquences de la fin de la Loi de Moore sont nombreuses aussi :

  • repenser la conception des composants électroniques, misant davantage sur des structures tri-dimensionnelles
  • repenser le marché de l’électronique (cycle de renouvellement et durée du SAV), et limiter l’obsolescence programmée
  • repenser la notion de performance, et j’adore ce test entre un Mac de 1984 et un PC de 2007, rien qu’au démarrage…
  • repenser la notion de généralisme, en orientant la recherche vers des composants spécifiques, donc optimisés (comme les processeurs graphiques), voire à travailler avec la multiplicité de processeurs spécifiques (comme ce fut le cas à une époque avec les coprocesseurs arithmétiques)

Personnellement, je pense que les vrais changements, surtout au niveau utilisateur, n’apparaîtront pas avant une dizaine d’années. D’ici là, on continuera à devoir changer matériels et logiciels pour cause de “fin de prise en charge” par les mises à jour ou les SAV.