PROJET AUTOBLOG


FredericBezies

source: FredericBezies

⇐ retour index

Comment bien choisir sa distribution GNU/Linux ? Quelques conseils.

dimanche 26 avril 2015 à 16:26

Il m’arrive de recevoir des courriers électroniques qui me demandent : quelle distribution choisir ? Avec presque 300 distributions indexées encore vivantes, fin avril-début mai 2015, sur la bible de l’actualité linuxienne, c’est comme chercher une aiguille dans une botte de foin sans avoir de détecteur de métaux pour se simplifier la tâche.

Cet article a été cloné dans une page pour rester en libre accès.

Voici donc une série de cinq commandements pour vous permettre de dégrossir votre recherche. Les listes ci-dessous sont aussi exhaustives que possible.

Premier commandement : Tu n’iras pas au-dela de la première génération descendante des distributions mères.

Par distribution mère, je parle des distributions nées entre 1992 et 2002 et toujours en vie de nos jours. Par ordre alphabétique :

  1. Archlinux (née en 2002)
  2. Debian GNU/Linux (née en 1993)
  3. Gentoo Linux (née en 1999) et sa « jumelle » Funtoo Linux plus simple d’accès par endroit
  4. Red Hat Linux (née en 1994) surtout connue pour son projet communautaire Fedora Linux (né en 2003)
  5. Slackware Linux (née en 1993)
  6. SuSE Linux (née en 1994) surtout connue pour sa dérivée OpenSUSE

Si on prend leurs descendantes directes les plus connues, cela donne principalement :

  1. Manjaro Linux
  2. Ubuntu et ses saveurs officielles : Kubuntu, Xubuntu, Lubuntu, Ubuntu Gnome, Ubuntu Mate, Ubuntu Kylin
  3. Sabayon Linux (en piteux état !) ou encore la Calculate Linux
  4. CentOS Linux ou encore la Scientific Linux. Sans oublier l’excellent Viperr.
  5. SalixOS
  6. Pour OpenSUSE, je n’ai rien qui me viennent à l’esprit :(

Pour la Debian GNU/Linux, je rajouterai des projets comme la HandyLinux par exemple. Les rares exemples de distributions « petites-filles » qui valent la peine ? LinuxMint, Emmabuntüs sont les deux premiers noms qui me viennent à l’esprit.

J’allais oublier une distribution qui me tient à coeur, la descendante de la mythique Mandrake Linux, j’ai nommé la Mageia.

Deuxième commandement : toujours l’original à la copie tu préféreras.

Nombre d’environnements sont portables dans le monde GNU/Linux. Ce qui permet souvent d’avoir un environnement spécifique disponible sur les bases listées ci-dessus. Cependant, il y a un principe à appliquer. Si un environnement est proposée par une distribution, la meilleure expérience qu’on pourra en avoir est sur la dite distribution.

Un cas d’école ? Vous aimez Cinnamon et vous voulez une base Ubuntu ? Ne cherchez pas plus loin que la LinuxMint qui développe aussi Cinnamon. Sinon, vous pourriez vous en mordre les doigts. Enfin, je dis cela, mais je vous laisse libre de faire votre propre expérience :)

Troisième commandement : les petites communautés, autant que possible tu éviteras.

Il y a beaucoup de distributions qui ont des petites communautés de développeurs et d’utilisateurs. Si cela est plaisant et donne l’impression de faire partie d’une famille, cela a aussi ses inconvénients, en terme de support techniques.

Il y a toujours des exceptions, et je citerais entre autres : 0Linux, NuTyX ou encore Void Linux. Ce sont des petites distributions avec des petites communautés, mais elles sont réactives et solides.

Quatrième commandement : les versions améliorées, autant que possible tu éviteras.

Pour des raisons d’ordre légal, certaines technologies ne sont pas préinstallées, car elles sont couvertes par une hérésie du nom de brevets logiciels, l’exemple le plus connu étant le mp3.

Par conséquent, des personnes bien intentionnées proposent des versions complétées des versions officielles. Comme « la route de l’Enfer est pavé de bonnes intentions« , on finit par se retrouver parfois avec des distributions tellement lourdes qu’on se demande comment l’ordinateur fait encore pour ne pas succomber à une crise d’asthme au démarrage.

Un exemple ? Oh, l’Updated Ubuntu Mate pour ne citer que lui.

Cinquième commandement : des clés USB et de la virtualisation, tu abuseras.

Nombre d’ISOs téléchargeables sont désormais hybrides. On peut tout aussi bien les écrire sur des clés USB que sur des CD-RW ou des DVD-RW, et l’énorme majorité des distributions proposent des ISOs « live » pour voir l’ensemble en action sur son ordinateur sans prendre aucun risque.

Pour la virtualisation, même si ce n’est pas la panacée, elle permet de se familiariser avec une distribution, ses spécificités, ses outils avant de faire le grand saut ou pas.

Il n’y a aucune recette miracle, mais si cela vous permet de nettoyer un peu les écuries d’Augias du logiciel libre, pourquoi pas ?

Règlement de compte à Linux Corral, dernière partie : Quand on me parle d’innovation dans le monde des interfaces graphiques…

dimanche 26 avril 2015 à 11:36

…J’explose de rire. C’est vrai, depuis l’arrivée des interfaces graphiques utilisateurs dans le monde de la micro-informatique, les développeurs de nouvelles interfaces promettent une révolution lié à l’innovation. Il faut rester honnête. Rien de vraiment nouveau n’a été inventé depuis l’époque de NeXT, sauf avec l’arrivée des écrans tactiles où on manipule l’interface avec les doigts et non plus avec une souris.

Mis à part les écrans tactiles, depuis la fin des années 1980, on peaufine plus qu’on innove. Dès les années 1970, Xerox avec son ordinateur prototype Alto en 1973 a posé les bases de l’interface graphique utilisateur.

Une célèbre démo avait été faite par les chercheurs de Xerox à la toute jeune Apple Computer qui vendaient alors des Apple II par camions entiers.

Apple s’en inspira d’abord pour le Lisa, puis pour le premier MacOS. Comme on peut le voir dans cette vidéo commerciale d’Apple de 1983 pour l’ancêtre malheureux du MacIntosh.

On peut se dire que les grandes lignes étaient déjà présentes dès 1983. Les interfaces graphiques utilisateurs utilisent toutes (ou presque si on prend ratpoison et certains gestionnaires de fenêtres austères) le quatuor magique : W(indows) – I(cons) – M(enus) – P(ointer device).

En clair, on manipule des fenêtres et des icones via des menus le tout en utilisant une souris. Pour les menus, il y a deux écoles : menus globaux (comme ceux de MacOS) ou locaux (les autres interfaces).

Il y a bien entendu eu des raffinements comme l’arrivée des barres de lancements (les docks), les lanceurs avec des outils comme le Dash d’Unity ou encore le launchpad de MacOS-X, les jolis effets de lancements, mais rien de vraiment révolutionnaire. Les menus de lancement se sont complexifiés, mais depuis le menu Pomme du premier Mac, le principe est toujours rester le même.

D’autres raffinements ont eu lieu, comme le multi-écran réel ou simulé (avec les espaces de travails virtuels qui doivent être aussi vieux que X11 sorti en 1984), ou encore avec l’arrivée d’un vrai multitaches entre les applications. Mais entre la manipulation des fenêtres d’un Mac de 1984 et celui d’un Mac de 2015, les principes restent les mêmes.

La seule vraie tentative pour révolutionner les interfaces graphiques, c’était le projet Looking Glass 3D au milieu des années 2000. Une interface en 3D réelle développée en Java, abandonné par la suite.

La vidéo était impressionnante :

Mais côté ergonomie, j’avoue que j’ai des légers doutes. Ce serait bête d’oublier le projet Bob, un des plus gros échecs de Microsoft dans le domaine des interfaces graphiques utilisateurs. Mais cela fera surement l’objet d’un article vieux geek car il en vaut la peine à lui tout seul.

Moralité ? Si une distribution GNU/Linux déclare que son interface graphique est révolutionnaire, souvenez-vous que rien n’a vraiment été inventé dans ce domaine depuis l’échec relatif de l’interface Looking Glass 3D au milieu des années 2000, voir même depuis l’arrivée du premier Mac en 1984.

Règlement de compte à Linux Corral, deuxième partie : Pourquoi utiliser une machine virtuelle pour tester des distributions GNU/Linux.

samedi 25 avril 2015 à 13:39

Deuxième article de cette petite série de mises au point, entamée le 24 avril 2015. Avant que je ne claque temporairement la porte par lassitude, une remarque qui revient souvent est : « c’est pas bon, c’est pas un test en dur, ça vaut rien ! »

Je peux admettre cette remarque, cependant, il faut prendre en compte un fait précis. Il est « techniquement » impossible de faire un test en dur qui soit vraiment exhaustif.

Pourquoi ? Il n’y a pas de machine idéale qui représente toutes les machines. Si on prend l’ensemble micro-processeurs (CPUs), circuits graphiques, on arrive à quoi ? En se limitant aux marques principales, on a deux types de CPUs (Intel et AMD), trois marques de circuits graphiques (Intel, Nvidia et ATI).

Donc, on aurait besoin au minimum de machines équipées avec :

  1. Un CPU Intel avec un circuit graphique Intel
  2. Un CPU Intel avec un circuit graphique Nvidia
  3. Un CPU Intel avec un circuit graphique ATI
  4. Un CPU AMD avec un circuit graphique Nvidia
  5. Un CPU AMD avec un circuit graphique ATI

5 possibilités. J’ai enlevé l’improbable CPU AMD et circuit graphique Intel. Ensuite, il faudrait voir la marque de la carte mère : Asus, MSI, Gigabyte, autre ? Ensuite, quel circuit ethernet ? Quelle circuit sonore ? Avec ou sans wifi ? Un disque dur ou un SSD ? Quelle quantité de mémoire vive ? Avec ou sans lecteur optique ? Bios ou UEFI ?

On arrive à une bonne cinquantaine au minimum de machines si on veut balayer un tant soit peu l’existant. On va me dire que je suis un obsédé de Distrowatch, mais un des rédacteurs teste des distributions sur une semaine entre une machine virtuelle et sa machine de test qui est la suivante, je copie-colle l’information d’une gazette récente :

* Processor: Dual-core 2.8GHz AMD A4-3420 APU
* Storage: 500GB Hitachi hard drive
* Memory: 6GB of RAM
* Networking: Realtek RTL8111 wired network card
* Display: AMD Radeon HD 6410D video card

Quid des résultats sur une machine à base d’Intel, avec un circuit réseau différent, une quantité de ram plus petite ou plus grande ? Ou avec un circuit vidéo différent ?

Si j’utilise des machines virtuelles, c’est pour plusieurs raisons :

  1. Proposer un environnement « normé » et identique à chaque fois : 2 CPUs, 2 Go de mémoire vive, 128 Go de mémoire, circuit de carte mère PIIX3, carte son ICH AC’97, circuit réseau Intel Pro/1000.
  2. Profiter des instructions de virtualisation proposées par mon matériel. Donc obtenir une vélocité assez proche de la machine d’origine, on va dire qu’au pire, il y a 15% de perte de vitesse pure.
  3. Si la machine virtuelle part en cacahuètes, je peux éviter la perte des données de mon disque réel. Il me suffit de l’effacer et mon environnement est protégée
  4. J’évite les problèmes de pilotes mal embouchés du genre pour les circuits intel GMA 500 ou encore Nvidia Optimus.

Il n’est nullement question de faire des tests de puissance entre une machine virtuelle et une machine réelle. Pour deux raisons :

  1. L’environnement virtuel est « idéalement » simplifié pour être passe-partout.
  2. La diversité du matériel du monde réel demanderait de prendre un nombre important d’ordinateurs et de faire des moyennes pour s’approcher asymptomatiquement de la réalité.

Utiliser une machine virtuelle n’est pas la panacée, mais ce qui reste de plus souple en cas de problèmes. Évidemment, si on utilise un environnement graphique qui est extrèmement gourmand en ce qui concerne l’accelération graphique (comme un environnement basé sur Compiz), on aura droit à quelque chose qui ressemblera à une tortue rhumatisante à trois pattes vu sa lenteur.

Quand je propose mensuellement le tutoriel d’installation d’Archlinux, si j’utilise une machine virtuelle, cela me permet de présenter dans des conditions idéales la distribution. C’est un repère et rien d’autre. J’adore quand on me dit aussi : « Ouais, tu l’utilises 15 minutes avant de pondre un jugement ».

Quand j’enregistre une vidéo, c’est souvent après la deuxième installation en virtuel. Dans la première, avec mon outil de prise de notes ouvertes, je dépose des remarques, je prépare le corps de l’article. En cas de fausse manipulation, j’indique qu’il faut faire attention à ceci ou à cela. Quitte à recommencer depuis le début.

Ce qui peut demander deux bonnes heures, surtout quand je dois rechercher de la documentation, qui se résume parfois à rien ou presque. Ensuite, je teste l’installation de logiciels, la gestion des mises à jour. C’est souvent à la deuxième installation que je m’attaque aux captures d’écran, à la finition du texte, et à l’enregistrement de la vidéo.

Mais il ne faut pas oublier qu’en aval de toute récupération d’ISOs ou d’installation, il y a une forte réflexion pour savoir comment aborder le produit en question. Pour un test publié, souvent il y a deux ou trois brouillons. Si le test ne voit pas le jour, c’est que le produit en question n’est que la énième dérivée de Debian GNU/Linux ou d’Ubuntu à la « je change le fond d’écran, le thème, je prends un nom de la mort qui tue et je balance en ligne. »

Intérêt ? Celui de faire roter mon /dev/null et d’allonger sans fin la liste d’attente de Distrowatch.

En gros, sur un test qui sort, on peut se dire que c’est en moyenne 6 à 8 heures de préparation, d’observation, et de mise à l’épreuve. C’est vrai que c’est court.

Cependant, je vous le demande : qu’est-ce qui ressemble le plus à une Debian GNU/Linux qu’une autre Debian GNU/Linux ? Si une distribution tierce basée sur la Debian GNU/Linux utilise uniquement les dépôts en question, est-il besoin de faire un test sur 15 jours ?

S’il doit y avoir une merde temporaire sur les dépots de la Debian GNU/Linux, cela se répercutera automatiquement sur la distribution tierce.

Je n’ai jamais prétendu détenir la vérité. Depuis des années, quand j’ai présenté des distributions sur lesquels j’avais des doutes sur la vitalité, et que j’ai malheureusement raison (cf les épopées Micro-R OS ou encore de PearOS), cela me rend plus triste qu’heureux.

Maintenant, si vous n’êtes pas d’accord avec l’idée de présenter des distributions dans un environnement normé car virtualisé, vous êtes libre de ne pas lire les articles en question. Ou de me le signifier poliment dans les commentaires.

Règlement de compte à Linux Corral, première partie : De la « Stockholmisation » croissante d’une partie des communautés informatiques.

vendredi 24 avril 2015 à 14:54

Par « Stockholmisation », je veux bien sûr parler du phénomène psychologique connue sous le nom de Syndrome de Stockholm :

Il se définit ainsi :

Le syndrome de Stockholm désigne un phénomène psychologique où des otages partageant longtemps la vie de leurs geôliers développeraient une sorte d’empathie, voire de sympathie, ou de contagion émotionnelle avec ces derniers selon des mécanismes complexes d’identification et de survie.

Loin de moi l’idée de comparer une communauté informatique et de dire que les utilisateurs sont « otages » (je ne travaille pas pour certains médias bien connus pour détourner le mot usage de son sens étymologique) de la distribution qui fait fonctionner leurs ordinateurs. Non, mais on arrive parfois à un point qui fait presque se poser la question : « Où est passé le sens critique ? »

Dans un article de Cyrille Borne consacré à ma crise de colère et la fermeture temporaire du blog, suite à une saturation que je ne pouvais pas gérer autrement, le blogueur francophone libre au côté duquel je pourrais passer pour un pacifiste déclare :

La différence c’est que Fred s’en prend à une distribution Linux, certains fanboys sont tellement demeurés que toucher à leur distribution c’est comme si on touchait à leur mère. La moralité c’est que les gars se sentent si outrés qu’ils s’en prennent à la personne et pas aux idées au point effectivement d’en devenir insultants.[…] De l’autre côté, que dire d’une distribution qui essaie de réinventer la roue, faire un nouveau client mail qui marche à moitié quand des logiciels comme thunderbird ou claws mail existent, une distribution qui a plus de talent dans sa communication que dans sa prestation, oui on pourrait échanger.[…]

J’ai volontairement sauté le passage sur ma méthode de tests basée sur le pourquoi du comment de l’utilisation de machines virtuelles, j’y reviendrais dans un article plus tard, encore en rédaction au moment où je publie cet article.

C’est vrai, j’ai tendance – tout en prenant des pincettes – à dire ce que je pense de certains projets. Cela m’avait valu pas mal d’inimitié à une époque avec la communauté Ubuntu francophone, même si depuis, cela va beaucoup mieux.

J’ai aussi eu du fil à retordre avec feu PearOS qui était elle aussi un clone de l’interface graphique de MacOS-X. Pour mémoire, je vous renvoie à une interview de David Tavares, quelques mois avant que PearOS ne disparaisse du radar. Avec le recul, on peut se demander si les critiques sur la pertinence de mes tests est si mauvaise au final.

Sans oublier le mini-feuilleton sur Micro-R OS, qui comme je le pensais, s’est terminé en queue de poisson pour cette énième dérivée d’Ubuntu.

Dans un article de son blog naissant, Stroggle a exprimé un point de vue tranché sur la communauté GNU/Linux, je le cite :

[…]Combien de posts et commentaires déchaînés sur systemd ? Je ne rallongerai pas la liste, ça ne doit pas faire assez longtemps que je suis sous GNU/Linux pour connaître tous les débats. Cependant, je vois en ce moment des gens qui se sont beaucoup investis dans cette OS, que ce soit par le développement ou la communauté, qui partent maintenant sous OpenBSD parce qu’ils s’y retrouvent plus. Le message est assez compréhensible : la communauté GNU/Linux commence à devenir mauvaise et divisée.[…]

Pour avoir rédiger des articles sur systemd, je ne peux qu’appuyer la réflexion développée ici. J’avoue que certains jours, j’en ai ma claque de voir l’immaturité et le zèle poussé à l’extrème déchirer la communauté libriste, spécialement linuxienne. Heureusement, il me reste des projets comme la Slackware Linux, 0linux, Debian GNU/Linux, Fedora Linux, Gentoo Linux, Funtoo Linux, NuTyX, Archlinux, Manjaro Linux pour me remonter le moral. Et bien sûr, la Ubuntu (et ses saveurs officielles) et sa fille la plus connue, Linux Mint.

Je m’excuse pour les développeurs de projets consciencieux dérivés des bases listés ci-dessus de les avoir oublié. Mea culpa…

Je ne croyais jamais pouvoir écrire cela, mais parfois, la communauté Apple semble moins fanatisée que certains zélateurs de certaines distributions. Les personnes sont si enfermées qu’elles refusent d’admettre les défauts qu’on peut trouver, et partent directement dans l’invective. D’accord, l’arrivée des Apple Watch a fait remonter le niveau de la communauté fruitée dans ce domaine.

Aucune distribution n’est parfaite. Aucune n’est la solution ultime. J’utilise des distributions GNU/Linux à temps partiel (1997 à 2006) ou à temps plein (depuis 2006) pour avoir vu des projets qui promettaient monts et merveilles avant de disparaître. L’exemple PearOS est le premier qui me vient à l’esprit, car c’est le plus récent dans ce domaine.

Qui se souvient de distributions comme la Nasgaïa qui se voulaient être une distribution 100% libre, respectueuse de la FHS et basée sur la LFS ? Je l’avais même utilisé à une époque, mais le projet s’est essoufflé malgré les qualités de la distribution.

Même si j’ai réagi avec un coup de sang, je sais très bien que ce qui fait le plus mal à une distribution, outre ses propres défauts, ce sont les personnes qui en font une promotion un peu trop appuyée. La différence entre vouloir informer et tomber dans la propagande est celle du papier à cigarette.

C’est ici que s’applique un proverbe typique de l’aveuglement d’une partie très vocale des communautés : « L’enfer est pavé de bonnes intentions ». Quand je vois cela, il ne reste plus qu’une chose à faire pour éviter les brûlures au troisième degré et les procès d’intention : ignorer la communauté en question et laisser le temps faire son oeuvre.

Un autre proverbe qui me plait énormément et qui est représentatif de la popularité dans le monde des distributions GNU/Linux est celui-ci : « Il n’y a pas loin du Capitole à la Roche Tarpéïenne ». Les utilisateurs de la feu Mandriva Linux ou encore de projets plus anciens comme Linspire savent de quoi il en retourne.

Vieux geek, épisode 32 : ah, les kits multimédias.

vendredi 24 avril 2015 à 14:19

Il faut se replonger au milieu des années 1990. Les boys band préparaient leurs musculatures impeccables pour que les minettes de l’époque (qui sont désormais des trentenaires) hurlent leurs noms à s’arracher les cordes vocales.

Microsoft venait juste de sortir MS-Windows 4.0 resté dans l’histoire de l’informatique sous le nom de MS-Windows 95 (et dont j’ai parlé dans l’épisode 6 de la série en septembre 2012).

Les premiers Pentium d’Intel monte à 100 Mhz, voire 133 Mhz en vitesse de pointe. On bave sur les disques durs énormes qui frole le Go. Sur le plan de l’équipement, si on a une machine avec 16 Mo en EDO, c’est qu’on a cassé sa tirelire et qu’on se prépare à manger nouilles et riz durant un mois.

Cependant, les PCs à l’époque sont encore des machines essentiellement bureautique. Qui dit bureautique dit sérieux, frustre et surtout aucune distraction sonore ou visuelle. Cependant, avec l’arrivée de MS-Windows 95, un mot va faire son apparition : multimédia.

Les magazines papiers de l’époque encore tout puissant propose chaque mois le test d’un ou plusieurs kit multimédias. Le principe est simple : un ensemble proposant une carte son (plus ou moins compatible SoundBlaster, standard de fait), avec un lecteur de CD-ROM allant de 2 à 4 fois la vitesse nomimale (les derniers modèles de lecteurs de CD-Rom monteront à 52x, soit 52 fois la vitesse nomimale), et une paire d’enceintes.

Le tout fourni avec la connectique nécessaire, à savoir une nappe IDE qu’il fallait brancher sur la carte mère. Encore si on avait une carte mère suffisamment bien fournie pour proposer un deuxième port IDE. Sinon, il fallait jouer avec des bouts de plastique, les « jumpers » pour passer le lecteur de CD-ROM en tant qu’esclave du disque dur.

Une fois qu’on avait tout vissé et que tout était bien en place, il fallait redémarrer l’ordinateur en croisant les doigts pour éviter un écran bleu de la mort et espérer que MS-Windows avait en stock les pilotes pour reconnaitre le matériel fraichement installé.

Et enfin, si tout se passait bien, on pouvait enfin entendre la musique de démarrage de MS-Windows 95, et surtout, insérer une galette musicale et la lire dans l’ordinateur.

Si de nos jours les ordinateurs sont fournis déjà prééquipé, pensez-donc aux pionniers qui ont dû jouer du tournevis pour avoir la possibilité d’écouter leurs albums dans leur ordinateur. Et dire que cela remonte seulement à une vingtaine d’années !

Post Scriptum : cet article fait suite à un coup de sang lié à l’aveuglement de personnes incapables de voir que « la Ferrari Testarossa qu’ils présentent est en réalité une Renault Clio recarrosée » en version distribution GNU/Linux.

Pour les personnes qui diraient que je n’accepte pas la critique, je l’accepte quand elle est justifiée et qu’on ne tombe pas dans l’attaque sur la personne dès le départ. D’autres articles qui seront vraiment très acides sont à venir car malheureusement nécessaire. Autant dire que je peux préparer le gilet pare-balles et la biafine pour les bûchers sur lesquels certains voudraient me voir cramer.