PROJET AUTOBLOG


FredericBezies

source: FredericBezies

⇐ retour index

Je me suis réveillé ce matin et je me suis aperçu qu’on était en mars 2017…

dimanche 19 mars 2017 à 12:44

Petit préambule : cet article sera plutôt long. De plus, je ne prétends pas détenir la vérité ou encore avoir toujours raison. Si c’était le cas, je me serais déjà engagé depuis longtemps en politique 😉

Cette précision étant faite, attaquons-nous au coeur du sujet. Je vais sûrement être traité de troll par une partie du monde libre francophone, mais en ayant l’habitude, cela ne me touche plus trop.

Cela fait des années que je répète – tel un disque rayé comme ceux de mes détracteurs ? – que le monde du libre, qu’il soit francophone ou anglophone se croit encore 10 voire 20 ans en arrière.

Comme si nous étions encore à l’époque des Intel Pentium à 200 Mhz, avec 16 Mo de mémoire vive, des disques durs de 2 voire 4 Go, avec des modems en 33,6 Kbps/s pour se connecter au réseau des réseaux avec un bon vieux Netscape Navigator 3.

J’ai connu cette époque glorieuse, aussi bien sous MS-Windows 9x que sous les premières distributions GNU/Linux de l’époque. Que ce fût avec la Red Hat Linux 4.2, les premières Linux Kheops ou encore les Debian GNU/Linux 1.x.y comme pouvaient fournir des magazines comme feu Login.

À l’époque, configurer Xfree86 – l’ancêtre de Xorg – était un parcours du combattant. Faire reconnaitre une carte son ou une imprimante récalcitrante ? Une purge. Mais on acceptait cela. Les « early adopters » de Linux dont je fais partie, en gros celles et ceux qui ont connu Linux avant le milieu des années 2000 se souviennent sûrement du parcours du combattant qu’était l’installation.

Bien entendu, les utilisateurs de MS-Windows et de MacOS avaient des crampes aux côtes à force de rire. Ils avaient droit aux écrans bleus de la mort et aux autres « Mac triste », mais ils avaient un avantage de taille : c’était souvent fonctionnel dès le départ avec leur OS respectifs.

Oui, je sais, il y a eu le célébrissime BSOD en direct sur CNN pour la présentation de MS-Windows 98.

Mais au moins, on avait une interface graphique 🙂

Le monde du libre a avancé sur la « simplification » de Linux. Il suffit de comparer l’installation d’un distribution en 1997 et en 2017. On est passé du mode texte pur et dur à des installateurs comme Calamares ou Anaconda qui font ce qu’on leur demande sans faillir.

Cependant, sur d’autres plans, le monde du libre est franchement encore en 1997. J’ai critiqué de nombreuses fois l’utilisation abusive et compulsive du fork.

Certaines personnes n’avaient voulu y voir qu’une critique du principe même du fork, alors que je disais que le fork est une bonne chose. En abuser pour un oui ou pour un non, ça finit par le vider de sa substance.

Un exemple de fork compulsif ? Le projet GoneMe. Lancé en 2004 pour contrer l’arrivée de la navigation en mode spatial de Nautilus à l’époque de Gnome 2.6, le projet fut rapidement abandonné, quand Gnome 2.8 arriva.

J’ai retrouvé une annonce du fork sur linuxfr.org (en juillet 2004), et il existe une archive datée de la même époque sur le site « officiel » du fork.

De nos jours, il y a nombre de forks qui suivront sûrement le même chemin. Mais le dire, c’est se faire traiter de tous les noms, donc…

Sur un autre plan, ce qui me fait penser qu’une partie du monde du libre oublie qu’on est en 2017, c’est la fin de la série des « Linux Sucks » de Brian Lunduke. C’était une série de conférence faites entre 2009 et 2017 pour parler des points faibles du monde linux. Je vous renvoie à la dernière vidéo, et vous comprendrez pourquoi Brian Lunduke en a eu assez.

Sur les 8 ans qu’a duré la série de vidéo, sur la moitié d’entre elles, on voyait les mêmes critiques récurrentes : le wifi fonctionne mal, il n’y a pas beaucoup de jeux, il y a trop d’environnements de bureaux, trop de formats de paquets, etc…

La diversité est un bien. Mais quand cela tourne à la dispersion, on est dans le : « Le mieux est l’ennemi du bien ».

Il y a aussi le problème des distributions qui vivent sur l’héritage de leur passé. Je ne citerai pas les deux soeurs ennemies héritière du magicien, mais plus des projets comme Ubuntu par exemple.

Il ne faut pas le nier. Canonical a senti le vent venir en 2004. L’entreprise derrière la distribution a parfaitement compris l’intérêt de proposer une base Debian GNU/Linux et l’obligation de la simplifier pour conquérir un peu plus d’utilisateurs et d’utilisatrices qui ne soient pas des technophiles purs et durs.

Conquérir et fidéliser une nouvelle génération de linuxien(ne)s, quel but noble ! En 2004, nous étions – toutes proportions gardées – dans une situation équivalente à celle de 1991. Tous les outils pour un système libre existait sauf un noyau. Linus Torvalds a proposé un noyau monolithique – une hérésie technique pour certaines personnes – et cela a été l’étincelle de départ.

En 2004, le problème était de proposer quelque chose de plus convivial, de plus facile d’accès pour les utilisateurs qui n’avaient plus envie d’avoir des maux de crânes intenses pour installer le moindre matériel sur leurs ordinateurs.

Canonical a repris les idées qui étaient dans l’air, et surtout, il a réussi à avoir une politique de médiatisation que n’avaient pas réussi à avoir ses concurrents à l’époque. Et il faut être honnête, sur 100 personnes utilisant des distributions plus avancées en 2017, combien ont franchis le pas grâce à une Ubuntu, quelque soit sa numérotation ?

On va dire une bonne moitié, ou pas loin. Dans mon propre cas, la première distribution a avoir tenu plus d’une journée sur mon disque dur ? Une distribution magique en version 9.0. 4 mois en 2004. Puis le déclic, cela a été l’arrivée de la première Ubuntu LTS en 2006. Même si j’ai quitté Ubuntu pour bon environ trois années après, cela a été une distribution qui m’a permis de comprendre qu’on pouvait être 100% du temps sur Linux.

Même si j’ai critiqué vertement l’interface Unity, et les autres projets qu’on peut qualifier de « volonté de faire cavalier seul » de la part de Canonical, ce serait malhonnête d’ignorer tous les apports d’Ubuntu.

Nombre de distributions l’ont suivi durant des années. Le support wifi s’est amélioré. Les imprimantes, c’est parfois un brin casse-bonbon, mais au moins, on y arrive sans trop de céphallocaptures.

Le problème est que l’énergie est gaspillée dans des guerres qui n’intéressent que les technophiles. Que ce soit la guerre des inits, celles des environnements de bureaux ou autres, cela apporte quoi au schmilblick ?

Il y a aussi la guerre des distributions « fixed » contre les « rollings » rationalisées ou pas. Les deux ont leurs avantages et leurs inconvénients. Pour les « fixed », il arrive que vers la fin de vie principale d’une version, on se retrouve avec une logithèque qui sentent un brin le renfermé tout en restant utilisable. On peut tricher en utilisant des dépots de rétroportages cependant.

Ou encore le fait qu’on ne puisse pas faire fonctionner du matériel trop récent avec. Comme les processeurs Skylake d’Intel qui nécessitent au minimum un noyau linux 4.4.

Dans le domaine des rollings rationalisées, c’est à dire avec un tampon qui permet d’éviter les côtés rugueux qui peuvent arriver parfois, il n’y en a que deux suffisamment solides en ce moment : Manjaro Linux et Calculate Linux.

Manjaro Linux souffre de certains saveurs officielles ou communautaires qui sont franchement d’une qualité douteuse. Pour les versions communautaires, je vous renvoie à cette vidéo :

Calculate Linux a un gros problème : l’application des mises à jour est parfois d’une lenteur à s’arracher les cheveux par poignées entières. Il suffit que KDE soit mise à jour dans une version majeure pour que vous puissiez faire le marathon de New York avant que toutes les opérations soient terminées.

J’ai parlé un peu plus haut dans l’article du problème des forks abusifs et compulsifs. Je pensais que c’était le cas pour Mate-Desktop au début de son existence. Cependant, le projet existe encore six années après avoir été lancé par Perberos.

D’ailleurs, j’utilise au quotidien Mate-Desktop, car il fonctionne. C’est tout ce que je lui demande. Je branche mon téléphone portable – qui ont commencé à se développer sérieusement en 2007 -et je peux récupérer mes photos sans avoir besoin de faire des contorsions.

Si on en croit l’article d’Adrien Linuxtricks, en date du 16 mars 2017, c’est une des raisons qui l’ont poussés à tester Mate-Desktop.

Je cite son article :

[…]
2 – La gestion médiocre de l’USB et notamment MTP. En effet, il est impossible de transférer de manière correcte sur un téléphone Android via USB des photos, vidéos, musique, sans avoir un message du style « KIO s’est arrêté de manière inattendue ». Alors, j’avais trouvé 2 alternatives : Caja + GVFS sous KDE (mais c’est bof), et KDE Connect. KDE Connect offre pas mal d’avantages, mais malheureusement, on doit disposer d’une connexion Wi-Fi pour transférer ses données (Wi-Fi qui n’est pas activé chez moi, donc je l’avais relancé pour l’occasion). Le Wi-Fi par définition n’est pas sécurisé. Une clé est cassable en très peu de temps, et puis, moins il y a d’ondes dans la maison, mieux on se porte. La lecture d’une image sur le téléphone (ou un partage samba) avec KIO, ça fonctionne en 2 temps : téléchargement du fichier, puis lancement du fichier. Sous MATE (ou Cinnamon ou GNOME), avec gvfs, il sait « streammer » et donc lit en direct.
[…]

Ici est resumé le principal point de crispation : il est nécessaire d’avoir du fonctionnel pour que le logiciel libre se crédibilise. Pas du 350e environnement de bureau, ni du 150e système d’initialisation.

Que des personnes aient envie de se lancer dans ces domaines, tant mieux pour elles. Mais c’est dommage pour aider au paufinage des logiciels qui permettrait d’attirer une nouvelle génération d’utilisateurs : les personnes qui utilisent l’informatique et les ordinateurs comme on utilise un marteau pour enfoncer un clou dans un mur : comme un simple outil.

Le libre propose de très bons outils : LibreOffice, The Gimp, Inkscape et combien d’autres ? Mais la plupart du temps, les interfaces sont peu ou pas ergonomiques.

J’ai résumé les principaux problèmes – selon mon point de vue – des distributions GNU/Linux dans une vidéo intitulée « Les péchés capitaux des distributions GNU/Linux. »

Pour résumer ? Les traductions incomplètes, les distributions qui multiplient les dépots tiers, les doublons, triplons qu’on peut trouver.

Ensuite, les distributions « fixed » auront toujours le monopole des postes d’entreprises ou des administrations. Mais je pense que sur le bureau du particulier, la rolling rationnalisée pourrait se faire sa place au soleil.

Je ne reviendrais pas sur le problème du manque de communications de certains projets. Aller voir sur un canal irc pour avoir des nouvelles, sans être certain d’avoir une personne de l’équipe de développement à l’autre bout du réseau, ce n’est pas vraiment convivial.

Ce serait comme arriver sur le site d’une marque d’électro-ménager et de devoir contacter le SAV pour avoir les caractéristiques techniques d’un produit proposé en page d’accueil… Pas franchement pratique.

Si l’on veut enfin progresser sur le monde du bureau informatique que l’on a régulièrement mis à mort depuis les Network Computers (années 1997-1998), il serait peut-être temps d’arrêter de se chamailler, et de concentrer les efforts sur ce qui compte : les logiciels à destinations des utilisateurs type « monsieur ou madame tout-le-monde » qui ne veulent qu’une chose… Du fonctionnel dès le départ.

Au final, je dis cela, mais je dis rien 🙂