PROJET AUTOBLOG


Planet-Libre

source: Planet-Libre

⇐ retour index

Framablog : Framasoft sur les routes, et sur un nouveau T-shirt !

vendredi 12 mai 2017 à 17:28

Un nouveau T-shirt Framasoft (et le mugounet qui va avec) pour briller lors des événements où nous pourrons nous rencontrer sous le soleil du printemps… et de l’été !

Nouveau T-shirt : la route est longue…

Soyons franc·he·s : on n’est pas foutu·e·s de faire un T-shirt.

Voilà plus de deux ans qu’on a changé de logo, et… rien. Ah ça, pour dégoogliser, y’a du monde, hein ! Mais quand il s’agit de pondre un visuel, contacter des fournisseurs, se mettre d’accord un modèle, créer et gérer un stock… y’a plus un GNU à l’horizon !

Alors nous avons choisi la solution de facilité et lancé une campagne chez Keewi.io, le « Ulule du T-shirt ». Le principe : on propose un visuel. Nous, on a choisi de le mettre sur un T-shirt unisexe et sur un mug. On s’est dit comme ça : « Si d’ici le 22 mai, y’a au moins 100 produits pré-commandés, la production est lancée. Sinon, tout le monde récupère ses sous et rentre chez soi. »

Cliquez sur le mug si vous voulez faire une commande

Le 3 mai, nous avons commencé à en parler… exclusivement sur les réseaux sociaux Libres : notre compte Framasphère*, et notre fil Framapiaf. En 24h, les 100 premières pré-commandes étaient atteintes ! Dès le 9 mai, on a fait circuler l’info sur notre fil Twitter et notre page Facebook. Et aujourd’hui : on vous en parle ici !

Après le 22 mai : y’en a plus !

Ben oui, c’est une campagne, et une campagne, ça se termine. Nous, le principe nous va assez bien… vu qu’on expérimente !

L’avantage pour nous est double : ne pas avoir toute la production/vente/distribution à gérer (donc avoir plus de temps pour Dégoogliser), et savoir si ce genre de goodies vous intéressent vraiment, ou si c’est juste un plaisir de l’entre-soi… Et pour l’instant, c’est un succès, plus spécifiquement un succès offert par les « vrai·e·s fans » de Framasoft, a priori.

Ce procédé nous offre en plus l’occasion de faire un prix tout petit (13 € 37, c’est pas un hasard). Nous savons que c’est pas avec des T-shirts qu’on va remplir la marmite, du coup on a choisi de pas beaucoup marger dessus. Là, c’est pour se faire plaisir et pour pouvoir porter des couleurs et une devise qui nous parlent, même si les cordons de la bourse sont assez serrés.

Alors voilà, c’est pas parfait hein, c’est une expérimentation, y’a des inconvénients et défauts, mais c’est mieux que ce que nous faisions jusqu’à présent (à savoir : rien depuis deux ans). Du coup, si vous en voulez, faut se bouger : vous avez jusqu’au 22 mai !

Et si vous cliquez sur le T-shirt, vous tomberez… ben sur la page où on peut le commander.

À propos de route : on sera dessus !

Avec les beaux jours arrivent les festivals qu’on aime bien et où on se retrouve avec délices.

Avec seulement 30 membres et 7 salarié·e·s, notre micro-association a beau se plier en quatre, on ne peut pas être partout !

Néanmoins, vous pourrez nous retrouver…

Alors vu que la voie est Libre, on espère qu’elle sera assez dégagée pour que nous nous rencontrions sans encombres !

Gravatar de Framablog
Original post of Framablog.Votez pour ce billet sur Planet Libre.

citizenz7 : Utilser rsync (+ ssh et sudo) pour copier facilement vos données

vendredi 12 mai 2017 à 10:28

​Imaginons : vous avez plusieurs centaines de fichiers et des répertoires entiers à rapatrier depuis votre anciens serveur vers votre nouveau serveur. Pour aller plus vite, l'outil idéal, c'est rsync.

Le wiki Ubuntu nous dit :

rsync (pour remote synchronization ou synchronisation à distance), est un logiciel de synchronisation de fichiers.
Il est fréquemment utilisé pour mettre en place des systèmes de sauvegarde distante.
rsync travaille de manière unidirectionnelle c'est-à-dire qu'il synchronise, copie ou actualise les données d'une source (locale ou distante) vers une destination (locale ou distante) en ne transférant que les octets des fichiers qui ont été modifiés.

Mettons tout cela en place sur notre Debian :
sudo apt install rsync

Il vous faut également ssh (sudo apt install ssh).

Voici un exemple assez complet de rsync :
rsync -av --progress --delete --stats --human-readable -e 'ssh -p xxxx' user@serveurdistant.fr:/home/user/* /home/user/

-a : c'est l'option de la "mort-qui-tue". En fait ça fait tout (ou presque). C'est un moyen rapide de dire que vous voulez la récursivité et préserver pratiquement tout. C'est équivalent aux optissn combinées -rlptgoD.
-v : verbeux
--progress : vous indique la progression de la copie/transfert
--stats : affichage de stats sur le transfert des fichiers
--human-readable : lecture "humaine" des chiffres. Idem à l'option ls -h (transforme en KO, MO, GB, ...)
- e : spécifie un shell distant

Il existe une autre option bien pratique :

 --delete : cette option demande à rsync d'effacer tous les fichiers superflus côté réception (ceux qui ne sont pas du côté envoi); uniquement pour les répertoires synchronisés. Attention toutefois à l'utilser correctement ...

Vous avez "la totale" des options rsync ici :

http://www.delafond.org/traducmanfr/man/man1/rsync.1.html

Résultat ?

Avec la commande utilisée plus haut, une fois rentré le mot de passe de l'utilisateur distant (en ayant précisé un éventuel port ssh au cas où le serveur ssh ne tournerait pas sur le traditionnel port 22), rsync va "copier" tous les fichiers du répertoire /home/user (/home/user/*) depuis le serveur distant VERS votre nouveau serveur dans le répertoire /home/user.

Il peut arriver que certains répertoires ou fichiers ne puissent être récupérés pour des questions de droits. Il va alors falloir, sur le serveur distant, configurer sudo

Sur le serveur distant, si sudo n'est pas installé :
sudo apt install sudo 

Il faut configurer sudo :
sudo visudo

Nous allons rajouter dans le fichier la ligne suivante (où vous voulez) :
user ALL= NOPASSWD:/usr/bin/rsync 

Evidemment, changez "user" par votre véritable nom/pseudo... C'est le truc con qui arrive quand on fait des copier/coller. Je dis ça, car je suis le roi du "Ca marche pas... pourquoi ... Oh M.... ! J'ai pas changé user / mondomaine.com !"

Puis on va utiliser l'option "--rsync-path" pour préciser à rsync de démarrer avec l'option sudo :
rsync -av --progress --stats --human-readable --rsync-path="sudo rsync" -e "ssh -p xxxx" useronremoteserver@remoteserver:/data/to/sync /archive/data/

Et hop, là, plus de soucis on récupère tous les répertoires et fichiers.

Gravatar de citizenz7
Original post of citizenz7.Votez pour ce billet sur Planet Libre.

Philippe Scoffoni : Thunderbird reste chez Mozilla

jeudi 11 mai 2017 à 23:17

Mozilla ThunderbirdLa vie n’est pas toujours un long fleuve tranquille. J’aurais même tendance à dire que c’est rarement le cas y compris pour les projets de logiciel libre comme Thunderbird. Depuis de nombreux mois, des incertitudes pèsent sur la pérennité du projet.

Pourtant, il continue d’exister et d’évoluer à son rythme avec la sortie fin avril de la version 52. Certes, on ne peut pas dire que ce soit à une vitesse folle. Mais l’essentiel est préservé et quelques nouveautés contribuent à améliorer son fonctionnement.

Suite à la décision de Mozilla de rendre sa liberté au projet, une étude a été réalisée par Simon Phipps bien connu dans le monde du logiciel libre et de l’open source pour étudier les opportunités existantes. Trois possibilités s’offraient alors ;

Des trois options, celle de The Document Foundation me semblait la plus intéressante. L’intégration de Thunderbird et de son agenda Lightning dans la suite bureautique LibreOffice avait une certaine cohérence sur le plan « marketing » face à la suite bureautique de Microsoft. Cependant dans cette réflexion l’aspect marketing n’était pas le seul en jeu.

Après de longs mois de réflexion et d’échanges, c’est au final une sorte de statu quo qui s’impose dans un communiqué publié sur le blog de Mozilla.

The Mozilla Foundation has agreed to serve as the legal and fiscal home for the Thunderbird project, but Thunderbird will migrate off Mozilla Corporation infrastructure, separating the operational aspects of the project.

La fondation Mozilla reste l’entité légale et fiscale qui porte le projet Thunderbird. Cependant, les aspects « opérationnels » vont être gérés en dehors de l’infrastructure technique de Mozilla.

L’année qui s’est écoulée a permis au projet de mettre en place ses propres flux de revenus, principalement des dons, gagnant ainsi une autonomie indispensable à la poursuite du projet.

Il reste cependant quelques points d’achoppement dans les divergences techniques entre le projet Thunderbird et son grand frère Firefox. Cependant, un changement d’entité légale n’aurait rien changé à cet état de fait, il est vrai. Le « Conseil Thunderbird » a donc jugé préférable de se concentrer sur le développement de Thunderbird plutôt que de passer du temps sur un changement purement juridique. L’essentiel de ce côté étant préservé par le récent accord avec Mozilla.

Pour la suite des événements, Thunderbird sera maintenu sur la plateforme technique actuelle Gecko. À long terme, une réécriture complète de ce dernier est envisagée. La technologie sera « web » ce qui reste vague même si on comprend bien qu’il ne s’agira plus d’un client « lourd » traditionnel.

Je pense que tous les utilisateurs de Thunderbird peuvent dormir sur leurs deux oreilles, leur logiciel préféré n’est pas mort même si je ne pense pas qu’il faille s’attendre à de grandes évolutions. Mais ce qu’il fait déjà, il le fait bien. En exploitant toutes les possibilités existantes couplées à des services web basés sur des logiciels libres comme Nextcloud pour les agendas, contacts et partage de fichiers ou Dolibarr pour la gestion, vous obtenez une solution qui n’a rien de celle du « pauvre » !


Réagir à cet article

Article original écrit par Philippe Scoffoni le 11/05/2017. | Lien direct vers cet article

Cette création est mise à disposition sous un contrat Creative Commons BY à l'exception des images qui l'illustrent (celles-ci demeurent placées sous leur mention légale d'origine).

.

Gravatar de Philippe Scoffoni
Original post of Philippe Scoffoni.Votez pour ce billet sur Planet Libre.

Articles similaires

Max Koder : Exécuter une requête asynchrone avec PHP et cURL

jeudi 11 mai 2017 à 20:38
Exécuter une requête asynchrone avec PHP et cURL

Je vous parlais de cURL et d’API il y a quelques jours. Aujourd’hui, j’enfonce le clou avec une méthode que j’expérimente pour un futur projet : Comment exécuter une requête asynchrone avec PHP et cURL.

L’origine du problème

Pour rappel, PHP est un langage de programmation séquentiel, impératif ou encore synchrone. C’est à dire qu’à l’exécution d’un script, il va exécuter chaque instruction séquentiellement, l’une après l’autre.
Avant de passer à la suivante, il attendra obligatoirement le résultat de la dernière instruction.

De plus, le protocole HTTP est également synchrone. Cela signifie qu’à chaque requête, le navigateur attend une réponse qu’il va ensuite afficher.

Dans la plupart des cas, ce fonctionnement suffit. L’utilisateur souhaite accéder à une ressource ou la mettre à jour : Pas de problème, la réponse est envoyée dans la foulée. Mais ce n’est pas toujours suffisant.

Quel problème ?

Je l’ai dit : Généralement le fonctionnement séquentiel est suffisant pour nos besoins. Mais il y a des tas de raisons pour vouloir faire de l’asynchrone avec PHP : Écriture de logs, de nombreux UPDATE à la DB, lancement d’une requête cURL à une API, envoie d’un pouet sur Mastodon lorsque j’écris une news, … Ces opérations peuvent être longues et donc donner la sensation aux visiteurs que votre serveur est en rade, ou que votre script est à chier.

Comprenez bien que si vous, en tant que visiteur, ne voulez pas attendre qu’une page s’affiche, il en est de même pour les usagers qui viendront sur votre site.

La requête asynchrone

La solution à cela est en effet la requête asynchrone. Pendant que votre script enregistre les logs ou se connecte à une API, il est inutile de faire attendre l’utilisateur.
On va donc chercher à faire travailler PHP en fond sur ces tâches lourdes, et continuer nos instructions plus légères jusqu’à l’envoi de la réponse au navigateur.

Plusieurs méthodes possibles

Il existe en fait d’autres approches que celle que je vais vous présenter :

Pour ma part, voilà comment je procède.

Une requête asynchrone avec PHP et cURL

Le principe est simple si vous connaissez un peu la librairie cURL. Il suffit de lancer une requête cURL à laquelle on définit un timeout, afin que PHP n’attende pas la réponse et passe à la suite :

$ch = curl_init();

curl_setopt($ch, CURLOPT_URL, '
curl_setopt($ch, CURLOPT_TIMEOUT_MS, 1000);

curl_exec($ch);
curl_close($ch);

Oui, c’est tout.
L’option intéressante est

CURLOPT_TIMEOUT_MS
, qui permet de définir un temps maximum d’exécution de la fonction cURL, en millisecondes.

A la seconde près

J’ai mis 1000, soit une seconde. Cela permet de ne pas trop gêner le visiteur mais c’est aussi le délai minimum pour la résolution du hostname sur les systèmes Unix/Linux, sans quoi une erreur 28 (timeout) sera envoyée à PHP :

$ch = curl_init();

curl_setopt($ch, CURLOPT_URL, '
curl_setopt($ch, CURLOPT_TIMEOUT_MS, 10);

curl_exec($ch);
echo curl_errno($ch);
curl_close($ch);

// 28

En faisant mes recherches, j’ai trouvé quelques articles qui mettaient une valeur de 1ms. Je ne sais pas sur quel type de serveur ils tournent, mais ça ne fonctionne pas, vous pouvez essayer.

Outrepasser cette limite

Mais on peut le faire !
Malheureusement ces articles n’en parlent pas, alors j’ai cherché pour vous

En effet, avec l’option CURLOPT_NOSIGNAL, on peut ignorer les fonctions qui causent l’envoi d’un signal au processus PHP :

$ch = curl_init();

curl_setopt($ch, CURLOPT_URL, '
curl_setopt($ch, CURLOPT_TIMEOUT_MS, 10);
curl_setopt($ch, CURLOPT_NOSIGNAL, 1);

curl_exec($ch);
curl_close($ch);

Un cas concret

A présent, voyons comment cela peut nous être utile.

Imaginons un réseau social décentralisé (parait que c’est la mode), où chaque utilisateur peut suivre n’importe qui sur n’importe quelle instance. Le B.A.-BA en somme.
Lorsqu’un utilisateur, suivi par 100 personnes, poste un nouveau contenu, comment géreriez-vous cela ? Comment informer les 100 autres utilisateurs, possiblement sur 100 instances différentes, que notre bon utilisateur a posté quelque chose ? Et surtout, sans gêner l’auteur du post.
Avec cURL et notre pseudo méthode asynchrone, c’est possible.

Il suffit d’appeler une page sur le même domaine/serveur, qui traitera ces 100 requêtes cURL par exemple, en tâche de fond, à la manière d’une tâche CRON.
Pour l’utilisateur, rien ne transparaît, et le message peut se répliquer tranquillement sur chaque instance sans craindre un timeout execution.

L’article Exécuter une requête asynchrone avec PHP et cURL est apparu en premier sur Max-Koder.

Gravatar de Max Koder
Original post of Max Koder.Votez pour ce billet sur Planet Libre.

Articles similaires

Framablog : Quand les recommandations YouTube nous font tourner en bourrique…

jeudi 11 mai 2017 à 10:35

Vous avez déjà perdu une soirée à errer de vidéo en vidéo suivante ? À cliquer play en se disant « OK c’est la dernière… » puis relever les yeux de votre écran 3 heures plus tard… ?

C’est grâce à (ou la faute de, au choix !) l’algorithme des recommandations, une petite recette qui prend plein d’éléments en compte pour vous signaler les vidéos qui peuvent vous intéresser.

Guillaume Chaslot a travaillé sur cet algorithme. Il a même créé un petit outil open-source pour le tester, afin de valider sa théorie : ces recommandations nous pousseraient de plus en plus vers les « faits alternatifs » (ça s’appelle aussi une légende urbaine, un complot, une fiction, du bullshit… vous voyez l’idée.)

Le groupe Framalang a décidé de traduire cet article passionnant.

Ne soyons pas complotistes à notre tour. Cet article ne dit pas que Google veut nous remplir la tête de mensonges et autres légendes numériques. Il s’agirait là, plutôt, d’un effet de bord de son algorithme.

Nous ne doutons pas, en revanche, qu’un des buts premiers de Google avec ses recommandations YouTube est de captiver notre attention, afin de vendre à ses clients notre temps de cerveau disponible (et d’analyser nos comportements au passage pour remplir ses banques de données avec nos vies numériques).

Sauf qu’avec ce genre de vision (et de buts) à court/moyen terme, on ne réfléchit pas au conséquences sur le long terme. Lorsque l’on représente l’endroit où une grande portion de notre civilisation passe la majeure partie de son temps… C’est problématique, non ?

Tout comme les révélations de Tristan Harris, ce témoignage nous rappelle que, même chez les géants du web, notre monde numérique est tout jeune, immature, et qu’il est grand temps de prendre du recul sur les constructions que nous y avons dressées : car chacun de ces systèmes implique ses propres conséquences.

“The things you own end up owning you » de koka_sexton sous licence CC BY 2.0
(« Ce que vous possédez finit par vous posséder », une citation de Fight Club)

Comment l’I.A. de YouTube favorise les « faits alternatifs »

de Guillaume Chaslot, source : Medium.

Traduction : Jerochat, jaaf, dominix, mo, goofy, Asta, Opsylac, Nimanneau, audionuma, Lyn. + les anonymes

Les I.A. sont conçues pour maximiser le temps que les utilisateurs passent en ligne… Et pour ce faire, la fiction, souvent, dépasse la réalité.

Tout le monde a déjà entendu parler des théories du complot, des faits alternatifs ou des fake news qui circulent sur Internet. Comment sont-ils devenus si répandus ? Quel est l’impact des algorithmes de pointe sur leur succès ?

Ayant moi-même travaillé sur l’algorithme de recommandation de YouTube, j’ai commencé à enquêter, et je suis arrivé à la conclusion que le puissant algorithme que j’avais contribué à concevoir joue un rôle important dans la propagation de fausses informations.

Pour voir ce que YouTube promeut actuellement le plus, j’ai développé un explorateur de recommandations open source qui extrait les vidéos les plus recommandées sur une requête donnée. Je les ai comparées aux 20 premiers résultats venant de requêtes identiques sur Google et Youtube Search.
Les résultats sur les 5 requêtes suivantes parlent d’eux-mêmes :

1 — Question élémentaire : « La Terre est-elle plate ou ronde ? »

2 — Religion : « Qui est le Pape ? »

Pourcentage des résultats à propos du pape affirmant qu’il est « le mal », « satanique », « l’antéchrist »

3 —Science : « Le réchauffement climatique est-il une réalité ? »

Pourcentage des résultats affirmant que le réchauffement climatique est un canular

4 —Conspirations : “Est-ce que le Pizzagate est vrai ?”

Le Pizzagate est une théorie du complot selon laquelle les Clinton auraient été à la tête d’un réseau pédophile en lien avec une pizzeria de Washington. Des vidéos faisant la promotion de cette théorie ont été recommandées des millions de fois sur YouTube pendant les mois précédant l’élection présidentielle américaine de 2016.

5 — Célébrités : “Qui est Michelle Obama ?”

Pourquoi les recommandations sont-elles différentes des résultats de recherche ?

Dans ces exemples, une recherche YouTube et une recommandation YouTube produisent des résultats étonnamment différents, alors que les deux algorithmes utilisent les mêmes données. Cela montre que de petites différences dans les algorithmes peuvent produire de grosses différences dans les résultats. La recherche est probablement optimisée dans un objectif de pertinence, alors que les recommandations prennent sûrement davantage en compte le temps de visionnage.

YouTube ne recommande pas ce que les gens « aiment ».

Étonnamment, on remarque que les « j’aime » ou « je n’aime pas » (pouce bleu ou rouge) ont peu d’impact sur les recommandations. Par exemple, beaucoup de vidéos qui prétendent que Michelle Obama est « née homme » ont plus de pouces rouges que de bleus, et pourtant elles sont toujours fortement recommandées sur YouTube. Il semble que YouTube accorde davantage d’importance au temps de visionnage qu’aux « j’aime ».

Ainsi, si « la Terre est plate » maintient les utilisateurs connectés plus longtemps que « la Terre est ronde », cette théorie sera favorisée par l’algorithme de recommandation.

L’effet boule de neige favorise les théories du complot.

Une fois qu’une vidéo issue d’une théorie du complot est favorisée par l’I.A., cela incite les créateurs de contenus à charger des vidéos supplémentaires qui confirment le complot. En réponse, ces vidéos supplémentaires font augmenter les statistiques en faveur du complot. Et ainsi, le complot est d’autant plus recommandé.

Finalement, le nombre important de vidéos qui soutiennent une théorie du complot rend cette dernière plus crédible. Par exemple, dans l’une des vidéos sur le thème de « la terre plate », l’auteur a commenté

« Il y a 2 millions de vidéos sur la « terre plate » sur YouTube, ça ne peut pas être des c*** ! »

Ce que nous pouvons faire

L’idée ici n’est pas de juger YouTube. Ils ne le font pas intentionnellement, c’est une conséquence involontaire de l’algorithme. Mais chaque jour, les gens regardent plus d’un milliard d’heures de contenu YouTube.

Parce que YouTube a une grande influence sur ce que les gens regardent, il pourrait également jouer un rôle important en empêchant la propagation d’informations alternatives, et le premier pas vers une solution serait de mesurer cela.

Faites des expériences avec l’explorateur de recommandations si vous souhaitez découvrir ce que YouTube recommande le plus au sujet des thèmes qui vous tiennent à cœur.

Gravatar de Framablog
Original post of Framablog.Votez pour ce billet sur Planet Libre.