PROJET AUTOBLOG


Korben

source: Korben

⇐ retour index

Mise à jour

Mise à jour de la base de données, veuillez patienter...

Jpegli – La lib JPEG nouvelle génération de Google

mercredi 3 avril 2024 à 22:44

Google vient de publier en open source une nouvelle bibliothèque de codage JPEG appelée Jpegli qui permet de compresser vos images 35% plus efficacement qu’avec les codecs JPEG traditionnels, tout en conservant une qualité d’image supérieure.

Non seulement Jpegli est rétrocompatible avec le standard JPEG original, mais en plus il offre des fonctionnalités intéressantes comme le support des composantes 10 bits et plus, ce qui permet d’éliminer les vilains artefacts dans les dégradés pour avoir un rendu beaucoup plus ultra-smooth ^^.

Pour cela, Jpegli utilise de la quantification adaptative et une sélection améliorée des matrices de quantification. En gros, ça réduit le bruit, améliore la qualité d’image, et ça fait des miracles sur la taille des fichiers.

De plus, Jpegli reste aussi rapide que les solutions de codage actuelles, donc vous pouvez intégrer cette merveille dans vos workflows sans sacrifier les performances. Alors voilà, si vous voulez donner un coup de boost à vos sites web et offrir de meilleures images plus belles et plus légères, allez jeter un œil à Jpegli ! Pour le moment, y’a pas encore d’outils de conversion mais les sources sont dispo sur le Github, alors y’a plus qu’à attendre que le monde se l’approprie.

Source

En route vers des modèles IA moins énergivores mais tout aussi efficaces

mercredi 3 avril 2024 à 21:25

Vous avez sûrement entendu parler de l’impact environnemental faramineux de l’intelligence artificielle, que ce soit pour demander à ChatGPT de nous donner un coup de main ou pondre une image de fou sous Midjourney, l’IA a un appétit gargantuesque en énergie. Il parait qu’une seule requête à ChatGPT consommerait autant d’électricité que 40 recharges de smartphone ! Un peu dingue.

Mais rassurez-vous, tout n’est pas perdu. Une équipe de chercheurs en informatique de l’Université de Copenhague a trouvé une solution pour mettre l’IA au régime, sans pour autant lui couper les vivres. Leur étude, qui sera présentée lors de la conférence internationale ICASSP-2024, montre qu’en gardant l’efficacité énergétique en tête dès la conception des modèles d’IA, on peut réduire leur empreinte carbone de 70 à 80% sans sacrifier leurs performances. C’est pas mal, hein ?

Les chercheurs ont pour cela, passé au crible plus de 400 000 modèles de réseaux de neurones convolutifs, ces IA qui servent à analyser des images médicales, à faire de la traduction ou encore à reconnaître des visages. En se basant sur ces calculs, ils ont alors concocté un genre de « livre de recettes » pour les pros de l’IA, avec des exemples de modèles moins énergivores mais tout aussi efficaces.

Alors oui, dans certains domaines comme les voitures autonomes ou la médecine, il ne faut pas rigoler avec la précision. Mais pour le reste, les chercheurs insistent : il faut adopter une approche globale qui prenne en compte non seulement les performances des modèles, mais aussi leur impact climatique.

Si le sujet vous intéresse, je vous invite à jeter un œil à l’article original ! Les chercheurs ont même mis à disposition ce fameux « livre de recettes » sur Github pour que les dev spécialisé en IA puissent s’en inspirer et réduire l’empreinte carbone de leurs modèles. C’est un vrai premier pas vers une IA plus durable et responsable, et ça c’est cool !

Source

Stable Audio 2.0 – L’IA qui ne remplacera pas les musiciens

mercredi 3 avril 2024 à 17:15

Bonne nouvelle, les David Guetta de demain, ça ne sera pas vous ! Il vous suffit de balancer quelques mots dans une IA, et hop, elle vous pond un morceau de musique entier, avec une qualité discutable ! Mais pour faire souffrir ses voisins, c’est pas mal et l’exploit technique est intéressant quand même. C’est exactement ce que propose Stable Audio 2.0, la nouvelle version du générateur musical de Stability.ai.

Vous lui donnez des instructions en langage naturel, genre « Compose-moi un morceau de rock épique avec un solo de guitare déchirant sur le thème de l’espace« , et bim, l’IA se met au boulot ! En quelques secondes, elle vous sort une piste audio complète de 3 minutes, en stéréo 44.1 kHz s’il vous plaît.

Voici ce que j’ai fait rien que pour vous :

Stable Audio 2.0 ne se contente pas de générer de la musique à partir de zéro. Vous pouvez aussi lui filer vos propres samples audio et lui demander de les transformer comme bon vous semble. Par exemple, vous prenez un extrait de votre morceau préféré de Metallica, vous le refilez à l’IA en lui demandant de le remixer façon dubstep avec une touche de jazz manouche, et voilà, c’est parti mon kiki !

Bon, je vous vois venir avec vos grands chevaux : « Oui mais Korben, et les droits d’auteur dans tout ça ?« . Eh bien figurez-vous que les petits gars de Stability AI ont pensé à tout. Pour entraîner leur modèle, ils ont utilisé une base de données de sons sous licence provenant d’AudioSparx, en donnant la possibilité aux artistes de se retirer du projet s’ils le souhaitaient. Et pour éviter que des petits malins utilisent des samples protégés, ils ont intégré une technologie de reconnaissance de contenu qui empêche l’utilisation de matériel copyrighté. Bien vu les gars !

Alors, vous en pensez quoi ? Perso, je trouve que c’est une sacrée avancée pour les créatifs en herbe comme pour les pros de la musique même si on est encore trèèèès loin d’un rendu propre. Pour le coup, je préfère Suno. Mais ça peut donner de l’inspiration. Ça ne remplacera jamais le talent et la sensibilité d’un vrai musicien mais ça reste un bon logiciel dans la boîte à outils des artistes

Pour tester Stable Audio 2.0, c’est sur le site officiel. C’est gratuit pour 20 crédit et hyper simple à prendre en main, vous m’en direz des nouvelles !

Certains gamers perçoivent plus de FPS que les autres

mercredi 3 avril 2024 à 09:48

Vous êtes-vous déjà demandé comment certains pro gamers étaient aussi bons ?

Bien sûr, il y a les heures d’apprentissage, de grinding, la compétition…etc mais il se pourrait bien aussi qu’ils aient tout simplement de meilleurs globes oculaires !

Selon une nouvelle étude menée à Dublin et repérée par The Guardian, les chercheurs ont étudié une caractéristique humaine appelée la résolution temporelle, qui mesure notre capacité à distinguer différents signaux visuels et qui influence notre vitesse de réaction aux changements dans notre environnement.

L’étude a révélé que certaines personnes, lorsqu’on leur présentait une lumière qui clignotait environ 35 fois par seconde (35 fps), la voyaient comme constamment allumée – en d’autres termes, elles ne pouvaient pas percevoir les clignotements – tandis que d’autres pouvaient voir la lumière clignoter, même lorsque la fréquence des clignotements était supérieure à 60 fps. De la même manière que les jeux vidéo peuvent tourner à 30 ou 60 fps, cette recherche suggère que les yeux de certaines personnes peuvent voir les signaux visuels à 30 ou 60 frames par seconde (fps).

Et cela a un impact spécifique sur les athlètes et les joueurs, comme l’a déclaré Clinton Haarlem, doctorant au Trinity College de Dublin puisque les personnes qui ont une résolution temporelle visuelle supérieure à la moyenne « ont accès à un peu plus d’informations visuelles par unité de temps » que les autres. Haarlem et ses collègues ont mené leurs tests de résolution temporelle visuelle sur 80 hommes et femmes âgés de 18 à 35 ans, et ont constaté peu de différence dans les résultats entre les sexes. Il existe cependant des preuves que votre résolution temporelle diminue avec l’âge.

C’est peut-être pour cela que les joueurs d’esports et les athlètes professionnels prennent parfois leur retraite si jeunes. C’est peut-être aussi la raison pour laquelle votre jeune cousin vous explose sur des jeux comme Fortnite ou Valorent. Ils ont comme un GPU dans le cerveau qui est capable de traiter plus de FPS que le commun des mortels. C’est trop injuuuuste, et ça ressemble à un cheat pour moi ^^ !

Alors la prochaine fois que vous vous demanderez comment certains gamers peuvent être aussi bons, c’est peut-être tout simplement parce qu’il ont cet avantage biologique. Mais rassurez-vous, avec suffisamment de pratique (et peut-être quelques implants cybernétiques d’Elon), vous aussi, vous pourrez un jour atteindre le statut de légende de l’esport battre votre neveu à Mario Kart.

Source

Lancez Windows de XP à la version 11 dans un conteneur Docker

mercredi 3 avril 2024 à 09:00

Vous en avez marre de devoir garder une vieille bécane sous Windows juste pour faire tourner ce vieux logiciel qui ne marche que sous XP ? Ou alors vous aimeriez bien tester la dernière version de Windows 11 mais vous n’avez pas envie de vous embêter à l’installer sur une vraie machine ? Dans les deux cas, j’ai la solution qu’il vous faut !

Grâce au projet open-source Windows dans un conteneur Docker, vous allez pouvoir faire tourner n’importe quelle version de Windows directement dans Docker, le tout avec une accélération KVM et même un affichage dans votre navigateur web si besoin.

Pour faire simple, il vous suffit de récupérer l’image Docker dockurr/windows, de la démarrer avec quelques options bien choisies, puis de vous connecter sur le port 8006 avec votre navigateur. Et là, magie, l’installation de Windows va se lancer automatiquement ! Vous n’avez plus qu’à vous détendre le temps que ça se termine. Une fois sur le bureau, votre installation de Windows est prête à l’emploi. Vous pouvez commencer à bricoler dessus comme sur une vraie machine. Le pied !

Par défaut c’est Windows 11 qui sera installé, mais vous pouvez très facilement choisir une autre version en passant la variable d’environnement VERSION dans votre fichier docker-compose.yml. Vous avez l’embarras du choix :

Et si vous voulez pousser encore plus loin, sachez qu’il est même possible d’installer une version allégée de Windows comme Tiny11 ! Pour ça, il vous suffit de passer la valeur tiny11 à la variable VERSION. Idéal pour avoir un Windows léger qui tourne comme une horloge dans un conteneur.

Ça se lance via Docker Compose :

version: "3"
services:
  windows:
    container_name: windows
    image: dockurr/windows-arm
    devices:
      - /dev/kvm
    cap_add:
      - NET_ADMIN
    ports:
      - 8006:8006
      - 3389:3389/tcp
      - 3389:3389/udp
    stop_grace_period: 2m
    restart: on-failure

Ou directement comme ceci :

docker run -it --rm --name windows -p 8006:8006 --device=/dev/kvm --cap-add NET_ADMIN --stop-timeout 120 dockurr/windows

Bon par contre, le viewer VNC accessible dans le navigateur c’est surtout pratique pendant l’installation. Pour une utilisation plus sérieuse, mieux vaut utiliser un vrai client RDP en se connectant sur l’IP du conteneur Docker avec l’utilisateur docker. Il y a de très bons clients RDP dispos, que ce soit pour Android, iOS, Linux (rdesktop) ou même Windows où c’est carrément intégré à l’OS.

Évidemment, ne vous attendez pas à des miracles niveau performances, on parle d’un Windows qui tourne dans un conteneur Docker quand même ^^. D’ailleurs par défaut le conteneur a le droit à seulement 2 cœurs de CPU et 4 Go de RAM, ce qui correspond à la config minimale requise par Windows 11. Mais ça reste largement suffisant pour faire des tests ou utiliser des vieux logiciels.

Si jamais vous avez besoin de plus de ressources, vous pouvez augmenter ça facilement en ajoutant les variables d’environnement RAM_SIZE et CPU_CORES dans votre docker-compose.yml. Pareil si vous voulez augmenter la taille du disque virtuel qui fait 64 Go par défaut, c’est possible en passant l’option DISK_SIZE. Par exemple pour avoir un disque de 256 Go :

environment:
DISK_SIZE: "256G"

Enfin, si vous voulez bidouiller plus en profondeur, sachez qu’on peut même passer des périphériques entiers (disques, clés USB…) au conteneur pour que Windows puisse y accéder directement. Je vais pas m’étendre plus, je vous laisse aller consulter la doc.

Bref, vous l’aurez compris, ce projet est une petite merveille pour tous ceux qui ont besoin de faire tourner Windows dans un environnement isolé et facile à mettre en place. Que ce soit pour tester une appli, monter un labo ou même utiliser un logiciel qui ne tourne que sous Windows, ça peut dépanner dans plein de situations.

Et le meilleur dans tout ça ?

C’est que le projet ne contient que du code open-source et n’embarque aucun élément propriétaire. Les clés de licence utilisées dans le projet sont celles fournies par Microsoft à des fins de test. Donc a priori, c’est totalement légal. Après c’est sûr, faudra pas venir se plaindre si Microsoft n’est pas content qu’on fasse tourner Windows dans un conteneur Docker… 😀

Merci à Lorenper