PROJET AUTOBLOG


Korben

source: Korben

⇐ retour index

Mise à jour

Mise à jour de la base de données, veuillez patienter...

Raspberry Pi NAS – Du stockage réseau DIY performant et économique !

samedi 16 mars 2024 à 09:00

Je ne sais pas si ça va vous motiver pour aujourd’hui ou si on contraire, ça va vous faire poser des congés, mais j’ai découvert grâce à Lorenper, un projet plutôt dingue qui allie la magie du Raspberry Pi et le côté pratique d’un NAS (Network Attached Storage). En gros, imaginez pouvoir créer votre propre espace de stockage en réseau à la maison, à moindre coût et avec une petite bête électronique qui consomme très peu d’énergie.

Hé bien c’est possible grâce au Raspberry Pi NAS qui est un projet DIY dont toutes les étapes sont décrites chez Printables.

Le Raspberry Pi, pour ceux qui ne connaissent pas encore, est un mini-ordinateur à bas coût qui permet de réaliser de nombreux projets DIY (Do It Yourself) à la fois ludiques et utiles. Il est devenu très populaire pour la création de serveurs en tous genres, et notamment pour mettre en place un NAS.

Le truc, c’est que les NAS sont généralement assez chers, et leurs performances ne sont pas toujours à la hauteur de leur prix. J’ai un Synology à la maison et j’en suis très content. Mais grâce au Raspberry Pi, il est maintenant possible de créer un NAS sur mesure, avec des fonctionnalités adaptées à nos besoins, et ce, pour une somme modique.

La première étape pour créer un Raspberry Pi NAS consiste à rassembler le matériel nécessaire. Vous aurez besoin d’un Raspberry Pi (de préférence de dernière génération pour bénéficier de performances accrues), d’une carte microSD pour le système d’exploitation, d’un disque dur externe ou d’une clé USB pour le stockage, d’une alimentation adaptée et de deux ou trois autres petites choses telles qu’un écran OLED. Je vous laisse vous référer à la liste du matos sur le site Printables.

Une fois le matériel rassemblé, il faudra préparer la carte microSD avec le système d’exploitation. La distribution la plus populaire pour ce genre de projet est Raspbian. Une alternative intéressante est OpenMediaVault qui intègre déjà de nombreuses fonctionnalités pour un NAS.

Le disque dur externe ou la clé USB que vous choisirez pour le stockage devra être formaté et monté sur le Raspberry Pi. Il est possible d’utiliser différents systèmes de fichiers tels que NTFS, FAT32 ou EXT4. À noter qu’il est également possible de configurer un RAID (Redundant Array of Independent Disks) pour augmenter la capacité de stockage et garantir la sécurité des données. Plus y’a de plus, plus on est à l’aise, blaiz !

En ce qui concerne le partage des fichiers et dossiers sur le réseau, plusieurs protocoles sont disponibles et peuvent être configurés selon vos besoins. Le plus commun est le protocole Samba (non, pas de Janeiro…) qui est compatible avec les systèmes Windows, macOS et Linux. Un autre protocole intéressant est NFS (Network File System) qui fonctionne principalement avec les systèmes Linux et UNIX. Pour ceux qui souhaitent accéder à leurs fichiers depuis le Web, il est possible de mettre en place un serveur FTP (File Transfer Protocol) ou d’utiliser des applications de cloud personnel telles que Nextcloud ou Owncloud.

Mis à part les fonctionnalités de base d’un NAS, le Raspberry Pi permet d’ajouter d’autres services supplémentaires tels que la sauvegarde automatisée de vos données, la synchronisation entre plusieurs dispositifs, l’accès à distance sécurisé via VPN ou encore la diffusion de contenus multimédias en streaming grâce à des logiciels tels que Plex ou Kodi. Vous avez de quoi vous éclater techniquement, ne vous inquiétez pas.

Bref, créer un NAS avec un Raspberry Pi est un projet plutôt cool qui permet d’obtenir un système de stockage en réseau sur mesure, économique et performant. Les possibilités sont presque infinies, et vous pourrez adapter votre NAS à vos besoins spécifiques grâce à la flexibilité offerte par le Raspberry Pi.

Puis si vous voulez faire d’autres trucs avec votre Raspberry Pi, mais que vous n’avez pas d’idées, je vous ai compilé une super liste de projets ici.

Merci à Lorenper

Top 50 des IA génératives à découvrir absolument en 2024

samedi 16 mars 2024 à 08:00

Depuis que ChatGPT a catapulté l’IA générative sur le devant de la scène il y a plus d’un an, des milliers de nouvelles apps IA grand public ont vu le jour. Ça va des générateurs de vidéos délirants aux assistants de productivité boostés à l’IA, en passant par des outils créatifs et même des compagnes virtuelles !

Andreesen Horowitz a épluché pour vous les data de trafic web d’un tas de services IA pour identifier le top 50 des apps IA les plus populaires du moment, histoire de faire le tri dans cette jungle.

Et devinez quoi ?

En à peine 6 mois, plus de 40% des boîtes dans le classement sont des petits nouveaux ! Ça bouge à une de ces vitesses dans le monde de l’IA…

Alors ok, les poids lourds comme ChatGPT, Midjourney ou Character.AI trustent toujours le haut du panier côté fréquentation. Mais de nouvelles catégories émergent, comme les outils de productivité (recherche, prise de notes, résumé de docs…) et même la musique ! Vous avez déjà essayé Suno ? Cette app permet de générer des chansons complètes à partir d’un simple texte. Bluffant !

Côté apps mobiles, c’est un peu la foire aux assistants façon ChatGPT et aux créateurs d’avatars. Forcément, avec toutes les photos qu’on a dans nos smartphones, y a de quoi alimenter les IA. Mais là où ça devient intéressant, c’est quand on creuse les usages spécifiques au mobile : les claviers IA pour écrire ses textos, les scanners de devoirs pour les étudiants flemmards, les profs de langues virtuels…

Plein de ces apps à succès viennent de studios basés à Istanbul ou Milan ! Les gars maîtrisent l’art de pondre des apps IA addictives et qui rapportent beaucoup pognon. Du genre Remini, l’outil d’amélioration de photos, qui a levé 155 millions de dollars ! 🤑

Bref, une chose est sûre, cette nouvelle génération d’apps IA est en train de bouleverser nos usages à vitesse grand V. Elles nous rendent plus créatifs, plus productifs… et parfois un peu accros aussi, faut bien l’avouer ! 😅 Mais honnêtement, quand je vois tout ce qui est possible aujourd’hui grâce à l’IA générative, j’ai hâte de découvrir la suite.

LLM4Decompile – Quand l’IA se met à décompiler du binaire

samedi 16 mars 2024 à 02:15

Imaginez un monde merveilleux où les secrets enfermés dans les binaires compilés ne seraient plus inaccessibles aux simples mortels que nous sommes…

C’est exactement ce que LLM4Decompile, le premier LLM (Large Language Model) open-source dédié à la décompilation, promet de réaliser. Fruit d’un travail de recherche innovant mené par une équipe de chercheurs passionnés, ce modèle révolutionnaire ouvre de nouvelles perspectives dans le domaine du reverse engineering.

Jusqu’à présent, la décompilation, c’est-à-dire le processus qui consiste à retrouver le code source à partir d’un exécutable compilé, restait un défi de taille. Les outils existants peinaient à produire un code lisible et compréhensible par les humains, ce qui est logique puisqu’il y a une grosse perte d’informations lors de la compilation. Mais ça, c’était avant l’arrivée de LLM4Decompile !

Entraîné sur un énorme dataset de 4 milliards de tokens de code C et d’assembleur x86, ce modèle de langage surpuissant a appris à décoder les secrets des binaires. Grâce à son architecture basée sur les Transformers et ses milliards de paramètres, il est donc capable de capturer les patterns et la sémantique du code à un niveau inédit.

Mais les chercheurs ne se sont pas arrêtés là. Ils ont aussi développé le premier benchmark standardisé pour la décompilation baptisé Decompile-Eval. Basé sur des problèmes de programmation réels, il permet d’évaluer la capacité des modèles à regénérer un code recompilable et ré-exécutable. Exit les métriques de similarité de tokens, place à des critères solides et pertinents ! LLM4Decompile parvient à recompiler 90% des binaires décompilés (oui oui, je me suis pas trompé) !

Mieux encore, 21% du code re-généré réussit tous les tests unitaires, démontrant une préservation de la logique du programme. C’est 50% de plus que GPT-4, pourtant considéré comme l’état de l’art.

Cerise sur le gâteau, LLM4Decompile est entièrement open-source. Les modèles pré-entraînés de 1,3 à 33 milliards de paramètres sont disponibles sur Hugging Face, prêts à être utilisés et améliorés par la communauté. Le code, les données d’entraînement et le benchmark sont aussi accessibles sur GitHub.

Bien sûr, LLM4Decompile n’est qu’un premier pas vers la décompilation par l’IA. Il reste limité au langage C et à l’assembleur x86, et ne gère pour l’instant que des fonctions isolées. Mais les perspectives sont immenses ! On peut imaginer étendre son champ d’action à d’autres langages et architectures, voire carrément l’utiliser pour transpiler automatiquement du code entre différents langages.

Les applications potentielles sont nombreuses : reverse engineering de logiciels legacy (ça veut dire obsolète mais encore utilisé.. .argh !), analyse de malware, portage de vieux jeux vidéos, etc. Même les vieux binaires qui sentent la naphtaline n’auront bientôt plus de secrets pour nous !

GhostRace – Nouvelle attaque de type Spectre / Meltdown contre les processeurs

samedi 16 mars 2024 à 01:57

Accrochez-vous bien à vos chaises (ou à vos hamacs, je ne juge pas 😉) car des chercheurs en sécurité nous ont encore pondu une nouvelle attaque qui devrait bien faire stresser sur la sécurité de vos CPU !

Oui je sais, on en a déjà vu des vertes et des pas mûres avec Spectre, Meltdown et toute la clique… Mais là, c’est tout aussi lourd. Ça s’appelle GhostRace et ça va vous hanter jusque dans vos cauchemars !

En gros, c’est une variante de Spectre qui arrive à contourner toutes les protections logicielles contre les race conditions. Les mecs de chez IBM et de l’université d’Amsterdam ont donc trouvé un moyen d’exploiter l’exécution spéculative des processeurs (le truc qui leur permet de deviner et d’exécuter les instructions à l’avance) pour court-circuiter les fameux mutex et autres spinlocks qui sont censés empêcher que plusieurs processus accèdent en même temps à une ressource partagée.

Résultat des courses: les attaquants peuvent provoquer des race conditions de manière spéculative et en profiter pour fouiner dans la mémoire et chopper des données sensibles ! C’est vicieux… En plus de ça, l’attaque fonctionne sur tous les processeurs connus (Intel, AMD, ARM, IBM) et sur n’importe quel OS ou hyperviseur qui utilise ce genre de primitives de synchronisation. Donc en gros, personne n’est à l’abri !

Les chercheurs ont même créé un scanner qui leur a permis de trouver plus de 1200 failles potentielles rien que dans le noyau Linux. Et leur PoC arrive à siphonner la mémoire utilisée par le kernel à la vitesse de 12 Ko/s. Bon après, faut quand même un accès local pour exploiter tout ça, mais quand même, ça la fout mal…

Bref, c’est la grosse panique chez les fabricants de CPU et les éditeurs de systèmes qui sont tous en train de se renvoyer la balle façon ping-pong. 🏓 Les premiers disent « mettez à jour vos OS« , les seconds répondent « patchez d’abord vos CPU !« . En attendant, c’est nous qui trinquons hein…

Mais y’a quand même une lueur d’espoir: les chercheurs ont aussi proposé une solution pour « mitiger » le problème. Ça consiste à ajouter des instructions de sérialisation dans toutes les primitives de synchronisation vulnérables. Bon ok, ça a un coût en perfs (5% sur LMBench quand même) mais au moins ça colmate les brèches. Reste plus qu’à convaincre Linus Torvalds et sa bande de l’implémenter maintenant… 😒

En attendant, je vous conseille de garder l’œil sur les mises à jour de sécurité de votre OS et de votre microcode, on sait jamais ! Et si vous voulez en savoir plus sur les dessous techniques de l’attaque, jetez un œil au white paper et au blog des chercheurs, c’est passionnant.

A la prochaine pour de nouvelles (més)aventures !

Le support des cartes AMD débarque sur Ollama

vendredi 15 mars 2024 à 22:38

Bonne nouvelle, Ollama vient tout juste d’annoncer un truc qui devrait vous faire plaisir : le support des cartes graphiques AMD en preview ! Cela signifie que toutes les fonctionnalités d’Ollama peuvent maintenant être accélérées par les cartes graphiques AMD, que ce soit sur Linux ou Windows.

Mais au fait, c’est quoi Ollama ? Pour les deux du fond qui suivent pas, je vous refais un topo vite fait. Ollama, c’est un outil hyper pratique qui permet de faire tourner des grands modèles de langage open-source directement sur votre machine locale. Genre Mistral, Llama 2 et toute la clique.

Alors, quelles sont les cartes AMD compatibles ?

Pas de panique, je vous ai préparé une petite liste bien détaillée. Dans la famille des Radeon RX, on retrouve les monstres comme les 7900 XTX, 7900 XT, 7800 XT, 6900 XT et compagnie. Pour les pros, la gamme Radeon PRO est aussi de la partie avec les W7900, W6800X Duo, Vega II… Bref, y a du beau monde au rendez-vous. Et si vous êtes un fan des cartes Instinct, pas de jaloux, les MI300X, MI250, MI100 et autres sont aussi supportées.

Ollama promet également que d’autres modèles de cartes graphiques suivront. Alors on croise les doigts et on surveille les annonces comme le lait sur le feu. En attendant, si vous voulez vous lancer dans l’aventure Ollama avec votre carte AMD, c’est simple comme bonjour.

Téléchargez Ollama pour Linux ou Windows, installez le bouzin et hop, vous voilà parés pour faire chauffer votre GPU AMD ! C’est pas beau la vie ? Je vous ai même fait un tutoriel ici !

Allez, je vous laisse, j’ai un rendez-vous urgent avec mon Llama2 uncensored qui me fait de l’œil.

Source