PROJET AUTOBLOG


Horyax

source: Horyax

⇐ retour index

Mise à jour

Mise à jour de la base de données, veuillez patienter...

Allô, t’as un SSD mais pas RAID 0 ?

mardi 14 mai 2013 à 18:20

S’il y a une connerie à faire en informatique, c’est mettre tous ses œufs dans le même panier. Dans ce sens, le RAID 0 représente un moyen efficace pour parvenir à ses fins. Qu’il n’en déplaise aux adorateurs de cette technologie, elle n’est pas sa place dans nos ordinateurs, même pour ceux en quête du moindre Mo/s à grappiller. Reste le cas de figure du gars qui n’a aucune donnée un tant soit peu précieuse et s’en fout si son PC vient à bruler. Pourquoi pas. Dans des datacenters par contre, la vitesse d’accès préoccupe pas mal les administrateurs systèmes, on emploiera par exemple du RAID 10 pour coupler performance et redondance. Mais on va pas commencer à parler serveurs et matériel pro, c’est carrément à deux univers parallèles du hardware destiné aux bas-fonds de la société, nous qui lisons des mails à longueur de journée et jouons à Call Of une fois par mois.

Bref, placer deux HDD en RAID 0 dans l’espoir d’obtenir un gain titanesque au chargement de World of Warcraft, c’est assez utopique. De toute façon je sais même pas pourquoi on parle encore de disque dur alors qu’on ne jure plus que par les SSD. Quoi un SSD suffit pas pour démarrer Windows convenablement ? Deux SSD en RAID 0 tu dis ?

Note : Je raconte des salades ? Personne ne conseille de RAID 0 en SSD vous pensez ? Faites un peu le tour des forums et vous apercevrez ce genre de suggestions plus souvent que vous l’auriez imaginé.

Aspect théorique

Si on savait déjà que monter deux SSD en RAID 0 comportait plus d’inconvénients que d’avantages (mis à part pour le Jacky du coin en manque de reconnaissance et ne sachant pas comment dépenser ses 2000€ de budget en config’), le site tom’s Hardware a réalisé une série de tests, histoire de mettre tout le monde d’accord.

Allons à l’essentiel.

Qu’il soit question de HDD ou de SSD, le RAID 0 apporte un gain très remarquable (on double quasiment le débit) en lecture/écriture séquentielle. C’est à dire lors d’un accès aux données selon une séquence ordonnée. Wikipédia fournit l’exemple d’une bande magnétique, vous avancez ou reculez, pas moyen de sauter à tel emplacement sans parcourir la bobine. Cool mais c’est loin d’être représentatif de la majorité des accès sur nos PC.

Le second type d’accès porte sur la lecture aléatoire, il est largement majoritaire dans notre utilisation de tous les jours. Dans le cas du disque système, le PC accède simultanément à une multitude de données parsemées à plusieurs endroits. La capacité du support à traiter rapidement ces opérations impacte directement les temps d’accès.
Le graphique suivant démontre la vitesse de traitement des opérations (en ordonnée) en fonction du nombre d’accès simultanés (en abscisse). On commence par 1 accès, 2… puis 32 en même temps. Sachez que lors d’un usage classique, le nombre d’accès simultanés ne dépassera pas qu’exceptionnellement les 4 commandes simultanées, cf la démarcation rouge.

lecture-aléatoire

Chaque graphique redirige vers la source originale.

Intéressons nous à la première moitié des courbes, le reste c’est bon pour les marketeux à la recherche de gros pourcentages et score en tous genres à balancer sur leur slide de présentation. Je ne m’attarderais pas plus longtemps sur ce benchmark « théorique », savoir que le RAID 0 apporte 20 000 « I/O operations per second » de plus, ça fournit surtout un ordre d’idée sur le potentiel des SSD et ça confirme qu’on est loin de doubler les perfs’.

Dans la vraie vie

Si on prend l’exemple de la vitesse de lancement de Photoshop comme ci-dessous, c’est tout de suite moins convaincant.

SSD-photoshop

« Woot, j’ai gagné 1.1 seconde sur le lancement de Photoshop en investissant seulement 200€ ! »

 

Le plus fun reste le graphique des temps d’accès :

SSD_temps-acces

Le RAID 0 affiche une latence plus élevée ! C’est quand même très ennuyeux concernant le principal avantage du SSD.

nelson-ahah

On va pas tourner autour du pot durant des heures, ces quelques graphiques fournissent les infos qui nous intéresses. Je ne me suis pas attardé sur les débits, à vrai dire déjà quand il s’agit de SSD « seuls », mon avis sur le sujet est plus que mitigé. C’est pratique de pouvoir accéder à ses données à 362Mo/s, mais il faut en avoir les moyens. A quel moment votre PC peut-il atteindre ce débit ? A moins que ne vous copiez des fichiers d’un SSD vers un autre, il n’y a pas de circonstance de ce genre. C’est d’ailleurs pour ça que la différence entre SATA 2 et SATA 3 n’est pas flagrante en pratique. Et ouai, votre SSD se tourne les pouces.

Je le répète une fois de plus ? Rien de mieux qu’un RAID 0 pour gagner 1s au boot de Firefox et doubler le risque d’obtenir des pannes !

Edit : j’ai carrément zappé ce point dans ma conclusion, pourtant c’est le plus important. Si réellement vous souhaitez gagner en performance, la seule et vraie solution c’est d’acheter un SSD de plus grosse capacité. Les temps d’accès sont plus courts et les débits plus élevés. Bien sûr ça reste relatif comme gain. Il vaut mieux investir dans un SSD de 128Go de bonne qualité pour assurer une durée de vie plus longue, plutôt qu’un modèle de 250Go bas de gamme.

 

Sources :

Je veux mes pubs

mercredi 1 mai 2013 à 18:29

J’annonçais le principe il y a tout juste un mois, une idée un peu tordue consistant à proposer des fausses pubs pour 1€. Le concept si unique soit-il (vous payez pour vous en prendre plein la face), comporte un problème de taille.

Comment qu’on paye ?

On paye pas… je m’explique. Sans avoir consacré l’ensemble de mes soirées sur le sujet, il ressort seulement deux solutions de payement envisageables : Paypal et Flatr. Cependant, ni l’une ni l’autre ne sont réellement convenables. Traitons les points dans l’ordre et simulons d’abord un virement de 1€ via Paypal. Le groupe impose les frais suivants : 3,4% – 0,25€ (montant fixe). Il reste 71 centimes, autrement dit, plus de 25% vont dans les poches du géant américain, ce qui n’est pas très plaisant. Que ce soit clair, je n’envisageais à aucun moment ce délire de « 1€ avec pub » comme étant viable ou pouvant constituer une source de revenue. Faut pas déconner, c’est purement pour le fun. Et je vous rassure, à moins que vous soyez tous pris d’un élan de générosité (et de folie par l’occasion), il n’y aurait pas de quoi s’offrir un voyage au Panama.
Bref, nous disions que 25% des recettes revenaient à Paypal sur un montant de 1€. En me mettant dans la position inverse, celle du donneur, ça me ferait chier de filer 25% à des inconnus puis de se dire que « seulement » 75% parviendront à l’intéressé. Solution ? Augmenter la mise pour compenser les frais imposés. Pas vraiment une solution vous conviendrez… Et jusque là, nous n’avions même pas abordé le plus gros problème : Paypal lui même. Chacun son avis sur la chose, mais sans rentrer dans les détails, le simple fait de devoir fournir 38376 informations sur soi pour filer 1€ à son blogueur favori, c’est un peu gênant. Je dirais même totalement bloquant pour de nombreuses personnes.

take-my-money

Pour Flatr le raisonnement est différent, le souci ne se situe pas au même endroit. En fait, le service n’est que très peu répandu, évidemment ce n’est pas une raison pour exclure le projet mais comme pour Paypal, la finalité est que certains d’entre vous qui souhaiterez de tout leur cœur m’offrir un café, ne pourront/voudront pas (et je partage votre avis), à cause d’un blocage technique.

Pour conclure, j’ose imaginer qu’une minorité ne serait pas contre l’idée de souscrire à l’offre, sauf que les outils à notre disposition sont loin de réjouir tout le monde. Alors mettre ce système en place pour au final obtenir 4 abonnés profitant des bannières, c’est à la fois du temps de perdu, du gâchis et c’est inutile. Conclusion : autant mettre d’office les pubs en libre accès. Si vous lisez ce billet, c’est que vous en profitez déjà (ctrl F5). Nous allons tester le mécanisme durant une semaine puis je récolterai vos avis. Faudra t-il placer un bouton activer/désactiver pub; quelle charge de travail cela suppose (renouvellement des bannières); pourrez-vous participer, etc.

 

Edit : sait-on jamais, si vous souhaitez contribuer et peut-être apercevoir votre bannière sur le blog, voici les dimensions à respecter :

Toutes les idées sont bonnes à prendre, le plus ridicule possible !

A envoyer à : contact@horyax.fr

Au petit bonheur la chance

dimanche 28 avril 2013 à 15:18

Il y a cinq ans, lorsque j’ai assemblé mon ordinateur en guise de cadeau de Noël, une tour bas de gamme au possible, je n’y connaissais rien en matériel informatique. Si… je pouvais bien sortir les références marketing du moment : 4Go de mémoire, 8800 GT, dual core, etc. Le choix de mes composants fut quasiment établie à l’aveugle, basé sur ce qui semblait le plus convenable tout en respectant mon faible budget. Le boîtier qui a accueilli mes composants pendant plus de quatre ans, avant d’être changé, n’était autre qu’un vulgaire modèle no-name en petite tôle d’aluminium. Aucune finition interne, incapable d’amortir le moindre bruit et pire, il vibrait. Ce boîtier était vendu d’origine avec une alimentation dont nous ne prendrons pas le temps de juger la qualité. Pire qu’un bloc Heden, du pur no-name des familles.

Watt the hell ?

Seulement quelques mois après l’acquisition de mon PC, je me souviens avoir entrepris un petit nettoyage. L’ordinateur n’était pas vraiment poussiéreux, c’était plus un prétexte pour entrouvrir la bête. Une fois mes pitreries terminées, j’ai remonté l’ensemble et rebranché électriquement l’alimentation. J’ai alors tenté de redémarrer l’ordinateur mais celui-ci n’a pas réagit. En vérifiant les câblages, j’ai aperçu que la LED de la carte mère, censée être verte lorsque que l’alimentation est sous tension, ne l’était pas. Ce foutu bloc no-name d’à peine quatre mois, venait déjà de succomber pour je ne sais quelles raisons, un pauvre faux contact sans doute pour vous dire la fiabilité du machin.

MSI-9800GT

Il a fallu que je cherche un remplaçant digne de ce nom, capable de fournir la puissance démentielle requis par mon Athlon. J’ai profité de cette occasion pour investir dans une nouvelle carte graphique, passant d’une Nvidia 8500 GT à une 9800 GT, payée aux alentours de 120€. Quel fut le choc lors de ma première session de jeu. Mais ne dérivons pas, nous parlions « watt ». Dans ce contexte, avec l’achat de la nouvelle carte graphique, ce n’était plus un gros bloc qu’il me fallait, mais un mastodonte. Du moins je le pensais… Ma décision s’était donc portée sur une alimentation de marque Mad-X, un modèle étiqueté 580W. Voyez vous la démesure alors que cette même configuration aujourd’hui ne doit pas dépasser les 200W. Pour tout dire, le choix de cette alimentation ne dépendait même pas d’un souci d’économie, non, j’étais certain de faire une bonne affaire. Puis 580W, peu importe la couleur de l’alimentation, ça restait du courant me disais-je. Erreur de débutant. Quelques jours plus tard je recevais les nouveaux composants.

Les mois passèrent puis l’hiver sonna. C’est un soir, durant les vacances de Noël, que l’incident se produisit. J’étais en pleine session de jeu vidéo, alors que des ralentissements se faisaient de plus en plus ressentir, comme des sortes de saccades. J’ai donc décidé d’ouvrir mon boîtier, sans raison, comme si je m’attendais à voir des flammes jaillir du processeur. J’ouvris le couvercle puis me lançai à la recherche du problème. Je vérifiais les différents radiateurs mais ne vis rien d’anormal, jusqu’à ce que j’aie placé ma main sur la sortie de l’alimentation, à l’arrière du boîtier. Stupéfaction ! La paroi du bloc était brûlante. Je déplaçai ma main sur le dessus du boîtier et je sentis la chaleur au travers ! Je collai alors mon doigt sur le coté de l’alimentation et impossible de tenir plus de quelques secondes. Je réalisai soudain que cette bonne affaire en apparence ne l’était peut-être pas tant que ça.

MEANWHILE IN MY COMPUTER

fire

via imgur.com

Laissant tourner l’ordinateur, j’attrapai une lampe pour jeter un coup d’œil sous l’alimentation et quelle surprise! Le ventilateur ne tournait plus. Très fâcheux pour un bloc aussi bas de gamme, dont le rendement devait atteindre 70%, voire moins étant dans le bas de la courbe par rapport à la puissance max délivrée. Ces 30% restants, représentaient quelque chose comme 50W à dissiper sans l’aide du ventilateur, donc autant dire, mission impossible pour un tel produit. En perspective, aujourd’hui les meilleurs blocs sont parfois totalement dénués de ventilation tellement le rendement et la conception de l’alimentation sont satisfaisants.
Bref, forcé d’éteindre le PC avant qu’il n’entre en éruption, j’avais déjà la rage rien que de penser à un nouvel achat. Un an et deux alimentations mortes, je décidai d’en apprendre un peu plus sur cet engin diabolique à l’aide de quelques recherches. Mon nouveau choix s’était porté vers un modèle Xigmatek (constructeur réputé pour ses boîtiers) de 520W, certifié 80+ bronze pour 50€. Un prix déjà plus proche de la réalité quand on l’oppose aux blocs soit disant 600W de 40€. Cette alimentation Xigmatek tourne depuis bientôt quatre ans dans ma machine, mais il faut reconnaître que ce n’était sans doute pas le meilleur choix. Elle est surtout surdimensionnée et sans doute plus cher qu’une alimentation adaptée à mon installation. A l’époque, j’étais encore très loin de m’y connaître en hardware, je commençais seulement à m’intéresser sérieusement au sujet. Attribuez ça comme une erreur de jeunesse.

Foutage de gueule

Tout cela pour revenir à la réalité et rappeler encore une fois que le choix d’une alimentation ne doit pas s’effectuer les yeux bandés. Contrairement à tous les autres composants, l’alimentation peut directement détériorer ou user prématurément du matériel. J’aperçois des tonnes de demandes configurations sur les forums et dans 80% des cas, l’alimentation n’est pas convenable : trop bas de gamme, ou le plus souvent surdimensionnée. Dans cette situation, en dehors du surcoût engendré, on s’expose à d’éventuels soucis de rendement. En excluant les alimentations haut de gamme, le reste dispose de courbes de rendement optimales qui varient entre un certain pourcentage de la puissance max. Ça peut être entre 50%-80% ou 30%-60%, etc. Voici un exemple avec une Cooler Master GX de 550W :

courbe-gx

via coolermaster.fr

 

Nombreux internautes utilisent également l’outil Config’O'matic de Top Achat. Fort pratique il faut le reconnaître mais celui-ci comporte un petit bémol… Il IMPOSE la sélection d’une alimentation d’une certaine puissance selon le choix des composants. Exemple, je prends une HD 7950 (~150W de conso) couplé à un i5 3570K (supposons 75W), je sélectionne donc un bloc Seasonic de 450W qui ferait tout à fait l’affaire et là… l’outil nous en empêche !

top-achat

Alors imaginez Jacky qui monte son petit PC tranquille, puis arrivé à l’alim’, on le force à se diriger vers un modèle sur-puissant. Le client qui ne souhaite pas investir 80 boules dans son bloc (on le comprend) va choisir un modèle style Akasa de 550W, une vraie daube même pas certifiée 80+. C’est juste honteux de la part de Top Achat et plus généralement, on peut sérieusement se questionner sur l’éthique de toutes les boutiques proposant ce genre d’alimentations dans leurs rayons. Ma petite histoire précédente démontre la réalité des choses. En consommateur lambda que j’étais, je ne pouvais émettre de jugement quant à la qualité du bloc électrique. Il en va de même dans les configurations de grande-surface. Le détail n’est que très rarement communiqué, il faut se contenter le plus souvent de la puissance qui est indiquée sur la fiche technique, ne sachant ni de quel modèle, ni à quelle marque nous avons à faire. C’est un peu comme jouer à la roulette russe. Du chipotage dîtes-vous ? Alors pourquoi le groupe Heden irait porter plainte contre Canard PC ayant justement critiqué et mis à la lumière du jour les dangers de leurs alimentations, s’il n’avait rien à se reprocher ? Comment se fait-il que de tels produits passent encore la frontière après des articles aussi dénonciateur et autant de problèmes signalés sur les forums ? Heden – le partenaire des professionnels (c’est vraiment leur signature) ainsi que tous ses acolytes, devraient tout bonnement disparaître des étalages.

heden-1

Je conserve d’ailleurs un de ces spécimens chez moi, une Heden PSX-A830, scellée dans une boite telle une arme bactériologique.

 

Merci à Thomas pour sa relecture (la concordance des temps c’est pas une mince affaire – cf la partie « Watt the hell ? »).

Nettoyage printanier – édition 2013

jeudi 18 avril 2013 à 15:33

Huit mois que j’avais pas nettoyé ma machine, il était temps. Les ventilateurs commençaient à vrombir, exprimant leur mécontentement et entassaient difficilement la poussière accumulée durant ce rude hiver. Alors que la France connaissait sa journée la plus ensoleillée depuis le début de l’année, j’ai profité de dimanche dernier pour sortir le monstre et lui faire prendre l’air. Appareil photo sous la main, je vous propose de revivre l’expérience. Oui rien que ça…

Captain Obvious

Si le fait de nettoyer son PC peut sembler en apparence à une pratique réservée aux experts, il n’en est pas moins qu’un bon ménage une fois dans l’année est nécessaire. La poussière qui s’entasse au niveau des ventilateurs, sur les pales, dans les ailettes en aluminium, au sein de l’alimentation, sur les disques durs, etc etc, empêche l’air de bien circuler, causant un éventuel échauffement. Pensez-y, nettoyer votre PC, c’est préserver la planète.

Sans partir dans les cas extrêmes (pas si rare dans les ordinateurs de monsieur et madame tout le monde) : ramassis de poussière de plusieurs centimètres, ventilo recouverts, surchauffe provoquant des extinctions, court-circuit, mort subite d’un condensateur… Rappelons seulement que moins les composants sont sollicités, plus ils ont de chance de durer dans le temps (pensée particulière pour les HDD). Mis à part l’espérance de vie, c’est les nuisances sonores accrues qui se font ressentir dans l’immédiat. Sans avoir de chiffre, je peux vous assurer que mon PC est moins bruyant après débarbouillage. Même si le gain est de l’ordre de 1 à 3dB au repos, c’est perceptible.

Astuce que j’ai déjà évoqué : un PC surélevé absorbe largement moins de poussière et autres saletés en tous genres.

aaa

Ne vous retenez pas pour le mettre en fond d’écran.

Artillerie lourde en vue

Quand il est question de décrasser un PC, il faut sortir le matos adéquat. L’arme secrète : le pinceau. C’est vraiment l’outil indispensable car il permet d’enlever une bonne partie de la poussière sans effort. J’utilise également un aspirateur pour les grandes surfaces ou dégager grossièrement. Ensuite, une bonbonne d’air sec ou un compresseur (attention à bien maintenir les ventilateurs) pour déloger la poussière située dans les petits recoins, notamment entre les ailettes en aluminium ou en cuivre des radiateurs. Dernière étape réservée aux plus minutieux qui emprunteront un chiffon pour ramasser les dernières particules de poussière et redonner un aspect brillant.

 

 

Résidu de micro-particules grisâtre, me voilà !

Tournevis à la main, aspirateur à portée de bras et compresseur prêt à grogner, je me suis empressé d’entrouvrir les entrailles de la bête. Séance diapo :

cage-hdd

La cage de HDD : dépotoir de prédilection pour la poussière en provenance du ventilateur frontal.

filtre

Le filtre à poussière qui se remplit en une semaine.

Après l’effort, le réconfort

panneau-droite

La seule pieuvre certifiée 80+ bronze.

cpu

Place au ventirad de compétition qui surplombe le monstrueux Athlon dual core !

ventilateur

Pour me rassurer qu’il y avait bien de la poussière et que je n’avais pas démonté mon PC pour rien.

 

panneau-gauche

Et Dieu inventa le double fond.

Sortez les fers à souder !

mardi 9 avril 2013 à 18:29

Derrière ce titre ragoteur se pose une réelle question. Sans tomber dans l’interminable discours quant à la survie de nos ordinateurs, tentons de faire un peu de tri entre les nombreux bruits de couloir et les informations fondées ou réfutées, que nous pouvons entendre à droit à gauche sur l’avenir du PC.

Alors OUI, Intel va commencer à souder les CPU sur les carte mères. Ce n’est plus un secret et la presse relaye l’information, notamment Canard PC : « Dès la génération suivante (Broadwell), une révolution se prépare puisque ces puces ne seront disponibles qu’au format BGA ». BGA qui rappelons le, consiste à souder les semi-conducteurs directement sur un circuit imprimé contrairement au LGA, format qui équipe pour l’instant la majorité de nos ordinateurs.

Pour saisir l’enjeu il faut se remémorer quelques points et situer le contexte. Intel produit actuellement trois types de puces, scindées en différents marchés :

Chaque année, Intel complète son catalogue en introduisant une nouvelle série de processeurs. La roadmap du fondeur repose sur le principe de « tick tock » qui consiste à alterner : nouvelle finesse de gravure (tick) puis nouvelle architecture (tock), entre chaque génération.

intel_tic-toc

Vous avez parlé d'un processeur soudé ?

Vous avez parlé d’un processeur soudé ?

Les derniers CPU en date, parus l’année dernière, reposent sur Ivy Bridge. Ce qui nous intéresse maintenant, c’est la prochaine architecture, prévue pour juin et répondant sous le nom de code Haswell. Si jusqu’ici de vilains échos nous annonçaient le passage du socket LGA vers BGA pour 2014 avec Broadwell, une récente news de HFR nous apprends que Haswell sera déjà (au moins) décliné en trois versions BGA pour desktop. Concrètement, nous pourrions trouver ce genre d’intégration dans des machines toutes faîtes. La question est de savoir quel type de machines. Parmi les trois CPU, deux sont des core i5 et l’autre un i7. Des processeurs clairement orientés usage intensif et plus à même de se retrouver dans des configurations gamer que dans un HTPC tout assemblé par un constructeur.

Pour le moment, il est peu probable que des cartes mères + CPU, soient vendues dans le commerce dès cette année. Par contre, lors du passage à Broadwell, donc au « tout soudé », nous aurons sans doute l’agréable surprise de découvrir cette forme de produit dans les boutiques :

- Ah tiens cette carte mère me plaît bien…
- 340€
- Quoi 340€ la mobo ?!
- Pas de chance garçon, y’a le dernier i7 5770R avec.

Vous voyez le genre.

monster-truck

Alors justement, comment appréhender le monde demain ? Qu’en sera t-il lorsque la carte mère sera défaillante ? Le marché ne va t-il pas orienter les produits vers du haut de gamme à base de OctoCoreKiKooLoL ? La situation n’étant déjà pas très glorieuse, j’imagine le pire. Pour finir, abordons les choses qui fâchent, c’est à dire les performances. Autant chez AMD que Intel, le rythme de progression tend à stagner, pour des raisons différentes cela dit. Si l’un souffre éventuellement d’une mauvaise gestion en interne et d’un budget R&D moindre, certains accusent un manque de concurrence qui ne forcerait pas le géant de Santa Clara à innover. Il est clair que la course n’est plus ce qu’elle était, remontons seulement à l’époque des Core2Duo et des mémorables Phenom, lorsque AMD pesait encore très lourd sur le marché du desktop. Il aura suffi à Intel de sortir sa première génération de Core i en 2010 pour distancer son camarade et que ce dernier ne parvienne pas à proposer une solution aussi compétitive par la suite pour que le fossé se creuse.

Adieu la puissance brute ?

Pour illustrer mes propos, j’ai rassemblé sous la forme de graphique, le gain moyen de performance entre chaque génération de processeur. Les gains proviennent tous de hardware.fr (ici, ici puis ) et synthétisent plusieurs dizaines de benchmarks orientés jeux vidéos et applicatifs. C’est sans doute la source la plus fiable et représentative. Le but n’étant pas d’obtenir des chiffres précis mais au moins un ordre d’idée. Pour revenir aux graphiques, chaque colonne correspond au gain de performance qu’apporte la génération précédente. De façon claire : l’i7 2600K apporte un gain moyen de 16.6% par rapport à l’i7 880. Il convient donc que chaque processeur sert de référence (0) pour le prochain de la liste.

gain-Intel

Précision : l’i7 4770K n’est pas encore sorti, le pourcentage indiqué n’est qu’une estimation (fort indubitable) fournit par la presse.


gain-AMD

 

Qu’il s’agisse des deux fondeurs, la courbe suit grosso-modo une évolution similaire. Petite rétrospection.
Jusqu’à il y a une dizaine d’années, chaque génération de processeur était marquée par une augmentation des fréquences. On doublait la fréquence, on gagnait deux fois plus de vitesse. Arrivé à 3GHz, la montée en fréquence a commencé à poser des problèmes d’ordre physique. Des courants de fuites trop importants, une surchauffe, une consommation qui explosait… La course aux « cœurs » a alors débuté.

Si les gains se montraient concluant au début, aujourd’hui nous en sommes en mesure de nous questionner. Ne touchons nous pas à une autre limite ? Je ne m’y connais pas assez pour rentrer dans le détail, je suis seulement en capacité d’analyser les résultats et d’émettre un possible jugement. Actuellement on s’aperçoit que la montée en fréquence n’est soit plus envisageable, soit plus souhaitée pour des questions de consommation. Quant à l’intérêt de multiplier le nombre de cœurs, il est fortement limité par la partie software. Reste l’amélioration de l’architecture et la finesse de gravure toujours plus précise qui permet d’intégrer davantage de transistors. Cependant l’évolution de ce procédé coûte cher et nécessite une chaine de production à la pointe de la technologie. Ce point soulève une énième question, celle de la viabilité du silicium dans le futur (à quand les transistors à base de graphène ou à un atome unique).

oco-core_every-where

Depuis Sandy Bridge, nous assistons à une sorte d’uniformisation consistant à intégrer le maximum d’éléments dans ce que nous appelons le processeur. Le faible apport de performance sur les dernières puces de Intel, est-il d’ordre technique (une limite comme je disais ?), ou le fabricant porte t-il son attention sur d’autres objectifs ? Le besoin de disposer d’un processeur plus puissant ne se fait pas réellement ressentir pour le moment. Pas pour la majorité d’entre nous en tout cas et pour les professionnels, du matériel ou des logiciels spécifiques existent (Cuda, GPGPU…). Autre hypothèse (et c’est probable dans une certaine mesure), le manque de concurrence de la part des Verts ne pousse pas Intel à sortir son meilleur cru.

Plus simplement, l’architecture x86 ne serait-elle pas en fin vie ? J’ose poser la question, répond-elle encore à nos besoins ? Ceux de la majorité ? Je suis peut-être à coté de la plaque… Quoi qu’il en soit, Intel se dirige maintenant vers le marché du SoC, du miniature, du mobile, bref vous saisissez l’idée. De ce coté là, bien que je puisse dire des bêtises, il est certain que la puissance n’est que secondaire.

Error happened! 0 - Call to a member function query() on null In: /var/www/ecirtam.net/autoblogs/autoblogs/autoblog.php:200 http://www.ecirtam.net/autoblogs/autoblogs/horyaxfr_c9dc484cfcb83c39b693fa31f48bdf17676f1bd0/?44 #0 /var/www/ecirtam.net/autoblogs/autoblogs/autoblog.php(414): VroumVroum_Config->setDisabled() #1 /var/www/ecirtam.net/autoblogs/autoblogs/autoblog.php(999): VroumVroum_Blog->update() #2 /var/www/ecirtam.net/autoblogs/autoblogs/horyaxfr_c9dc484cfcb83c39b693fa31f48bdf17676f1bd0/index.php(1): require_once('...') #3 {main}