Le Forum de l'Alliance Francophone

Nouvelles:

Auteur Sujet: Pascal vs Turing vs Ampere  (Lu 3146 fois)

0 Membres et 1 Invité sur ce sujet

Hors ligne Alan St-Pierre

  • Boinc'eur Junior
  • **
  • Messages: 180
  •   
    • E-mail
le: 24 June 2022 à 21:21
Bonjour, je suis en processus d'achat d'un GPU et je me posais une question en particulier concernant la performance de ces différentes architectures sur Boinc. En effet, Turing a changé la manière dont les GPU font des calculs en permettant d'exécuter des opérations en INT32 et en FP32 de manière simultanée selon la formule INT32+FP32 contre INT32/FP32 du côté de Pascal. Ampere a encore innové en permettant de faire INT32+FP32 / FP32+FP32. Turing a également doublé la quantité de mémoire cache, augmenté le nombre de CUDA cores, introduit une mémoire plus rapide et avec un processus de gravure plus fin et le tout a encore été amélioré avec Ampere.

En fait, ce que me demande, c'est si toutes ces améliorations ont un réel impact sur Boinc. Oui, c'est certain qu'améliorer le nombre de CUDA cores et la vitesse de la VRAM ont de l'importance, mais cela se fait au prix de la consommation électrique et de la température, contrairement aux améliorations de l'architecture qui vont simplement optimiser la puissance disponible. J'ai cru lire quelque part qu'en raison de l'exécution simultanée des INT32 et des FP32, les cartes Turing sont beaucoup plus efficaces que les cartes Pascal sur Boinc. Est-ce vrai, si oui dans quelles proportions? Et est-ce que Ampere améliore vraiment encore plus? La carte ne va servir qu'à du calcul, très rarement du jeu vidéo et du rendu, alors inutile de considérer ces facteurs.

Je suis fortement limité au sujet de la quantité de chaleur dégagée (le boîtier dans lequel ce GPU va se retrouver n'a qu'un emplacement de fan en arrière et impossible de changer le boîtier, du coup il est probable que j'achète un modèle avec une turbine pour évacuer la chaleur directement à l'extérieur, mais la carte ne doit pas trop consommer pour éviter que ce soit trop bruyant). Cela me pousse vers les nouvelles générations, mais je suis également limité sur le prix, les anciennes générations sont moins chères.

Qu'est-ce que vous en pensez? Je me demande également s'il existe un tableau comparatif avec les différents modèles de GPU selon leurs performances sur Boinc.
« Modifié: 24 June 2022 à 21:23 par Alan St-Pierre »

Ordinateur 1: Intel Xeon 2697-V4, 24 Go DDR4, Nvidia Titan V 12 Go
Ordinateur 2: Levono Legion 5 avec AMD Ryzen 7 4800H, 32 Go DDR4, Nvidia GTX 1660Ti 6 Go
Ordinateur 3: Intel Core i5-6400, 16 Go DDR3, Nvidia GTX 1650 Super 4 Go
Ordinateur 4: Intel Core i3-7100T, 8 Go DDR4, Nvidia T600 4 Go
RIP: Dell Inspiron 7559 avec Intel Core i5-6300HQ, 16 Go DDR3, Nvidia GTX 960M 4 Go


Hors ligne DocPhilou1966

  • Boinc'eur devant l'éternel
  • *****
  • Messages: 1869
  •   
    • Mon Job
    • E-mail
Réponse #1 le: 25 June 2022 à 08:54

 
13800346^131072+1   935,840 (decimal)   2019-01-27 Generalized Fermat Prime Search


Hors ligne JeromeC

  • CàA
  • Boinc'eur devant l'éternel
  • *****
  • Messages: 31108
  •   
Réponse #2 le: 25 June 2022 à 11:16
Ton lien wuprop c'est le délai de retour, pas trop de rapport je pense, et la page temps de calcul (qui elle aurait été plus utile) est cassée :/

A quoi bon prendre la vie au sérieux, puisque de toute façon nous n’en sortirons pas vivants ? (Alphonse Allais)



Hors ligne toTOW

  • Boinc'eur devant l'éternel
  • *****
  • Messages: 4518
  •   
    • FAH-Addict.net
    • E-mail
Réponse #3 le: 09 July 2022 à 20:25
Quand tu fais du calcul scientifique, tu n'utilise que deux types de données : le FP32 ou le FP64 si la précision des calculs est critique.

Pour les projets @Home, 90% des calculs sont en FP32, car la plupart des cartes grand public n'ont pas le hardware nécessaire pour faire du FP64 de manière performante. Certains ne supportent le FP64 que par émulation logicielle d'ailleurs ...

De mémoire, il n'y a que MilkyWay et certains sous projets PrimeGrid qui font du FP64 pur.

Certains projets (Folding@Home par exemple) peuvent faire de la Mixed Precision, c'est à dire qu'ils font la plupart des calculs en FP32 et quelques calculs critiques en FP64.

FAH-Addict, première source d'information francophone sur le projet Folding@Home.


Hors ligne Alan St-Pierre

  • Boinc'eur Junior
  • **
  • Messages: 180
  •   
    • E-mail
Réponse #4 le: 11 July 2022 à 20:21
Quand tu fais du calcul scientifique, tu n'utilise que deux types de données : le FP32 ou le FP64 si la précision des calculs est critique.

Pour les projets @Hoe, 90% des calculs sont en FP32, car la plupart des cartes grand public n'ont pas le hardware nécessaire pour faire du FP64 de manière performante. Certains ne supportent le FP64 que par émulation logicielle d'ailleurs ...

De mémoire, il n'y a que MilkyWay et certains sous projets PrimeGrid qui font du FP64 pur.

Certains projets (Folding@Home par exemple) peuvent faire de la Mixed Precision, c'est à dire qu'ils font la plupart des calculs en FP32 et quelques calculs critiques en FP64.

Ok donc si je comprends les INT ne sont pas utilisés sur Boinc et du coup cette optimisation de l'architecture ne nous sert à rien? Du coup les seules améliorations de Turing par rapport à Pascal qui nous sont utiles sont la hausse du nombre de cores, de la taille du cache et parfois de la fréquence?

Ordinateur 1: Intel Xeon 2697-V4, 24 Go DDR4, Nvidia Titan V 12 Go
Ordinateur 2: Levono Legion 5 avec AMD Ryzen 7 4800H, 32 Go DDR4, Nvidia GTX 1660Ti 6 Go
Ordinateur 3: Intel Core i5-6400, 16 Go DDR3, Nvidia GTX 1650 Super 4 Go
Ordinateur 4: Intel Core i3-7100T, 8 Go DDR4, Nvidia T600 4 Go
RIP: Dell Inspiron 7559 avec Intel Core i5-6300HQ, 16 Go DDR3, Nvidia GTX 960M 4 Go


Hors ligne Oncle Bob

  • Boinc'eur devant l'éternel
  • *****
  • Messages: 5342
  •   
Réponse #5 le: 12 July 2022 à 18:22
Salut Alan,

My 2 cents sur la conso : non seulement ça ne s'améliore pas, mais ça tend à se dégrader avec les derniers monstres qui tètent à eux seul un demi-kW.

Les prix, eux aussi, s'envolent.


Dans le dernier numéro de CPCHW, les consos relevées sous Furmark (un stresstest bien connu) sont les suivantes (prix public entre parenthèses) :

- GTX 3090 Ti :  TDP 450-500W (~2250 €)
- GTX 3090 : 466 W (~1650 €)
- RX 6950 XT : 446 W (~1400 €)
- RX 6800 XT : 395 W

C'est totalement démentiel, tant à l'achat qu'au coût de fonctionnement (à ~17 centimes le kWh en France, faire tourner le GPU H24 coûte plus de 1,8 euro/jour, soit près de 700 balles à l'année). Et v'là la joie d'avoir 1 kW de chauffage en plein été.


Si on regarde la puissance consommée par des GPU milieu de gamme (500-600 balles), on s'aperçoit que les RX 6600 XT et GTX 3060 tètent 180-200W en pic (source : https://www.guru3d.com/articles-pages/galax-geforce-rtx-3060-ex-white-12g-review,5.html )


@DocPhilou : Imho il faut oublier les les vieilles HD7950/7970. Ok le DP n'était pas amputé (DP = 1/4 SP), mais on parle de GPU qui ont fêté leurs 10 ans et qui ne sortent au final qu'un TFLOPS en DP, grand max, tout en ayant des pilotes largement obsolètes. Et il faut réussir à en trouver qui ne soient pas totalement rincés, ça devient une gageure.

Au delà de ça, posons nous la question : les projets DP ne devraient-ils pas modifier les applis pour faire du SP ? De nos jours, il est moins coûteux en temps de faire tourner x fois la même tâche en FP32 (voir FP16) qu'une seule fois en FP64. La génération 3000 chez NVdia a un FP32 60 fois plus performant que le FP64, 16 fois sur les AMD 6000.

Pour moi le DP est mort et enterré depuis des années, toute l'industrie et la recherche se sont dirigés vers une multiplication des calculs moins précis mais nettement plus courts en lieu et place de calcul très complexes mais longs.

Boincstat
Projets du moment
Config principale : i7 2600K@4,2 GHz / 32 Go@1333 MHz / GTX 970 (Win 10)
Crunchbox passives : i7-4785T / 8 Go@1600 MHz / Akasa Euler S (Debian) || i3-4130T / 4 Go@1600 MHz / Akasa Euler (Debian)
ARM : 1*S922 + 1*H3
Boinc@Raspberry Pi | Boinc et Linux | Date fin de projets


Hors ligne Alan St-Pierre

  • Boinc'eur Junior
  • **
  • Messages: 180
  •   
    • E-mail
Réponse #6 le: 14 July 2022 à 18:46
Finalement, je suis allé avec une 1650 Super.  C'est une petite carte Turing qui a quand même assez de muscle pour ce que je veux en faire, et son TDP de seulement 100 watts rends possible l'utilisation d'un petit cooler sans que la carte devienne trop bruyante, même dans un prebuilt Acer TC-710 tout à fait normal (i5 6400 (que je veux changer pour un i7 6700), 16 Go DDR3L, carte mère OEM H110, alimentation changée pour une EVGA W1 500W 80+ White (non modulaire et assez basique, mais le système ne consomme pas tant et il fallait que ce soit une alimentation de relativement bonne qualité sans que ce soit trop cher étant donné que ce n'étais pas moi qui payais) avec un petit ventilateur Noctua B9 Redux PWM 92 mm en exhaust. La carte graphique, c'est une MSi 1650 Super Aero ITX, et j'en suis satisfait. Un petit cooler était nécessaire, car les headers pour les prises USB en avant de la tour sont juste en avant du port PCIe et donc la carte ne doit pas dépasser ce dernier de beaucoup. Finalement, à 140$CA usagée, mais peu utilisée, je crois que j'ai obtenu une aubaine et après un nettoyage, elle va très bien.

Étant donné que la consommation limitée dont je pouvais me permettre, la RTX 3050 est la seule option qui s'offrait à moi avec des TDP de 90W ou de 130W selon si ont choisi la version 4 Go ou 8 Go de VRAM. Cependant, avec un prix minimum de 430$CA, elle est trop chère pour moi. Du côté de Pascal, ma limite de consommation m'aurait limité à la 1060 voir la 1070, mais j'ai trouvé la 1650 Super qui est moins chère et consomme moins. C'est dommage que la consommation sois limitante, car j'aurais pu opter pour une 1080 qui est toujours très performante, mais qui consomme trop.

Ordinateur 1: Intel Xeon 2697-V4, 24 Go DDR4, Nvidia Titan V 12 Go
Ordinateur 2: Levono Legion 5 avec AMD Ryzen 7 4800H, 32 Go DDR4, Nvidia GTX 1660Ti 6 Go
Ordinateur 3: Intel Core i5-6400, 16 Go DDR3, Nvidia GTX 1650 Super 4 Go
Ordinateur 4: Intel Core i3-7100T, 8 Go DDR4, Nvidia T600 4 Go
RIP: Dell Inspiron 7559 avec Intel Core i5-6300HQ, 16 Go DDR3, Nvidia GTX 960M 4 Go


Hors ligne [AF] fansyl

  • Boinc'eur devant l'éternel
  • *****
  • Messages: 2397
  •   
Réponse #7 le: 25 July 2022 à 19:50
Saches que tu peux utiliser des utilitaires de type MSI AfterBurner pour limiter le TDP de ta carte, c'est ce que je fais dès que je sors de la période de chauffage : je mets le curseur au minimum pour éviter trop de chaleur inutile.

Exemple, sur une GTX970 qui fait 150W par défaut, je la descend à 90W.

C'est une solution à ne pas négliger  :hello:

Je crunche dans le silence et c'est ma joie !
Ryzen 1700X/32Go/GTX970 (sous WC) - i7-3770T/16Go/HD4000 - Ryzen 5700G/32Go/GTX1050 - Q9550/8Go/GT1030 - 3xAndroidBox S912