[Topic Unique] Le GPU sur Boinc

Démarré par XTC_ZeuZ, 16 Juin 2008 à 19:32

« précédent - suivant »

0 Membres et 1 Invité sur ce sujet

XTC_ZeuZ

>>> Bienvenue sur le topic unique du calcul GPU sur boinc. <<<

Le but premier de ce topic sera de vous aider à vous lancer dans l'aventure, à répondre à toutes vos interrogations et à vous faciliter la tâche en vous fournissant tout les liens adéquats.

Projets compatibles.

Pour l'instant seul le projet GPUgrid permet d'utiliser notre carte graphique pour calculer des unités sur windows32/64bits ainsi que linux64bits.
D'autres projets devraient sortir leurs propres applications dans les semaines/mois à venir, on l'espère, quoi qu'il en soit vous en serez informé !

Matériel nécessaire.

Avant toutes choses, pour avoir la possibilité de calculer avec votre carte graphique, il faut que celle-ci soit compatible avec CUDA, ceci implique qu'il faut obligatoirement une carte graphique nVIDIA et plus précisément une GeForce8* ou supérieure (GF8/GF9/GT200).
Les cartes ATI ou les anciennes nVIDIA ne sont en aucun cas compatibles.

*Les GF 8800GTS 320/640mo, 8800GTX et 8800Ultra ne sont actuellement plus supportées par GPUgrid pour des raisons techniques.

Pour le bon fonctionnement de votre carte, il vous faut la dernière version de Boinc, la 6.3.17 qui est encore en test malheureusement ainsi que les derniers drivers disponibles pour votre carte graphique, tout les liens nécessaires pour les différents OS se trouvent ci-dessou

   
Liens

        # Windows 32bits:
        2000/2003/XP: ? Boinc 6.3.17 ? Forceware 177.84
        2008/Vista: ? Boinc 6.3.17 ? Forceware 177.84
   
        # Windows 64bits:
        2003 x64/XP x64: ? Boinc 6.3.17 ? Forceware 177.84
        2008 x64/Vista x64: ? Boinc 6.3.17 ? Forceware 177.84

        # Linux 64bits
        Ubuntu/Fedora: ? Boinc 6.3.14     ? Forceware 177.67

NB: Si vous utilisez d'autres drivers que ceux mis à votre disposition, il est fort probable que votre carte ne fonctionne pas correctement, elle peut faire des erreurs de calcul ou tout simplement ne pas être détectée par boinc.

Tableau comparatif des temps de calculs de nos membres :

Voici les performances obtenues par nos membres avec leur carte graphique, ce tableau sera bientôt complètement refait pour une meilleur visibilité   


On commence à en parler à partir d'ici .

FAQ

Est-il possible de cruncher avec deux cartes graphiques identiques ou différentes sur le même PC?
Oui bien entendu, il faut juste que le SLI soit désactivé et avoir un core cpu de libre par carte graphique.

J'observe des ralentissements de ma machine quand GPUgrid calcule, est-ce normal?
Oui, la carte graphique utilise un maximum de sa puissance sur le calcul gpugrid, de ce fait l'affichage est ralenti quelque peu, tout dépent de la puissance de votre carte graphique.
Sur une carte de faible puissance, les ralentissements seront fort perceptibles tandis que sur une carte très puissante, les ralentissements seront faibles voir inexistants, on ne peut rien y faire


sachez-le, utilisateurs de noyaux 64bits :
- lorsque vous purgez les paquets "nvidia*",
ça flingue le répertoire "/var/lib/nvidia",
qui est nécessaire à l'installation des bibliothèques de compatibilité 32bits du pilote graphique.

Donc : juste après avoir purgé les paquets nvidia,

Code: [Sélectionner]
sudo apt-get purge nvidia*...pensez à recréer un répertoire "/var/lib/nvidia"

Code: [Sélectionner]
sudo mkdir /var/lib/nvidia

XTC_ZeuZ

DarkZero a écrit :
CitationC'est très bien pour folding. Mais est-ce que Berkeley a prévu de faire un BOINC GPU ou pas car je n'ai pas encore entendu parler de cette idée...
Et puis en plus, tous les projets devraient proposer des applis GPU.

C'est prévu sur boinc6 depuis pas mal de temps, après une fois sorti il suffit d'attendre que les projets sortent leur application codée pour cuda

DarkZero

Citation de: XTC_ZeuZC'est prévu sur boinc6 depuis pas mal de temps, après une fois sorti il suffit d'attendre que les projets sortent leur application codée pour cuda
Ah bon... Je n'étais pas au courant. Mais les projets devront-ils faire 2 applis différentes ? ( une pour les Radeon HD et une pour les NVIDIA CUDA ?)
Si oui alors il y aura 3 BOINC différents ( CPU , ATI , NVIDIA ) ?


XTC_ZeuZ

Malheureusement pour ceux qui possède des ATI, CUDA c'est fait par nVIDIA, il est donc hors de question qu'une ATI tourne dessu, du coup il faudra choisir en connaissance de cause quand vous déciderez d'acheter du nouveau matos ;)

DarkZero

Et pour moi qui possède un Intel GMA n'en parlons même pas. Si au moins c'était un CARTE graphique...

XTC_ZeuZ

C'est une carte graphique, c'est juste intégré mais il va de soit que c'est encore moin compatible, ça ne peut même pas tourner sur folding là où les ATI (certain modèle) le peuvent :p

DarkZero

Vivement ma prochaine 8 ou 9 600 GT avec mon Core 2 Quad Q6600 ou Q8000 qui sait !

XTC_ZeuZ

GF8 ou GF9 c'est vieux, GTX260 maintenant :p

DarkZero

Citation de: XTC_ZeuZGF8 ou GF9 c'est vieux, GTX260 maintenant :p
Je n'ai pas gagné à eurobillions !  :D


BombX

Vu qu'on a un sujet tout neuf, je vais m'en servir de suite pour y coller des infos sur les futurs cartes graphiques des concurents de toujours, avec une analyse qui nous intéresse au niveau de la puissance de calcul pour autre chose que des graphiques (pour des cartes graphiques c'est un peu  :pt1cable: ) :

D'abord une news d'hier sur nVidia :
CitationFlux : MacBidouille.com
Publié le : lundi 16 juin 2008 16:51
Auteur : lionel@macbidouille.com (Lionel)
Objet : Les nouvelles Geforce sont officiellement lancées

Source : NVidia
NVidia a levé le voile sur ses nouvelles Geforce de la série GTX 2x0. Si l'on savait presque tout de cette série, les chiffres restent impressionnants. La puce a 1,4 milliards de transistors dont 80% dédiés au calcul 3D, fonctionne avec de la DDR sur un bus 512 bits avec une bande passante pouvant atteindre les 142 Go/s..;
Deux modèles sont déjà annoncés:

Geforce GTX 260:
- 192 unités de calcul
- Fréquences de 576/1242 MHz
- 896 Mo de DDR3 à 1 GHz sur un bus mémoire 448 bits

Geforce GTX 280:
- 240 unités de calcul
- Fréquences de 602/1296 MHz
- 1 Go de DDR3 à 1,1 GHz sur un bus mémoire 512 bits

Le plus intéressant est certainement la stratégie commerciale de NVidia. La société n'a pas cherché à axer son argumentaire de vente sur la puissance de la carte graphique, mais bien du supercalculateur qu'elle représente. Ils parlent essentiellement d'accélération via le CUDA des encodages vidéo ou d'autres calculs.
Et visiblement, ils ne mentent pas comme en a témoigné PCiNpact. Avec un client Folding Home optimisé pour tirer parti de la carte, ils ont réussi à faire 5000 points par jour là où une PS3 atteint seulement les 900 et un ancien Pentium E deux coeurs 600 points.
Difficile de parler de révolution, on a déjà connu par le passé des coprocesseurs, mais cette entrée fracassante de NVidia dans ce domaine, chose inconcevable il y a seulement un an risque de changer la donne dans notre environnement informatique.

PS: Hardware.fr a mis en ligne un test complet de la carte. Il confirme qu'elle est aussi puissante qu'une autre dotée de deux puces GeForce 9800. Reste à connaître la réponse d'ATI/AMD avec ses prochaines Radeon 48x0.
Ensuite une news d'aujourd'hui sur ATI :
CitationFlux : MacBidouille.com
Publié le : mardi 17 juin 2008 06:11
Auteur : lionel@macbidouille.com (Lionel)
Objet : Firestream 9250 chez AMD

Source : AMD
Si la nouvelle puce graphique RV 770 d'AMD ne sera présentée que dans une dizaine de jours, la société a déjà annoncé la carte Firestream 9250 qui en utilise une, mais n'a pas de sortie vidéo. Cette carte n'est destinée qu'à servir d'accélérateur de calcul à l'image de ce que fait aussi NVidia avec ses Geforce GTX 2x0.
La Firestream 9250 atteinte le TeraFlop, étant capable de réaliser 1000 milliards d'opérations en virgule flottante par seconde.
elle embarque 1 Go de DDR3 et est destinée aux milieux scientifiques et financiers.

Ceci confirme ce que nous vous disions hier au sujet de la nouvelle donne du marché des cartes vidéo. Elle sortent de leur contexte primitif pour s'attaquer au processeur et lui ravir son rôle le plus noble, certainement au grand regret d'Intel qui va devoir se remettre en question.

BombX

et pour en parler encore et montrer que c'est d'actualité (bon, d'acord, tout le monde est déjà au courant et attend avec impatience les retombées sur boinc  :p ), voilà un mailing d'une université francophone. Avis aux amateurs ;) :

CitationBonjour,

L'équipe de bioinformatique Sequoia (INRIA / LIFL / Univ. Lille 1) propose le sujet de stage ci-dessous.
Les candidatures sont ouvertes jusqu'au 30 juin.
Cordialement,

Mathieu Giraud

====

Stage financé, niveau Master, été-automne 2008
Durée : 3 à 4 mois. Début du stage entre juillet et septembre 2008

Bit-parallélisme et calcul sur carte graphiques
http://www2.lifl.fr/~giraud/bit-gpu.html

Pour quelques centaines d'euros, on peut se procurer des cartes graphiques atteignant plusieurs centaines de gigaflops, à comparer aux dizaines de gigaflops des processeurs conventionnels double-coeur ou quadri-coeur. Cette puissance "brute" reflète un modèle d'exécution parallèle bien particulier. Au départ, le calcul généraliste sur unités graphique (GPGPU) détournait l'utilisation des primitives graphiques. Aujourd'hui, des librairies telles que CUDA (Nvidia) permettent d'utiliser directement les cartes graphiques à partir d'un langage C légèrement modifié. Programmer efficacement en CUDA demande cependant une bonne réflexion sur l'architecture sous-jacente.

Le stage consiste à étudier la mise en oeuvre, sur carte graphique, d'une famille d'algorithmes de recherche de motifs utilisés en bioinformatique, au moyen du bit-parallélisme. Le parallélisme au niveau du bit est une technique utilisant les opérateurs logiques comme opérateurs parallèles. Un processeur à 32 ou 64 bits est ainsi vu comme autant de petites unités de calcul parallèles. Avec le grand nombre de processeurs élémentaires sur les cartes graphiques, on peut atteindre dès aujourd'hui des téra-opérations par seconde, ce qui permet de rechercher des motifs complexes sur des génomes entiers.

Selon le profil du candidat, le stage pourra s'orienter vers le développement d'une bibliothèque distribuable d'opérateurs ou bien vers l'étude d'algorithmes adaptés. Dans les deux cas, le succès du stage dépendra d'une compréhension fine de l'architecture de la carte graphique et de ses contraintes.

Prérequis : connaissances en architecture des ordinateurs, et si possible en CUDA.

Références bibliographiques
  1. NVIDIA, CUDA Programming Guide, 2007.
  2. S. Wu and U. Manber, Fast Text Searching Allowing Errors, Communications of the ACM, 35, 83-91, 1992.

--
Mathieu Giraud - http://www.lifl.fr/~giraud
CNRS, LIFL, Université Lille 1, INRIA Lille - Nord Europe, France

tristesire

J'aurais une question concernant le calcul avec les GPU cités plus haut. Si tant est que Boinc les utilise ultérieurement, ca viendra en complément de la puissance processeur, en substitut, ou booster les calculs?
En gros, un qaud couplé à un gpu nouvelle génération ca donnera 5 unités traités (4cpu+1gpu), juste le gpu, 4cpu boostés par le gpu?

XTC_ZeuZ

A prioris c'est 4+1 mais une partie du CPU devrai normalement être utilisé par la carte graphique donc plutôt 3+1 mais le 1 étant plus performant que le 4

[AF]_BubbleTitan

Cela semble impressionnant  [:bubletitan:1] vivement que Boinc 6 sorte et que les projets se mettent  à CuDa ;)

Exar Kun

Est-ce qu'on a le moindre début de commencement de supposition d'idée sur la date de sortie d'un client BOINC acceptant les GPU ?

Sachant que les projets (par exemple ceux du WCG où je suis) devront aussi s'adapter, de manière individuelle ...).

rom_185

Pour le client BOINC, il faut attendre la sorti de BOINC 6, il y a peut-être une date sur le forum de developement de BOINC : http://boinc.berkeley.edu/dev/
Pour les projets, je pense que ceux qui ont déjà une application pour beaucoup de plateformes vont vite sortir une application CUDA (WCG, SIMAP, Yoyo pour les plus réactifs...)
BOINC, les grandes énigmes de la science résolues en 2 temps 3 calculs
I reject your reality and substitue my own

[AF>HFR>RR] liegeus

désolé d'avoir crée unu autre discussion sur le sujet mais quand on recherche "CUDA" sur le forum cela renvoie uniquement vers "[Boinc] Versions en cours"...

je suis impatient en tout cas de voir ce que cela donnera !!!

Exar Kun

La 6.2.6 est déjà disponible en bêta, est-ce qu'elle incorpore la gestion de CUDA ? Je n'ai jamais rien lu sur le sujet, mais je vais encore regarder.

Voila bien la seule et unique chose qui pourrait me motiver à acheter une CG plus puissante que la mienne (et à changer de config en passant).

Exar Kun

Tiens un fan de l'amirale Daala :D

rom_185

@liegeus : pas de problèmes ;).

CitationLa 6.2.6 est déjà disponible en bêta, est-ce qu'elle incorpore la gestion de CUDA ?
http://boinc.berkeley.edu/dev/forum_thread.php?id=2518 :p...

BOINC, les grandes énigmes de la science résolues en 2 temps 3 calculs
I reject your reality and substitue my own

Exar Kun

Donc la réponse est oui ^^

Reste à savoir quand les projets présents sur BOINC auront une version qui en tient compte ...

Merci rom ;)

mcroger


rom_185

@Exar Kun : :jap: [spoiler]Au fait, tu peut toujours rejoindre l'AF si tu veut  :whistle: ...[/spoiler]
BOINC, les grandes énigmes de la science résolues en 2 temps 3 calculs
I reject your reality and substitue my own

rom_185

Petite info relevée par Le Profanateur ( http://www.hardware.fr/news/9771/folding-home-client-gpus-nvidia.html ) la version bêta de Folding sur CUDA est disponible au public.
 :jap:
BOINC, les grandes énigmes de la science résolues en 2 temps 3 calculs
I reject your reality and substitue my own

celtar

Je suis en cours d'installation :)