-
Bonjour,
j'ai ouvert ce topic pour ne parler que de GPU, qui n'est pas en rapport direct avec boinc....
-
Alors j'ai reçu mon watt metre
32 Watts sur la prise avec juste la freebox et le téléphone
70 watts en ajoutant le serveur de fichiers. Ce qui veut dire que le serveur de fichiers allumé consomme autant qu'une freebox et un téléphone.
270 watts en allumant mon pc (Q6600, Gtx 260+, 8600 GTS).
370 watts en me loguant ce qui fait lancer boinc.
380 watts si j'allume ma lampe de bureau.
J'ai arrondi tous les chiffres.
c'est déjà pas mal....
-
il parait que l'on peut faire cuire un oeuf sur une gtx 480, regarder cette vidéo : http://www.dailymotion.com/video/xcskz0_cooking-an-egg-on-the-nvidia-geforc_videogames (http://www.dailymotion.com/video/xcskz0_cooking-an-egg-on-the-nvidia-geforc_videogames), c'est faux d'après cette vidéo...
trucage ou pas ?
elle dissipe près de 300W donc qu'elle soit ultra bouillante ça ne me surprends pas.
oui mais apparemment l'œuf ne cuit pas, j'aurais bien voulus savoir ce que dit le mec qui parle....
-
je crois que cela va être çà : http://www.rueducommerce.fr/Composants/Cartes-Graphiques/Cartes-Graphiques-nVidia/EVGA/3015057-Carte-Graphique-Geforce-GTX480-1536-Mo-GDDR5-PCI-Express-2-0-015-P3-1480-ER.htm
et çà mes achats : http://www.rueducommerce.fr/Composants/Alimentations/Alimentations-de-500-a-650-Watts/SEASONIC/3014912-Alimentation-S12II-620-watts-80-bronze.htm
l'alim n'est pas limite car il faut 600 W minimum avec la gtx 480...
-
c'est déjà pas mal....
Le pc seul fait 300 watts avec deux cartes graphiques, un quad, deux disques durs, des ventilos, ....
Et le tout à 100% bien entendu :hap:
Je m'attendais à plus
(http://wd.ch-img.com/82841-geforce-gtx-260-v2-216-sp.png)
-
En fait j'étais à court d'unité seti pour le gpu. Je vais refaire des tests.
Je suis à 420 watts avec des unités milkyway. Je suis donc très proche des graphiques avec 350 watts pour ma machine mais avec une carte graphique de plus.
-
pas trop de bruit avec tes deux cartes ?
-
Non c'est une 8600 GTS passive et une gtx 260+ assez silencieuse. Par contre j'ai du augmenter la ventilation du boitier en plaçant les ventilateurs sur la vitesse moyenne.
-
moi aussi avec gtx 260 je vais jusqu'à 60% parfois quand le boitier est fermé...
-
oui mais apparemment l'œuf ne cuit pas, j'aurais bien voulus savoir ce que dit le mec qui parle....
Voila la traduction.
Nathan veut répondre à des téléspectateurs qui demande si il est possible de faire un "barbecue", griller ou faire cuire un oeuf sur le radiateur d'une carte NVIDIA GTX 480.
En laissant la carte en fonction au repos, il montre qu'il n'arrive rien à l'oeuf, il demeure liquide et que la température de "l'assiette contenant l'oeuf" est de 62 degré celsius.
Il augmente la charge sur la carte en activant le logiciel Heaven 2.0 pour voir ce qui va arriver.
La température de l'assiette monte car le ventillos de la carte n'est pas encore à son maximum donc la température monte à 65 degré C en utilisant le logiciel et optenant un "benchmark" intéressant.
Cependant l'oeuf demeure liquide.
Le ventillos de la carte arrive à son maximum et la température descend à 63 degré celsius.
Rien de croustillant n'arrive dans cette assiette.
Il indique qu'il a essayé à plusieurs reprises devant la caméra et hors caméra et le résultat est toujours le même, l'oeuf ne cuit pas sur une carte NVIDIA 480 GTX.
Voila pour la traduction "The question Man"
-
Merci Mdodier
-
Le blanc commence à cuire vers 57-62°C et le jaune vers 65-68°C suivant les auteurs. Ses poules doivent pondre des œufs version haute température de cuisson.
Cela dit une pincée de sel et quelques gouttes de vinaigre dans mes œufs brouillés accélèrent la coagulation des protéines :hap:.
-
un nouveau pilote bêta nvidia est sortie... 258.69
http://www.nvidia.fr/Download/Find.aspx?lang=fr
-
d'après cette image est ce que c'est assez aéré pour une gtx 480 ?
-
d'après cette image est ce que c'est assez aéré pour une gtx 480 ?
Si tu veux absolument monter une 480, change de tour et d'alim pour commencer, après on véra...
-
je compter prendre une alim de 700-750, pourquoi changer de tour ?
-
je compter prendre une alim de 700-750, pourquoi changer de tour ?
Car dans une tour comme la tienne, à moins de la moder, ta 480 grille en 2 jours sous boinc.
-
ps : je sais même pas si elle rentre en longueur, alors modage de toute façon.
-
Car dans une tour comme la tienne, à moins de la moder, ta 480 grille en 2 jours sous boinc.
ps : je sais même pas si elle rentre en longueur, alors modage de toute façon.
pourquoi elle grilerai avec une alim de 700-750 ?
elle fait presque 27 cm de longueur, j'ai mesurai est cela rentre... 4 cm de plus que le 260
-
Elle grillerai a cause du manque de ventilation. Si elle rentre t'as de la chance alors.
-
Laisse tomber, il faudrait que tu changes de boîtier !
-
Boitier trop petit, plus de place pour des ventilos. Donc changement de boitier obligatoire!.
Mais bon si tu roules sur l'or...
LDLC ont des boitiers bien conçus et pas trop cher.
-
Faudrait un HAF-X pour bien refroidir la GTX480.
-
donc en faites vous me déconseiller d'acheter une gtx 480 car elle chaufferait trop dans ma tour ?!
moi qui voulait calculer plus... ou je prends une 465/470 ? elles chauffent moins apparemment?
actuellement ma gtx 260 est entre 75-80°C max avec boinc...
-
Prends plutôt une ATI HD5870 ou HD5970, même la 5970 chauffe moins mais mesure 32cm :D
Une bonne 5870 Lighting serait très bien, avec un boîtier genre Cooler Master Scout, Sniper, HAF922 ...
Puis par la suite changer t'as carte mère :D
-
Ces deux cartes sont pas mal contre la chaleur sinon :
http://www.surcouf.com/composants-stockage/produit/inno-3d/9672309/geforce-gtx470-1280-mo-ddr5-+-just-cause-2.html?idnoeud=2734&filter=ListeNum1 (http://www.surcouf.com/composants-stockage/produit/inno-3d/9672309/geforce-gtx470-1280-mo-ddr5-+-just-cause-2.html?idnoeud=2734&filter=ListeNum1)
ou
http://www.rueducommerce.fr/Composants/Cartes-Graphiques/Cartes-Graphiques-nVidia/ZOTAC/3017363-Carte-Graphique-Geforce-GTX470-1280-Mo-GDDR5-PCI-Express-2-0-AMP-Edition.htm (http://www.rueducommerce.fr/Composants/Cartes-Graphiques/Cartes-Graphiques-nVidia/ZOTAC/3017363-Carte-Graphique-Geforce-GTX470-1280-Mo-GDDR5-PCI-Express-2-0-AMP-Edition.htm)
pour la zotac, je n'arrives pas trouvés son épaisseur dans une mesure métrique car sur leur site c'est : 13.26“ X 10.23“ X 2.67“, c'est des mesures en pouces ? je penses pas car sinon cela ferais plus de 6 cm de hauteur...
-
rhooo
1 pouce = 25.4 mm
> 33.68 x 25.98 x 6.78 cm :sun:
-
Oui, attention ces 2 solutions prennent 3 slots !
Pour le refroidissemnt de GPU, un test intéressant : http://www.59hardware.net/dossier/ventirads-cartes-graphiques/comparatif-de-refroidisseurs-pour-hd-5870-201006289807/0.html
-
La GTX470 de chez Zotac est la plus intéressant, mais pense quand même à changer de boîtier, pour la place.
-
après vérif je ne peux mettre une de ces cartes car j'ai juste au dessus ma carte son... :desole:
mais si je branche un ventilo et que je mets le jet d'air directement sur la carte cela peut diminué la chauffe...
-
rhooo
1 pouce = 25.4 mm
> 33.68 x 25.98 x 6.78 cm :sun:
je penses que les dimensions du site son fausse car 33 de longueur et 25 de large....
-
Tiens un dossier très intéressant sur le dégagement thermique des cartes graphiques :
http://www.hardware.fr/articles/747-1/maj-dossier-cartes-graphiques-degagement-thermique.html
-
intéressant si j'ai bien lu la gtx 470 et 10°C plus élevé que la 260...
bien que je suis en général sous les 80°C avec boinc...
après vérif je ne peux mettre une de ces cartes car j'ai juste au dessus ma carte son... :desole:
mais si je branche un ventilo et que je mets le jet d'air directement sur la carte cela peut diminué la chauffe...
-
si je rajouter ces deux petits ventilos dans ma tour est ce que cela pourrait refroidir un peu la gtx 470 ?
-
Tu peux toujours mettre des ventilos, si la circulation de l'air n'est pas bonne,ça ne sert à rien.
En plus tu risques de perturber celle existante.
-
Tu peux toujours mettre des ventilos, si la circulation de l'air n'est pas bonne,ça ne sert à rien.
En plus tu risques de perturber celle existante.
tu trouves que la circulation d'air n'est pas bonne ici ?
(http://forum.boinc-af.org/index.php?action=dlattach;topic=3603.0;attach=1290;image)
-
Non impec pour cette config, mais ta tour est vraiment petite.
Suis notre conseil, change la pour un modèle "grand tour" voir "maxi tour". et là plus de souci de place.
ensuite, tu passes à la CM.
-
en faite, il faut presque tout changer pour une gtx 470...
il y a pas assez de place pour la mettre ? une simple sans les deux ventilos de zotac...
-
ou alors vous voulez vraiment que je prenne une ATI ?
-
ou alors vous voulez vraiment que je prenne une ATI ?
Dans une tour plus grande avec une vrai cm, tu pourrai rajouter une 5870 en plus de ta 260, ça te vas comme compromis ?... J'oubliai le changement d'alim (qui est elle obligatoire quoi que tu face)
-
je veux juste une gpu... gtx 470.
Un gpu me suffit amplement, peut être quand changent le boitier du gpu par un mieux cela améliorer la situation ?
est ce que donc vous me déconseillez vraiment une 470 dans ma tour ?
je rappel que déjà là je suis au max à 80°C avec boinc avec une 470 ce serait combien 95°C ? personne sur le forum à cette carte pour me dire ? si vous connaissez une personne merci de lui demander...
refroidissement actif dual slot cela veut dire quoi ????
-
tu trouves que la circulation d'air n'est pas bonne ici ?
a mon avis, mettre 2 ventilos face a face ne sert strictement a rien.
au pire, l'un va forcer l'air dans l'autre et après plusieurs mois comme ça, ils vont finir voilés
il faut soit un ventilo central sur le radiateur du gpu (comme sur les dell)
soit un qui aspire l'air extérieur à l'avant et un autre qui pousse vers l'extérieur à l'arrière avec une structure de boitier qui créé une circulation d'air directement via le radiateur du cpu et au dessus de la carte graphique
mais 3 ventilos qui se suivent ça me dresse les cheveux sur la tête :eek: :electric:
-
et comme çà ? edit : je l'ai déplacé plus à droite
je voulais le m'être an bas à gauche mets pas assez de place pour le m'être dans le même sens que les autres...
par contre là le gpu reste à 76°C et le cpu va jusqu'à 75°C.. avant c'était 65-70°C max en générale donc est-ce que j'ai bien fait ?!!!
-
et comme çà ? edit : je l'ai déplacé plus à droite
je voulais le m'être an bas à gauche mets pas assez de place pour le m'être dans le même sens que les autres...
par contre là le gpu reste à 76°C et le cpu va jusqu'à 75°C.. avant c'était 65-70°C max en générale donc est-ce que j'ai bien fait ?!!!
non, plus, tu imposes un virage à 90° au flux d'air, ce n'est pas mieux :cpopossib:
-
Une petite remarque, tu peux diminuer la taille de tes photos :D, on y verrait pas moins clair !
tu laisse ton boitier ouvert en permanence ?
là tu pousse la chaleur de ton GPU vers la CM et donc aussi vers le CPU pour repartir vers le même ventilo d'extraction d'air à droite !
il serait préférable de mettre ton ventilo GPU dans l'autre sens pour évacuer la chaleur de ton GPU vers l'extérieur !
Et donc faire une ouverture sur ton panneau si tu veux refermer le boitier !
-
non je ne laisse pas mon boitier ouvert tout le temps à part la semaine dernière avec la chaleur...
même avec ce ventilo placé dans l'autre sens et donc pour évacuer je peux fermer mon boitier...
-
a mon avis, mettre 2 ventilos face a face ne sert strictement a rien.
oui mais là j'ai perdu 5-10°C de température en moins sur le cpu puisque comme je l'ai dis plus bas j'étais entre 65-70°C max avant avec boinc car là je suis entre 70-75°C !
-
moi je ne suis pas choqué par la succession de 3 ventilos pour le cpu
(ventilo - rad - ventilo - - - ventilo extraction)
par contre c'est vrai que placer une carte qui chauffe beaucoup dans ce petit boitier c'est pas ce que je te conseillerai, il manque un moyen d'apporter et d'évacuer de l'air pour la carte.
moi j'utilise également un ventilo perpendiculaire, qui souffle sur le côté, mais l'air peut sortir par l'arrière.
jette un oeuil sur les boitiers existants, il y a en des très correct pour 50 à 60 euros, il y aura largement la place pour ta nouvelle alim, et de quoi bien ventiler ta carte.
-
tout démonter.... jamais faits çà
sur la carte il y a des ports usb et en façade aussi... avec une nouvelle tour ceux sur la carte mère ne seront plus utilisable... donc faudrait aussi changer de cm cela va me coûter trop chère cette histoire...
un boitier à me proposer avec ma cm actuel ?!
-
tiens j'ai trouvé çà, si là cela ne refroidis pas assez.... ventilo de 25 cm... avec là gtx 470 cela doit ....!? par contre dommage c'est pour cm atx et moi c'est micro atx.... :desole: :cavachier:
(http://www.rueducommerce.fr/m/image-offre/1/f/f/5/1ff5ea8d10dbdd4cd3e3344c59dd6721-300x225.jpg) (http://www.rueducommerce.fr/Composants/Boitiers-PC/Boitiers-PC-avec-alimentation/KONEKTIKPC/MP-C73A7M676048-Boitier-Atx-400W-noir-avec-ventilateur-lateral-25cm.htm)
-
bon celui-là est à 90 euros mais il accepte les micro atx. par contre mon noctua ne sert plus à rien là...
Boîtier PC CoolerMaster HAF 922
(http://s1.static69.com/composant/images/produits/big/CM-HAF922.jpg)
-
Un tree hundreed :love:
-
Je vais peut être dire un truc bête mais ...
Visiblement tu veux une seule carte car ta carte mere est micro atx et ne dois pas supporter deux cartes graphiques.
Pourquoi tu n'achèterai pas une nouvelle carte mere pour y placer une seconde GTX 260. Le prix que tu places dans cette carte permet de compenser la différence de prix entre gtx 470 et gtx 260.
Ce n'est pas totalement satisfaisant mais c'est à envisager. Bon par contre tu devras tout de même changer de boitier et d'alim.
-
Ce qui me choque sur ta photo, c'est que ton boitier semble contre ton mur sans aucun espacement, là c'est sur que la chaleur ne peut pas s'évacuer !
Deuxièmement, les aérations de ton panneau ne sont pas très bien placés, aucune aération en face de ton GPU :/
De ce cas, quelque soit le sens du ventilo du GPU supplémentaire, il n'apportera pas grand chose.
Il faudra faire quelques trous sur la façade en face de ton ventilo GPU supplémentaire pour créer une aération supplémentaire.
Tu peut même boucher l'aération au dessus du CPU qui n'apporte rien avec ton type de ventirade, même au contraire cela peut diminuer le flux d'air qui passe par le ventirade.
Le faite qu'il y ait trois ventilateurs en série (dans le même sens, bien sur) ne me choque pas non plus, cela augmente la pression statique
et augmente l'efficacité des ventilos.
-
finalement j'ai remis le ventilo comme il était au début !
Je vais peut être dire un truc bête mais ...
Visiblement tu veux une seule carte car ta carte mere est micro atx et ne dois pas supporter deux cartes graphiques.
Pourquoi tu n'achèterai pas une nouvelle carte mere pour y placer une seconde GTX 260. Le prix que tu places dans cette carte permet de compenser la différence de prix entre gtx 470 et gtx 260.
Ce n'est pas totalement satisfaisant mais c'est à envisager. Bon par contre tu devras tout de même changer de boitier et d'alim.
pour ce qui est de changer de carte mère je n'en vois pas l'utilité si je prends le boitier coolmaster ci dessous.
pour l'instant ce qui me chagrine c'est de perdre les 8 prises usb qui sont sur ma CM dans ce nouveau boitier...
-
De toutes facon moi j'ai pas compris si c'était la photo ou le boitier qui était a l'envers :??:
-
dans le boitier coolmaster la cm est montée sur le coté droit et dans mon boitier actuel à gauche.... c'est juste pour savoir si dans le boitier coolmaster je vais perdre ces prises
-
QUI A UNE GTX 470 DANS L'AF ?
Edit tristesire pour format exagéré.
-
Bon, reprenons :
-un très bon boitier salué par la critique et tout Ximatech Utgard (http://www.materiel.net/ctl/Boitiers/54351-Utgard_Black_Window.html?promocode=10523) et un très bon rapport qualité/perf/prix ou dans la même gamme ou presque
le Lian li Dragon lord K62 (http://www.materiel.net/ctl/Boitiers/49865-Lancool_DragonLord_K62.html) plus sobre et très bien fini ou encore le
Cooler Master CM-690 II (http://www.materiel.net/ctl/Boitiers/54213-CM_690_II_Advanced.html?promocode=10516) plus courant mais toujours très bon dans cette gamme de prix.
Ensuite, une alim (je prend dans la gamme corsair pour pas se prendre la tête)
- l'alim qui tartine grave la HX8505 (http://www.materiel.net/ctl/Alimentations/48165-HX_850W.html) tout simplement la meileur du marché dans cette puissance. Sinon la HX750 (http://www.materiel.net/ctl/Alimentations/48164-HX_750W.html) bien moins cher et tout aussi bonne.
Et puis bien un cg, bon, vu que tu es braqué sur nvidia une GTX 470 ou 480
:jap:
-
tu as tout bien résumé à part pour la version l'alim ce sera une TX750...
-
Si tu veux pas la modularité alors oui.
Vu que tu es inscrit chez nous viens en parler sur notre chat si tu veux.
-
je vais prendre plutôt celle-là car je vais remonter d'un cran la carte qui juste au dessus de ma gpu actuel et enlevé la carte tuner qui ne me sert à rien...
http://www.rueducommerce.fr/Composants/Cartes-Graphiques/Cartes-Graphiques-nVidia/ZOTAC/3017363-Carte-Graphique-Geforce-GTX470-1280-Mo-GDDR5-PCI-Express-2-0-AMP-Edition.htm (http://www.rueducommerce.fr/Composants/Cartes-Graphiques/Cartes-Graphiques-nVidia/ZOTAC/3017363-Carte-Graphique-Geforce-GTX470-1280-Mo-GDDR5-PCI-Express-2-0-AMP-Edition.htm)
-
dire qu'à ce prix là tu as deux 5850 ... :pt1cable:
-
dire qu'à ce prix là tu as deux 5850 ... :pt1cable:
Tu voulais dire 5830 non ????
-
dire qu'à ce prix là tu as deux 5850 ... :pt1cable:
oui mais je n'ai qu'un emplacement gpu.... et puis deux cartes...
-
Tu voulais dire 5830 non ????
5850 ! mais d'occasion ;) j'ai acheté la mienne ce prix là, c'est le prix mini mais on en trouve...
par contre, en cross ça consomme trop, t'as raison Pol
-
une zotac gtx 470 amp edition me suffira....
-
Hey The question man...
Il serait souhaitable, qu'une fois ton texte écrit, tu passes un coup de correcteur orthographique.
Nous sommes une vitrine, certes petite(quoi que?), de la langue française.
Alors montrons l'exemple, nous les Français...
Merci...
-
d'accord...
-
Tu voulais dire 5830 non ????
si vous avez accès au forum Nokytech, voici une 5850 en vente à 205 €
http://www.nokytech.net/forum/vds-75-ati-hd-5850-powercolor-quasi-neuve-ventes-124444.html (http://www.nokytech.net/forum/vds-75-ati-hd-5850-powercolor-quasi-neuve-ventes-124444.html)
et une à 200 € ici aussi
http://www.nokytech.net/forum/asus-p7h55d-m-evo-i5-661-ati-5850-a-ventes-84357.html (http://www.nokytech.net/forum/asus-p7h55d-m-evo-i5-661-ati-5850-a-ventes-84357.html)
c'est pour l'AF et la science ;) et aussi pour souligner que le matos d'okkase, faut aussi y penser pour nos config de crunch ...
-
tiens au faite une nouvelle gtx est sortie et en vente la GTX 460...
-
C'est ou la CG ou un VTT pour ma fille.
C'est tout vu...
Ce sera le VTT, un Specialized FSR XC PRO!
-
t'as bien raison, faut faire du sport !
-
Je n'arrives pas trouvé les dimensions de cette zotac gtx 470 edition amp dans des mesures métriques car sur le site de zotac ce sont des dimensions qui finissent par ce signe " !
Si c'est des pouces, les dimensions de la carte me paraissent trop énorme pour être vrais... http://pden.zotac.com/index.php?page=shop.product_details&flypage=flypage_images.tpl&product_id=257&category_id=120&option=com_virtuemart&Itemid=1 (http://pden.zotac.com/index.php?page=shop.product_details&flypage=flypage_images.tpl&product_id=257&category_id=120&option=com_virtuemart&Itemid=1)
-
oui " = pouce (25.4 mm)
-
voici pour les dimensions de la 470 NVIDIA
13.26 pouces x 10.23 pouces x 2.67 pouces
33.68 cm x 25.98 cm x 6.78 cm
-
25 cm de large ????? 33 cm de longueur ????
-
33 de long, passe encore, mais 25 de large j'ai un doute là quand même...
-
c'est bien ce que je disais par mes ???? quelle carte fait 33 cm de longueur ?
-
Fichtre! c'est la dimension de la boite là :gno:
-
oui je suppose aussi...
ils auraient pus mettre aussi celle de la carte...
-
http://www.zotac.com/httpdocs/brochures/vga/master_zt-40202-10p_gtx-470-amp_v1.2.pdf
Si on se fit à ce site: c'est hauteur: 111,15 mm et largeur: 241,3 mm
-
merci.
vus les dimension, je dirais plutôt 24.13 cm de longueur et 11.11 de largeur, ce serait plus logique...
apparemment elle consomme 220Wmax et il demande une alim de 550W minimum... j'ai pris une corsair TX 650 donc cela doit aller...
-
La logique à boris. :ayalou:
-
:lol: :lol: :lol:
moi je dirais plutôt 0,2413 mètre par 0,11115 mètre
:mdr-457:
et il te faut au moins une alim de 0,55kw ! :lol:
-
Soit la valeur standard de 5.42 U par 2.5U.
Ca doit rentrer dans un chassis 19" sans problème ! :desole:
-
La logique à boris. :ayalou:
si tu as une meilleur logique dit moi les bonnes dimensions.... :cavachier:
-
j'ai deux dimension 24.2 cm de longueur et 11.1 de largeur.
une nouvelle gtx 470 vient de sortir chez gigabyte en version Oc.... bof s'ils avaient changés aussi le système de refroidissement... à la rigueur...
-
la 460 a l'air plus intéressante : un die plus petit donc conso bien moindre. et des dimensions plus raisonnables
-
Pour avoir fait récamment l'expérience je peut dire que les 260 causent beaucoups de problemes en vieillissant :blbl:
Pétages d'alim ou reboots intempestifs :o Y a pas photo monsieur Nvidia :cavachier: Vive l'autre :love:
-
nouveau pilote 258.xx nvidia en version officiel sortie
-
http://www.videocardbenchmark.net/high_end_gpus.html
-
pas mal le score de la gtx 470....
-
bon je viens de la commandé sur matériel.net, vendredi ou samedi je devrais l'avoir...
http://www.01net.com/fiche-produit/avis-redac-8213/cartes-graphiques-zotac-geforce-gtx-470-amp-edition/
-
pas mal le score de la gtx 470....
J'aurais plus parlé de la GTX 460 :hap:
-
J'aurais plus parlé de la GTX 460 :hap:
+1 bonne carte perf, silencieuse, pas trop gourmande, well done ! enfin une bonne carte chez les verts ;)
-
La 470, elle consomme de trop :gropet:
-
La 470, elle consomme de trop :gropet:
on verra j'ai une alim corsair tx650
-
http://en.wikipedia.org/wiki/Comparison_of_Nvidia_graphics_processing_units#GeForce_400_Series
http://en.wikipedia.org/wiki/Comparison_of_AMD_graphics_processing_units#Evergreen_.28HD_5xxx.29_series
:kookoo:
-
bizarre, elle est bien double précision ma gtx 470 ou non car je n'arrives pas calculer des uts milkyway elles partent en erreur... ?!
car sur certains articles ils parlent bien de double précision à 1/8 de la simple précision, je crois, car dans un autre il dit qu'il n'y en à pas....
-
Ma carte est en simple, et Milkyway me le dit en rouge que je n'ai pas la double précision. Si ta carte ne l'était pas, ça serait pareil, non ?
Je pense.
-
il me dit pas que je suis en simple dans dans l'onglet message....
Ma carte est en simple, et Milkyway me le dit en rouge que je n'ai pas la double précision. Si ta carte ne l'était pas, ça serait pareil, non ?
Je pense.
alors cela vient des uts ?
-
carte apparemment HS : rien à l'écran et un petit bip.... :priz2tet: :priz2tet: :priz2tet: :??: :??: :??:
J'ai eu les boules, je croyais que c'était la CM...
alim corsair de 650w pourtant, elle devait avoir un défaut...
-
Elle a fonctionnait 12h environs sans soucis, je ne penses pas que ce soit l'alim donc !
Elle était bien branché, pas d'odeur, barrette mémoire toujours en place...
je ne vois d'où cela vient à par d'un défaut de la carte...
(http://img.lbzh.fr/images/20100724113156.jpg)
En haut à droite ce ne serait pas un défaut ?
Vous en pensez quoi ?
-
:eek:
T'as surveillé tes tensions en charge ? Sinon oui, un défaut. Mais 12h ! OMG
-
non je n'es pas surveiller mes tensions en charges, car je n'es pas d'outils pour çà.
Mais même au démarrage elle n'affiche plus rien sur mon écran....
-
Essaies aussi de faire un test des barrettes mémoires !
http://www.clubic.com/telecharger-fiche10823-memtest86.html
Et éventuellement de démarrer avec une seule barrette !
-
j'ai faits le test memtest86+ après un passage en test standard aucune erreur.
Je vais sans doute la renvoyée et faire une demande de remboursement car je suis dans le délais de rétractation, si je la revoit pour panne, je ne sais pas combien de temps avec materiel.net cela va mettre sinon...
De toute façon je penses qu'il vont la tester lors de son retour...
-
:eek:
T'as surveillé tes tensions en charge ? Sinon oui, un défaut. Mais 12h ! OMG
La charge est de toute façon la même que supporte ma gtx 260 actuellement donc cette 470 devrait la supporter....
avec une alim corsair tx650 et le fait qu'il demande une alim minimum de 550w, cela devrait être bon... sinon :priz2tet: :priz2tet: :priz2tet: :cavachier: :cavachier: :cavachier:
-
Vérifie bien toutes les connections sur la CM. J'ai eu ce soucis lorsque j'ai changé ma config matérielle. Une fois tout remis bien en place plus de soucis, c'était juste un pb de faux contact.
-
la carte je l'ai enlevé puis remis (hier soir) et toujours pareil... même au démarrage
quelles connections en particulier sinon car les deux connections pour l'alim sur la carte était bien mis, et puis les autres aussi puisque j'ai pus refaire fonctionne ma 260... à moins que je sois trop bête ... :desole: :miam:
-
Si cela fonctionne en remettant l'ancienne alors OK, c'est surement la CG.
En tout cas je me méfie de ces faux contacts...
-
en parlant de faux contact, cela à fait la deuxième fois avec aujourd'hui que j'ai eu le message comme quoi j'ai un ventilo sois disant défectueux au démarrage...
alors que tout les ventilos fonctionnes correctement...
Cela me gave d'attendre encore pour avoir cette gtx 470....
-
Voici la réponse de zotac en anglais :
Dear Customer,
The purchase is very recent and your supplier should be able to replace the faulty item for you. Kindly contact them for service. Please let me know if you have any difficulties.
Best regards,
Eurotech team
Si j'ai bien compris, ils me disent comme mon achat est très récent de voir avec materiel.net et de les recontacter en cas de difficultés...
materiel.net m'ont demandés le modèle d'alim dans un mail ce matin...
-
Normale pour matériel.net, 90% des "retours" doivent être due a des gars qui prenne pas la carte avec le bon port, une alim trop faible ou je ne sais quoi d'autre...
en tout cas ils te répondent vite, c'est déjà bien ;)
-
Bonjour,
Je ne penses pas avoir fait de conneries donc cela doit être donc un défaut de la carte !
on verra bien d'ici ce soir car demain matin au pire je penses leurs renvoyé la carte...
-
Ton alim était peut-être un peu juste pour une telle CG, non ?
-
j'ai une corsair TX 650w et il faut une 550w minimum donc je penses qu'elle est assez puissante de plus je suis aller sur le site corsair, dans leur test pour savoir ce qu'il faut comme alim et bien il me propose une 650w....
-
J'ai un peu l'impression que les constructeurs sous-évaluent souvent la conso annoncée et l'alim nécessaire.
-
à bon parce que j'ai lu, je ne sais plus où le contraire ! J'ai pris 100 w de plus que le minimum...
sur le site zotac ou 01net, ils disent qu'ils ont fait leur propre PCB justement pour supporter la charge et la température...
sur 01net ils disent qu'elle consomme 255w (pour la carte seulement) donc j'ai une marge de 395 w.
et puis elle a fonctionnait très bien pendant environs 12 heures...
-
Pour moi 650W c'est juste voir même insuffisant !
550W est le mini recommander par Nvidia ! mais il faut aussi alimenter ton corei7 de 95W !
on est déjà à la limite ! mais il faut aussi alimenter la carte mère et les barrettes mémoires et disques dur ! :desole:
-
550w minimum ce n'est pas pour la carte seul c'est pour le PC !
sur le site de corsair, il me demande le cpu que j'ai, le nombre de DD et la GPU ensuite il te demande si tu overclocke donc i7 860 + gtx 470 + 2 DD = 650w recommandé...
http://www.corsair.com/
http://www.01net.com/fiche-produit/avis-redac-8213/cartes-graphiques-zotac-geforce-gtx-470-amp-edition/ (http://www.01net.com/fiche-produit/avis-redac-8213/cartes-graphiques-zotac-geforce-gtx-470-amp-edition/)
-
J'aimerais voir la conso réelle au wattmètre de la machine complète ...
sans compter les éventuels o/c.
de plus, nos CG en crunch ont-elles la même charge qu'avec un jeu même réglé au maxi. est-on, au dessus ou en dessous d'un jeu qui exploiterais bien la CG par rapport à un projet qui charge la CG à au moins 95% permanent ? Déjà bien peu doivent charger la CG à fond pendant 12h d'affilé je pense ...
du reste, j'ai encore jamais vu de test avec la charge assurer par du crunch. faudrait peut-être le suggérer un jour.
-
et puis 550w si c'était pour la carte seule et qu'il faut rajouté le reste alors il faudrait prendre une 1000w !
la charge supporter par la 470 était la même que sur ma 260, si la 470 ne peut supporter la même charge... :cavachier: :desole:
-
Le seul moyen c'est de tester
http://www.amazon.fr/WATTM%C3%88TRE-Compteur-dEnergie-230V-16A/dp/B001CZ5HCI
Je l'ai à la maison et en crunch je prend 100 watts (Q6600, GTX 260+ et 8600 GTS).
Par contre je ne comprends pas ce qui peut faire planter une carte à prendre une alim faiblarde. Au pire l'alimentation est au taquet et le pc se coupe non ? Il y a surement un détail qui m'échappe.
-
bon ben alors tout va bien ...
ça doit être le MTBF .....
-
bon ben alors tout va bien ...
ça doit être le MTBF .....
:??:
-
Le seul moyen c'est de tester
http://www.amazon.fr/WATTM%C3%88TRE-Compteur-dEnergie-230V-16A/dp/B001CZ5HCI (http://www.amazon.fr/WATTM%C3%88TRE-Compteur-dEnergie-230V-16A/dp/B001CZ5HCI)
Je l'ai à la maison et en crunch je prend 100 watts (Q6600, GTX 260+ et 8600 GTS).
Par contre je ne comprends pas ce qui peut faire planter une carte à prendre une alim faiblarde. Au pire l'alimentation est au taquet et le pc se coupe non ? Il y a surement un détail qui m'échappe.
100w avec deux GPU ? moi j'en ai qu'une...
même au démarrage elle ne fonctionne pas...
-
bon ben alors tout va bien ...
ça doit être le MTBF .....
oui tu peux traduire MTBF...
-
vache 3s avec google : http://fr.wikipedia.org/wiki/MTBF (http://fr.wikipedia.org/wiki/MTBF)
http://dictionnaire.phpmyvisites.net/definition-MTBF-7616.htm
:D :D
-
100w avec deux GPU ? moi j'en ai qu'une...
même au démarrage elle ne fonctionne pas...
En crunch je prends 100 watts. Ce qui veut dire que sans seti je consommerai 100 watts de moins.
-
vache 3s avec google : http://fr.wikipedia.org/wiki/MTBF (http://fr.wikipedia.org/wiki/MTBF)
http://dictionnaire.phpmyvisites.net/definition-MTBF-7616.htm
:D :D
Je pensais que tu étais sarcastique :D
-
vache 3s avec google : http://fr.wikipedia.org/wiki/MTBF (http://fr.wikipedia.org/wiki/MTBF)
http://dictionnaire.phpmyvisites.net/definition-MTBF-7616.htm (http://dictionnaire.phpmyvisites.net/definition-MTBF-7616.htm)
:D :D
oui et alors ? j'ai clic sur ces lien ...
Tu peux simplifié ta pensée ? :desole:
-
Il faut peut-être voir s'il y a des mise à jour du Bios pour ta carte mère ???
-
En crunch je prends 100 watts. Ce qui veut dire que sans seti je consommerai 100 watts de moins.
avec la GTX260 qui crunch ? car même coté constructeur de mémoire il l'annonce à un peu plus de 100W en idle seule, je crois ....
-
Il faut peut-être voir s'il y a des mise à jour du Bios pour ta carte mère ???
la dernière date de février que j'ai d'ailleurs installée depuis un moment...
-
pour faire plus clair (en rappelant ma mémoire sur mes cours sur ce sujet), les courbes MTBF montre en général, que le taux de panne les plus élevés se produisent en début et en fin de durée de vie d'un matériel (défaut de jeunesse ou défaut de vieillissement).
toi tu serais dans le 1er cas. puisqu'on part du principe que tout est bon sur ta config.
-
avec la GTX260 qui crunch ? car même coté constructeur de mémoire il l'annonce à un peu plus de 100W en idle seule, je crois ....
100 watts c'est la différence de la config entre le idle de la config et le burn de la config.
-
avec la GTX260 qui crunch ? car même coté constructeur de mémoire il l'annonce à un peu plus de 100W en idle seule, je crois ....
Oui ! la coso de la GTX260+ en crunch à 100% atteint les 344W en charge
-
Je replace l'un des premiers posts du topic
J'ai deux pcs sur la même prise.
Alors j'ai reçu mon watt metre
32 Watts sur la prise avec juste la freebox et le téléphone
70 watts en ajoutant le serveur de fichiers. Ce qui veut dire que le serveur de fichiers allumé consomme autant qu'une freebox et un téléphone.
270 watts en allumant mon pc (Q6600, Gtx 260+, 8600 GTS).
420 watts watts en me loguant ce qui fait lancer boinc.
430 watts si j'allume ma lampe de bureau.
J'ai arrondi tous les chiffres.
En fait c'est 150 watts entre l'état idle et burn ;)
-
100 watts c'est la différence de la config entre le idle de la config et le burn de la config.
ah ok.
donc si la recommandation pour la GTX470 est de 550W (et suis pas sûr qu'ils se soient basés sur une config à base de i7 qui crunch aussi je suppose ... o/c le i7 ? ) + 100W d'ajout pour le crunch en full ...
-
je penses qu'ils ont quand même tester en charge pour dire 550w minimum, non ?
-
je penses qu'ils ont quand même tester en charge pour dire 550w minimum, non ?
et ben c'est un peu ça la question. dans quel condition et sur quoi ...
pour ça que je préfère prendre un peu de marge sur leur spec en tenant compte du fait que je suis en full 24/7.
d'autant que je fait un peu d'o/c sur cpu et gpu (raisonnable) ...
-
elle à quand même cruncher pendant 12H... si l'alim était trop juste n'aurait-elle pas du planter plus tôt et puis même au démarrage elle devrait fonctionner ?
-
Je pense que 550 c'est en charge.
-
et ben c'est un peu ça la question. dans quel condition et sur quoi ...
pour ça que je préfère prendre un peu de marge sur leur spec en tenant compte du fait que je suis en full 24/7.
c'est pour çà que j'ai pris une 650w...
-
Je pense que 550 c'est en charge.
si 550w c'est en charge, je penses pas qu'il te dirais d'avoir une alim de minimum 550w...
-
En gros je marquais que je retrouve à peu de chose prêt les 350 watts de ce test.
(http://wd.ch-img.com/82841-geforce-gtx-260-v2-216-sp.png)
J'ai une 8600 GTS en plus mais un Q6600. Je ne sais pas ce qu'ils avaient de leur coté en cpu. Par contre j'ai une alim qui a un bon rendement.
Ca donne quoi les tests de consommation d'une 470 ?
-
sur ce test c'est la GPU plus CPU, ok.
je crois que c'est 450w environs... pour la 470 avec CPU...
-
Ce test parle de 360 watts mais c'est à confirmer.
(http://www.erenumerique.fr/images/23/20100420/consommation.gif)
-
donc pour moi j'aurais un peu moins de 190w de marge... d'après ce test
-
donc pour moi j'aurais un peu moins de 190w de marge... d'après ce test
Il faut aussi prendre en compte que la carte mère consomme ainsi que la mémoire, disque dur, lecteur DVD, ventilo
-
Sachant qu'on ne conseille pas d'être au max de son alim. Mais bon 200 watts pour une seasonic ça me semble raisonnable :D
-
Il faut aussi prendre en compte que la carte mère consomme ainsi que la mémoire, disque dur, lecteur DVD
Je pense que pour tester les 370 watts cpu et gpu il y avait une carte mere en route :D
-
j'avais à la base une 460w avec cette 260 et elle supportait la charge, là j'ai une 650w (190w de plus) !
bon la 470 consomme plus mais pas 190w....
dans les 550w minimum : ils comptent l'alim de la CM, des rams, de la GPU...
-
Je pense que pour tester les 370 watts cpu et gpu il y avait une carte mere en route :D
Moi si je fais des tests de consomation GPU je l'ai fait au borne d'alimentation de la carte graphique avec un wattmètre ! :D
-
Il faut aussi prendre en compte que la carte mère consomme ainsi que la mémoire, disque dur, lecteur DVD, ventilo
ok mais j'avais le même matériel avec l'alim de 460w et pas de soucis !
là j'ai juste 4 ventilos en plus...
4 ventilos + gtx 470 cela ne fait pas 190w quand même ?
et puis si l'alim était trop juste comme je l'ai déjà dit plus bas, la carte n'aurait pas tenu 12h en crunch ?!
-
Comme je disais plus haut ! tu as essayé de voir du côté mise à jour du bios de ta carte mère ??? :spamafote:
-
je n'es pas trouvé de mises à jour bios plus récente que celle de février pour ma CM
MS-7613 (Iona-GL8E) (http://h10025.www1.hp.com/ewfrf-JAVA/Doc/images/c02014362.jpg)
sur ce lien suivant tu auras ma config de base : http://h10025.www1.hp.com/ewfrf/wc/document?docname=c02049273&lc=fr&dlc=fr&cc=fr〈=fr&product=4108202 (http://h10025.www1.hp.com/ewfrf/wc/document?docname=c02049273&lc=fr&dlc=fr&cc=fr&lang=fr&product=4108202)
là tu rajoute donc 4 ventilos, regarde ma signature...
-
ok mais j'avais le même matériel avec l'alim de 460w et pas de soucis !
là j'ai juste 4 ventilos en plus...
4 ventilos + gtx 470 cela ne fait pas 190w quand même ?
et puis si l'alim était trop juste comme je l'ai déjà dit plus bas, la carte n'aurait pas tenu 12h en crunch ?!
donc je crunchai avec cette alim de 460 et ma 260, je ne penses pas que j'étais à fond sur cette alim donc avec ma corsair j'ai plus de 200w de plus... ?
je précise, si je me suis mal expliquer que la 470 remplace la 260, je ne fais pas tourner les deux ensembles...
-
Je précise, si je me suis mal expliquer que la 470 remplace la 260, je ne fais pas tourner les deux ensembles...
Oui ! bien compris puisque ta carte mère n'a qu'un seul PCI-E :jap:
Il faudrait que tu essaies sur une autre carte mère ! j'ai déjà eu ce problème avec ma GTX260+ et une carte mère capricieuse
Ou le plus rapide est de contacter matériel.net pour un échange ou remboursement ! Ils sont vraiment efficace !
A la limite change de marque !
-
Oui ! bien compris puisque ta carte mère n'a qu'un seul PCI-E :jap:
Il faudrait que tu essaies sur une autre carte mère ! j'ai déjà eu ce problème avec ma GTX260+ et une carte mère capricieuse
Ou le plus rapide est de contacter matériel.net pour un échange ou remboursement ! Ils sont vraiment efficace !
A la limite change de marque !
J'ai déjà contacter materiel.net je penses la renvoyés demain matin au pire. j'avais surtout pris cette carte à cause du système de refroidissement sinon je prendrais bien celle de EVGA....
-
J'ai déjà contacter materiel.net je penses la renvoyés demain matin au pire. j'avais surtout pris cette carte à cause du système de refroidissement sinon je prendrais bien celle de EVGA....
Tu prends une version basique c'est suffisant ! surtout que tu as un HAF922 qui refroidit bien ! :spamafote:
-
A mon avis ton alim n'est pas en cause, tu aurais eu des BSOD ou des boots directs, ou du freeze (ça m'est déjà arrivé).
Mais que ton alim qui est une bonne alim grille ta CG, ça me surprendrai.
Par contre, sois sans pitié, il faut que tu ailles rapidement ramener ta carte, ils vont t'en envoyer une autre (faudra juste être patient)
-
ok.
nouveau mail de materiel.net :
"Bonjour Monsieur,
Je prends bien note de votre message et du problème que vous rencontrez.
Vous pouvez procéder à une demande de retour via le lien du service après vente sur votre espace personnel. "http://www.materiel.net/client/login.html (http://www.materiel.net/client/login.html)"
Nous pourrons ainsi procéder au test de votre carte graphique dans notre S.A.V.
Vous souhaitant bonne réception.
Je reste à votre disposition pour tous renseignements complémentaires.
Cordialement,"
En réponse, j'ai demandé combien de temps pour avoir une autre carte.
pas dans le mail : Si je demande la remboursement et que je rachète une autre carte est-ce que cela serait plus rapide ?
-
pourquoi vous lui conseillez de prendre une autre CG ?
le même modèle de la même marque risque de souffrir du même mal ?
-
pourquoi vous lui conseillez de prendre une autre CG ?
le même modèle de la même marque risque de souffrir du même mal ?
A la limite change de marque !
Je ne conseille pas de changer le modèle de carte graphique mais de marque ! :jap: EVGA, ASUS, Gigabyte, XFX, etc...
-
j'hésite entre EVGA et gainward !
Tu prends une version basique c'est suffisant ! surtout que tu as un HAF922 qui refroidit bien ! :spamafote:
ok
-
Par contre, sois sans pitié, il faut que tu ailles rapidement ramener ta carte, ils vont t'en envoyer une autre (faudra juste être patient)
combien de temps environs ?
-
j'hésite entre EVGA et gainward !
EVGA c'est du bon !
en plus :D
http://fr.evga.com/support/warranty/
-
tiens EVGA à une équipe sur folding :
http://www.evga.com/folding/ (http://www.evga.com/folding/)
-
tiens EVGA à une équipe sur folding :
http://www.evga.com/folding/ (http://www.evga.com/folding/)
Oui c'est vrai !
Leurs stats sont là aussi
http://folding.extremeoverclocking.com/team_summary.php?s=&t=111065
-
Donc leurs carte sont capables de faire du crunch et les zotac doivent l'être aussi...
-
Donc leurs carte sont capables de faire du crunch et les zotac doivent l'être aussi...
Oui ! tout à fait
Mais selon les constructeurs les PCB des cartes ne sont pas construit pareil !
c'est pour ça qu'il faut que tu essaies de changer de marque !
Je pense que le problème vient de ta carte mère qui fait des caprices :D
-
après 12h de crunch ?
-
Oui ! tout à fait
Mais selon les constructeurs les PCB des cartes ne sont pas construit pareil !
c'est pour ça qu'il faut que tu essaies de changer de marque !
Je pense que le problème vient de ta carte mère qui fait des caprices :D
c'est vrai que zotac à fait çà propre PCB pour la 470....
dommage je ne trouves pas celle-là sur materiel.net : http://www.gainward.com/main/vgapro.php?id=240
-
après 12h de crunch ?
C'est les joies de l'informatique :D :lol: :lol: :lol: :lol:
-
combien de temps environs ?
pour une carte mère, chez grosbill, il a fallu 1 mois.
...
tiens un test et quelques comparaisons.... pour donner de la matière à réfléchir sur ton choix de carte.
http://en.expreview.com/2010/07/25/geforce-gtx-460-sli-reviewed-cost-performance-monster/8520.html/19 (http://en.expreview.com/2010/07/25/geforce-gtx-460-sli-reviewed-cost-performance-monster/8520.html/19)
petit extrait de la conclusion :
The GTX 460 768MB SLI cost $398, almost as expensive as GTX 470, but it offers much better performance than GTX 470
pour ceux qui ne captent pas la langue universelle, ils conseillent, pour presque le même prix qu'une 470, d'utiliser deux 460 (768 Mb)...
:siflotte:
-
A condition de pouvoir placer deux cartes sur sa carte mere. Ce qui n'est pas le cas de "The Question Man"
-
tiens un test et quelques comparaisons.... pour donner de la matière à réfléchir sur ton choix de carte.
http://en.expreview.com/2010/07/25/geforce-gtx-460-sli-reviewed-cost-performance-monster/8520.html/19 (http://en.expreview.com/2010/07/25/geforce-gtx-460-sli-reviewed-cost-performance-monster/8520.html/19)
petit extrait de la conclusion :
pour ceux qui ne captent pas la langue universelle, ils conseillent, pour presque le même prix qu'une 470, d'utiliser deux 460 (768 Mb)...
:siflotte:
Sur ce coup là je dis .................... :plusun: :plusun: :plusun: :plusun: :plusun: :plusun: :plusun:
-
A condition de pouvoir placer deux cartes sur sa carte mere. Ce qui n'est pas le cas de "The Question Man"
bah franchement, mon avis c'est que la 460 est le bon choix à faire pour toi, question man.
la 470 a un rapport performance/watt catastrophique, chauffe, est bruyante...
la 460 est sobre en Watt, très silencieuse... et quand même bien perf !
Sur ce coup là je dis .................... :plusun: :plusun: :plusun: :plusun: :plusun: :plusun: :plusun:
:jap: :jap: :jap: :jap: :jap: :jap: :jap:
-
le peu que la carte est fonctionné la température n'est pas monté au dessus de 67°C et côté bruit rien...
-
Nouveau mail de materiel.net :
Bonjour,
Je prends bonne note de votre message,
Au vu de la date d'achat vous bénéficierez d'un échange à neuf dès que la carte graphique sera bien testé défectueuse.
Je reste à votre disposition pour tous renseignements complémentaires.
Cordialement,
Thaï - support SAV
--
SAV Materiel.net
Et si elle est pas défectueuse, je suppose qu'ils me remboursent ?!
-
2-3 semaines d'attente....
Bonjour,
Je prends bonne note de votre message,
Oui c'est le temps moyen pour l'échange.
Je reste à votre disposition pour tous renseignements complémentaires.
Cordialement,
Thaï - support SAV
--
SAV Materiel.net
http://www.materiel.net (http://www.materiel.net/)
-
Si elle n'est pas défectueuse, c'est qu'elle n'est pas en cause, il te la renverrons, il pourront peut-être même te demander des frais de port !
Si, elle est défectueuse, ils sont en droit de te renvoyer le même modèle à l'identique, mais tu peut toujours demander un avoir, en général ils acceptent.
Ils ont légalement un mois pour te la réparer (mais réparer une CG, il y a peu de chance) ensuite ils sont sont obligé de te la rembourser !
Après cela peut dépendre des contrats de garantie !
Perso, je ne pense pas que ton alim soit en cause.
La carte graphique certainement, le crunch les mets à dure épreuve :/ ce n'est pas une utilisation habituelle d'une CG, peut-être pas bien conçue pour cette utilisation les 460 et 470 !
Ta carte mère c'est possible également, c'est du HP non ! ce sont des cartes pas chère un peu minimaliste, ils n'ont pas l'habitude que leur clients trifouille dedans !
Je crois, mais je ne suis pas sure que sur certain modèle, il y avait des problèmes de condo.
-
Pour le crunsh, je me tournerais toujours vers des modèles qui consomment assez peu et à bon prix.
(http://www.delta-sierra.com/hardware_software_reseaux/forums/moyenne_perfs_gtx480.png)
(http://images.anandtech.com/graphs/nvidiageforcegtx480launch_032610115215/22207.png)
-
gtx 470 = 408w.... :siflotte:
-
Si je n'ai pas fait d'erreur, d'après les graph d'OpenKISS, ça donne ça :
(http://chart.apis.google.com/chart?cht=bhg&chs=546x546&chd=s:i,i,l,o,p,p,q,q,t,v,v,y,0,0,2&chdl=HD 5970|HD 5850|HD 5870|HD 5750|HD 5770|HD 4890|GTX 480|HD 4870 X2|GTX 295|HD 4870|HD 5830|GTX 285|GTX 260|HD 4850|GTX 275&chco=f20028,5131C9,CCFF00,33CC00,660099,000000,CCCCCC&chf=bg,s,FFFFFF|c,s,FFFFFF&chbh=a&chtt=Ratio conso/puissance&chts=000000,12&max=7&agent=hohli.com)
-
(http://www.hardware.fr/medias/photos_news/00/28/IMG0028693.gif)
gtx 470 : 228w
Pour information, au niveau du système dans son ensemble, nous avons obtenu 173W au repos et 497W en charge pour la GeForce GTX 480
http://www.hardware.fr/articles/787-5/dossier-nvidia-geforce-gtx-480-470.html
-
http://www.01net.com/fiche-produit/prise-main-8213/cartes-graphiques-zotac-geforce-gtx-470-amp-edition/ (http://www.01net.com/fiche-produit/prise-main-8213/cartes-graphiques-zotac-geforce-gtx-470-amp-edition/)
-
Comment savoir si une GPU est compatible avec une carte mère ? la mienne : MSI 7613 IONA-GL8E
Car gilloox sur le forul EDLS me dit ceci :
Ta CM a déjà un ship graphique donc ta 260GTX tu la installé en sus. Ce n'est pas grave car elle reste dans les clous du BUS DATA de ton Ship qui gère les échanges entre ton cpu et ton GPU GTX260.
Par contre ton GPU 470 lui sort des clous car trop puissant entre le bus DATA et ton CPU et cela fait un goulot d'étranglement.
Comme ton CPU est prioritaire il te vire le GPU.
il me dit çà apparemment parce que sur ma carte j'ai ceci :
Intel H57 intégré :
* La vidéo intégrée n'est pas disponible si une carte graphique est installée. - Graphiques intégrés grâce au chipset Intel H57.
- Intel HD Graphics
il gérerait les échange entre mon CPU et ma GPU ?!
-
Non! Ca passe par les pieds!
Ce que je dis c'est que tu a un pc shuttle et que tu as dessus si je conprends bien une GTX260 avec un Ship GPU H57. Etonnant, non!
Dessus, tout en changeant de configue mais en conservant cette "CM" tu lui met une GTX 470 qui a X 2.5 de plus en débit. cela ne te pose pas de questions sur le fonctionnement de ta configue?
Je te dis : Que ta CM n'est pas faite pour recevoir ce genre de GPU.
Maintenant : Je n'apprécie guère de voir mes écrits ailleurs qu'a l'endroit ou je les aient mis. Meme si c'est public!
A bon entendeur! :smak:
-
OK DSL.
Mais je voulais d'autre opinion. Il devrait prévenir sur les sites de ventes alors d'avoir un CM minimum.
où je peux voir cette différence de débit et celle de ma CM ?
Pourquoi pendant presque 12 heures je n'es pas eu de soucis, alors ?
-
Excuse moi, mais je suis assez soupe au lait. :siflotte:
Sinon pas grave! :cavachier:
Il est possible que ton GPU n'ai rien en fin de compte. Mais il faut absolument la testée chez une de tes connaissances, et la c'est soit la CM ou le GPU. Par contre il lui faut une alim comme la tienne sinon tu vas te faire de nouveaux amis... :gniak:
-
OK.
J'essaye juste d'avoir plusieurs avis et de comprends à propos de ces débits dont tu parles !
tu as le liens pour me montrer ces débits ? merci
Pour ce qui d'avoir quelqu'un avec un matériel adéquats, j'en connais pas.
J'envoie mon colis demain matin pour rester dans les 7 jours de rétractations...
-
Vous aimez plier sous Folding @ Home ? Vous allez adorer ces GeForce
Enfin, on évoquera les performances promises en GPU Computing de manière assez succinte, pour faire contraste avec les documents marketing de NVIDIA qui ne cessent d'évoquer les fonctionnalités exploitant de manière plus ou moins directes C for CUDA.
Folding (http://www.pcinpact.com/forum/index.php?showtopic=3819)sera l'un des points qui devrait ravir les geeks puisque via une version spécifique du client GPU des équipes de Stanford (que nous ne pouvons distribuer), NVIDIA propose de vérifier qu'une seule carte peut être à l'origine de pas moins de 17 000 points par jour !
Un record, sans nul doute, qu'il faudra vérifier dans les faits, une fois que le client officiel supportera ces nouvelles GeForce, ce qui devrait être le cas dans les semaines à venir.
Les autres applications du genre devraient aussi bénéficier des avantages de la nouvelle architecture Fermi, NVIDIA promettant des performances au moins deux fois supérieures à celles d'une GTX 285.
On regrettera néanmoins que le caméléon ait choisi de limiter la performance en double précision à 1/8 de celle en simple précision, alors que pour les Quadro, ce rapport sera de seulement 1/2.
Nous avons tout de même hâte de pouvoir les opposer en OpenCL (http://www.pcinpact.com/s/OpenCL.htm) aux Radeon HD 5800 d'AMD, celle-ci disposant d'une capacité de calcul bien plus importante en théorie.
http://www.pcinpact.com/actu/news/56105-geforce-gtx-480-fermi-gt100-nvidia-analyse.htm
-
C'est ce que je disais ici :D
http://forum.boinc-af.org/index.php/topic,1588.msg238123.html#msg238123
-
oui pour la double précision mais est ce que c'est une limitation logiciel ou matériel ?
-
oui pour la double précision mais est ce que c'est une limitation logiciel ou matériel ?
ça doit être une limitation du bios vidéo intégré à la carte tout simplement !
Mais si on ré-active cette fonction ça veut dire que la carte demandera aussi plus de jus ! donc il faut aussi revoir les étages d'alimentation !
En gros c'est matériel et logiciel !
-
d'accord
-
Réponse du service technique de materiel.net pour ma CM et la gtx 470 :
Si le constructeur ne l'a pas bridée, il n'y a pas de soucis.
Comment je sais si elle est bridée ?
-
réponse de HP l'assembleur :
Nous vous remercions d'avoir contacté l'Assistance clientèle HP.
Nous sommes désolés, mais le service technique ne supporte pas les changements matériels car les conflits occasionnés lors de ce changement sont susceptibles de produire des dysfonctionnements.
Nous vous invitons cependant à contacter la société MSI afin d'avoir une réponse à votre question.
Vous comprenez quoi à la deuxième phrase que la gtx 470 peut causé des dysfonctionnement ou c'est le service technique qui risque d'avoir des dysfonctionnement ?
Après il me disent de demander à MSI le fabriquant de la CM qui lui me dit de voir avec HP ....
-
...
Nous sommes désolés, mais le service technique ne supporte pas les changements matériels car les conflits occasionnés lors de ce changement sont susceptibles de produire des dysfonctionnements.
....
C'est pourtant très clair HP monte des machines qui tournent très bien quand elles restent avec la config d'origine à partir du moment où tu les bidouilles bin le constructeur s'en lave les mains.
D'ailleurs je suis sûr qu'un fascicule de +sieurs pages devait être fourni avec ta machine t'expliquant en long, en large et en travers ce que tu peux faire et surtout ce que tu ne dois pas faire dessus car non pris en charge par le SAV.
Quand on voit les Termes et conditions (http://www8.hp.com/fr/fr/privacy/terms-of-use.html) juste pour leur site :priz2tet: je me dis que pour leur matos ce doit être pire. :coffeetime:
-
ils ont peur de me donné une réponse est que cela les engages à quelques choses... Les C...
Le seul truc que j'ai eu est un guide de démarrage rapide...
-
Je n'ai pas su trouvé mais fouille sur leur site pour essayer de trouver les droits d'utilisation de leur matos... je suis sûr qu'ils ont pondu un document leur permettant de se couvrir pour toutes sortes de litiges avec leurs clients.
-
règle n°1 : quand on ouvre une bécane, la garantie saute automatiquement
bref, quand on commence à bidouiller/customiser, c'est à nos risques et périls
dans ton cas, seule la garantie de ta carte peut fonctionner puisque tu l'as achetée séparément
HP et MSI ne t'aideront pas et peuvent même te créer des embrouilles, évite les...
-
donc comment savoir si ma CM est bridée ?
Réponse du service technique de materiel.net pour ma CM et la gtx 470 :
Si le constructeur ne l'a pas bridée, il n'y a pas de soucis.
Comment je sais si elle est bridée ?
-
bonjour,
Sur le site materiel.net, il est noté que cette carte zotac gtx 470 amp edition n'est plus fabriquée ! Est ce que ce serait pour un autre modèle ou pour des défauts en séries ? :cavachier: :cavachier: :desole:
Edit : réponse de materiel.net :
Il ne s'agit en aucun cas d'un problème de fabrication, mais d'un terme générique qui indique que le produit n'est tout simplement plus proposé au catalogue (indisponibilité trop longue par exemple).
-
...
Edit : réponse de materiel.net :
Il ne s'agit en aucun cas d'un problème de fabrication, mais d'un terme générique qui indique que le produit n'est tout simplement plus proposé au catalogue (indisponibilité trop longue par exemple).
Tu as visiblement opté pour le seule CG qu'il ne fallait pas choisir. :/
-
C'est bizarre ZOTAC ne m'inspirait pas confiance. :siflotte:
eVGA, Asus, MSI, Gigabyte, Gainward c'est mieux il me semble.
-
résultats test 3Dmarks vantage : Résultats test : http://service.futuremark.com/home.action;jsessionid=84324F596EDBA76C74EE2247B735790A?resultId=2369105&resultType=19
-
Ils font des fautes dans leurs liens. Si tu cliques sur hardware, ils ont inversé 2 lettres.
Moi je tente pas, mon CPU bride :siflotte:
Mais je l'aime bien mon Pentium 4. Je l'échangerais pour rien au monde. (c'était le meilleur en 2003 :desole:)
Polynésia, tu as utilisé quel logiciel de chez futurmark ? 3dmark, pcmark ?
-
3dmark
-
bon apparemment le lien ne fonctionne plus mais le score GPU était environs 7500...
-
J'ai demandé car quand je fais le test, ça fonctionne nickel, mais j'ai pas de score. J'ai N/A même si je vais voir le résultat online.
-
avec la version trial de 3dmark vantage, je ne sais pas par contre s'il test vraiment la gpu à fond avec cette version trial ....
cpu : 36498
GPU : 7532
17000 en virtualmarks
Le meilleur à ceci :
cpu : 58807
gpu : 70481
sa config : X58A-UD9, gtx 480 4 way sly, i7 980X à 3.7 mhz
-
Le meilleur est ruiné en composants et en facture électrique. :siflotte:
-
http://www.materiel.net/ctl/Cartes_graphiques/57316-Radeon_HD_5970_4Go_Toxic.html
-
d'après cette config avec une 650w y'a pas de soucis :
http://www.materiel.net/ctl/PC_de_bureau/57962-Headshot.html
Je comptai d'ailleurs acheté cette CM...
-
comment désactivé la vidéo intégré car j'ai lu que cela peut rentré en conflit avec la carte vidéo ?!
Par contre comme la carte à bien fonctionné 12 H est ce que cela venir quand même de là ?
-
normalement lorsqu'une carte graphique additionnelle est installée, le chipset graphique de la carte mère se désactive.
-
comment désactivé la vidéo intégré car j'ai lu que cela peut rentré en conflit avec la carte vidéo ?!
Salut :kookoo:
Comme la dit Supersnoopy normalement il se désactive tout seul mais si ça n'est pas le cas, fait clique droit sur "poste de travail" ---> propriété ---> matériel ---> gestionnaire des périphériques, trouve le chip graph fais clique droit dessus --> propriété --> désactivé :pt1cable:
:hello:
-
réponse du service technique materiel.net : votre carte est défectueuse !
par contre ils vont me faire un échange à neuf....
elle est en test avant expédition...
-
Pas de bol :/
-
Pas de bol :/
au contraire, la garantie s'applique et c'est tout benef :jap:
en espérant que la remplaçante dure beaucoup plus longtemps :)
-
Je trouve ça rageant le retour SAV. Sinon oui à part le délai d'attente il n'y a pas de mal. Coup de chance il avait son ancienne carte encore en vie.
-
au contraire, la garantie s'applique et c'est tout benef :jap:
en espérant que la remplaçante dure beaucoup plus longtemps :)
Ils sont en train de la tester pour être sur quelle soit fonctionnel...
-
Je trouve ça rageant le retour SAV. Sinon oui à part le délai d'attente il n'y a pas de mal. Coup de chance il avait son ancienne carte encore en vie.
pourquoi tu dis ancienne carte puisqu'ils l'échange à neuf ?
-
Parce que je parle de la GTX 260 :hap:
-
ok, et elle fonctionne très bien pour son âge : 6 mois (de fonctionnement)...
-
Je devrais recevoir la nouvelle GPU d'ici samedi et vendredi je devrais recevoir cette CM (http://www.materiel.net/ctl/Carte_mere_socket_1156/52722-GA_P55A_UD5.html) !!!
-
belle bête !... 3 cartes graphiques, miam !
-
donc dans le futur, je n'aurais cas changer mon alim...
-
Et surement de boitier car pour supporter 3 grosses cartes graphiques je pense qu'il faut un très bon boitier.
-
qui s'est peut être acheté une ATI...
-
Han ATI caylemal :D perso j'ai une P6T7 WS Supercomputer c'est pas mal non plus pour les carte graph :cavachier:
-
qui s'est peut être acheté une ATI...
Bonne idée pour la CV D'ATI.
Je m'en suis procuré une il y a 4 mois et ca fonctionne nickel!
Elle produit en moyenne 1.5 millions d'unités par semaine sur DNET.
-
Une simple 5770 (pas chère, peu consommatrice, peu de chauffe) peut produire 1 000 000 sur DNETC.
-
Pourquoi ce n'est pas directx 11 sur ce panneau premier panneau ? car sur le second qui doit être pour mon pc c'est bien 11 mais pas la carte on dirais ...
(http://img.lbzh.fr/images/captureoko.png)
(http://img.lbzh.fr/images/capture2ici.png)
-
Regarde dans DXDIAG (dans démarrer, rechercher)
-
C'est officiel : 150 000/24h avec hd5770.
:miam:
-
Zotac GTX 480 AMP! Edition VideoCard Review
http://hothardware.com/Reviews/Zotac-GTX-480-Amp-Edition/?page=1 (http://hothardware.com/Reviews/Zotac-GTX-480-Amp-Edition/?page=1)
Au vus de ce test ma 470, n'est pas si mal...
-
Nouveau driver ATI GPU 10.8 pour ouin dows 7 64 bit disponbile.
Assurer vous de faire une sauvegarde avant la mise à jour.
L'installation a "planter" et j'ai du redémarer en "safe mode" et ré-installer.
le tout a fonctionner sauf quelques sueurs froides.
-
Ah un new driver.
Qu'apporte t'il ? Des perfs ? :siflotte:
-
Voici la note de service pour la mise à jout 10.8
This release note provides information on the latest posting of AMD’s industry leading
software suite, ATI Catalyst™. This particular software suite updates both the AMD
Display Driver, and the ATI Catalyst™ Control Center. This unified driver has been
further enhanced to provide the highest level of power, performance, and reliability. The
ATI Catalyst™ software suite is the ultimate in performance and stability.
This release note provides information on the following:
Web Content
AMD Product Support
Operating Systems Supported
New Features
Catalyst™ Application Profiles
Performance Improvements
Resolved Issues for All Windows Operating Systems
Resolved Issues for the Windows 7 Operating System
Resolved Issues for the Windows Vista Operating System
Resolved Issues for the Windows XP Operating System
Known Issues Under All Windows Operating Systems
Known Issues Under the Windows 7 Operating System
Known Issues Under the Windows Vista Operating System
Installing the ATI Catalyst™ Vista Software Driver
ATI Catalyst™ Crew Driver Feedback
-
Pourquoi Nvidia ne développe pas de spécifique à la série 4xx ?
Car c'est le même pour les 2xx et 4xx !
-
Elle est pas mal cette gtx 480 :
(http://images.bit-tech.net/content_images/2010/09/msi-n480gtx-lightning-preview/n480gtx-lightning-1s.jpg)
http://hardware-games.fr/forum/index.php?topic=215.msg1556#msg1556
-
Franchement si il y a une carte Nvidia super en se moment c'est la 460 :love: , elle chauffe peut, s'overclock super bien (900Mhz au GPU avec rad stock :pt1cable: ) et est super perf (et pas cher aussi)
(enfin sur la Giga c'est comme ça)
Voila pour ceux qui voudrais changé de CG :kookoo:
-
on pourrait voir tes stats avec tes trois CG ?!
-
Bien sur, mais je pense pas que des stat Folding@home t’intéresse, enfin si ça te parle je tes les donnent:
GTX260 (qui ont rendus l’âme il y a peu): max ---> 9200ppd
9800GTX: max ---> 6777ppd
GT240: max ---> 5000ppd
GTX460: max---> 15500ppd
:coffeetime:
-
Bien sur, mais je pense pas que des stat Folding@home t’intéresse, enfin si ça te parle je tes les donnent:
GTX260 (qui ont rendus l’âme il y a peu): max ---> 9200ppd
9800GTX: max ---> 6777ppd
GT240: max ---> 5000ppd
GTX460: max---> 15500ppd
:coffeetime:
ah tu calcule pas sur BOINC ????? :??: :??:
-
Si si bien sûr, mais c'est les CPU qui si colle :)
-
Si si bien sûr, mais c'est les CPU qui si colle :)
une raison particulière de ne pas y mettre aussi les gpu, puisque ça tourne sous boinc aussi ?? :??: :??:
-
Bien sur, mais je pense pas que des stat Folding@home t’intéresse, enfin si ça te parle je tes les donnent:
GTX260 (qui ont rendus l’âme il y a peu): max ---> 9200ppd
9800GTX: max ---> 6777ppd
GT240: max ---> 5000ppd
GTX460: max---> 15500ppd
:coffeetime:
Non cela ne me dit rien car je n'es jamais calculer sur ce projet...(folding)
-
une raison particulière de ne pas y mettre aussi les gpu, puisque ça tourne sous boinc aussi ?? :??: :??:
Hum, oui car je suis dans une (mini) team depuis un bon moment et qu'on est 2ème de l'AF et 22ème mondiale donc je vais pas les laissez tomber en si bon chemin :smak:
@Polynésia: et bien si tu veux c'est la carte avec le meilleur rapport perf/prix/watt du moment ;)
-
Nvidia a profiter hier de la GPU Technology Conference pour dévoiler en avant première, le nom de code du prochain GPU baptisé "Kepler" et même le suivant nommé "Maxwell"
La suite ICI (http://hardware-games.fr/forum/index.php?topic=220.new#new)
(http://www.comptoir-hardware.com/images/stories/_cg/nvidia_keynote_gpu_roadmap_2010.jpg)
-
Voici les infos cuda de ma CG : Vous en pensez quoi ?
CUDA-Z Report
=============
Version: 0.5.95
http://cuda-z.sourceforge.net/ (http://cuda-z.sourceforge.net/)
OS Version: Windows AMD64 6.1.7600
Core Information
----------------
Name: GeForce GTX 470
Compute Capability: 2.0
Clock Rate: 810 MHz
Multiprocessors: 14
Warp Size: 32
Regs Per Block: 32768
Threads Per Block: 1024
Watchdog Enabled: Yes
Threads Dimentions: 1024 x 1024 x 64
Grid Dimentions: 65535 x 65535 x 1
Memory Information
------------------
Total Global: 1248.44 MB
Shared Per Block: 48 KB
Pitch: 2.09715e+06 KB
Total Constant: 64 KB
Texture Alignment: 512
GPU Overlap: Yes
Performance Information
-----------------------
Memory Copy
Host Pinned to Device: 5608.38 MB/s
Host Pageable to Device: 2997.46 MB/s
Device to Host Pinned: 5602.31 MB/s
Device to Host Pageable: 3013.9 MB/s
Device to Device: 48091.4 MB/s
GPU Core Performance
Single-precision Float: 1.16563e+06 Mflop/s ( pourquoi +06 ????)
Double-precision Float: 146494 Mflop/s
32-bit Integer: 585128 Miop/s 24-bit Integer: 584478 Miop/s
Generated: Thu Sep 23 23:58:28 2010
-
C'est beau et bien rangé!
C'est la version 0.5.95, attends la 1.0 pour voir si c'est pareil! :desole:
-
C'est beau et bien rangé!
mdr
-
:lol:
-
.....GPU Core Performance
Single-precision Float: 1.16563e+06 Mflop/s ( pourquoi +06 ????)
Parce que "e+06" correspond à la notation mathématique " x 1000000"
Donc au lieu d'écrire "1.16563e+06", ils auraient pu écrire 1165630 (soit 1.16563x1000000).
Voilà m'sieur!! ;) :D
-
GPU Core Performance
Double-precision Float: 146494 Mflop/s
Tu peux voir aussi que, bien que bridée par nVidia à 25% de son potentiel (:cpopossib:) , ta carte est apte aux calculs en double précision.
Donc sur Milkyway, ça doit pouvoir marcher.
:hello:
-
Tu peux voir aussi que, bien que bridée par nVidia à 25% de son potentiel ( :cpopossib: ) , ta carte est apte aux calculs en double précision.
Donc sur Milkyway, ça doit pouvoir marcher.
:hello:
Non car ma carte est Compute Capability: 2.0 et milky 1.3 !!!
-
Salut à tous.
Je viens poser deux questions concernant le crunch sous GPU. Je suis au bon endroit? :D
Je viens de récupérer un nouveau PC composé ,entre autre, d'un Intel Core 2 Duo, et deux 2 cartes graphiques. Une GeForce 8800 GT, à laquelle j'ai ajoutée une GeForce 9500 GT.
Alors 1ère question: Comment faire cruncher 2 cartes graphiques en même temps? :??:
J'ai trouvé ça (http://www.boinc-af.org/projets-sciences-de-la-vie/1040-gpugrid.html#6) mais ça me parait peu clair.
Et 2ème question: Pourquoi, alors que le calcul d'UT avec un GPU a commencé depuis plus de deux heures, après une relance du PC, je ne peux plus utiliser les GPU, BAM me disant, je cite: "No usable GPUs found".
Bah ouais, mais 5 min avant tu crunchais en GPU, vieux! :cass_tet:
Voilà pour le moment.
Si quelqu'un pouvait m'éclairer sur ces petits problèmes; merci :jap:
-
Pour utiliser 2 cartes vidéo, il faut mettre un écran sur chaque carte, moi j'ai 1 moniteur pc et 1 télé du salon dessus, sinon il faut se bricoler un plug avec une résistance mais ça je connais pas
-
Pour les cartes graphiques Nvidia sous Linux, il est inutile de les charger toutes les deux. Une seule peut être branché à un écran.
Sous quel système d'exploitation est-tu ?
Sur quel projet calcules-tu ?
-
@ Elgande71
Je suis sous Ubuntu 10.04 64 bits, et je calcule sur les projets GPUGrid, et Collatz. Ma carte 9500 GT crunchait sur Collatz dans mon autre PC il y a peu, et, la 8800 GT a calculé plus de 2h sur GPUGrid...
-
As-tu lancé le BOINC Manager afin de voir ce qu'il te dit concernant ta détection de GPU ?
Sinon comment as-tu installé BOINC sur ton PC?
Le problème qui se pose avec la détection de GPU est qu'il faut lancer l'exécution du client BOINC après le lancement de l'interface graphique.
Qu'en est-il chez toi ?
-
Alors, j'ai installé Boinc Manager par le lien APT sur le site ubuntu-fr.org ici (http://doc.ubuntu-fr.org/boinc).
Il me dit: "No usable GPUs found", alors que j'ai déjà utilisé plus de deux heures avant...
Il va falloir que je cherches dans quel ordre mon PC lance ses applications au démarrage, mais demain, car là je n'ai plus le PC sous la main...
Merci en tous cas de ton aide... :kookoo:
-
Ben justement alors. Ce que t'indique Elgrande peut être la source du pb.
Car quand tu as installé, le client boinc (qui est en daemon) a démarré alors que l'interface graphique était déjà démarrée.
Alors qu'après reboot, le daemon boinc-client peut avoir démarré avant l'interface graphique.
La question est : as-tu calculer pendant 2h juste après avoir installé boinc (et donc sans avoir rebooté) ou as-tu réussi à calculer gpu au moins une fois après un reboot ??? :??:
pour vérifier tu dois pouvoir savoir avec une commande "invoke-rc.d boinc-client restart" (ça relancera ton client boinc sous interface graphique).
-
@jip
Bah oui, t'as tout bon (encore une fois... :lol:)
J'ai tapé en console :
sudo invoke-rc.d boinc-client restart
et hop, le calcul en GPU qui reprend.
Bravo, et merci pour cette ligne qui dépatouille bien. :jap: :jap:
Me reste à régler le problème de faire cruncher les deux cartes graphiques.
Je cherche... :raviere:
-
Pour utiliser 2 cartes vidéo, il faut mettre un écran sur chaque carte
Bah, pas sûr... :/
J'ai installé un second écran, repris Xconf, et après un redémarrage, pas mieux, je ne calcul que sur une carte... :cry:
Je continue de chercher...
-
Bah, pas sûr... :/
J'ai installé un second écran, repris Xconf, et après un redémarrage, pas mieux, je ne calcul que sur une carte... :cry:
Je continue de chercher...
As-tu créé un fichier cc_config.xml à mettre dans le répertoire de données BOINC ?
Voici un exemple
<cc_config>
<options>
<use_all_gpus>1</use_all_gpus>
<no_priority_change>1</no_priority_change>
</options>
</cc_config>
La ligne la plus importante est use_all_gpus, il faut que la valeur soit à 1 sinon un seul de tes GPU bossera.
-
Bravo Elgrande71 !!! :jap: :jap:
Celle là, je ne l'aurais jamais trouvée tout seul...
Effectivement, en ajoutant les lignes que tu m'as données au fichier /etc/boinc-client/cc_config.xml, et en relançant Boinc Manager, mes deux GPU crunchent de concert.
Alors, là, ça va engranger les points, je ne vous dit pas !!! :adonf:
Merci encore à Elgrande71 et à jip pour votre aide! :jap: x1000
-
@jip
Bah oui, t'as tout bon (encore une fois... :lol: )
J'ai tapé en console :
sudo invoke-rc.d boinc-client restart
et hop, le calcul en GPU qui reprend.
Bravo, et merci pour cette ligne qui dépatouille bien. :jap: :jap:
Me reste à régler le problème de faire cruncher les deux cartes graphiques.
Je cherche... :raviere:
peut-être pour faire de façon un peu plus permanente, tu peux tenter (de tête, j'espère pas me gourer) :
sudo su
invoke-rc.d boinc-client stop
update-rc.d -f boinc-client remove
update-rc.d boinc-client defaults 99
reboot
explications :
passage en su
stoppe le client boinc
supprime les lancements et arrêts auto du daemon ( qui sont en niveau 20 par défaut je crois)
recréer les lancements et arrêts auto du daemon en niveau 99 (valeur la plus haute permise).
redémarrage pour voir si ça fonctionne avec un démarrage automatique.
comme je suis pas sûr, à tester et vérifier.
et revenir poster pour dire si c'est bon (donc corrections si il y en a), et nous dire si ça résout le pb en automatique.
-
Serait bien de faire un tuto pour le crunch à 2 CG sous GNU/Linux et le mettre dans FAQ Technique > Tutoriels, + facile à trouver que noyé dans ce fil de discussion. :spamafote:
-
et dans faire un pour windows aussi...
-
Salut à tous.
Pour remédier au problème de lancement automatique du calcul sur GPU, j'ai suivi les indications de jip:
sudo su
invoke-rc.d boinc-client stop
update-rc.d -f boinc-client remove
update-rc.d boinc-client defaults 99
reboot
Et ça fonctionne.
Après le redémarrage, tout tourne tout seul.
Bravo jip :jap:
-
Je suis content pour toi cottesloe.
Bon Crunch. :bounce:
-
Salut à tous.
Pour remédier au problème de lancement automatique du calcul sur GPU, j'ai suivi les indications de jip:
sudo su
invoke-rc.d boinc-client stop
update-rc.d -f boinc-client remove
update-rc.d boinc-client defaults 99
reboot
Et ça fonctionne.
Après le redémarrage, tout tourne tout seul.
Bravo jip :jap:
manquais rien ???? :??: car je ne pouvais pas vérifier de là où j'étais quand j'ai poster ça ... :siflotte:
-
et dans d'en faire un pour windows aussi...
:pt1cable: Je parle de tuto pour GNU/Linux car tous les ingrédients sont là. :spamafote:
-
C'est bizarre car sur le panneau de contrôle Nvidia le max pour la fréquence mémoire c'est 2041 Mhz et sur l'outil Zotac c'est au moins 5000 Mhz.... ????? en faite il affiche le double (zotac)
-
:pt1cable: Je parle de tuto pour GNU/Linux car tous les ingrédients sont là. :spamafote:
faut donner les droits de rédacteur à quelqu'un pour le faire ? ou vous avez déjà ?
car si y'a tout ce qu'il faut, ben y'a plus qu'a ...
-
Je parlais de le mettre sur le Forum à FAQ Technique > Tutoriels.
-
ben encore plus simple alors. feu. :D
mais enrichir le portail c'est bien aussi et pas plus compliqué, et non moins utile.
-
« Puissance doublée. » Voici ce que promet la prochaine génération de carte graphique d'AMD, à en croire un document interne qui a récemment filtré...
La suite ICI (http://boris61.over-blog.fr/article-radeon-serie-6000-puissance-doublee-novembre-58248065.html)
-
Pourquoi ne pas donner l'info directement ici ??? pas besoin de nous renvoyez vers ton blog !
-
On m'a signalé que ce serait du plagiat... etc...
-
c'est du plagiat quand tu mets un texte d'un autre en laissant croire que c'est toi qui l'a écrit. (en ne mettant pas la source par exemple) ici le lien approprié aurait été vers l'article original de clubic...
-
Si tu regarde sous l'article j'ai mis le nom de l'auteur et le site...
-
Salut à tous.
Pour remédier au problème de lancement automatique du calcul sur GPU, j'ai suivi les indications de jip:
sudo su
invoke-rc.d boinc-client stop
update-rc.d -f boinc-client remove
update-rc.d boinc-client defaults 99
reboot
Et ça fonctionne.
Après le redémarrage, tout tourne tout seul.
Bravo jip :jap:
il faudrait peu être se faire une base de donné de toutes ces petites astuces... car sinon je pense que Jip va la redonné en décembre à machin et en février a augure (ou bidule ... :D )
-
Si tu regarde sous l'article j'ai mis le nom de l'auteur et le site...
Sur ton blog tu as pas trop mal fait les choses il ne manque que le lien vers l'article original. Par contre pour partager ces informations sur le site de l'AF, il te faut faire le lien vers le site de clubic, pas vers ton blog. Mais sinon il faut reconnaitre que tu fais mieux qu' au début :lol:
-
Il progresse le kid, il progresse... :D
-
Je poste pour un ami qui n'arrive pas a avoir du boulot gpu.
Parfois , la carte est reconnu , tantot pas.
Apres reinstallation des pilotes , boinc , reconfiguration de boinc avec essai d'une version anterieure de celui ci , de meme pour les pilotes , revu des preferences sur les projets ................ RIEN :priz2tet:
Si quelqu'un a subi ca ou connait la solution , 1000 fois merci
:cetaboir:
-
Je n'y connaît rien au crunch avec GPU, mais je pense que des détails sur sa config seront bien utiles pour solutionner le blème. ;)
-
Ok merci ,
Il a un i7 950 , CG 5970 xfx , CM msi , 6 Go ram , alim 850 W
W7 ultimate 64
:cetaboir:
-
...
:cetaboir:
Vous en êtes encore à l'apéro là? :D :gno:
-
Non , champagne :D
-
Apres reinstallation de W7 et ce qui va avec , tout a l'air de tourner .
:hello:
-
Apres reinstallation de W7 et ce qui va avec , tout a l'air de tourner .
:hello:
Rien que ça! :siflotte:
(http://img.lbzh.fr/images/hellod.gif)
-
Nouveau pilote Nvidia beta : 260.89 ...
-
GTX 580 : la réponse de Nvidia aux HD6000 d'AMD ?
Alors que tout le monde est braqué sur AMD et ses HD6000, Nvidia préparerait déjà son offensive avec la GTX580.
Ce nouveau GPU porterait le nom de GF110 (contre GF100 actuellement), la première carte à voir le jour serait une "GTX580" d'après les informations de Pcgameshardware.de, pour les caractéristiques techniques nous aurions une carte mono-gpu ultra performante, voyez plutôt :
- Bus 512bits (contre 384bits pour la GTX480)
- 512 Cuda Core (ou SP)(contre 480SP pour la GTX480)
- 2048mo de GGDR5 (contre 1536mo sur la GTX480)
- 128TMUs (contre 64 pour la GTX480)
Du lourd donc, mais malheureusement la consommation resterait bien élevée puisqu'il est question d'une alimentation de type 6+8pins, le TDP se rapprocherait donc des 270/300W.
(http://www.centrale3d.com/IMG/image/Logo/Nvidia/nvidia-3d.jpg)
-
Source ?
D'après ce que j'en sais, ce serait simplement une GTX485 ... pas une nouvelle série.
edit : finalement, c'est ce qu'aurait du être la GF100 à l'origine :ange:
-
d'après les informations de Pcgameshardware.de
-
Double précision ou pas?
-
ouais enfin, si c'est pour la brider ensuite pour préserver son hypothétique marché pro ...
je comprends pas trop la politique et la stratégie de nvidia depuis quelques temps ...
-
Version WHQL NVIDIA 260.89 paru ce-jour ...
-
ouais enfin, si c'est pour la brider ensuite pour préserver son hypothétique marché pro ...
je comprends pas trop la politique et la stratégie de nvidia depuis quelques temps ...
Donc double précision non utilisable :cpopossib: donc pas de double précision quoi.
-
Je ne sais pas mais avec ma gtx j'arrive quand même à la mettre sur milky...
-
en tout cas... moi qui veux un truc silencieux, se sera surement une ATI ! :D
-
ma gtx 470 zotac amp édition je ne la trouve pas bruyante...
(http://www.materiel.net/live/113418.jpg)
-
Bon, ben, 6870 achetée, on verra bien ce que ca donne :jap:
-
210 euros sur cdiscount...
J'ai hâtes de voir ce que cela donne, moi aussi...
-
ma gtx 470 zotac amp édition je ne la trouve pas bruyante...
(http://www.materiel.net/live/113418.jpg)
Cause double epaisseur faut avoir la CM et le boitier qui la supporte, surtout si on en veut 2
-
avec ma CG c'est clair qu'il faut avoir tout çà... :D
-
Bon, ben, 6870 achetée, on verra bien ce que ca donne :jap:
moi aussi j'ai hâte... peu être une HD6850 pour noël, si RDC refait son offre ! :sun:
-
C'est peut être + opportun d'attendre la sortie des HD69xx (les vraies remplaçantes des 58XX avec double précision). :/
soit pour les acheter, :sun:
soit pour profiter de la baisse des 58xx :D
Ah marc ké thym je :rhaa:, quand tu nous fais croire que c'est + mieux, + beau, + geek, + profit table*, enfin - out quoi
(* taille police 0.005 L'actionnaire se félicite des "marges" de manœuvre qu'offre ces nouveaux produits)
-
Un peu de lecture : http://fr.fah-addict.net/news/news-0-397+nouvelles-amd-radeon-6800-toujours-pas-le-saint-graal-du-plieur.php
En tout cas, ces cartes auraient du s'appeler 6700 et non 6800 :/
-
c'est clair que ati a fait une rupture dans la logique des noms de ces CG ...
-
Ils ont du embaucher des marketteux de chez nVidia ... :siflotte:
-
:lol: :lol: :lol: :lol:
-
210 euros sur cdiscount...
J'ai hâtes de voir ce que cela donne, moi aussi...
Je récupère ca demain soir :)
-
:hap: :hap: :hap: vite vite !!!! on veux savoir !
-
Je vais le lancer sur mes projets habituels, mais si tu veux faire un test sur un projet particulier, vous pouvez toujours demander ;)
-
collatz fait t'il partie de tes projets habituels ? ... :D
-
Pas trop le choix, t'asson :
gpugrid : nvidia only
milky : faut une double précision
qmc ne m'a rien envoyé ??
aqua pareil
collatz : 82 WU :D
-
cool ! :D
mais ca fait peur quand même... de ce dire que l'on prend une carte toute neuve et que si Collatz ferme elle ne fera plus rien pour l'instant ! :cpopossib:
-
cool ! :D
mais ca fait peur quand même... de ce dire que l'on prend une carte toute neuve et que si Collatz ferme elle ne fera plus rien pour l'instant ! :cpopossib:
Pas grave tu feras du Primegrid ! :D
-
il y a aussi dnetc :lol:
-
58116987 25782611 26 Oct 2010 19:21:00 UTC 26 Oct 2010 20:53:35 UTC Terminé et validé 424.19 422.98 1.81 770.83 collatz v2.09 (ati13ati)
58116985 25782610 26 Oct 2010 19:21:00 UTC 26 Oct 2010 20:58:44 UTC Terminé et validé 429.19 427.53 1.83 770.09 collatz v2.09 (ati13ati)
58116977 25782606 26 Oct 2010 19:21:00 UTC 26 Oct 2010 21:14:08 UTC Terminé et validé 397.98 396.08 1.69 745.71 collatz v2.09 (ati13ati)
7 minutes, 770 points
110 points / minutes
160 000 points / jours ??? :gno:
-
par rapport à ta précédente ATI, c'est quoi la diff ?
-
avant, j'avais une 8800 GT qui buggait avant de lacher ... pour être remplacée par une 7900 GTX ... :cavachier:
Ca change un peu, donc :o
-
Si vous voulez comparer sur Collatz, voici ma 5770 @ 960 MHz :
57913509 25693164 25 Oct 2010 17:13:56 UTC 26 Oct 2010 3:05:58 UTC Terminé et validé 658.59 657.58 2.78 796.96 collatz v2.09 (ati13ati)
57911477 25692310 25 Oct 2010 16:59:57 UTC 26 Oct 2010 2:54:24 UTC Terminé et validé 664.03 662.09 2.80 786.25 collatz v2.09 (ati13ati)
57908508 25691005 25 Oct 2010 16:37:26 UTC 26 Oct 2010 2:31:59 UTC Terminé et validé 655.73 654.30 2.77 787.38 collatz v2.09 (ati13ati)
57907032 25690332 25 Oct 2010 16:25:54 UTC 26 Oct 2010 2:21:06 UTC Terminé et validé 656.81 655.30 2.77 810.70 collatz v2.09 (ati13ati)
-
200 sec de différence...
-
Avec 1 Quatro FX 580 je tape quand même dans les 4800 crédits/jour. :D :desole:
-
un petit peut déçu... moi qui pensais taper dans les 200 000 avec un peu être futur HD6850... :o
bon en même temps c'est pas grave... si cela aide la science, je change pas mes plans ! ^^
(je laisserai juste JIP et consort prendre encore plus d'avance :D )
-
Je pense qu'il faut d'abord attendre la sortie des Radeon HD 6970 qui devrait être les remplaçante des HD 5870 :spamafote:
Peut-être pour fin novembre ? :spamafote:
J'espère qu'il ne vont pas faire l'impasse sur la double précision !
-
nan car j'en veux une avec laquelle je peux dormir dans la chambre... ce qui exclut la HD6970 ! ;)
d'autant plus si je dois vendre mon lit pour l'acheter ! :lol:
-
nan car j'en veux une avec laquelle je peux dormir dans la chambre... ce qui exclut la HD6970 ! ;)
d'autant plus si je dois vendre mon lit pour l'acheter ! :lol:
Elles ne sont pas encore sortie donc on ne peut pas se faire une idée ! :/
ça dépendra des constructeurs avec leurs systèmes de refroidissement !
Je miserais bien sur une HD6970 vapor X de saphire ! :miam:
-
ouais enfin on sait qu'elle aura un TDP pas loin des 300W donc quel que soit le système de refroidissement ça risque de ne pas être très discret... :/
(source (http://www.nokytech.net/les_premiers_resultats_de_la_h-9143-a-c.html))
-
58116987 25782611 26 Oct 2010 19:21:00 UTC 26 Oct 2010 20:53:35 UTC Terminé et validé 424.19 422.98 1.81 770.83 collatz v2.09 (ati13ati)
58116985 25782610 26 Oct 2010 19:21:00 UTC 26 Oct 2010 20:58:44 UTC Terminé et validé 429.19 427.53 1.83 770.09 collatz v2.09 (ati13ati)
58116977 25782606 26 Oct 2010 19:21:00 UTC 26 Oct 2010 21:14:08 UTC Terminé et validé 397.98 396.08 1.69 745.71 collatz v2.09 (ati13ati)
7 minutes, 770 points
110 points / minutes
160 000 points / jours ??? :gno:
Je viens de vérifier sur mes 4 dernières UT avec ma HD5870
C'est presque 200 000 pts/jour :coffeetime:
-
A 400 secondes la WU c'est comme une HD5850 donc !
Mais sans le Double Precision pour milkyway.
-
oui après les tests, j'ai l'impression que c'est plus des 5850 avec une meilleur gestion de l'alimentation... :/
moi qui espérait une température plus basse je suis un peu décu de ce coté la... tant pis, si je l'ai pour noël... cela réchauffera l'appart (prier pour un très long hivers :D )
-
Le Zalman VF3000A est une des solutions pour les 5850, à vérifier si compatible avec ces nouveaux modèles.
-
Tiens c'est ce que j'ai sur ma Nv zotac... enfin il me semble que c'est Vf3000... mais F
http://pdfr.zotac.com/index.php?page=shop.product_details&flypage=flypage_images.tpl&product_id=257&category_id=120&option=com_virtuemart&Itemid=1#
http://www.materiel.net/ctl/Radiateurs_cartes_graphiques/58106-VF3000A.html, ils disent que c'est compatible avec la série 58xx
-
oui le VF3000A se monte parfaitement sur uen 5870 tant que le pcb est standard.
et même ça revient moins cher de prendre une 5870 std dans les prix bas et de commander et monter ce ventirad dessus (montage simple et rapide).
moi je l'ai monté un peu par hasard quand le ventirad d'origine de ma 5870 a grillé.
avec la livraison express de chez ldlc, dépanné en 2j ouvrables.
et depuis silence et efficacité de refroidissement.
par contre gros inconvénient, l'encombrement est triple slot après ...
-
comment un ventirad peu griller :eek:
arf... triple slot, je me demande si cela me gênera pas pour mon CF HD6890 !!! :??:
... nan j'décone ! :D
-
comment un ventirad peu griller :eek:
ben comme tout moteur électrique. car dans "ventirad", y'a "venti" ..... et c'est le ventilo qui a grillé. :siflotte:
et je me voyais pas de refaire un petit bobinage à la mano ...... :spamafote:
mais si tu te sent, je t'envoie les pièces que j'ai enlevé (ça a été plus long de démonté l'ancien que de remettre le zalman .... :D ) :lol: :lol: :lol: :lol:
-
feignant... chui sur qu'il est encore comme neuf ! :o
nan, mais avoue c'est une excuse, car une HD5890, c'est encore sous garantie ! :D
nan pour moi un ventillo ca se desaxe, mais j'ai jamais vue la bobine griller :eek: !
-
Ca m'est arrivé sur ma 4870 ... ventilo mort (mais pas désaxé) ... du coup, elle a été remplacée par une 5770 gratuitement :)
-
Kikoo lol
Je recherche le topic du forum où l'on parle d'une installe de carte Nvidia et ATI en même temps. Ma 6870 a du mal à gérer le bi écran avec mes câbles DVI de 10m, et j'ai une vieille nvidia qui fera parfaitement l'affaire (juste pour l'affichage).
Je n'arrive pas à remettre la main dessus :jap:
-
tu as ces deux topics :
http://forum.boinc-af.org/index.php/topic,3885.msg256646.html#msg256646
http://forum.boinc-af.org/index.php/topic,3626.msg237288.html#msg237288
-
Bon, ca "marche" : j'ai bien mes deux écrans, mais Collatz ne me reconnais plus ma HD6870 :/
Quant à DNETC@home, lui, reconnait bien ma NVidia.
Je vais regarder dans les fichiers de conf :/
-
Donc, tu doit être au même point que moi ! :/
n'hésite surtout pas de nous avertir si tu arrive à faire cruncher tes deux cartes simultanément :jap:
-
Au pire, tu arrives à choisir quelle carte tu fait cruncher ?
:jap:
-
en faite, maintenant je n'es gardé que ma HD5870.
Mais quand j'avais les 2 (HD5870 + GTX275)
Je pouvait en effet choisir avec qu'elle carte je pouvait cruncher, en désactivant l'une ou l'autre.
Sinon Win7 géré bien mes cartes au niveau de l'affichage (écran PC + TV).
:spamafote:
-
J'ai bien mes deux écrans comme il faut, sauf que je n'arrive pas à desactiver un GPU. Du coup, je Collatz ne reconnait pas ma HD6870 :/
Même en faisant mumuse avec le fichier de conf : http://boincfaq.mundayweb.com/index.php?language=1&view=471
-
j'ai fait un petit nettoyage... car "Patrice II" a eut sa réponse pour sa signature et Boris a édité lui même son post mettant nos réponses dans le vent !
aller je relance le sujet... houuuuu les HD69xx arrivent ! :miam:
:D
-
Nouveau site Nvidia dédié aux utilisateurs de Ge Force
http://www.geforce.com
-
Encore une site vachement utile ... :siflotte:
-
>Nouvelle carte nvidia geforce 580 GTX
-
T'es un peu à la bourre ... :siflotte:
Retenez moi, j'ai envie d'en prendre deux :eek:
-
Bon je dispose de 150€, quel GPU?
J'ai pensé à celle-ci: http://www.ldlc.com/fiche/PB00105438.html (http://www.ldlc.com/fiche/PB00105438.html)
-
Pas mal pour 150 euros !
ou tu as celle-là aussi pour moins chère : http://goo.gl/7Hbni (http://goo.gl/7Hbni)
(http://goo.gl/q0KqX)
-
Ou pas ... (http://fr.fah-addict.net/news/news-0-407+nouveau-projet-gpu3-fermi-p6811-les-choses-serieuses-commencent.php) :siflotte:
-
C'est vrai que depuis la sortie des nv série 5x, les 4x sont à 50% de leur prix antérieur...
-
Antares et autres "moi" (sont considéré comme des "moi" les gens qui ne sont pas fan des tel portable qui font retroprojeteur et chat electronique dans leur poche) je vous passe un petit bon plan (au cas ou vous ne le saviez pas ! :D )
sur rdc, si vous prenez un abonnement tel avec un tel tout pourrie vous pouvez repartir avec une carte graphique offerte ! \o/
vous allez dans le simulateur choisissez le type de cadeau (les cartes graphiques sont tout en bas) et c'est parti !
j'ai déjà eut un APN gratuit... moi je prend un nouveau opérateur tous les ans !!! c'est le pied ! :sun:
pour ceux qui collectionne déjà les 4 première version d'Iphone... passez votre chemin, c'est pas pour vous ! :D
-
Un téléphone soit-il portable ou non me sert juste à téléphoner.
Le mien à 5 ans et me convient en tous points...
Bref je veux juste savoir si celle que j'ai en vue est valable, et si elle est DP, c'est tout pour le moment...
-
Un téléphone soit-il portable ou non me sert juste à téléphoner.
Le mien à 5 ans et me convient en tous points...
Bref je veux juste savoir si celle que j'ai en vue est valable, et si elle est DP, c'est tout pour le moment...
je suis tout à fait d'accord avec toi... et c'est pour cela que moi aussi avec mon Samsung (http://www.mobilostore.com/index.php?id=news&news=84) ! :jap:
mais alors que tout le monde changeais de tel tous les ans, moi j'avais l'impression de me faire arnaquer en payant mon forfait sans changer de smartphone financer par les opérateurs !
maintenant quand je renouvel mon forfait c'est contre un bon d'achat RDC et je garde mon samsung tout pourri qui me suffit ! ;)
cela m'évite de payer un forfait de 30€/mois pour payer l'Iphone4 de mon chef ! :o
(j'espère qu'il passe pas par ici... :siflotte: )
je voulais pas te dire de changer de tel... mais c'est un bon plan que j'utilise tous les ans que je voulais vous faire partager, et que cette année je vais me prendre un HD6850 "gratuite" avec !
(oui rien est gratuit, c'est compris dans le prix... mais bon, je l'aurai payer quand même mon abonnement portable, alors autant en profité)
:jap:
pour ta question dsl je sais pas... :/
on va dire que mon message sert au moins de UP ! :lol:
-
Moi mon "téléphone" me sert à tout, et très peu à téléphoner : écouter *ma* musique (dans les transports), lire des livres (domaine public), lire et répondre à mes mails, jouer (beaucoup), surfer (pas mal)... et depuis tout à l'heure, à me connecter à distance avec AndroBOINC à mon client boinc et à pouvoir piloter le boinc de mon mac partout dans le monde RHAAA LOVELLLYYYY !!!
(http://www.krinein.com/img_oc/big/11173.jpg)
-
Je vais créer un topic BLA-BLA téléphone portable.
On pourra y parler de GPU. :sun:
-
je vais pas retourner le dire... moi c'est virgin mobil qui m'offre une GC tous les ans ! :o
tu me quoteras ! :D
-
La GTX 570 est sortie est d'après le test fait par le site 01net, elle à l'air pas mal du tout.... :hyperbon: :hyperbon:
http://goo.gl/fk0P9
-
Erf ils font des tests chez 01net ? :siflotte:
Bah c'est une 480 un peu overclockée ... donc on sait à quoi s'attendre en perfs ...
-
As-tu lu le test en suivant le lien ?
-
Erf ils font des tests chez 01net ? :siflotte:
Bah c'est une 480 un peu overclockée ... donc on sait à quoi s'attendre en perfs ...
c'est ça, avec un peu moins de Watt gaspillés
-
Tenez les conclusions de clubic sur cette carte : http://goo.gl/wM9eC (http://goo.gl/wM9eC)
(http://img.lbzh.fr/uploads/4cff67d772266.PNG)
Intéressante enfin pour moi... n'étant pas un spécialiste...
Les cartes AMD seront encore à la traine apparemment... :desole:
-
elle coûte cher, consomme quand même beaucoup...
AMD est pas "encore" à la traine, ça fait 2 ans qu'il sont devant, et là ils ont pris quelques semaine de retard sur la sortie des dernières HD69xx
-
En avance cela ce discute... à par sur la consommation et le prix, car c'est clair ils sont très en avance....
-
en terme de performances pure c'est toujours la HD5970 qui domine tout le monde. et pour bien moins cher !
edit : pas tout à fait vrai avec l'AA... :o
-
Pourquoi alors, c'est Nvidia qui domine le marché si cette carte à de meilleures perfs... :??:
-
Qu'est ce qui te fait dire que Nvidia domine le marché ?
-
pour la même raison qu'Intel possède 75% du marché ... un nom et des bons commerciaux/marketing ! ;)
à l'époque du PIV vs Athlon, tout le monde achetais un PIV car c'était un Intel... tout le monde ne s'embette pas a aller voir les sites d'info, et surtout le vendeur de chez Carxxxour (oui je cache le nom :o ) ... et oui je cible un peu, car un jour j'ai du en arrêter un qui vendais un bouzin a 1500€ a des petits vieux car "ils travailleront bcp mieux leur vidéo dessus"... ils savaient même pas qu'ils pouvaient brancher leur caméscope numérique dessus, c'est leur enfants qui leur avait dis d'aller acheter un pc pour ca la veille ! :o
donc les ventes ne reflète pas toujours les perfs ! :jap:
et pis oui, c'est TRES cher les 570 !!! :electric:
-
Les cartes AMD seront encore à la trainent apparemment... :desole:
Les cartes AMD / ATI seront encore à la traine apparemment
Pourquoi alors, c'est Nvidia qui domine le marché si cette carte à de meilleur perfs... :??:
Pourquoi alors c'est NVIDIA qui domine le marché, si cette carte à de meilleures performances?
-
merci pour les corrections...
-
Pourquoi alors, c'est Nvidia qui domine le marché si cette carte à de meilleures perfs... :??:
:lol:
Nvidia, c'est moins de 20% du marché total des cartes graphiques qui est largement dominé par intel avec ses CG d'entrée de gamme.
Sinon pour la seule partie qui nous intéresse (ligne Gflops), amd est bien supérieur en puissance brute par rapport à Nvidia.
(http://www.hardware.fr/medias/photos_news/00/29/IMG0029916.gif)
-
Dans les prospectus, je vois pas mal d'offres avec des Nvidias et AMD pourtant....
Après quand je parlais de domination, c'était pour le marché des GPU qu'on achète à part...
Sinon pour la seule partie qui nous intéresse (ligne Gflops), amd est bien supérieur en puissance brute par rapport à Nvidia.
(http://www.hardware.fr/medias/photos_news/00/29/IMG0029916.gif)
Comme les salaires, le principal c'est le net... Alors, en Net qui domine ?
-
les prospectus ? pas certain que ce soit une référence...
je pense aussi que Nvidia bénéficie d'une aura plus "glorieuse" que ATI, mais là on touche au marketing.
sur le marché des GPU pour gamers, le rapport performance/prix est à l'avantage d'AMD depuis la sortie des série HD4xxx c.a.d depuis 2 ans.
(avant, c'était l'inverse, les 8800 et dérivées avaient cet avantage)
avec la GTX460, Nvidia revient un peu dans la course perf/prix quand même.
en plus, pour nous, crunchers, il y a aussi la ligne "consommation" qui entre en ligne de compte, qui avantage encore une fois AMD.
-
je suis pro AMD (CPU et GPU... et 2 APU en janvier ! :D )
alors je vais être sympa 20sec... un autre point a considérer : les drivers !
et en générale tout le monde est unanime, Nvidia est devant ! :/
-
Comme les salaires, le principal c'est le net... Alors, en Net qui domine ?
:lol: tu as de l'humour, dit donc :lol:
C'est quoi la puissance net :pt1cable:
Enfin, il suffit de lire les différents test de comparaison de GPU sur le net pour dire que les ATI sont au dessus des nvidia depuis un moment.
Après il faudra comparer les dernières générations la HD69xx avec la GTX 570 et 580.
Et puis si nvidia s'amuse à brider la double précision, cela sera vite vu !
Je ne suis pas sectaire j'ai eu les 2 types de cartes !
-
Si la double précision n'était pas bloquée, Nvidia serait devant ?
-
:lol: tu as de l'humour, dit donc :lol:
C'est quoi la puissance net :pt1cable:
Enfin, il suffit de lire les différents test de comparaison de GPU sur le net pour dire que les ATI sont au dessus des nvidia depuis un moment.
Après il faudra comparer les dernières générations la HD69xx avec la GTX 570 et 580.
Et puis si nvidia s'amuse à brider la double précision, cela sera vite vu !
Je ne suis pas sectaire j'ai eu les 2 types de cartes !
je crois qu'il voulait parler des bénéfices (face au revenu) d'AMD et Nvidia ! ;)
-
Si la double précision n'était pas bloquée, Nvidia serait devant ?
Elle n'est pas bloquée mais limitée, il me semble.
Ensuite pour le graphisme donc les jeux, la double précision n'a guère d'importance.
Mais pour Milkyway c'est indispensable, c'est tout !
-
Même limité j'arrive quand même à calculer sur milkyway...
-
Même limité j'arrive quand même à calculer sur milkyway...
bien sûr mais avec des crédits minables pour une telle carte, je suis quasi sûr que tu ferais plus de points sur un autre projet GPU avec ta nvidia...
-
Il n'y a que sur primegrid que cela rapporte beaucoup, sur collatz et dnetc c'est 700-800 pts l'unité...
-
Et GPUGRID pour ta nVidia ?
Le PPD/W (enfin chez vous ce serait le credit/W), c'est la vie ... d'ailleurs je le fournit à chacun des mes tests sur Fah-Addict ;)
Ah oui un autre truc à prendre ne compte pour nous : la fiabilité ... :siflotte:
-
Il n'y a que sur primegrid que cela rapporte beaucoup, sur collatz et dnetc c'est 700-800 pts l'unité...
Oui j'ai oublié GPUGRID c'est entre 6000-12000 pts pour 3h30-9h de calcule...
-
Si la double précision n'était pas bloquée, Nvidia serait devant ?
Je sait pas pour toi, mais moi je n'ai aucune part d'action ni chez Nvidia, ni chez Ati. Qui domine le monde, ou qui domine le monde du GPU, je m'en moque pas mal.
Le résultat du test dont tu donne le lien est sans intérêt. Quand tu achetes une voiture tu vas te renseigner sur son prix, chiffré en Euros, sur la consommation chiffrée en litres/100 km, etc... Tu te moque pas mal de savoir si c'est Renaud, Peugeot ou Ferrarri qui domine.
Alors oui, on peut accorder un peu de crédit à leur test parce qu'ils annoncent les spécificités techniques de la carte, les rop, les fréquences etc.... Mais au final, que rend elle sur les diverses applications comme un ou deux jeux gourmands ou sous calcul de rendu 3d?On n'en sait rien.
-
Je débarque, mais est-ce que quelqu'un sait s'il existe quelque part un récapitulatif de la puissance de calcul en double précision de toutes les cartes qui la supporte ? (on sait jamais.... :siflotte:).
Sinon, j'avais vu que le rapport de puissance entre la simple et la double précision était d'1/8 sur les GTX 4xx, c'est aussi le cas sur les GTX 5xx j'imagine, non ? :jap:
-
Pour comparer les cartes :
http://fr.wikipedia.org/wiki/Radeon
http://en.wikipedia.org/wiki/GeForce_500_Series
On peut déjà remarquer que la 5870 c'est 2720 Gflops pour 188W
La GTX 580 c'est 1581 Gflops pour 244W
Il n'y a pas photo !
-
Même limité j'arrive quand même à calculer sur milkyway...
Heureusement je le faisais avec ma GTX275 ! :lol:
Mais vu les points, elle ne supportait pas le comparaison avec les ATI, c'est pour cela qu'elle n'a fait pratiquement que du GPUGrid !
Là, j'étais sur d'être devant les ATI :lol:, elle se sentait surtout beaucoup plus utile, ce n'est pas une histoire de projet,
mais cruncher avec un CPU ou une nVidia sur Milkyway c'est un peu du gaspillage !
-
1581 Gflops pour la GTX580, donc environ 197 Gflops en double précision c'est ça ?
Quel est le rapport simple/double précision concernant les ati ? :jap:
EDIT : oups, oublié le 1 :siflotte:
-
non c'est 1581 Gflops :D
Pour le reste je ne sais pas :spamafote:
-
Un rapport de 2 serait logique ... (mais celui de nVidia à 1/8 est clairement le signe d'une archi qui émule la chose ... voire d'un bridage)
-
Quel est le rapport simple/double précision concernant les ati ? :jap:
20% chez ATI.
8% chez nVIDIA ancienne architecture (GTX 2xx), 50% avec l'architecture Fermi (GTX 4xx) mais avec le bridage à 1/4 ça donne 12,5%.
:hello:
-
Et dans deux jours, les 6900 arrivent :miam:
-
Et dans deux jours, les 6900 arrivent :miam:
Tiens nous au courant des perfs réels, si tu les as....
-
Je vais en commander une :D
-
Sortie ce jour de la version bêta 266.35 pour les Nvidias....
-
Les versions beta des drivers, moi je fais gaffe...
-
Je ne me souviens pas avoir eu de soucis avec les versions bêta 64b
-
De toutes façons, 90% des maj de drivers ne servent qu'à améliorer les perfs en jeu ... donc bon ...
-
Bêta (http://fr.wiktionary.org/wiki/b%C3%AAta) ça veut quand même dire pas fini... et à tous les sens du terme. :lol:
-
:hello: all
J'ai une petite question technique à poser à des utilisateurs avertis sur le fonctionnement GPU.
Je vous explique mon problème:
Je crunch actuellement Milkyway, qui accepte facilement l'OC de la carte graphique.
La carte est une 5970 avec des fréquences usine de GPU:725 / Ram:1000.
Sur Milky ça passe facile à 850 / 1250 (les étages d'alim restent sous 100°c).
Par contre Milky ne fourni pas de travail en continu du fait de:
1) la limitation du nombre d'UT téléchargeables (24 maxi), à 2 minutes 20 par UT cela représente 30 minutes de calcul en réserve.
2) une indispo du serveur régulière pendant plusieurs heures (entre 1 fois par jour et 1 fois tous les 2 jours).
Dans ce cas là, le projet de secours que j'utilise c'est Dnetc, mais celui-ci n'accepte pas du tout l'OC (les UT sont 2 fois plus longues sous OC qu'à fréquences usine, voir moulinent dans le vide).
Résultat j'arrive pas à avoir une production correcte. Si je laisse tout en fréquence usine Milky n'avance pas, si j'OC, quand Dnetc prend le relais il n'avance pas nan plus. :priz2tet:
Lorsque Milky fonctionne en continu j'arrive à faire du 500 K par jour, quand ça coupe dans le journée, je ne suis plus qu'a 350 k maxi.
Ma question est donc la suivante: Est-il possible de faire un script qui se lancerait juste avant le début du calcul de l'UT et qui parametrerait la carte graphique sur les bonnes fréquences ? Ou plutôt un script qui reparametrerait la CG quand il n'y a plus d'UT Milky à calculer sur les fréquences standards et qui lancerait l'Oc avant le basculement sur des UT Milky ?
Pour l'OC j'utilise actuellement les profils de l'outil Overdrive de CCC et pour le voltage MSI afterburner (l'overvolt est à 10% environ).
La carte me servant aussi de chauffage, je préfère quand même quand elle est sous OC. :siflotte:
ps: je dois partir au taff, je pourrais reprendre le fil que ce soir, merci de vos lumières :calin:
-
Ta carte n'est tout simplement pas stable à la fréquence que tu veux lui mettre ... et ca s'explique simplement par un petite expérience.
Met toi à fréquence d'origine, et lance Milkyway. Relève les température des GPU après quelques minutes de fonctionnement.
Refait la même expérience sous dnetc, et fais toi peur ;)
Ceci s'explique par l'utilisation des unités de calcul liés à la complexité de ceux ci : sous dnetc, les calculs sont simples et peuvent utiliser tous les SP de carte. Ceux de Milkyway n'utilisent probablement pas toutes les unités de calcul. (Ne pas se fier au GPU Usage relevé par le CCC ou GPU-Z, il ne reflète pas l'utilisation des unités de calcul mais celle du frontend, c'est à dire la partie du GPU qui gère les IO).
La solution la plus simple est de trouver la fréquence max stable sous dnetc et d'y rester ...
Sinon, avec rivatuner (ou similaire basé dessus comme EVGA Precision ou MSI Afterburner), tu dois pouvoir appliquer des profils de fréquence suivant l'application qui tourne (en te basant sur l'exe de l'appli BOINC).
-
:hello:
Merci pour la réponse.
Effectivement la carte est instable à certains moments.
En fait, j'ai identifié les fréquences maxi pour chacun des projets pour lesquels les projets sont stables et optimum,
mais le problème c'est que ces fréquences ne sont pas les mêmes.
850 / 1250 c'est optimum pour Milky
800 / 1100 c'est optimum pour Dnetc
sauf que je ne suis pas tout le temps devant la machine pour changer les fréquences en fonction du travail.
C'est pour cela que je me demandais s'il n'était pas possible de faire un ptit script qui changerait les fréquences en fonction du travail lancé par Boinc.
Pour voir la différence j'ai laissé depuis 3 jours tout a 850 / 1250, sur les 2 derniers jours il y a eu de la dispo sur Milky tout le temps. Résultat je fais une moyenne de 550 K par jour alors qu'habituellement à 800 / 1200 je dépasse pas 400 K.
Il y a quand même une bonne différence.
Pour les températures GPU c'est bon (-de 80°c, merci la gravure à 40 nm), sur cette carte c'est surtout un étage d'alim d'un des GPU qui est mal foutu et qui prend pas le flu d'air, donc là les 100°c sont très proches, mais j'ai vu sur le net des gus qui tournaient à 120 °c, faut pas toucher à la carte par contre.
-
moi avec ma config (voir signature) au maxi je suis au alentour de 70°C pour ma GPU (ventilo à 40%) et 60°c pour le CPU...
-
Autre conseil : n'OC pas la RAM de la CG, ca apporte quasiment rien en performances GPGPU, et c'est souvent la première chose qui est instable (voir tests sur FAH-Addict pour les chiffres sous FAH).
-
A votre avis, est-ce que avec ma config actuel (voir signature), mon ancienne GTX 260 fonctionnerait ?
-
Toutafé ! :jap:
A partir du moment ou c'est du PCI-Express tout passe !
-
avec une alim corsair TX 650 W en plus de ma GTX 470 ?
-
avec une alim corsair TX 650 W en plus de ma GTX 470 ?
heu non ! pas avec TX 650 W
Il te faut aussi deux PCI-express sur ta carte mère !
Pour l'alim il faut cibler à partir de 800 W pour ce que tu veux faire !
-
ok merci.
On verra d'ici la fin de l'année si je peux acheter une 850W... pour la CM (GA-P55A-UD5) j'ai une autre PCI-express dessus...
-
pour la CM (GA-P55A-UD5) j'ai une autre PCI-express dessus...
Oui je viens de voir ! Tu en as trois :)
Avec ça je pourrais aussi ressortir ma GTX260 et ma HD 4870 du placard :desole:
-
oui 3, si je comprends bien les caractéristiques, d'ailleurs elle fait partie de la moyenne gamme ou haute gamme ?
http://www.gigabyte.fr/products/product-page.aspx?pid=3237#sp (http://www.gigabyte.fr/products/product-page.aspx?pid=3237#sp)
-
Oui mais attention, ça chauffe dur, avec 2 ou 3 CG dans un boitier !
-
C'était juste une idée en l'air d'avoir 3 GPUs.... :siflotte:
-
C'était juste une idée en l'air d'avoir 3 GPUs.... :siflotte:
Avec le boitier que tu as auccun souci pour la chauffe du PC :jap: (Cooler Master HAF 922)
Juste bien ranger les câbles comme il faut pour une bonne circulation d'air
Et bien sur prévoir un grosse alim pour 3 GPU genre 1200 W :siflotte:
Par contre je sais pas si la dernière carte graphique passe avec l'alim en bas ??? je sais pas si elle touche l'alim ou pas selon le ventilo de la carte graphique ??
-
et des sous pour payer l'EDF....
On verra le jour ou j'aurais du taf....
-
et des sous pour payer l'EDF....
On verra le jour ou j'aurais du taf....
Oui c'est sur ! faut des pépètes :lol:
On va rester à notre niveau pour l'instant :siflotte:
-
Tiens j'ai nettoyé mon boîtier (bonjour la poussière qui vient des deux ventilos sur la porte latérale), je vois noté maintenant 1176 GFLOPS peak dans BM alors quand août dernier c'était dans les 700 ????
GPU Core Performance
Single-precision Float: 1.10034e+06 Mflop/s
Double-precision Float: 146496 Mflop/s
32-bit Integer: 585063 Miop/s
24-bit Integer: 584363 Miop/s
-
Oui je viens de voir ! Tu en as trois :)
Avec ça je pourrais aussi ressortir ma GTX260 et ma HD 4870 du placard :desole:
j'aimerais avoir le même placard que toi ! :lol:
-
j'aimerais avoir le même placard que toi ! :lol:
Oui mais elles vont bientôt me resservir ! :D
Je me monte un petit PC de base qui devrait arriver bientôt :love:
-
Je ne sais pas si les adeptes des GPU connaissent cette page???
http://www.macbidouille.com/news/2011/01/18/la-consommation-de-93-cartes-graphiques-passee-au-crible
Ben maintenant.... Oui!!! ;) :D
-
L'art de mettre un lien McB pour un article HFR :D
-
Nouveau driver NVIDIA 266.58 whql
-
Du lourd en approche : Radeon HD6990 et GeForce GTX 590 : bienvenue au pays de la démesure (http://fr.fah-addict.net/news/news-0-425+radeon-hd6990-et-geforce-gtx-590-bienvenue-au-pays-de-la-demesure.php)
-
énormisme....
-
wattagruélique, :pt1cable:
sonorimètres s'abstenir, boules qui yes :gno:
chauffage d'appoint assuré :electric:
va bientôt falloir des boitiers + larges que longs :siflotte:
:D :desole:
-
énormisme....
:bouh:
Quel inventisme! :gno:
-
environs 900 secondes chez moi....
le ti c'est quoi ?
-
Je viens d'investir : GTX 560 ti, installée depuis une heure.
1er résultat, il me faut environ 15 minutes pour cruncher une UT Primegrid Proth Prime Search Sieve 1.38. Température 55° :pt1cable:
environs 900 secondes chez moi....
le ti c'est quoi ?
alors vaut mieux quelle carte ? :siflotte:
-
15 min chez greg et 900s pour Polynésia :cavapabiendantateute:
-
15 min chez greg et 900s pour Polynésia :cavapabiendantateute:
:ptdr: :ptdr:
-
15 min chez greg et 900s pour Polynésia :cavapabiendantateute:
:gno: :gno:
alors vaut mieux quelle carte ? :siflotte:
regarde ce lien : http://www.presence-pc.com/actualite/GeForce-GTX-560-Ti-42295/.... Je préfère la mienne....
-
La grille qui est sur cette carte : cela sert à quoi, à votre avis ?
(http://www.materiel.net/live/128422.jpg)
Carte graphique Gainward GeForce GTX 570 1,25 Go Phantom : 375 euros...
-
10mn10s pour moi par carte gtx 580 evga de base non o/c...et j'en ai 2..
-
Est ce que vous avez des infos sur de nouveaux projets ou applications qui utiliseraient les GPU? car ça stagne un peu je trouve et les projets dispos aujourd'hui sont pas les plus intéressants.
C'est plus dur pour les directeurs de prjets de faire calculer sur des gpus?
-
Il faut surtout trouver des gens qui savent coder pour GPU ... :/
-
Il faut surtout trouver des gens qui savent coder correctement :D
-
:hello:
Certains algos sont bien optimisés pour CPU et stable/reconnus comme tels. Par exemple pour RSA LS tout est CPU car ils utilisent des algos de factorisation qui n'ont jamais été porté sur GPU tandis que tout le monde reconnaît la valeur de ceux qui utilisent le CPU.
C'est plus simple pour eux d'utiliser des trucs connus/maîtrisés/documentés que de se lancer dans le codage de nouveaux algorithme.
-
Vi enfin bon ça dépend du domaine quand même, il y a des sujets relativement nouveaux ou peu explorés où il faut de toutes façons mettre les mains dans le cambouis, et où le rabâchage de formules connues ne suffit plus...
-
La programmation sur GPU pour avoir déjà pratiqué est soumis à tous un tas de contraintes algorithmiques dans l'état actuel des possibilités architecturales, dans l'état actuel le cas ou c'est portable sur GPU est plutôt l'exception que la règle.
-
Il est clair qu'un GPU n'est pas un CPU, c'est un composant ultra spécialisé, les fabriquants (peut-être pas tous seuls d'ailleurs) se sont juste rendu compte qu'il y avait cependant un potentiel de calcul énorme sous-employé quand on ne l'utilise pas pour son usage premier, et y ont donné un accès "généraliste" qui n'en est pas un (contradiction dans les termes) via une interface / langages de programmation forcément limités de part la spécialisation du composant en question.
Si c'était pas le cas, ça serait un CPU.
-
du coup le gpu c'est l'avenir du calcul ou alors les possibilités sont moindre?
-
Sauf s'ils transforment les GPU en CPU elles seront toujours moindre. Mais alors ce seront plus des GPU :D
-
:D
non mais est ce que les projets vont partir sur du gpu en sachant que ça à l'air compliquer à coder mais bcp plus productif ou alors continuer à coder facilement mais produire moins!
En gros est ce que ça vaut le coup de coder pour GPU par rapport à leur puissance de calcul?
Temps codage GPU + Gains temps calcul gpu< = ou > temps codage cpu + Temps calcul cpu?
(oups me voilà parti dans des équations! :D)
-
Une fois encore, si ce que tu veux coder est possible sous GPU, alors a priori oui le gain est très important, mais justement tout n'est pas possible PUISQUE CE N'EST PAS UN CPU !!! :lol:
-
CQFD :D
-
(si quelqu'un repose la même question je pète un cable !!! :rhaa: )
-
:priz2tet:
Je plains les ingénieurs qui veulent mettre cpu et gpu dans le meme processeur...
Et ceux qui vont écrire les applis qui tourneront dessus...
:priz2tet:
-
A venir sous peu :
- les FPU
forumeux power units
ou
floodeur power units
:marcp:
-
Oui mais ça c'est encore plus spécialisé et quasiment impossible à programmer :D
-
:priz2tet:
Je plains les ingénieurs qui veulent mettre cpu et gpu dans le meme processeur...
Et ceux qui vont écrire les applis qui tourneront dessus...
:priz2tet:
C'est pas plus compliqué que ca ...
Par contre, faire une appli pouvant tourner sur les deux de manière transparente, là oui c'est un défi.
-
:hello:
Papier d'une université espagnole à propos des GPU, de nos jours, à quoi s'attendre et des test de leurs «GPU de demain» :
http://www.info-ab.uclm.es/descargas/thecnicalreports/DIAB-11-02-4/DIAB-11-02-4.pdf (en anglais).
Bonne lecture à tous
-
Bien triste nouvelle aujourd'hui pour tous les fières possesseurs de PhénomX4 dont je fait partie ! :(
j'ai demandé à une connaissance Web de faire des tests sur un nouveau AMD Fusion... et pas le plus gros => C-50
bilan, les UT minicollatz sur le GPU se calcule en 2H30 ce qui donne un RAC de 3,3K !!! très proche des 4,5K de mon X4 sur Yoyo/ogr !!! :( (et pour une consommation moindre...)
alors le E-350, risque de devenir assez intéressant a mettre sur Boinc, reste a savoir la conso+chaf du GPU au max (sans les 2 core CPU) !
à mon avis pour un concurrent de l'atom... 5K (au minimum) sur Collatz => :electric:
(et le prix de la CM était le prix d'un X4 l'an dernier... :cry:
:siflotte:
(je cherche à faire tester le E-350 et je vous donne des nouvelles ;) )
-
Salut à tous!!
Après quelques recherches, je n'ai pas trouvé de réponse satisfaisante alors je pose la question directement :
Quel projet serait le plus adapté à une HD5770???
Merci.
-
Si c'est une carte à double précision : primegrid me semble la plus rentable aux crédits.
-
je vais aussi me prendre une 5770 !
après le teste chez le vendeur ( qui a cruncher pour moi :D ) le RAC sur Collatz est légèrement en dessous des 100K
:jap:
-
Collatz, c'est pas rentable en GPU
a mon avis, pour 5770, il faut taper dans du milkyway, dnetc et primegrid
pour du nvidia, primegrid est très rentable :coffeetime:
-
Il y a le rapport de wuprop qui sert a ca, non ???
Pourvu que quelqu'un avec cette carte est deja crunché sur ce projet...
-
Apparemment WUprop te dit le tps d'utilisation GPU mais pas le meilleur rendu projet/GPU pour les crédits!!.
Si je ne me trompe pas, la 5770 est une simple précision donc exit Milky!!
@ RLDF : tu veux dire que collatz c'est mieux en CPU???
Tiens d'ailleurs ça me donne une idée!!!
On pourrait faire un topic ou un post ou une page, je ne sais pas, ou on pourrait indiquer quel projet pour quelle carte (ATI ou nVidia, simple ou double précision, etc...) ainsi que le meilleur rendu pour un même projet mais avec une carte de marque différente (AMD/ATI ou nVidia).
Des avis???
-
Je crois qu'on avait dit :
PG pour nvidia
DnetC pour les ATI.
Maintenant, pour des stats, voir avec nos stats-(wo)men internes..
-
Collatz, c'est pas rentable en GPU
a mon avis, pour 5770, il faut taper dans du milkyway, dnetc et primegrid
pour du nvidia, primegrid est très rentable :coffeetime:
Bonjour,
5770, simple précision, donc pas de milkyway :cry:
je pense que le plus rentable avec une 5770 c'est DNETC, je tourne à 150.000 unités jour avec la mienne : http://fr.boincstats.com/stats/boinc_host_graph.php?pr=bo&id=12497333
-
ok, mais j'aime pas trop DNETC, alors pour moi cela sera PG ou Collatz (Milky aurai pu passer ! :/ )
après le but c'est aussi et surtout de se faire plaisir en crunchant ! ;)
-
Déjà merci de vos réponse!!
PG passe en simple précision??
-
non, ce projet est à double précision :/
-
bon ben voila, Denct ou Collatz... ou un peu des deux ;)
-
... et vu que RLDF dit :
Collatz, c'est pas rentable en GPU
alors en gros j'ai le choix entre DNETC ou.................... DNETC!!! :siflotte: :D
Après mûre et longue réflexion, je pense que je vais choisir DNETC!!! :gniak: :lol: :D
-
nan c'est juste que pour une 5770 tu feras 95K sur collatz et 150K sur Denct (Collatz valeur Augure, Dnect voir plus haut ;) )
après c'est aussi un choix entre toi et tes projets / ton envie !
moi perso je préfère faire 50% de RAC en moins mais cruncher sur un projet que j'aime bien donc se sera Collatz ! :jap:
si près tu es surtout axé RAC et classement alors oui => Dnect ! :bounce:
;)
-
non, ce projet est à double précision :/
L'application OpenCL PPS tourne très bien sur ma 5770 ... mais bon, c'est un code CUDA recompilé pour OpenCL, donc forcément sur ATI, c'est pas des plus efficaces ...
-
pour se faire une idée... tu te souvient des points/jour ? :gniak:
-
30 minutes l'unité (@ 960 MHz) ... à peu près autant qu'une 9800 GTX+ :/
-
C'est maigre ... :(
-
L'application OpenCL PPS tourne très bien sur ma 5770 ... mais bon, c'est un code CUDA recompilé pour OpenCL, donc forcément sur ATI, c'est pas des plus efficaces ...
c'est quoi cette appli PPS, quel projet ?
car je cherche un peu à me diversifier de Collatz/milky...
-
c'est quoi cette appli PPS, quel projet ?
car je cherche un peu à me diversifier de Collatz/milky...
si tu comprends l'anglais : http://www.primegrid.com/forum_thread.php?id=2665&nowrap=true#25709
-
ok thanks, un peu le même style que Collatz en fin de compte, maths pure et recherche de nombres particuliers.
:jap:
-
Nvidia vient de sortir une carte bi-GPU si j'ai bien compris...
(http://www.nvidia.fr/docs/IO/107903/header_productshot1.png)
Découvrez la toute nouvelle NVIDIA® GeForce® GTX 590, la carte graphique DirectX 11 la plus puissante jamais conçue ! Avec un design remarquable intégrant deux GPU GTX 500 à 512 cœurs et un refroidissement exclusif par chambre à vapeur, la GeForce GTX 590 offre des performances haut de gamme avec style.
:love: :love: :priz2tet: :priz2tet: :priz2tet:
Sous boinc cela doit être énormisme....
http://www.nvidia.fr/object/product-geforce-gtx-590-fr.html (http://www.nvidia.fr/object/product-geforce-gtx-590-fr.html)
-
Chambre à vapeur ? on remonte le temps ??? :D
-
N'oubliez pas votre centrale nucléaire personnelle nécessaire à l'alimentation de la carte ... :ange:
-
Et la tronche de madame lors de l'achat, 749€ chez LDLC...
-
pour les calculs vaut mieux la 5990? de toute maniére je prends plus de bi gpu , seulement mono gpu ça consomme trop.
-
C'est clair que c'est du lourd en énergie et en pépétes....
-
+ le bruit, + la chaleur...
bref, à éviter
-
Justement, elle est sensée être moins bruyante et chauffer moins...
-
Justement, elle est sensée être moins bruyante et chauffer moins...
:gniak: :siflotte: :D
-
Pour rappel on trouve la saphire 5870 vapor x pour 199 € :D
-
@prof : surtout que maintenant il faut assurer la relève de :capello:
(RIP)
-
Exact!!! :gniak:
Je me vois bien en redresseur de grammaire et d'orthographe!!! :siflotte: :D
Le pire dans l'histoire, c'est qu'il suffit de laisser le correcteur orthographique en service pour éviter un paquet d'erreurs!!!
-
Le pire dans l'histoire, c'est qu'il suffit de laisser le correcteur orthographique en service pour éviter un paquet d'erreurs!!!
le correcteur de la barre google ?J'ai les extensions pour FF "dictionnaire français" mais cela déconne avec FF4 apparemment, car dans le menu déroulant cela ne me propose pas de mots justement pour une éventuellement correction...
-
Et ça fait pas encore la grammaire... je suis agréablement surpris par le correcteur grammatical de MSW 2007 qu'on a au bureau, ça marche plutôt bien, et il me débusque mes petits fautes d'accord - d'inattention bien entendu :D
-
Je ne pense jamais à utiliser celui de mon Word 2010.... :desole:
J’utilisai Antidote HD mais le plug-in n'est pas encore compatible FF4
-
Les GTX 590, ca fume bien : http://www.pcinpact.com/actu/news/62697-geforce-gtx-590-burn-furmark-video.htm :D
-
oui, mais à cause d'un mauvais pilote...
-
ouai mais c'est la loose extrême de ne pas avoir une protection matérielle quand même :cpopossib:
-
Quel genre de protection ?
-
une simple sonde de température qui coupe l'alim de la carte si ça chauffe trop genre comme sur une bouilloire
-
parce que actuellement c'est le pilote qui fait çà ? ok alors...
-
Sur les cartes AMD, c'est matériel ... au moins c'est moins dangereux pour la carte :)
-
C'est du niveau 1ere année d'électronique les protections en température du matériel. :priz2tet: :o
Là c'est vraiment du grand n'importe quoi marketing, je veux pas de cartes qui vont @ 1 gogol Hertz http://fr.wikipedia.org/wiki/Gogol_%28nombre%29 (http://fr.wikipedia.org/wiki/Gogol_%28nombre%29), mais qui tiennent au moins la garantie constructeur. :blbl: :blbl: :blbl: :cavachier: :rhaa:
-
Heuuuu, tu peux me dire la longueur d'onde de cette fréquence? :pt1cable:
-
C'est du niveau 1ere année d'électronique les protections en température du matériel. :priz2tet: :o
Sauf qu'ici, ce n'est pas un protection en température, c'est une protection contre les pic d'intensité pour les étages d'alim.
Sur ATI, tu as un circuit qui surveille l'intensité qui parcours les VRM. Il autorise X % de dépassement de l'intensité nominale (pour un temps Y ? ca je ne suis pas sur). Si tu dépasse trop cette intensité, le circuit commande au GPU de baisser sa fréquence et/ou sa tension. Sur ATI, le X est réglable de plus ou moins 20% via les Catalyst.
Sur nVidia, je sais pas comment ca marche, mais l'idée doit etre la même, sauf que le circuit de surveillance matériel est remplacé par les drivers ... forcément, c'est moins fiable.
-
ouille çà fait mal.... :gno:
http://www.presence-pc.com/tests/geforce-gtx-590-radeon-hd-6990-23357/
-
Le seul constat c'est qu'elles sont tout aussi inutile l'une que l'autre pour un particulier .
-
Le seul constat c'est quel son tout aussi inutile l'une que l'autre pour un particulier.
Suis entièrement d'accord !
-
Jolie cette carte : http://www.presence-pc.com/actualite/gtx-580-geforce-43428/ (http://www.presence-pc.com/actualite/gtx-580-geforce-43428/)
(http://media.bestofmicro.com/Zotac-GeForce-GT-580,O-L-289893-1.jpg)
Elle doit bien refroidir mais elle prend pas mal de place....
-
C'est bien beau ces gros ventilos, mais ca évacue pas le chaleur hors du boitier ... :/
-
moi j'ai une zotac avec deux ventilos dessus est cela fonctionne pas mal...
-
je pense que totow veut surtout faire remarquer qu'une bonne ventilation de boitier est aussi importante même avec une carte avec un bon ventirad ...
car sinon, on brasse de l'air chaud sur la cg ...
-
Ok alors...
Pas de soucis avec mon HAF 922 à par la poussière que font rentraient les 2 ventilos qui sont sur la porte latérale....
(http://goo.gl/gLjIP)
J'ai trouvé ces filtres : http://goo.gl/lDtLe....
-
J'utilise justement 2 de ces filtres, ils sont très bien !
-
Je viens donc de m'acheter une GTX 560ti et mon alim ne fait que 480 watts !
La question du jour : vais-je griller mon alim avec le GPU en pleine charge sur Primegrid ?
Réponse définitive dans quelques jours quand j'aurai reçu la CG....
-
Pour moi tu vas la grillée.... j'espère que cela n'abimera pas ta GPU ?!
-
Ca dépend du reste des composants
Voir ce type de site qui permet de calculer la consommation d'un PC http://www.extreme.outervision.com/psucalculatorlite.jsp
Calcul vite fait : 488 watts ! :eek:
-
tu n'as plus qu'a UnderClock ton proc ! :D
-
Oui c'est juste mais ça passe il faut donc laisser la machine de base et oublier l'overclock GPU et CPU sinon les watts s'envolent !
Ne pas rajouter des éléments aussi ! comme des disques dur et autres périphériques qui pompes sur l'alim !
-
Il vaut quand meme mieux augmenter la part du budget pour une allim qui tient la route plutot que prendre le risque de griller des composants, ou alors seul l'allim risque de griller ?
-
a ma connaissance, seul l'alim qui sera à ... block ! :siflotte:
sinon tu débranche les ventillos et tu regagneras qq W ! :p
nan mais sérieusement tu as fait ta simulation avec l'OC ? sans OC tu repassera en dessous et les Alim sont en générale assez tolérante ! ;)
-
tu n'as plus qu'a UnderClock ton proc ! :D
J'ai ramené mon Q6600 à sa fréquence de base, et j'ai réduit le voltage au minimum... Bref, c'est plutôt bon pour la conso. Actuellement, en full sur WCG, mon Q6600 est à 50° max... Mais j'ai pas non plus envie de supprimer les ventilos.
Oui c'est juste mais ça passe il faut donc laisser la machine de base et oublier l'overclock GPU et CPU sinon les watts s'envolent !
Ne pas rajouter des éléments aussi ! comme des disques dur et autres périphériques qui pompes sur l'alim !
J'ai un seul disque dur, un modèle "green"Oui c'est juste mais ça passe il faut donc laisser la machine de base et oublier l'overclock GPU et CPU sinon les watts s'envolent !
Ne pas rajouter des éléments aussi ! comme des disques dur et autres périphériques qui pompes sur l'alim !
Est ce que le pc ne risque pas plutôt de s'eteindre automatiquement si l'alim n'arrive pas à suivre ? De toute façon c'est pas une alim à 20 balles (une Seasonic modulaire), j'ai bon espoir qu'elle tienne le coup !
Je dois avoir quelque part chez moi un wattmètre... je verrai bien ce que ça donne avant d'installer la CG...
-
attention au Wattmetre... entre les watts utiles et les watts consommé ! ;)
-
ton alim est suffisante, aucun risque de la griller.
la 560Ti consomme 200 W, disons au max 250 W
http://www.geeks3d.com/20090618/graphics-cards-thermal-design-power-tdp-database/ (http://www.geeks3d.com/20090618/graphics-cards-thermal-design-power-tdp-database/)
tu rajoutes 100 W pour le reste du PC incluant le Q6600 en pleine charge, ça te fait 350 W.
donc ça va aller, en revanche tu es au dessus des 50% de charge, donc à mon avis elle va être un peu bruyante, mais peut-être moins bruyante que la 560ti...
:jap:
-
ton alim est suffisante, aucun risque de la griller.
la 560Ti consomme 200 W, disons au max 250 W
http://www.geeks3d.com/20090618/graphics-cards-thermal-design-power-tdp-database/ (http://www.geeks3d.com/20090618/graphics-cards-thermal-design-power-tdp-database/)
tu rajoutes 100 W pour le reste du PC incluant le Q6600 en pleine charge, ça te fait 350 W.
donc ça va aller, en revanche tu es au dessus des 50% de charge, donc à mon avis elle va être un peu bruyante, mais peut-être moins bruyante que la 560ti...
:jap:
Donc moi Je pourrais changer ma GTX 470 pour une 560 ti ou 570 sans changer ma Cordair TX 650 w ?
-
Tu vas faire quoi du ta GTX470 ??? :siflotte:
-
Tu vas faire quoi du ta GTX470 ??? :siflotte:
Si je change, je la garderais en cas de soucis par contre je pourrais revendre ma GTX 260....
-
J'en ai une aussi dans mon placard :lol: :lol:
-
Donc moi Je pourrais changer ma GTX 470 pour une 560 ti ou 570 sans changer ma Cordair TX 650 w ?
Je dois recevoir ma 560 ti demain, je te donne le résultat demain soir !
Finalement, mon alim est une Seasonic M12 II - 500w
-
c'est ma mienne aussi ! :sun:
elle passe nickel chez moi...
quoi j'ai pas de GPU ??? :siflotte:
-
Donc moi Je pourrais changer ma GTX 470 pour une 560 ti ou 570 sans changer ma Cordair TX 650 w ?
Tout à fait. Mais est-ce vraiement raisonnable ? :pt1cable: :o
Du reste la TX650 est une très bonne alim.
Je dois recevoir ma 560 ti demain, je te donne le résultat demain soir !
Finalement, mon alim est une Seasonic M12 II - 500w
Une très bonne alim.
Pour ma mesure de conso perso, j'utilise un Wattmètre... ça permet de prendre conscience...
-
Tout à fait. Mais est-ce vraiment raisonnable ? :pt1cable: :o
Je verrais çà à la rentrée en voyant le montant de ma prime pour l'emploi.... :desole: les prix auront peut être baissés...
-
c'est ma mienne aussi ! :sun:
elle passe nickel chez moi...
quoi j'ai pas de GPU ??? :siflotte:
Beh si ! ta ton HD 6970 non ??? :siflotte:
-
Beh si ! ta ton HD 6970 non ??? :siflotte:
oui mais comme vous, je la laisse au placard, c'est plus écologique ! :siflotte:
-
Beh non !!!! je m'en sers pour faire cuire mes oeufs et mon steak quand ça crunche !
Faut bien se faire à mangé aussi ! :lol: :p :p :p
-
Euh côté alim aucun soucis, les puissances données par les constructeurs c'est des enveloppes thermiques maxi qu'il ne faut pas dépasser ... en usage courant on est en généra lassez bien en dessous. Et surtout, si l'alim est bonne (marque ok, certification et tout) elle supportent assez bien une utilisation à fond.
Par contre, le rendement max est à 50% d'utilisation donc c'est intéressant de calculer au plus juste. C'est des économies à la fin.
Mon pc soit disant avec 500W de consommation, n'en tire que 350 à la prise avec l'écran, imprimante, routeur, NAS storage, ... donc je conseille vivement l'achat d'un watt mètre (15 EUR) pour ne pas surdimensionner les alims et surtout savoir combien coûte boinc en consommation/an.
-
Euh côté alim aucun soucis, les puissances données par les constructeurs c'est des enveloppes thermiques maxi qu'il ne faut pas dépasser ... en usage courant on est en généra lassez bien en dessous. Et surtout, si l'alim est bonne (marque ok, certification et tout) elle supportent assez bien une utilisation à fond.
Par contre, le rendement max est à 50% d'utilisation donc c'est intéressant de calculer au plus juste. C'est des économies à la fin.
Mon pc soit disant avec 500W de consommation, n'en tire que 350 à la prise avec l'écran, imprimante, routeur, NAS storage, ... donc je conseille vivement l'achat d'un watt mètre (15 EUR) pour ne pas surdimensionner les alims et surtout savoir combien coûte boinc en consommation/an.
donc tu dépasses le rendement max de ton alim ? 350 W au lieu de 250W...
Avec ma config je dois être au alentour des 325W (donc 50%).... enfin je penses.... (tour (CM, GPU, CPU, DDs), écran, routeur)
-
Un alim certifiée 80+ doit avoir un rendement supérieur à 80% sur toute sa plage d'utilisation ... pensez-y.
Quelle que soit l'alim, les rendements optimaux se situent généralement entre 50 et 80% de charge.
-
Un alim certifiée 80+ doit avoir un rendement supérieur à 80% sur toute sa plage d'utilisation ... pensez-y.
Quelle que soit l'alim, les rendements optimaux se situent généralement entre 50 et 80%.
On doit donc être aux alentour tout le temps des 80 % ?
Tu penses que moi je suis vers où avec ma config ?
-
Bonjour,
J'ai une ATI Radéon HD3850 AGP.
Est-ce que je peux m'en servir pour calculer quelque chose ou pas ?
-
Milkyway, Collatz, DNETC, MooWraper et PrimeGrid fait ton choix.
-
Milkyway, Collatz, DNETC, MooWraper et PrimeGrid fait ton choix.
Parfait.
Je calcul sur Chess960 mais aussi su Dnetc. Comment régler le bouzin pour que Dnetc soit calculé par la carte vidéo et Chess par le proc ?
-
Dans ton compte DNETC dans "Préférences de DNETC@HOME" décoche "Utiliser le CPU" et tu n'auras que des WUs pour le GPU
-
Dans ton compte DNETC dans "Préférences de DNETC@HOME" décoche "Utiliser le CPU" et tu n'auras que des WUs pour le GPU
Oui tout à fait !
Il faut aussi cocher ATI GPU :jap:
-
Impeccable, merci à vous deux.
La case GPU était déjà cochée, j'ai décochée celle concernant nvidia et celle pour le CPU, comme ça chaque élément à son calculateur.
Merci ! :D
-
Quelques conseils pour mieux régler sa GPU AMD/ATI : http://goo.gl/cXwrX
-
J'ai bien ri en lisant ce truc ... :lol: :lol:
-
une question !
pour cruncher sur ATI sous ubuntu server, il faut que j'instal le bureau ?
-
:hello:
Non je crois pas ! par contre il faut installer Xorg et le pilote ATI il me semble ?
-
c'est ce qu'il me semblai... mais je voulais pas bouffer des ressources pour rien avec une interface grafic ! :/
peu etre qu'une interface "unity" des plus simple ne bouffe pas trop de ressources... de toute facon je me tattais pour mettre une interface quand même des fois que ma femme veuille l'utiliser un jour (le NAS-HTPC) !
merci de ta confirmation ! :jap:
-
c'est ce qu'il me semblai... mais je voulais pas bouffer des ressources pour rien avec une interface grafic ! :/
peu etre qu'une interface "unity" des plus simple ne bouffe pas trop de ressources... de toute facon je me tattais pour mettre une interface quand même des fois que ma femme veuille l'utiliser un jour (le NAS-HTPC) !
Euh, il t'a dit xorg, il a pas dit gnome ...
avec unity tu auras beaucoup plus que simplement xorg ....
et si tu veux vraiment quand même une interface gui, je pense que fluxbox, lxde ou e17 sont plus légers que unity qui, en plus, a besoin de l'accélération 3d pour gérer surtout de la transparence et des effets ...
-
Oui tout à fait Jip je me suis mal exprimé :jap:
Tu as bien résumé :jap:
-
et si tu veux vraiment quand même une interface gui, je pense que fluxbox, lxde ou e17 sont plus légers que unity qui, en plus, a besoin de l'accélération 3d pour gérer surtout de la transparence et des effets ...
lxde, e17 franchement pas terrible comme nom...
-
lxde, e17 franchement pas terrible comme nom...
Beh c'est pas tant le nom qui compte mais surtout l’efficacité très légère des interfaces cités
-
Beh c'est pas tant le nom qui compte mais surtout l’efficacité très légère des interfaces cités
ouaip... :(
-
lxde, e17 franchement pas terrible comme nom...
bon critère technique ça ...... :siflotte: :D :D :D :D
-
Et xfce, tu en pense quoi comme nom ........poly :D :kookoo:
-
Et xfce, tu en pense quoi comme nom ........poly :D :kookoo:
encore pire....
-
... autrement sympa le logo.
(http://upload.wikimedia.org/wikipedia/commons/thumb/f/fb/Xfce_logo.png/150px-Xfce_logo.png) (http://fr.wikipedia.org/wiki/Xfce)
-
encore pire....
:lol: :lol: :lol:
-
... autrement sympa le logo.
(http://upload.wikimedia.org/wikipedia/commons/thumb/f/fb/Xfce_logo.png/150px-Xfce_logo.png) (http://fr.wikipedia.org/wiki/Xfce)
ouais ! et ça aussi, c'est important .... :lol: :lol: :lol: :lol:
-
ouais ! et ça aussi, c'est important .... :lol: :lol: :lol: :lol:
Aussi important que ton commentaire... :spamafote:
-
Aussi important que ton commentaire... :spamafote:
c'est clair c'est dans le ton des derniers posts ..... :D
-
Et xfce, tu en pense quoi comme nom ........poly :D :kookoo:
Le nom originel de Xfce signifiait XForms Common Environment, mais depuis, Xfce a été réécrit deux fois et n'utilise plus le toolkit XForms. Le nom est resté, mais n'est plus capitalisé tel que « XFce », mais « Xfce ». Actuellement l'acronyme ne signifie rien. (Suggestion : X Freakin' Cool Environment)
-
'tite question à la con :D... est-il possible de cruncher avec un chipset ATI Radeon HD 4290 sous Ubuntu 64 bits. :desole:
-
Vu la bouse, ca vaut même pas le coup de s'embêter je pense :siflotte:
-
Bonjour :hello:
je suis sous boinc depuis pas mal de temps mais j'avais abandonné quelques année à cause entre autre a mon ancien pc préhistorique !
Depuis un mois je m'y suis remis, ma question est j'ai deux 5770 en CF, je suis obligé dans les préférences d’arrêter les calcul GPU en utilisation car il y a trop de ralentissement enfin c'est même utilisable lorsque les deux GPU sont en burn (j'ai pris Collatz et PrimeGrid chacun a son GPU) ça monte a 62 et 57°, alors ma question
Est il possible de régler l'utilisation des CG pour ne pas qu'elle saturent lorsque je surf, office ... et en burn en idle ? dans le fichier conf de boinc peut être ?
Merci :ange:
-
euh.... à part arrêter un des 2 projets pendant que tu bosses sur ton PC ou baisser les fréquences, je ne vois pas....
-
Bonjour :hello:
je suis sous boinc depuis pas mal de temps mais j'avais abandonné quelques année à cause entre autre a mon ancien pc préhistorique !
Depuis un mois je m'y suis remis, ma question est j'ai deux 5770 en CF, je suis obligé dans les préférences d’arrêter les calcul GPU en utilisation car il y a trop de ralentissement enfin c'est même utilisable lorsque les deux GPU sont en burn (j'ai pris Collatz et PrimeGrid chacun a son GPU) ça monte a 62 et 57°, alors ma question
Est il possible de régler l'utilisation des CG pour ne pas qu'elle saturent lorsque je surf, office ... et en burn en idle ? dans le fichier conf de boinc peut être ?
Merci :ange:
:kookoo:
Bienvenue sur le forum de l'AF!
-
Collatz tu peux utiliser un app_info.xml et jouer sur la valeur de w dans <cmdline> </cmdline>, en mettant un flottant supérieur à 1 ça va réduire le taux d'utilisation de ta CG.
-
Sinon, le plus simple comme la dit Polynésia c'est dans :
Avancé -> Préférences -> utilisation processeur
décocher la case "utiliser le GPU quand l'ordinateur est utilisé
Seulement quand l'ordinateur est en veille depuis x,xx minutes"
Je le fait, ça marche bien.
-
Au taf j'utilise la même recette que Hildor autrement impossible de bosser. :gno:
-
N'empèche sous BOINC, quelle que soit l'appli ou le GPU, je trouve que ca rend la machine inutilisable :(
Alors que sous FAH, ca m'est jamais arrivé :D
-
N'empèche sous BOINC, quelle que soit l'appli ou le GPU, je trouve que ca rend la machine inutilisable :(
Alors que sous FAH, ca m'est jamais arrivé :D
Pas chez moi... à part si l'appli bug ou si elle prend trop de ram...
-
Cela dépend surtout de la puissance du GPU.
Moi avec une GTX275, c'est seulement avec PrimeGrid que je suis obligé d'utiliser cette méthode
et c'est également avec ce projet que le GPU chauffe le plus.
Logique, le GPU est en charge à pratiquement 100% avec ce projet, contrairement aux autres.
-
Bonjour,
je viens vers vous pour une info. Je regarde depuis quelques temps les cartes graphiques d'occasion et je suis tombé sur la GTX 295 avec un bi GPU (puissance de calcul théorique entre une GTX 470 et une GTX 480 !!)
Comme la carte a pas l'air trop à la mode (295 pfff trop nul :D) je vais peut etre chercher un peu dans les annonces et en prendre une.
J'aurai voulu savoir si un dual GPU est traité par toutes les appli GPU des projets?
AUssi si je peux faire tourner deux projets GPU sur la meme carte ou si c'est automatiquement deux unités du meme projet qui sont traitées en meme temps ? Pour l'instant le mieux que je sache c'est dans ce comparatif (http://forum.boinc-af.org/index.php/topic,2171.msg222390.html#msg222390). (J'ai un processeur dual core qui va avec)
Merci d'avance :kookoo:
-
combien de points je peux espérer par jour avec une ati 4350 ? (sur collatz, primegrid, milky ?)
-
avec mon ati 2350, je fais 3000-4000 points par jour sur Collatz.
-
combien de points je peux espérer par jour avec une ati 4350 ? (sur collatz, primegrid, milky ?)
Je sais pas si elle est double précision ??
Tu pourra peut-être pas faire de Milky :spamafote:
-
combien de points je peux espérer par jour avec une ati 4350 ? (sur collatz, primegrid, milky ?)
J'en ai une, sur Collatz il lui faut 1H30 pour une Mini Collatz (375 points). Elle n'est pas double précision, dont pas de Milkyway pour elle, et j'ai pas testé sur PrimeGrid, mais je doute que ce soit très efficace :(
-
Bonjour,
je viens vers vous pour une info. Je regarde depuis quelques temps les cartes graphiques d'occasion et je suis tombé sur la GTX 295 avec un bi GPU (puissance de calcul théorique entre une GTX 470 et une GTX 480 !!)
Comme la carte a pas l'air trop à la mode (295 pfff trop nul :D) je vais peut etre chercher un peu dans les annonces et en prendre une.
J'aurai voulu savoir si un dual GPU est traité par toutes les appli GPU des projets?
AUssi si je peux faire tourner deux projets GPU sur la meme carte ou si c'est automatiquement deux unités du meme projet qui sont traitées en meme temps ? Pour l'instant le mieux que je sache c'est dans ce comparatif (http://forum.boinc-af.org/index.php/topic,2171.msg222390.html#msg222390). (J'ai un processeur dual core qui va avec)
Merci d'avance :kookoo:
:hello:
je ne connais pas la gtx 295, mais mon expérience est la suivante :
j'ai crunché en dual GPU ATI (crossfire donc) l'an dernier, et j'ai préféré arrêter :
- il m'a fallu parfois un peu bidouiller pour que les deux GPU soient reconnus par BOINC et donc dispo au crunch (merci les dummy plug)
- un coeur est à 100% mais l'autre n'est qu'a 80 - 90%
ensuite, je te suggère de prêter attention au rapport puissance de calcul / conso électrique des cartes.
la GTX 295 consomme 290 Watt
la GTX 470 consomme 220 Watt
(comparatif TDP (http://www.geeks3d.com/20090618/graphics-cards-thermal-design-power-tdp-database/))
En effet la 295 est gravée en 55nm, contre 40 nm pour la série 4xx, il y a donc un retard technologique de la 295.
Donc, même si le prix d'achat est plus intéressant, il faut mettre en balance, sur le moyen/long terme :
- le surplus de conso électrique que cela va engendrer (1 W en H24 = 1 € par an environ)
- le dégagement thermique supérieur qu'il va falloir évacuer
- le bruit (si tu n'est pas en watercooling et que tu crunches beaucoup)
:jap:
-
Merci SuperSnoopy pour ton post. :jap:
ça explique pourquoi il y si peu de dual gpu, je vais pas courir apres cette carte.
Apres je cible vraiment par rapport à perf/prix, la carte qui s'invitera chez moi sera celle la. Ya quand meme de grande chance que ce soit une gtx460 ou une 8800GTS 512Mo en passant par une GTS 450 :pt1cable:
Bref merci pour les infos :):)
-
:hello:
Oups !! j'avais loupé ton post Kasur :desole:
Je pense que la GTX 560 ti a un bon rapport prix/perf pour BOINC !
Il faut compter dans les 180Euro neuve mais tous dépend de ton budget :gniak:
On commence à trouver aussi des HD 5870 pour 160Euro mais là ça dépend aussi des projets sur lesquels tu veux cruncher !
A voir .
-
Bonjour Nico8313
J'ai une config plutot ancienne alors je pensai a un truc plutot ancien, quand j'ai vu que PCI-E 2 était posable sur PCI-E 1 avec perte de puissance je me suis dit que je pourrait en prendre une moins ancienne qui servirait de "deuxieme" si je me faisait une vrai config plus tard. Je penche plutot pour nvidia, seti ça ne s'explique pas :siflotte: Le budget pour une "seconde" une centaine d'euro, pour une carte qui resterai avec mon ancienne config, 50e.
Je fais mes calculs perf/prix, avec le perfs théoriques calculées comme ça: nb unités de traiment * fréquence des unités / 500 = x gFlops
Je veux pas payer plus de 1€ les 10 gFlops, vu qu'il y a des offre complète en neuf avec garantie à 7gFlops pour 1€
-
Pour la norme 2.0 ou 1.0 du PCI-E pour BOINC ça change rien ! c'est surtout valable pour le jeux vidéo en terme de frame
Et oui pour séti le mieux c'est une Nvidia :jap:
Sinon dans les 100Euro la GTX 460 semble mieux te convenir je pense ?
Bon après on peut trouver mieux en occasion sans doute !
-
Salut,
j'ai eu une gtx460 à 70€ avec les frais, la personne en avait plusieurs elle doit etre neuve tombée du camion :)
Merci pour vos conseils.
-
http://fr.wikipedia.org/wiki/Recel
:siflotte:
-
:kookoo:
Je l'ai eu en enchère sur eBay, je pense plus que la personne à réussi à acheter un lot à un grossiste ou à un déstockage ;)
Pas envie de me faire confisquer la carte pour l'enquête, et de me déplacer à un commissariat à l'autre bout de la France pour faire un PV...
-
ça y'est j'ai branché mon ati 4350, cela me fait donc 1 ati 4870, 1 nvidia 8600gt et 1 ati 4350
windows me détecte bien les 3 cartes, par contre boinc ne me détecte pas la 4350 ? une idée ? le catalyst control center ne m'en montre qu'une seule, la 4870
-
Je pense que la 4300 est trop vieille pour boinc et catalyst.
la nv 8800 est limite mais elle passe.
j'ai le meme pb avec ma nv 7600gs qui ne passe pas sur boinc, juste ok pour l'affichage...
-
non elle n'est pas trop vieille, certains calculent avec, mais chez moi boinc ne la détecte pas, windows oui
-
ma nv 7600gs qui ne passe pas sur boinc, juste ok pour l'affichage...
Normal, CUDA n'est supporté qu'à partir des séries 8000 chez nVidia ...
-
Ooi , je sais, c’était pour donner un exemple de 'vieille" carte
mais je ne suis pas un specialiste des ATI...
-
Bah pour les ATI, c'est à partir des HD 2000 qu'on peut faire du GPGPU.
-
Merci pour l'info :jap:
-
Hi everybody,
Je prévois de faire cruncher un GT210 sur un celeron? Est-ce que cela vaut le coup?
Alim de 350W? la CG nécessité 300W...mais les spécificités du manuel précisent mini un C2D ou 2xAthlon, tente-te je?
Bon je peux peut être un GT220 mais ce coup ci GREEN EDITION mais 512mo / 1 Go GDDR2 ou 3.
Dans le cas du crunch, ça n'a pas bcp d'importance, n'est-ce pas?
-
Bonjour,
J'ai regardé la G210 (pas trouvé GT 210), a priori elle a la puissance de calcul théorique d'un Intel Core 2 Quad moyen (44 Gflops), à toi de voir.
La GT220 a, toujours d'après les chiffres, la puissance théorique d'un bon i7 (130 Gflops).
Pour info une GTX 460 normale à 906Gflops théorique.
Je pense comme toi que la RAM n'a pas d'importance.
A plus
-
Pourquoi pas ...
J'ai bien une nv 9800GT qui tourne avec 256Mo de Ram sur une de mes machines
Il y a juste quelques projets en gpu qui demande 512Mo mais tu auras un message qui te dira qu'il ne peux pas t'en donner, de WU.
La ram des CG c'est plutôt pour les jeux et/ou les hautes résolutions.
Bon courage.
-
J'aime bien le "bon courage" pour tous ceux qui se lancent dans le GPU :D
-
Bah, à part que ça consomme à max et que tu a l'ismpression de travailler dans une soufflerie ... :gno:
-
Ca, avec l'iMac à 100% tout le temps, c'est déjà fait :D
-
Le GPU est rarement le meilleur rapport perf/conso en GPGPU :(
-
Heu l'énorme de différence de RAC qu'on voit avec les GPU par rapport au CPU, tu veux dire que tu consommes x10 ou x100 ??
-
Ben un gros GPU (genre 6970 ou GTX 580) flirte alègrement avec les 300W de conso ... et si tu lui file un calcul suffisament complexe, et sans cheater les points comme la plupart des projets BOINC, c'est pas intéressant ...
Je reste un fervant défenseur du calcul sur grosses machines (hum bon dual xeon bien OC) :D
-
Sur la fiche éco de l'imac 27p de fin 2009, ils disent qu'il consomme 150W en idle / écran allumé... donc à 100% de CPU je me demande à combien ça monte, mais on doit plus être bien loin du GPU là non ?
-
Jerome, le wattmètre (http://www.cohabiter.ch/dossiers/index.php?art=73) est ton ami. :p
-
d'où l’intérêt de bien choisir son GPU avec ces 3 critères majeurs
1- le plus puissant
2- le moins gourmand
3- le moins cher
ensuite viennent le bruit du ventilo, la température, la taille du PCB et le nombre de slots utilisés :coffeetime:
petits graphs bien pratiques : http://www.hardware.fr/articles/784-11/rapport-performance-consommation.html (http://www.hardware.fr/articles/784-11/rapport-performance-consommation.html)
-
d'où l’intérêt de bien choisir son GPU avec ces 3 critères majeurs
1- le plus puissant
2- le moins gourmand
3- le moins cher
ensuite viennent le bruit du ventilo, la température, la taille du PCB et le nombre de slots utilisés :coffeetime:
petits graphs bien pratiques : http://www.hardware.fr/articles/784-11/rapport-performance-consommation.html (http://www.hardware.fr/articles/784-11/rapport-performance-consommation.html)
Dommage que le dossier du lien n'ai pas été mis à jour :/
-
pour démarrer gpugrid, il y a 3 ans, j'avais choisi des 9800GTX et 9800GTX+
pour me lancer dans milkyway, il y a 2 ans, j'avais choisi des radeons4770
finalement c'était le bon choix :)
-
Jerome, le wattmètre (http://www.cohabiter.ch/dossiers/index.php?art=73) est ton ami. :p
C'est beaucoup moins cher que ce je pensais, tu crois que c'est bien un machin comme ça (http://www.google.fr/products/catalog?q=acheter+wattm%C3%A8tre&hl=fr&prmd=ivnsfd&bav=on.2,or.r_gc.r_pw.&biw=1116&bih=850&um=1&ie=UTF-8&tbm=shop&cid=12100791227834456909&sa=X&ei=OYwATpmgK4qE-wbumZTuDQ&ved=0CFwQ8wIwAQ) ?
-
Les enfants, c'est quoi les plus petites cartes qui crunchent pour milkyway chez ATI ?
3450, 5450 etc...
Vs sauriez a peu le nb de points par jour?
Merqui
en fait, la puissance max dispo est de 350W....
-
Les "plus petites" ça doit être la série des 38xx, ceux que citent sont pas compatibles avec milkyway.
-
DONC AU-DESSUS, c'est bon ou faut chercher le "double précision" absolument?
Certaines cartes sont seulement compatibles opencl...
5450 ok?
Damned ds tous cas les mini 400W.... :/
-
Non tous ce qui est au dessus est pas bon oui faut absolument la double précision voila la liste pour ATI:
AMD Radeon 6990
AMD Radeon 6970
AMD Radeon 6950
ATI HD Radeon 5970
ATI HD Radeon 5870
ATI HD Radeon 5850
ATI HD Radeon 5830
ATI HD Radeon 4890
ATI HD Radeon 4870
ATI HD Radeon 4850
ATI HD Radeon 4830
ATI HD Radeon 4770
ATI HD Radeon 4830
ATI HD Radeon 38x0
ATI Firestream 9270
ATI Firestream 9250
ATI Firestream 9170
-
merci bcp cedric, ça c'est du rapide!
-
Salut,
je passe ici tardivement pour signaler que grosbill fait une promo sur une GTX 460 à 90€. Exactement 92.95€ au comptoir, pour 907 TFlops le rapport qualité/prix en neuf est au top.
Soldes GTX 460 768 Mo carte graphique GAINWARD à prix discount (http://www.grosbill.com/4-gainward_gtx_460_768_mo-121552-informatique-nvidia)
:kookoo:
-
89,95€... dernier prix. :D
-
quel sont les projets compatible avec amd ati actuellement? je vais me racheter une ptite cg biento la hd 4870 , comme au bon vieux temps , je suis passé par la hd 4870 . 4870x2 , la 5970 ( oué quand même lol) , et la j'ai une malheureuse hd 3850 , alors pour 50 euros frais de port inclu je me la rachete... ça fera toujours 70 000 pts supplémentaire , je tourne autour de 18000 pts avec freehal en ce moment. (freehal- mersenne - malaria)
-
Projects with NVIDIA applications:
AQUA@home (CUDA offline)
Collatz Conjecture (Windows and Mac OS X on Intel)
DistrRTgen (Windows, Linux 64bit)
DNETC@Home (Windows, Linux 32bit, Linux 64bit )
Einstein (Linux, Windows and Mac OS X on Intel)
GPUgrid.net (Linux 64bit and Windows)
Lattice (Coming soon)
Milkyway@home (Double precision GPU required, so compute capability 1.3 or higher, meaning a GForce GTX 260 or better) (Linux 64bit and Windows)
Moo! (Driver 256.00 or better, Compute Capability 1.0 or higher, Minimum device memory 64MB - http://moowrap.net/forum_thread.php?id=16)
PrimeGrid (Proth Prime Search (Sieve), Linux 32bit, Linux 64bit Windows and Mac OS X on Intel; Cullen/Woodall Prime Search (Sieve), Linux 32bit, Linux 64bit, Windows and Mac OS X on Intel)
SETI@home (Windows, Gnu/Linux)
SETI@home Beta (Windows only)
Projects with ATI applications:
Collatz Conjecture (Windows, Windows 64bit, Linux 64bit)
DNETC@Home (Windows and Linux 32bit)
Milkyway@home (Double precision GPU required, so a Radeon HD 38xx, 48xx, 47xx, 58xx, 69xx, FirePro V87xx, FireStream 92xx) (Windows, Gnu/Linux)
Moo! (Driver v10.4 or later, ATI Runtime (not older AMD), Minimum device memory 250MB - http://moowrap.net/forum_thread.php?id=16)
PrimeGrid (Proth Prime Search (Sieve), Linux 32bit, Linux 64bit and Windows)
SETI@home Beta (Windows only)
-
:kookoo: Salut Snoop
Juste une petite rectification :siflotte:
Pour SETI@home ça marche aussi avec Nvidia sous Gnu/Linux
et pour Milkyway ça marche aussi sur Gnu/Linux avec Nvidia et ATI(AMD) dans les mêmes conditions de doubles précisions pour les cartes
http://boinc-af.org/projets-astronomie/1273-milkywayhome-applications-optimises.html
:jap: :jap:
-
Bien utile (dommage qu'il manque les derniers projets et peut-être aussi le filtre opencl) :
- ati : http://statsbzh.boinc-af.org/statut_projets.php?pf=atigpu&
- nvidia : http://statsbzh.boinc-af.org/statut_projets.php?pf=nvidiagpu&
-
Si on devait classer par interet scientifique des calculs sur ATI :
Milkyway
Collatz
SETI
Moo Wrapper
-
merci , c'est bon j'ai commandé une petite hd 4870 sur cdiscount ( neuve) un petit peu de point en plus pour les EDLS et l'af... ( 70 k pour l'af lol)
-
Ouf !!! c'est bon ! il a pas prit un Nvidia ! sauvé :D :D :D :lol:
:p :p :p
-
never N' shit'A ^^ nan ya que quand j'étais plus jeune que j'avais des nvidia comme la 8600 gts ensuite j'ai toujours pris AMD
-
never N' shit'A ^^ nan ya que quand j'étais plus jeune que j'avais des nvidia comme la 8600 gts ensuite j'ai toujours pris AMD
:D
De toute façon ça dépend du projet que tu aime en priorité avant les points non ??
Perso je choisis Nvidia en ce moment car je compte me remettre à Gpugrid ! Il fait tourner des projets qui luttes contre le HIV et des maladies de cancers ! c'est important je trouve :jap:
-
oui gpugrid je le faisais avec ma 8600 gts avant ( j'ai à peine 7000 pts dessus) , oué c'est important enfin plus que freehal XD
-
oui gpugrid je le faisais avec ma 8600 gts avant ( j'ai à peine 7000 pts dessus) , oué c'est important enfin plus que freehal XD
Oui c'est vrai ! mais Freehal tu peux le laisser tourner en parallèle avec d'autres projets et l’oublier car c'est un projet non-intensif :D
-
oué freehal c'est cool pour ça ;punaise ma hd 3450 fait 32 gflops contre 1200 gflops pour la hd 4870 , soit 25 cg hd 3450 , je viens d'arreter de cruncher avec la hd 3450 ( finalement pour 2000 à 3000 pts / jours ça vaut pas le coup) , je recevrais la carte mardi ou mercredi , parcontre c discount sont pas logique ils vendent des vieillent carte comme la 3450 aussi cher que la 4870...
-
Alors vivement que tu reçoives ta HD 6990 !!
Ah ??? j'ai mal lu ?? :siflotte:
-
:kookoo: Salut Snoop
Juste une petite rectification :siflotte:
Pour SETI@home ça marche aussi avec Nvidia sous Gnu/Linux
et pour Milkyway ça marche aussi sur Gnu/Linux avec Nvidia et ATI(AMD) dans les mêmes conditions de doubles précisions pour les cartes
http://boinc-af.org/projets-astronomie/1273-milkywayhome-applications-optimises.html
:jap: :jap:
:jap: j'ai modifié mon post en te faisant totalement confiance à ce sujet ;)
-
pour 300 euros en occaz l'année prochaine si je touche un peu d'argent , la c'est chaud en ce moment si je suis pris en BP4 amenagement paysagers pourquoi pas( 53% du smic debut de la richesse lool), je me referai un ordi de plus , je passerai à 3 pc. ( 2 i7 860 + q6600) , j'ai deja la tour vide... , j'ai hâte. le mini en carte mere , le mini en cg ( la hd 3450 reservira^^) , le mini en disque dur et le mini en ram, pour pas exploser le budget. entre 300 et 400 max c'est tout à fait possible je pense. ils enfenteront ptete des gpu qui sais. Allez bon calculs soyez sage.
-
A la vitesse ou ca va , l'année prochaine tu auras du neuf pour ce budget...
-
je trouve que question cpu ça baisse pas si vitte que ça, c'est en gpu que la baisse va le plus vitte. mon i7 860 n'a pas tellement perdu de valeur depuis quelques temps.
-
Je disais ca pour une config complète:
ecran 3d
blu-ray inscriptible
hd
gpu
ram
boitier
cm
imprimante laser couleur, etc...
-
lancement de ma hd 4870 dans quelques minutes :hello: petit comme back gpu personnel ça faisais longtemps.
-
Bon retour au club Sam ! ;)
-
merci lapy :smak:
-
+1
-
lancement de ma hd 4870 dans quelques minutes :hello: petit comme back gpu personnel ça faisais longtemps.
Primgrid pour ati c pas top , avec ta 4870 tu fera bcp bcp plus avec DNETC@HOME :sun:
-
oué j'attend d'avoir quelques badges améliorer sur primegrid apres j'irai sur dnetc , en fait ce qui font beaucoup de points sur primegrid ont une nvidia?
-
Viens plutot sur Moo Wrapper ... c'est comme DNETC, mais en moins louche ...
-
en fait ce qui font beaucoup de points sur primegrid ont une nvidia?
Tout a fait. :jap:
Dans mon cas, j'ai 2 GTX570 qui donne 800k/j en gros depuis la baisse des credits. (Avant c'etait 1m/j)
-
Viens plutot sur Moo Wrapper ... c'est comme DNETC, mais en moins louche ...
+1+1
-
Tout a fait. :jap:
Dans mon cas, j'ai 2 GTX570 qui donne 800k/j en gros depuis la baisse des credits. (Avant c'etait 1m/j)
a oué c'est pas donné comme carte mais ça paye en credit!
je viens de me commander une Carte mère Asus P8P67-LE (Rev. B3) sur rue du commerce pour me faire un nouveau pc à base de 1155 pour i7 2600 k... chipset fait pour l'oc mais pas pour la cg intégré ça je m'en fou.
-
EDLS en force...
-
ELDS en force...
T'as changé de MT... :pt1cable:
-
:warf:
-
ça fait un moment oui
-
Tout a fait. :jap:
Dans mon cas, j'ai 2 GTX570 qui donne 800k/j en gros depuis la baisse des credits. (Avant c'etait 1m/j)
J'arrivais jusqu'à 1.6M avec 2 gtx580 avant le changement...
-
alors mon nouveau pc que je recevrai la semaine prochaine :
Processeur Intel Core i7 2600K (3.4 GHz)
Kit Dual Channel DDR3, 2 x 2 Go, PC3-12800, CAS9, Ripjaws, G.Skill
Ventirad pour processeur Contac 29BP, Thermaltake
Disque dur Seagate Barracuda 7200.12, 500 Go
Carte mère Asus P8P67-LE (Rev. B3)
Alimentation Corsair Gaming Series GS700 - 700W - 80+
:ange: :ange: :ange:
-
Kit Dual Channel DDR3, 2 x 2 Go, PC3-12800, CAS9, Ripjaws, G.Skill
En RAM c'est a peine suffisant
-
? c'est trop?
-
tu peux rajouter 2 barrettes de 2 go....
-
mon pc actuel à 2 go et ça passe vous deconnez? ça sert a rien de mettre 6 ou 8go Oo
-
? c'est trop?
Pas assez
Sur mon i7 j'ai 8Gio et je suis a l'etroit
Avec 12Gio cela devrait aller; Mais bon c'est que mon humble avis :kookoo:
-
On peut compteur 2Go / core (physique et logique), c'est bien ça ?
soit (4 +4) * 2 = 16 Go ?
-
mon pc actuel à 2 go et ça passe vous deconnez? ça sert a rien de mettre 6 ou 8go Oo
Sur certains projet, il faut pas mal de ram... en plus comme tu as pris un 2600k tu dois avoir 8 coeurs ?
Donc si par exemple, tu as 8 unités de 500 mo cela te fait déjà 4 go, là dessus tu rajoute le reste de ton system.... :desole:
-
j'ai deja un i7 860 avec 2 go je sais bien de quoi tu parles ça ram sur certain projet mais globalement ça va. en + avec windows vista lol
-
tout dépend du pc, des projets et de l'utilisation !!! ;)
mon AthlonX4 à aussi 4Go et s'en sort les doigts dans le nez !
utilisation :
Yoyo (par 4 unités OGR)
Ubuntu
retouche photo
et je suis pas sur qu'avec tout cela je dépasse les 3Go ! :jap:
-
la plupart des projets boinc commencent a bouffer pas mal de ram (lattice, rosetta, evo, burp, cpdn, ibercivis, superlink, virtualprairie, yoyo), il faut 1Go/core minimum
je conseille fortement les 8Go pour 8 coeurs même si les autres projets sont moins gourmand, ça peut toujours servir pour les actions sur les projets gourmands :o
-
la plupart des projets boinc commencent a bouffer pas mal de ram (lattice, rosetta, evo, burp, cpdn, ibercivis, superlink, virtualprairie, yoyo), il faut 1Go/core minimum
Sans oublier neurona@home
-
la plupart des projets boinc commencent a bouffer pas mal de ram (lattice, rosetta, evo, burp, cpdn, ibercivis, superlink, virtualprairie, yoyo), il faut 1Go/core minimum
je conseille fortement les 8Go pour 8 coeurs même si les autres projets sont moins gourmand, ça peut toujours servir pour les actions sur les projets gourmands :o
Même à 8Go, tu ne fais pas tourner BURP ... :eek:
-
j'essairai de faire passer mon i7 860 de 2 go à 8 go et mon i7 2600 k ( il arrive) de 4 go à 8 go... j'irai pas au dessus de 8 go ^^. j'ai peur j'ai quasiment tout commandé sur top achat à part l'alimentation et arff c'est mal réputé , je croise les doigts! j'ai lu les avis des clients apres la commande XD , ps: j'en profite comme quelqu'un à cité virtual prairie ce projet est mort non? plus de taf depuis un moment.
-
Attention à la capacité de la CM en ram maxi, peut être mettre 2 barrettes de 4 go en plus pour ne pas bloquer tous les emplacements avec du 2 go.
J'ai pas vu la ou les CG que tu vas obligatoirement mettre dessus afin d'utiliser les 700w de l'alim...
Avec 12go de ram, mon monstre est parfois limite avec les 12 cores sur boinc, car j'ai fais exprès de mettre 1go/core... et je peux aller jusqu'à 24go... au cas ou...
-
ah la cg c'est simplement une hd 3450 lol puis je mettre nimporte quel cable dalimentation pour ma config??! merci pour la reponse. je crois que l'alimentation est vendu sans cable ( pas sur).
-
Evidemment les cables sont fournis avec ton alim , je vois mal acheter sa au detail :priz2tet: :D
-
merci mechant modo :hello: ^^ , ça me rassure.
-
Mais parfois, il faut des adaptateurs suivant ce que tu mets dans ta machine...
-
Attention à la capacité de la CM en ram maxi, peut être mettre 2 barrettes de 4 go en plus pour ne pas bloquer tous les emplacements avec du 2 go.
J'ai pas vu la ou les CG que tu vas obligatoirement mettre dessus afin d'utiliser les 700w de l'alim...
Avec 12go de ram, mon monstre est parfois limite avec les 12 cores sur boinc, car j'ai fais exprès de mettre 1go/core... et je peux aller jusqu'à 24go... au cas ou...
tu te fais plus de point quand la ram est utilisé plus? et comment fais tu pour mettre 1 go/core? ps : jviens de virer vista pour seven 64.
-
1go /core, c'est une moyenne, ca depend des softs ou des wu des projets boinc, je n'affecte rien.
Bonne idee d'etre passé à win 7 64b, c'est plus stable que vista et certaines wu calculent en 64b donc meilleurs scores
-
oubliez pas que vous êtes sur un topic GPU ! ;)
d'ailleurs en parlant GPU... :D
je vais bientôt lancer mon PREMIER GPU ! :sun:
un E350 AMD... de mon HTPC... reste plus qu'a recevoir le boitier et m'acheter un ventilo 9cm silencieux (car le crunch est plus WAF quand il est silencieux) !
alors attention a tous... le classement va être chambouler ! :siflotte:
-
:lol: :lol: :lol:
-
oubliez pas que vous êtes sur un topic GPU ! ;)
d'ailleurs en parlant GPU... :D
je vais bientôt lancer mon PREMIER GPU ! :sun:
un E350 AMD... de mon HTPC... reste plus qu'a recevoir le boitier et m'acheter un ventilo 9cm silencieux (car le crunch est plus WAF quand il est silencieux) !
alors attention a tous... le classement va être chambouler ! :siflotte:
On attend ca... :D
-
E350 AMD c'est quoi?
-
j'essairai de faire passer mon i7 860 de 2 go à 8 go et mon i7 2600 k ( il arrive) de 4 go à 8 go... j'irai pas au dessus de 8 go ^^. j'ai peur j'ai quasiment tout commandé sur top achat à part l'alimentation et arff c'est mal réputé , je croise les doigts! j'ai lu les avis des clients apres la commande XD , ps: j'en profite comme quelqu'un à cité virtual prairie ce projet est mort non? plus de taf depuis un moment.
Ne T'inquiètes pas, j'ai commandé au moins 3 fois chez Top A. et j'ai pas pas eu de soucis mais je dois admettre que leur site est bordélique comparé à Matériel.
Je pense aussi qu'il faille mettre un peu plus de RAM pour le cas où; j'ai 8GO pour un quad et 2 CG. et ça lague qd je calcule sur MILKIWAY en GPU...
-
Comme pour la plupart des appli GPGPU ca laggue ... ca n'a rien à voir avec des histoires de RAM.
-
même pas un peu?
cad qu'avec un i7 2600K avec 32 G de ram? ça laguerait pas ?
(juste pour être sûr...) :??:
-
Ca change rien, c'est juste qu'un GPU n'a pas d'ordonnanceur efficace comme un CPU pour gérer les priorités entre applis ...
Donc celle qui consomme le plus de ressources en GPGPU a tendance à les monopoliser ... et donc l'affichage rame.
-
+1
-
c'est bon à savoir pour ceux qui aurait rajouté de la ram en vain!
-
Avoir beaucoup de RAM n'est pas vain, cela permet de pouvoir calculer sur +zieurs projets gourmands en mémoire en même temps... il m'est arrivé d'en manquer en calculant sur 1 UT Neurona + 5 UTs AlmereGrid TestGrid - Boinc (ce projet ne gérant pas bien la mémoire) + 6 UTs FreeHAL et 1 UT WUProp, toussa sur mon Phenom 1100T avec 8 Go de RAM. :spamafote:
-
Avoir beaucoup de RAM n'est pas vain, cela permet de pouvoir calculer sur +zieurs projets gourmands en mémoire en même temps... il m'est arrivé d'en manquer en calculant sur 1 UT Neurona + 5 UTs AlmereGrid TestGrid - Boinc (ce projet ne gérant pas bien la mémoire) + 6 UTs FreeHAL et 1 UT WUProp, toussa sur mon Phenom 1100T avec 8 Go de RAM. :spamafote:
:plusun:
-
+2
-
vous interpretez ça comment, "Vos derniers produits à livrer sont maintenant en cours de préparation pour leur expédition. Celle-ci interviendra sous 48 heures ouvrées. "? ils vont mettre 48 h à foutre mes produits dans un carton?! je prefere avoir mal compris ça me fait Ch*** ^^.
-
l'expédition sera faite dans les 48h.... cela peut être dans 10 mn donc....
-
tu as un faible pour les femmes des îles du pacifique? :D coquinou!
ps: nan pas encore parti on verra demain , j'ai pas choisi le site le plus populaire c'est de ma faute , top achat ; d'habitude je suis pro rue du commerce et j'aime bien c'est la meme compagnie mais en fait je ne savais pas les gens sont déçu de ces 2 enseignes.
-
vous interpretez ça comment, "Vos derniers produits à livrer sont maintenant en cours de préparation pour leur expédition. Celle-ci interviendra sous 48 heures ouvrées. "? ils vont mettre 48 h à foutre mes produits dans un carton?! je prefere avoir mal compris ça me fait Ch*** ^^.
oui je crois que c'est ça, le matin sort la liste de toute les commandes a préparer, elles le sont, et en fin de journée/matinée le transporteur passe les prendre. 48h ça doit etre pour leur laisser une marge de main d'oeuvre.
-
J'ai une 9800 GTX+ qui m'a fait une frayeur tout à l'heure :
(http://img.lbzh.fr/thumbs/4e4c27dd0f773_600.jpg) (http://img.lbzh.fr/uploads/4e4c27dd0f773.png)
Un reboot et c'est reparti ...
-
Penser à mettre à jour les drivers...
-
Dommage, c'était assez joli :D
-
c'est bon ils m'ont envoyé le colis hier apres midi :jap: c'est pas tellement mis à jour sur suivi collissimo mais je ferais avec , 17/08/2011 plateforme rhone alpes , esperons que ce soir ça soit noté plateforme nord...
-
Un jour j'ai eu cela avec une ATI mais sur tout l'écran.
et même avec un reboot, j'avais toujours le même problème, une myriade de petit point :/
J'en ai conclu que les cartes ATI ne support pas trop les températures au dessus de 100°C :nexath:
-
demain j'ai mon pc :ange: , soit je le monte seul ou par un pro... dur question. un pro = 50 euros moi = rien , mais j'ai peur de peter le matos^^
-
Personnellement j'ai réussi à monter mon pc seul (avec de l'aide du forum) et j'ai bien galéré quand même... rien n'a marché comme prévu... Mais bon c'est une bonne expérience car je ne l'avais jamais fais avant.
A toi de voir si tu le veux nickel prêt en marche à 100% ou si tu es prêt à mettre un peu plus de temps et avec un résultat aléatoire.
-
Moi j'ai changer ma tour en 2010, CM et GPU, c'est vrai que j'ai mis pas mal de temps....mais sans soucis notable....
-
je crois que je verrai ça demain matin.
-
Tu peux toujours faire appel au pro en cas de besoin, et dans ce cas, ne pas hésiter à lui poser des questions en le regardant faire...
Il existe meme des boutiques ou tu peux monter ta bécane sous l'oeil d'un pro qui te conseille
-
Si tu toutes les notices sont explicites et en français ça peut le faire. Peut etre démonter ton ancienne tour avant pour avoir une idée, il y a pas forcément beaucoup de place et il faut mettre parfois un peu de force sur ces petits éléments qui ont l'air si fragile :love:
-
En prenant le temps , je crois que c'est surmontable , j'ai deja fais un pc mais malgres tout pas encore sur de moi à 100%. mais si je ne me precipite pas pourquoi pas , je peux toujours essayer si je vois que c'est trop hard cette fois je vais dans une boutique...
-
je viens de recevoir mon colis , parcontre le ventirad est livré avec de la pate thermique thermaltake , faut il mieux que je prenne ma pate thermique plus connu?
-
ça ne change presque rien aux performances à mon avis... et thermaltake c'est pas du noname non plus, hein ;)
-
En prenant le temps , je crois que c'est surmontable , j'ai deja fais un pc mais malgres tout pas encore sur de moi à 100%. mais si je ne me precipite pas pourquoi pas , je peux toujours essayer si je vois que c'est trop hard cette fois je vais dans une boutique...
Salut, c'est pas très compliqué de monter son pc, c'est pour résoudre les soucis de temps en temps que ça l'est plus !!!
Un peu de temps, les bons outils ( une pelle et un marteau) et tout va bien...
Sinon, ça m'aurait boté de t'aider, j'aime bien ça moi..monter des pc.... :siflotte:
-
moi et ma copine avont monté le pc et il tourne depuis samedi :D
-
moi et ma copine avont monté le pc et il tourne depuis samedi :D
:05_16:
-
:fccpu: :bipbip:
Féloches
-
^^ :eek:
-
bonsoir, y'a longtemps que je ne suis passé sur le forum..mais fallait que je partage
j'ai enfin acquis une gtx 460...
je vais enfin pouvoir faire tourner un peu mieux mon pc..
que j'ai monté moi meme...et pour repondre a plus haut..c'est pas dur..on peux pas se gourer....y'a des détromper partout et pas 2 prises pareilles... :D
-
Non tous ce qui est au dessus est pas bon oui faut absolument la double précision voila la liste pour ATI:
AMD Radeon 6990
AMD Radeon 6970
AMD Radeon 6950
bonjour,
sans le hd c'est voulu??
genre celle ci c'est bon?
http://www.cdiscount.com/informatique/cartes-graphiques/sapphire-amd-radeon-hd6950-1go-gdrr5/f-107670226-111880920g.html
-
Oui celle ci fonctionne avec Milkyway
-
AMD baisse le prix des Radeon HD de milieu de gamme :
À l'approche de la rentrée des classes, période propice au renouvellement d'ordinateur, AMD a annoncé lundi une baisse du prix public de ses Radeon HD milieu de gamme.
Les nouveaux prix publics s'établissent ainsi :
Radeon HD 6870 à 145 euros
Radeon HD 6850 à 129 euros
Radeon HD 6770 à 87 euros
La firme de Sunnyvale espère ainsi susciter un regain d'intérêt pour ces cartes graphiques qui ont près d'un an (les Radeon HD 6800 furent lancées en octobre 2010), voire même d'une certaine manière près de deux ans, puisque les Radeon HD 6700 sont des variantes des Radeon HD 5700 lancées en octobre 2009. De quoi patienter en attendant les Southern Islands qui ont pris du retard.
Un représentant d'AMD parle d'une baisse de prix de 20 à 30 euros par carte, sans pouvoir préciser les prix publics en vigueur jusqu'à présent. Il faut dire que les partenaires d'AMD ne l'ont pas attendu pour vendre des cartes à ces prix. On peut néanmoins s'attendre à une nouvelle baisse et à des prix effectifs encore inférieurs à ceux susmentionnés.
Rappelons enfin que les Radeon HD 6800 ne sont pas les descendantes des 5800, mais des 5700. Il n'en demeure pas moins qu'elles offrent un excellent rapport performance/prix.
http://www.clubic.com/carte-graphique/carte-graphique-amd/radeon-hd-6850/actualite-441814-amd-baisse-prix-radeon-hd-6870-6850-6770.html
-
merci pour l'info gpu.
-
Va falloir que je revende ma 6950 que j'ai jamais montée ... ca sent les 7xxx ca :ange:
-
les 7000 vont tuer mais tuer en gflops pour boinc dapres ce que j'ai vu.
-
Va falloir que je revende ma 6950 que j'ai jamais montée ... ca sent les 7xxx ca :ange:
Pourquoi tu ne l'as pas montée ??? Elle n'est pas assez puissante ???
-
tu me l'envoi en colissimo si tu veux lol :D
-
Pourquoi tu ne l'as pas montée ??? Elle n'est pas assez puissante ???
Parce qu'elle passe pas dans mon boitier et que j'ai toujours pas eu le temps de le changer ....
-
Si elle est en trop, tu peux me la donner, mon boitier est assez grand et ca me fera une 3eme CG et le seule ATI de mon PC. :love:
Je verrais si elle fonctionne bien avec mes 2 NV.
Et je te rembourse les frais de transport... :jap:
-
lol ; j'attend ma ram ce matin , ça va cruncher sur tout maintenant! passage à 6 go sur le i7 860 et 8 go sur le i7 2600 k
-
pas mal...:)
je viens d'acheter un hd4870pour 45 euros..rentable?? we'll see...
-
pas mal...:)
je viens d'acheter un hd4870pour 45 euros..rentable?? we'll see...
Salut Greg :hello:
Et bien oui ça vaut encore le coup :jap:
Je crois que tu peux sortir dans les + ou - 90 000 points sur Milkyway.
C'est encore rentable je trouve pour le prix :jap:
-
oui je l'ai eu un peu plus cher neuve il ya environ 1 mois sur RDC et ça m'aide à atteindre quelques objectifs gpu tel que les badges gpu ati primegrid et passer dnetc à 1 Million , moo wrrapper aussi et seti beta pour ma part...
ps : 105 000 pts sur dnetc/ jour 70 000/jour sur primegrid je crois.
-
accessoirement j'ai "boostée" ma gtx a 825/1650/1900 et je vais tester a 840/1680/2000, sachant que la première config sous milkyway fait chauffer a 65°c
core/shader/memory pour info... :) il parati que ça encaisse bien les gtx :love:
nb: j'ai refait la pâte thermique avant...:)
-
bonjour,
J'ai testé PrimeGrid sur une hd4770 (double précision), boinc 6.12.26
toutes mes UT sont parties en erreur, chacune d'entre-elle presque immédiatement après le début du calcul.
==>
est-ce parceque ma carte graphique ne convient pas ?
ou est-ce une raison de configuration du client / version Boinc... ?
merci si vous avez une idée :)
-
tu peux toujours updater boinc 6.12.33 dispo..et voir apres....
-
:hello: Salut Snoop
Juste au cas ou !
Tu as installé le dernier pilote ?? 11.8 ???
Qui contient :
Package Includes:
Display Driver
OpenCL Driver
ATI Integrated Driver
Catalyst Control Center
???
Il me semble bien que la HD 4770 soit capable de cruncher sur prime.
-
hmmm, j'ai les drivers 9.12 ... pas vraiment récent récent.
Lundi j'aurais plus de temps, je changerai ça (ordi du boulot :siflotte: )
-
Ah bé voila ! c'est ça !
Il faut absolument OpenCL inclus pour pouvoir cruncher sur les PPS siève
Il me semble que 9.12 ne le contient pas
-
$ aticonfig --odgc --odgt
ATI Radeon HD 4800 Series
Core (MHz) Memory (MHz)
Current Clocks : 500 975
Current Peak : 500 975
Configurable Peak Range : [500-1000] [975-1200]
GPU load : 96%
Default Adapter - ATI Radeon HD 4800 Series
Sensor 0: Temperature - 77.50 C
oui j'ai underckloké mon GPU mon pc été devenu une vrais marmite, avec ventilateur gpu a fond de la chaleur et du bruit, trop de buit pour moi qui suis à coté.
-
:hello: :hello: :hello:
Effectivement si ça fait beaucoup de bruit et surtout de la chaleur vaut mieux underclocker :jap: :jap: :jap:
C'est mieux que pas de crunch du tout :jap: :jap:
-
moi je baisse a fond la memoire gpu et l'autre je met à fond ça depasse jamais 65...
-
bon moi ma config donne ça....
http://imageshack.us/photo/my-images/196/configcorei5.jpg/
-
punaise j'ai passer ma matinée a mettre mon 2 go de ram dans l'autre pc , il y avait pas mal de probleme mais finalement ça marcher donc j'ai 8 go de ram sur mon i7 860 yoyo ecm a monter a 5.75 go de ram quand j'en avais 6 ! alors j'ai rajouter parcontre mon i7 2600 k a lui 6 go de ram mais n'a plus de place a cause du ventirad.
-
tu ne t'ai pas trompé de Topic ?
tu as rajouter 6 g de ram à ton i2600 ?
-
a la base je devais mettre 8 go de ram sur le i 7 2600 k et 6 sur le i7 860 en fait j'ai inversé ...
-
le projet qui credite le plus en gpu c'est distrrgen avec une nvidia non? en ce moment vaut mieux une nvidia qu'une ati pour les points je crois bien. qui sais ce qu'a nabz comme gpu?
-
qui sais ce qu'a nabz comme gpu?
je dis qu'il as tout^^
-
Ouais ! il a dévalisé tout les rayons de GPU dans les magasins :lol:
-
lol c'est vrai c'est une usine ce type! ^^
-
Sur distrrtgen je n'avais pas réussi à faire cruncher mes Nvidia, mais peut-être que cela à changé !
-
heureusement qu'il est la pour l'AF, mais je sais pas si vous avez vu, l'AF passe 4ieme au classement general d'ici moins de 2 semaines en se faisant doubler par SUSA puis SICI...truc dans la foulée :
http://fr.boincstats.com/stats/boinc_team_stats.php?pr=bo&st=0
Pour la premiere fois de notre histoire hormis peut-etre les premiers mois de BOINC, on va sortir du podium!!!
-
En effet, on va prendre chère.. :(
-
défendons le formula boinc à mort maintenant que question points c'est mort ! lool
-
le projet qui credite le plus en gpu c'est distrrgen avec une nvidia non? en ce moment vaut mieux une nvidia qu'une ati pour les points je crois bien.
Je teste distRTgen depuis 1 semaine, et j'obtiens les crédits suivants, par jour et par GPU :
GTX295 GTX590
distRTgen 143k 510k
primegrid 78k 324k
x1,8 x1,6
Ce qui montre qu'en effet, aucun projet ne crédite davantage en ce moment. :miam:
La contrainte est par contre sur les volumes de données à remonter au projet, chaque UT générant un fichier résultat de 4,77 Mo. :electric:
Pour ma part, avec mon modeste ADSL 512k, je viens de perdre une bonne centaine d'UT calculées faute d'avoir pu les remonter avant la date limite :cry:.
:hello:
-
Sur distrrtgen je n'avais pas réussi à faire cruncher mes Nvidia, mais peut-être que cela à changé !
Avec l'appli 3.44, pas de soucis de plantage ou d'erreur de calcul pour le moment.
A noter aussi que comparé à primegrid, les cartes chauffent très peu. :p
:hello:
-
Je teste distRTgen depuis 1 semaine, et j'obtiens les crédits suivants, par jour et par GPU :
GTX295 GTX590
distRTgen 143k 510k
primegrid 78k 324k
x1,8 x1,6
Ce qui montre qu'en effet, aucun projet ne crédite davantage en ce moment. :miam:
La contrainte est par contre sur les volumes de données à remonter au projet, chaque UT générant un fichier résultat de 4,77 Mo. :electric:
Pour ma part, avec mon modeste ADSL 512k, je viens de perdre une bonne centaine d'UT calculées faute d'avoir pu les remonter avant la date limite :cry:.
:hello:
plains toi... j'ai la fibre 100M... et j'ai qu'un pauvre Chipset graphique intégré ! :D
-
Si tu me tires la fibre jusqu'à chez moi, je veux bien te donner un ou deux GPU :ange:
-
Le pb de la fibre ou du cable, c'est qu'il faut habiter à moins de 20 kms d'une grande ville qui a une grande banlieue... c'est mon cas, en banlieue de bordeaux.
Et pour l'adsl dézonné, la longueur réelle du câble téléphonique de la prise au répartiteur doit être inférieure à 2 kms ... au delà ca réduit la vitesse à mort...à moins de demander qu'il soit installé un répéteur et qu'il y est beaucoup de demandes...
-
oué + de 2 km c'est chaud , moi je suis à 500 m :D
-
Et pour l'adsl dézonné, la longueur réelle du câble téléphonique de la prise au répartiteur doit être inférieure à 2 kms ... au delà ca réduit la vitesse à mort...à moins de demander qu'il soit installé un répéteur et qu'il y est beaucoup de demandes...
Les sections de câble sur les différentes portions menant au modem adsl compte aussi. Son propre câblage à domicile n'est pas a négliger non plus (nettoyage des prises et boitiers de dérivation, éviter d'utiliser des rallonges téléphoniques bon marché, etc ...).
-
Et pour l'adsl dézonné, la longueur réelle du câble téléphonique de la prise au répartiteur doit être inférieure à 2 kms ... au delà ca réduit la vitesse à mort...à moins de demander qu'il soit installé un répéteur et qu'il y est beaucoup de demandes...
Ce qui bloque c'est que France Télécom n'est pas du tout motivée pour installer un équipement qui profitera pour partie à la concurrence :/.
Dans mon cas, je suis à 5,6 km du répartiteur, je ne suis pas seul à ramer, le maire a appuyé notre demande, mais FT n'en n'a rien à battre ! :rhaa:
Pour ma part, avec mon modeste ADSL 512k, je viens de perdre une bonne centaine d'UT calculées faute d'avoir pu les remonter avant la date limite :cry:.
Les UT hors délais, créditées à 0 dans un premier temps, ont finalement toutes été validées et créditées. :jap:
:hello:
-
moi je suis à 3.5 km et je n'ai que 4 mo au lieu 16 mo avec l'adsl.... :desole:
-
à moins de demander qu'il soit installé un répéteur et qu'il y est beaucoup de demandes...
J'ai un ami en campagne suite à ce problème la commune partirai sur un wifi pour sa population (WifiMAX ou quelquechose comme ça), et je crois qu'il s'en tirerai bien en prix et débit
-
Les gens veuillent des tèls et ordis portables mais pas les antennes-relais qui vont avec à cause des ondes EM...
Mais on sort du cadre du topic :desole:
-
Dans mon cas, je suis à 5,6 km du répartiteur, je ne suis pas seul à ramer, le maire a appuyé notre demande, mais FT n'en n'a rien à battre ! :rhaa:
[re-HS]
tu devrais peut-être suggérer à ton maire de plutôt contacter cette fédération d'associations de déploiement wifi http://www.wireless-fr.org/ (http://www.wireless-fr.org/), qui a, je crois, déjà aider des communes à mettre en place des accès pour la population de la commune. Ils proposent des solutions étonnantes d'efficacité et avec du matériel quasi standard du marché ...
Tu pourrais même, toi-même, monter une asso en relation avec la mairie, pour mettre ce genre de système en place et offrir une meilleure prestation.
De même, FDN (http://www.fdn.fr) cherche, je crois, à monter une fédération de FAI associatifs indépendants en offrant pas mal d'aide et de soutien techniques et logistiques (confirmation, j'ai trouvé le lien : http://www.fdn.fr/Federation.html (http://www.fdn.fr/Federation.html)).
[/re-HS]
-
Je viens donc de m'acheter une GTX 560ti et mon alim ne fait que 480 watts !
La question du jour : vais-je griller mon alim avec le GPU en pleine charge sur Primegrid ?
Il y a quelques mois j'avais posé cette question... La réponse est non, puisque je n'ai jamais eu le moindre problème ! Entre temps, j'ai retrouvé mon wattmètre...
Config :
CM Asus P5KC
CPU : Q6600 non OC et voltage dans la CM au mini (1,1v)
Ventilo CPU Noctua
HDD 1 To
CG : GTX 560 ti
Alim : seasonic M12 II - 500 w
Au wattmètre, ça donne ça (sans écran) :
Idle : 99 watts
PC + GPU (Primegrid) : 226 watts
PC + GPU + CPU (4 cores sur simap) : 258 watts
PC + CPU : 137 watts
Bref, ça passe largement ! je pourrai presque mettre une deuxième carte graphique ! ^^
-
Certe, mais ne pas oublier que le rendement de l'alim est meilleur à 50% de charge.
Donc c'est parfait pour toi ! 258W pour 480W
http://fr.wikipedia.org/wiki/80_PLUS
-
Certe, mais ne pas oublier que le rendement de l'alim est meilleur à 50% de charge.
Donc c'est parfait pour toi ! 258W pour 480W
http://fr.wikipedia.org/wiki/80_PLUS
elle est effectivement meilleur à 50% (et vue la différence entre avec et sans CPU, je pense que ton pc préfère avec... enfin si il chauffe pas outre mesure bien sur ! :D )
en tout cas on voit bien qu'avec un GPU et un CPU à fond, pas besoin de 1000W... :jap:
(je crois même que plus tu monte en % meilleur est ton rendement !!! )
-
pas mal...:)
je viens d'acheter un hd4870pour 45 euros..rentable?? we'll see...
bonjour,
et bien j'ai installé l'bignou...pas encore vu le resultat sur les points, mais v'la que c'est bruyant!!!!
même en underclockant au mini...et il fait pas si chaud...... l'ati ça chauffe plus que ma gtx...normal?? 70 a 80 degré en moyenne sur milkyway....ventiloS a 80%
-
disons que pour sa génération tu as une très grosse CG !
donc oui cela chauffe ! :/
après y'a peu etre moyen de trouver un combo (ventilo/rad)@APACHER d'occaz pour refroidir en silence ?
pour les températures, c'est pas grave, toutes les carte crunch à cette temp ! ;)
-
et bien j'ai installé l'bignou...pas encore vu le resultat sur les points, mais v'la que c'est bruyant!!!!
même en underclockant au mini...et il fait pas si chaud...... l'ati ça chauffe plus que ma gtx...normal?? 70 a 80 degré en moyenne sur milkyway....ventiloS a 80%
Ca me semble des valeurs très raisonnables, milkyway est un projet qui chauffe beaucoup.
Vérifie toutefois qu'il n'y a pas trop d'écart entre valeurs boîtier ouvert et valeurs boîtier fermé, ce qui indiquerait une ventilation du boîtier insuffisante.
:hello:
-
C'est une carte qui expulse l'air à l'extérieur du boitier ou c'est un truc tout pourrit qui nécessite une bonne ventilation du boitier ?
-
alors le pc est un dell precison 470..j'ai changé le radiateur de la carte pour un accelero et j'ai fais en sorte que le combo de ventilo d'origine ventiler l'accelerro...un colier pour tout fixer ;)
du coup c'est la carte qui gere sa ventilation.....
et je reconfirme que ma gtx dans l'autre pc ne depasse pas les 65 °c overclockée..et pas de bruit
bon de toute façon j'ai décidé de vendre ce vieux pc....si y'a des motivés....je garde la carte G ^^
-
L'accelero n'expulse pas l'air à l'extérieur, et les boitier Dell, c'est un peu de la bouse coté ventilation :/ ... donc ces températures sont pas choquante.
-
tu nous fait une photo de ton boitier, que l'on voit le montage ? :D
(ps: tu avais payé combien ta carte ? 45€ ? je connais pas la puissance de cette carte, tu avais une idée du RAC que tu aurais fait avec ? )
-
oué je vais faire une photo
et en fait pour la choisir, j'ai cherché sur ebay au regard de la liste des doubles précisions listées plus haut dans le forum
page 26 ou 29??
et aucune idée sur le rac..mais mieux qu'une 8800gts et fx580, je pense :) je verrai la progression enfin si je comprends quelque chose..:)
-
je connais pas la puissance de cette carte, tu avais une idée du RAC que tu aurais fait avec ?
Elle fait 1200 Gflops théorique, chez nvidia ce serait entre GTX470 et GTX 480, tout ça en théorique ;)
-
Une 4870 doit produire dans les 90k/j sur milkyway. :hyperbon:
-
ok, merci ! :jap:
(ce qui doit faire dans les 60K sur collatz ! :D )
(soit 10fois mon E350 qui veut toujours se mettre sur le net ! :cpopossib: )
-
Une 4870 doit produire dans les 90k/j sur milkyway. :hyperbon:
j'ai une gainward 4870 légèrement overclockée, je fais dans les 86 à 88 000 par jour sur Milky, sur Collatz un peu moins mais + que 60k
-
cool
mais je la fait tourner que la nuit trop bruyante pfff
-
elle est effectivement meilleur à 50% (et vue la différence entre avec et sans CPU, je pense que ton pc préfère avec... enfin si il chauffe pas outre mesure bien sur ! :D )
Coté température, pas de problème : la GTX560ti ne chauffe pas beaucoup, et mon CPU, depuis que j'ai baissé la tension à 1.1 volt, il chauffe plus du tout (47° pour le core le plus chaud en full sur Simap)
(je crois même que plus tu monte en % meilleur est ton rendement !!! )
ça, c'est une incitation à cruncher plus souvent ! :lol:
-
les vues de mon boitier
(http://img9.imageshack.us/img9/9629/sdc12553f.jpg)
Shot at 2011-09-05
(http://img35.imageshack.us/img35/899/sdc12557f.jpg)
Shot at 2011-09-05
mais j'ai modifié, les ventilos deja
-
c'est quoi ces "truc" vert?
-
c'est quoi ces "truc" vert?
:hello:
Sam
C'est pour expulser la chaleur en dehors du PC !
Mais bon ! P'tit Greg
C'est normal qu'elle chauffe car le boitier n'est pas idéal !
Mais pas de souci la température reste correct pour ce type de boitier ! :jap:
-
Ca m'étonne pas qu'elle chauffe ta CG. Les machins verts sont des air ducts, pour conduire le flux d'air dans le boitier le long des radiateurs CPU et chipset ...
Mais bon, là ta CG, en fond de boitier, elle baigne dans sa chaleur sans rien pour l'évacuer :/
-
En effet +1
La solution, serait peut-être une découpe sur le panneau, et d'y inclure 1 ou 2 ventilos.
C'est ce que j'ai fait sur mon P182 :
(http://img.lbzh.fr/uploads/4e6530e2004f0.JPG)
Pas très jolie-jolie mais bon, :siflotte:
et une autre photo avant de changer le sens de mes ventilos et l'ajout de filtres à poussières
(http://img.lbzh.fr/uploads/4e65322bc1771.JPG)
Il faut dire aussi que mes GPU fonctionne en passif, alors sans ces ventilos ça crame :paf:
ce qui fut déjà le cas avec une GTX275 et une ATI 5870, l'ATI n'a pas supporté.
sur la photo c'est une GTX275 et une 8800GT
-
Un peu serré là dedans...
Il me semble que tes deux ventilos en haut à gauche sont trop proches....
-
Certe c'est très serré, c'est que les radiateurs sont très gros, environ 2kg de cuivre pour le CPU et 2kg d'aluminium pour les GPU.
Certe, le deuxième ventilos sur le CPU n'est pas indispensable, ces ventilos sont à vitesse réduit en général autour de 600t/min.
donc inaudibles par rapport de 2 de la façade qui peuvent monter à 1200t/min sur Primegrid.
Mais, je vais bientôt watercooler tout cela :siflotte:
-
ah le meilleur c'est sur c'est le watercooling :love: en plus ça peut être joli!
-
tu as surtout finit ton sac de colliers de serrage !!! :D
-
En effet :lol:
Le ventirade CPU fait 2 kilo, j'ai préféré le soulager un peu !
Et derrière un tas de cable (entre le CPU et les GPU) j'ai un T-balancer (réohbus logiciel)
la plupart des ventilos sont branchés dessus, donc il y a beaucoup de câbles :o
-
Non tous ce qui est au dessus est pas bon oui faut absolument la double précision voila la liste pour ATI:
AMD Radeon 6990
AMD Radeon 6970
AMD Radeon 6950
ATI HD Radeon 5970
ATI HD Radeon 5870
ATI HD Radeon 5850
ATI HD Radeon 5830
ATI HD Radeon 4890
ATI HD Radeon 4870
ATI HD Radeon 4850
ATI HD Radeon 4830
ATI HD Radeon 4770
ATI HD Radeon 4830
ATI HD Radeon 38x0
ATI Firestream 9270
ATI Firestream 9250
ATI Firestream 9170
les 6790 supportent?? j'arrive pas a voir sur les spec...d'ati
-
:hello: Salut ptit greg
Supportent quoi ?? tu veux faire quel projet ??
Oui elle supporte la double précision ! :jap:
http://www.amd.com/us/products/desktop/graphics/amd-radeon-hd-6000/hd-6970/Pages/amd-radeon-hd-6970-overview.aspx#2
C'est écrit dans les specs "683 GFLOPs Double Precision compute power"
-
Heu il parle de la 6790 ... ca existe ca ?
-
Suffit de demander http://www.amd.com/us/products/desktop/graphics/amd-radeon-hd-6000/hd-6790/Pages/amd-radeon-hd-6790-overview.aspx#3 (http://www.amd.com/us/products/desktop/graphics/amd-radeon-hd-6000/hd-6790/Pages/amd-radeon-hd-6790-overview.aspx#3). :D
ÉDIT: Apparemment pas en double précision. :spamafote:
(re)ÉDIT: GRILLED!!! :p
-
Ah ouais !! j'ai cru voir HD 6970 :cpopossib:
Et non la HD 6790 ne supporte pas la double précision :cry:
-
Seul le haut de gamme (soit les 69xx) supporte la DP chez ATI maintenant ...
-
oué en gros va falloir bidgetisera mort pour que la patronne gueule pas..et que je reste crédible quand je dis " arrete de dépenser les sousous" :) :cavachier:
-
oué en gros va falloir bidgetisera mort pour que la patronne gueule pas..et que je reste crédible quand je dis " arrete de dépenser les sousous" :) :cavachier:
:plusun:
-
bon j'ai revendu mon dell...;et acheté un core i7 a la place de mon core i5 que j'ai vendu aussi.
par contr je vais attendre les fx d'amd pour me lancer dessus je pense....des amateurs ?
-
...
par contr je vais attendre les fx d'amd pour me lancer dessus je pense....des amateurs ?
Moua, moua!!! :hyperbon:
-
les "fx" c'est des CPU... pas des GPU ? :??:
tu as déjà un Ci7, je vois pas trop l'intérêt :??:
(outre que c'est un topic GPU biensur ! :D )
-
oui je sais , ce n'est pas le topic approprié, c'etait juste pour clore le sujet sur mon boitier dell qui chauffe (marcel )
promis je change de topic méchant modo :)
et je monte uen deuxieme machine avec ce futur nouveau proc....
-
Chauffe! Chauffe! (http://www.linternaute.com/expression/langue-francaise/175/chauffe-marcel/)
-
quels sont tous les projets avec nvidia et les sous projets par exemple primegrid?
-
quels sont tous les projets avec nvidia et les sous projets par exemple primegrid?
http://statsbzh.boinc-af.org/statut_projets.php
-
merci mais ça ne repond pas aux projets compatible cuda pour primegrid?
-
http://www.primegrid.com/apps.php
je trouve pas... mais je crois qu'il n'y en à qu'un ! :jap:
-
merci donc 2 sous projet pour nvidia et 1 pour amd sur primegrid :jap:
-
Bonsoir, :kookoo: voici une reponse complete je pense...
Celui pour AMD (eventuellement) est : PPS Sieve pour NVIDIA ET ATI
Proth Prime Search (Sieve)
Supported platforms:
•Windows: 32bit, 64bit (+CUDA23, AMD OpenCL1)
•Linux: 32bit, 64bit (+CUDA23, AMD OpenCL1)
•Mac: 32bit, 64bit (+CUDA32, AMD OpenCL1 - 64 bit only)
1 Requires AMD Accelerated Parallel Processing (APP) drivers.If APP driver not available for your card, then the ATI Stream SDK is needed.
pour CUDA 'only':
Cullen/Woodall Prime Search (Sieve)
Supported platforms:
•Windows: 32bit, 64bit (+CUDA23)
•Linux: 32bit, 64bit (+CUDA23)
•Mac: 32bit, 64bit (+CUDA32)
et (en beta pour CUDA)
Proth Prime Search (LLR)
Focus project
Supported platforms:
•Windows: 32bit, 64bit 1
•Linux: 32bit, 64bit 1
•Mac: 32bit, 64bit 1
1 32bit applications sent to 64bit hosts
les autres, c'est que du CPU...
-
Exact :jap:
Sauf que je n'ai pas encore vu d'UT beta dispo :/
-
moi non plus... :/
-
Et au niveau Mac ATI, ça ne fonctionne pas encore, apparemment pour des raisons liées à Boinc Manager qui ne détecte pas encore les ATI sous OS X
http://boinc.berkeley.edu/dev/forum_thread.php?id=6939
-
oui j'ai l'impression qu'AMD/ATI et Boinc ne sont pas encore des amis intimes ! :/
(en tout cas tes dires me réconforte, je suis pas le seul à galérer avec mon combo ATI/linux :cpopossib: )
-
malheureusement...
-
y a t"il surcreditation pour les nvidia? je vois des score hallucinant sur primegrid , distrgen alors que les nvdia en gflops sont loin des amd , ma petite hd 4870 fait 60 000 sur primegrid avec une gtx 270 qui a moins de gflops on peut en attendre 250 000 sur primegrid! comment expliquer vous cela? merci d'avance.
-
Sam :hello:
Arrête de tourner autour du pot ! achète une GTX 580 :D
-
Sam :hello:
Arrête de tourner autour du pot ! achète une GTX 580 :D
Tu y vas fort nico quand même :D
-
c'est pas la premiere fois qu'on lui dit qu'il y va fort avec moi , lol
-
Tu y vas fort nico quand même :D
Mais noooonnn !!! si peu :D
y a t"il surcreditation pour les nvidia? je vois des score hallucinant sur primegrid , distrgen alors que les nvdia en gflops sont loin des amd , ma petite hd 4870 fait 60 000 sur primegrid avec une gtx 270 qui a moins de gflops on peut en attendre 250 000 sur primegrid! comment expliquer vous cela? merci d'avance.
Simplement parce que les applications suivant les projets tournent moins bien sur ATI ou Nvidia :/
Y nous faudrait un petit génie du code pour nous faire les appli GPU approprié !
-
j'ai a peu pret compris grace aux forum ( non citable bon si de folding^^) sur les comparatifs de points entre gpu sur folding et le classement http://www.grid-france.fr/tutos/comparatif-carte-graphique-pour-le-folding-home
-
Sinon pour moi dans les deux marques ces deux modèle restent d'actualité pour Boinc !
ATI HD 5870 et Nvidia GTX470
On doit pouvoir trouver ces deux modèle à bon prix,
Le mieux c'est d'avoir les deux pour pouvoir faire tous les projets.
-
mais il n'y a pas de projet exclusif à AMD ATI? si? ah MOO WRAPPER?
-
mais il n'y a pas de projet exclusif à AMD ATI? si? ah MOO WRAPPER?
Non ! il y a des applis pour Nvidia
http://moowrap.net/apps.php
mais ça marche mieux sur ATI :jap:
Sinon avec ATI il y a les Astropluse de SETI@home qui ne tourne pas sur Nvidia il me semble !
Collatz et Milkyway tournent aussi plus vite sur ATI
-
mais il n'y a pas de projet exclusif à AMD ATI? si? ah MOO WRAPPER?
:kookoo:
Moo Wrapper tourne avec Nvidia (cuda): http://moowrap.net/apps.php (http://moowrap.net/apps.php)
-
et on m'a dit que dnetc allait bien avec ati mais il va mieux sur ati que nvidia?
j'ai vu une video de la puissance par watt des futur kepler et des gpu nvdia de 2013 ( la next next génération)
http://www.youtube.com/watch?v=iq202LKkeHI
-
DNETC même combat que Moo wrapper ! Donc oui mieux sur ATI/AMD :jap:
-
Sam !
Une petite astuce :D
Quand tu veux voir si ça crédite mieux sur ATI/AMD ou Nvidia pense à regarder le top des machines car ces très parlant ! :D
Exemple avec Moo wrapper ou tu ne vois que des ATI/AMD en première ligne :
http://moowrap.net/top_hosts.php
EDIT: et ici sur primegrid par exemple
http://www.primegrid.com/top_hosts.php
-
aucune amd dans le top 100 voir 150 primegrid , et parcontre sur l'autre projet c'est plus AMD merci pour le conceil!!! exellent :ange: :jap: :jap:
-
Une petite astuce :D
Quand tu veux voir si ça crédite mieux sur ATI/AMD ou Nvidia pense à regarder le top des machines car ces très parlant ! :D
Toutafé, et c'est vrai aussi pour connaître les versions de pilotes qui marchent le mieux.
:hello:
-
Merci Nabz et nico pour vos remarques judicieuses :jap: :jap:
-
j'ai fait une moyenne pour chaque projet du rac des 5 top host mondial :
cela donne pour milkyway (top host 5 ATI) 434 877 de rac moyen
collatz (idem) 570 247 de rac moyen
primegrid ( 5 nvidia) 1 350 000 de rac moyen
Dnetc (5 ATI) 701974 de rac moyen
Moo wrapp( idem) 740877 de rac moyen
Distrggen ( 5 nvidia) 1269512 de rac moyen
Gpugrid (5 nvidia) environ 600 000 de rac moyen
on voit que les nvidia font presque le double de points( en apparence? car c'est une vision réduite de la réalité mais je crois qu'elle donne quand même des indices sur le nombres de points) j'aimerai savoir le nombre de points des gpu AMD sur les projets boinc , merci.
hd 5870-5970-6870-6970-6990 etc...
-
quelqu'un sait si la gtx 560 ti est meilleure que la gtx 470? les specifications disent que gtx 560ti=1263gflops contre 1088 GFLOPS
pour la gtx 470 mais j'avais vu quelqun sur le forum conseiller plutot la 470! merci d'avance.
-
j'ai les deux et elle est moins bien. Si elle est moins chere...c'est qu'il y a une raison....
-
dis moi ton nombre de points par projet si possible merci d'avance. parcontre j'ai trouvé d'autres info qui vont dans ton sens:
Relative Comparison of Recommended Cards, with approximated CC Correction Factor values (in brackets):
GTX 590 GF110 40nm Compute Capable 2.0 2488 BoincGFlops peak (3359)
GTX 580 GF110 40nm Compute Capable 2.0 1581 BoincGFlops peak (2134)
GTX 570 GF110 40nm Compute Capable 2.0 1405 BoincGFlops peak (1896)
GTX 480 GF100 40nm Compute Capable 2.0 1345 BoincGFlops peak (1816)
GTX 295 GT200b 55nm Compute Capable 1.3 1192 BoincGFlops peak (1669)
GTX 470 GF100 40nm Compute Capable 2.0 1089 BoincGFlops peak (1470)
GTX 465 GF100 40nm Compute Capable 2.0 855 BoincGFlops peak (1154)
GTX 560 GF114 40nm Compute Capable 2.1 1263 BoincGFlops peak (1136)
GTX 285 GT200b 55nm Compute Capable 1.3 695 BoincGFlops peak (973)
GTX 275 GT200b 55nm Compute Capable 1.3 674 BoincGFlops peak (934)
GTX 260-216 GT200b 55nm Compute Capable 1.3 596 BoincGFlops peak (834)
GTX 460 GF104 40nm Compute Capable 2.1 907 BoincGFlops peak 768MB (816)
GTX 460 GF104 40nm Compute Capable 2.1 907 BoincGFlops peak 1GB (816)
GTX 550 GF116 40nm Compute Capable 2.1 691 BoincGFlops peak (622)
GTS 450 GF106 40nm Compute Capable 2.1 601 BoincGFlops peak (541)
et je rajoute GTX 560 Ti -901 gflops
-
sam, peux-tu mettre le lien de tes sources... merci. :jap:
-
http://www.gpugrid.net/forum_thread.php?id=1150 :jap: je l'ai vu au Message 17229 - Posted 22 May 2010 c'est un topic dedié gflops
-
Thanx! ;)
-
et on m'a dit que dnetc allait bien avec ati mais il va mieux sur ati que nvidia?
j'ai vu une video de la puissance par watt des futur kepler et des gpu nvdia de 2013 ( la next next génération)
http://www.youtube.com/watch?v=iq202LKkeHI
juste pour info... Kepler c'est dans 6mois ! ;)
AMD et Nvidia vont sortir leur 1er génération 28nm, a voir qui gagnera la bataille... j'ai bien envie de me faire un petit plaisir au mois de juin, j'aurai eut le temps de voir vos réactions niveau Bruit/Rac ! :D
-
Si ca continue comme ca, les nouveaux GPU vont sortir avant même que j'ai allumé ma 6950 un seule fois ...
Elle traine dans son carton depuis sa sortie ... :/
-
Si ca continue comme ca, les nouveaux GPU vont sortir avant même que j'ai allumé ma 6950 un seule fois ...
Elle traine dans son carton depuis sa sortie ... :/
Ben tu attend quoi , plus de pci express de libre ??
-
ah oui je me souvient que t'avais une cg de coté toi! on t'avais même proposé que tu nous la donne lol
-
:eek:
je savais pas MOUAAA !!!
si tu veux juste la tester avant de perdre ta garantie... tu peux passer dans le sud-ouest ! :D
(dit-moi que c'est un lot que tu as gagner sur un jeu-concours... car sinon je comprends pas pourquoi tu as dépensé autant pour ton tiroir ! :D )
-
Je l'avais achetée pour la tester, mais j'ai jamais eu le temps (ni la motivation) d'aller chercher un boitier dans lequel ses 27.5 cm entrent ... :siflotte:
Mais bon, vu que je prévoit une troisième machine elle finira par servir :D
-
quelqu'un pourrait me dire ses scores sur distrrgen avec sa gtx 580 ou 590 ou encore 570 ou 480 merci j'ai retrouvé un site web anglais qui redit des choses sur les points en gpu: ATI:
Here's a GIGABYTE GV-R695UD-1GD Radeon HD 6950 1GB 256-bit for $236.99 -> http://www.newegg.com/Product/Product.a ... 6814125372
That one will get you very good credits at Moo! Wrapper & DNETC (my guess 350K to 400K/day)
Milkyway (my guess 250K/day)
Collatz (my guess 200K/day)
NVIDIA:
EVGA 01G-P3-1561-AR GeForce GTX 560 Ti FPB (Fermi) 1GB 256-bit GDDR5 for $229.99 (after $20 rebate) -> http://www.newegg.com/Product/Product.a ... 6814130604
The only project where you'll get good credits with a nvidia card is primegrid all others are way worse. (my guess would be something like 300 to 350K credits/day) http://board.mpits.net/viewtopic.php?f=23&t=71
-
une hd 6950 fait elle reellement 400 000 pts/jour sur DNETC? une gtx 560 ti fait elle reellement entre 300 000 pts /jour et 350 000 pts/jour sur primegrid et une gtx 470 fait elle 370 000 pts/ jour sur distrrrgen? merci , des informations obtenues un peu partout :electric:
-
ta question serai pas plutôt "quelle carte je dois prendre pour courir après le meilleur RAC de l'AF" ? :D
(mais je peux pas t'aider... ma "gpu" ne fait que 4K sous collatz ! :siflotte: )
-
j'hesite entre la gtx 560 TI ( 300k à 350 k sur primegrid) environ 200 euros avec la hd 6950 environ 200 euros aussi
la 6950 est elle mieux que la hd 5870 pour boinc?
la hd 5870 fait 300 000 sur dnetc (j'espere ne pas me tromper) mais est ce que la 6950 fait mieux?
-
personne ne sait?
-
Reste plutot sur Moo si tu prends un ATI ... leur éthique et leur transparence est quand même bien plus élevée que chez DNETC :/
-
ok
-
hd 6950 et gtx 560 ti font 250 000 environ ( ceux sont de bonne concurrente pour boinc) j'irai plus prendre une nvidia car comme ça je pourrai depassé le million à gpu grid et disttrgen et pour les autres sous projets primegrid non amd.
-
Un peu plus de 500 000 / jour avec ma gtx580 sur distrigen :hyperbon:
-
350k sur gtx580 sur PG actuellement...
700k avant qu'ils baissent le nombre de points :/
-
ok
-
Salut tout le monde :hello:
Une de mes machines de crunch est un Asus Pundit P3-P5G33 avec un Q8200 et 8Go RAM.
J'aimerais la booster avec une gpu, mais c'est vraiment galère pour trouver une low profile qui convienne (alim 220w).
Faisable?
-
effectivement, j'ai même lorgné sur une GT 440 en lp (ca équivaudrait à la moitié de ma gts 450 je pense), et côté ati c'est encore plus pauvre (avec double précision), mais je crains pour l'alim.
Ça apporterait un core de plus, mais je ne crois pas que les avantages compensent les inconvénients.
J'essaierais de passer à un proc plus rapide
-
J'aimerais la booster avec une gpu, mais c'est vraiment galère pour trouver une low profile qui convienne (alim 220w).
Faisable?
ce qui pêche là c'est l'alim
une alim doit toujours supporter le double de son usage réel, donc si elle fait 220W il ne faut la faire tourner qu'à 110W
et avec un Q8200 il ne faut pas mettre plus de 50W dans le GPU
sauf qu'un GPU de 50W en charge, c'est un tout petit modèle
la consommation est proportionnelle à la puissance, si tu veux des points en GPU, il faut changer l'alim :o
-
une alim 650W pour ma config actuel, c'est bon ?
-
ce qui pêche là c'est l'alim
une alim doit toujours supporter le double de son usage réel, donc si elle fait 220W il ne faut la faire tourner qu'à 110W
et avec un Q8200 il ne faut pas mettre plus de 50W dans le GPU
sauf qu'un GPU de 50W en charge, c'est un tout petit modèle
la consommation est proportionnelle à la puissance, si tu veux des points en GPU, il faut changer l'alim :o
changer l'alim pour une plus grosse (mince je viens de vendre une 400 (hexa de fortron) pour 25€ :/ ) a bas coût serai intéressant !
sinon, regarde aussi du coté des nouvelles génération en 28n qui vont sortir début 2012, elles sont sensées moins consommer ! ;)
-
J'ai fait le tour, l'alim de cette chose m'empêchera de mettre une gpu correcte (alim. non standard trop petite). Me reste plus qu'à me faire une autre machine de crunch. Mais mon problème principal est la place, va falloir ruser :)
-
quelle taille ?
car je me suis pris une mATX (une bequiet) pour mon SG06 à 30€ en occaz ! ;)
-
Là je vais essayer de recycler mon ancienne cm asus m2n-sli avec un athlon64x2 4800, 8Go ddr2 et une 8800GTS, faut que je trouve un boitier atx taille mini pour ça. Un mini tour devrait passer (je sais pas encore où je le mettrai donc c'est pas pour tout de suite).
-
Essaye ça :
http://www.extreme.outervision.com/PSUEngine
Il y a aussi celui que j'aime bien pour completer:
http://www.thermaltake.outervision.com/ (http://www.thermaltake.outervision.com/)
-
une nvidia 560 Ti c'est bien comme carte pour boinc ? combien de points avec cette carte et sous quel projet ?
-
Je viens justement d'en installer une ! donc je ne saurais dire le nombre de points
Mais par rapport à la GTX275, elle ne chauffe pas (63° sur Collatz) et fais pratiquement 2x plus de travail !
Je me demande pourquoi je viens d'acheter un waterblock. :siflotte:
-
En même temps Collatz sur nVidia, c'est loin d'être efficace :/
-
C'est vrai, autant faire du PG avec... si on veut des crédits.
-
Je confirme
-
toute à fait d'accord, c'est juste pour rester dans le top 100 :siflotte:
sur PrimeGrid je ne dépasse pas les 70°C.
-
moi 70-73°C...
-
Ici 66° :)
-
37°2 le matin...
-
mon WinterCooling ne dépasse pas les 30°c en ce moment (sur un APU E-350 aussi ! :D ) ! :jap:
mais j'ai regardé les prévisions des futurs HD7xxx de chez AMD !
la futur HD7850 avec un TDP de 90W devrais apporter la puissance d'une HD6950 sans la température et la conso excessif ! :love:
(aller je mets des sousous de coté pour dans 3mois :hyperbon: )
-
Il va falloir que je vende ma 6950 avant même qu'elle ait servi une fois si ca continue :siflotte:
-
je crois que je t'en avait proposé 30€ y'a quelque temps ! :o
trop tard maintenant ! :D
:siflotte:
-
Pas assez cher mon fils :blbl:
-
3eme CG installée sur mon monstre mais c'est du recyclage car c'est une ancienne NV Zotac 9800GT/OC,à coté des 2 NV EVGA GTX 580...
CM Pleine :hyperbon: :hyperbon:
-
Tu as raison :D
Et belle envolée lyrique :jap:
Tant qu'elle marche, et pourtant elle est montée à + de 100° pendant plusieurs années, autant l'utiliser, ca fait des points en +...
-
c'est mon projet aussi ! :D
une petite HD7770 ou HD7850 (en fonction du prix) puis 1an après au moment des soldes (pour la sorti des HD8xxx :sun: ) la jumelle arrive !
et je tiendrais bien 2-3ans avec ce modèle du coup ! :D
mais comment ca crunch tes 3 cartes ?
chacune de leur coté ou toutes ensemble sur une UT (et dans ce cas tu est sur que la 9800 ralenti pas les autres) ?
en tout ca tu est paré pour l'hiver... coupe le chauffage ! :D
-
Vous pensez qu'une 6950 et une 5770 dans la même machine, ca marcherait sous BOINC ?
-
Salut toTOW :hello:
Oui tout à fait ! :jap:
-
Il me semblait pourtant avoir lu que ca marchait pas super ... :??:
Bon, on verra si l'alim de cette machine supporte la charge des deux cartes ...
-
Bon, on verra si l'alim de cette machine supporte la charge des deux cartes ...
Attention, une fois j'ai une alim qui a claqué à force de trop y tirer dessus...
-
bonjour,
truc bizarre, ou normal dites moi :)
j'ai installé une deuxieme gtx 460 dans mon pc (ou pourrais-je la mettre sinon??? pas de jeu de mots pourri :))
et j'ai configuré un sli.
sur boinc il lance 3 taches sur les 2 cartes graphiques. est-ce car le sli apparait comme un gpu a lui seul? y'a - t il un gain?? du coup ça chauffe digne de l'enfer....
-
Salut,
tu n'avais jamais configuré tes prefs pour augmenter le nombre d'unité calculée, sans que ça marche?
-
os seven x64 8Gb ram
[Affichage]
Système d'exploitation : Windows 7 Professional, 64-bit (Service Pack 1)
Version de DirectX : 11.0
Processeur graphique : GeForce GTX 460
Version du pilote : 280.26
Prise en charge DirectX : 11
Noyaux CUDA : 336
reglage sli par defaut...ça fonctionne, je n'ai pas touché:)
-
Attention, une fois j'ai une alim qui a claqué à force de trop y tirer dessus...
c'est pourquoi on ne cesse de rappeler qu'il faut faire le calcul de conso avec 50% de la puissance max d'une alim
si la CM+CPU+GPU plein charge = 350W, il faut prendre une alim 750W :o
-
Salut,
tu n'avais jamais configuré tes prefs pour augmenter le nombre d'unité calculée, sans que ça marche?
?? je ne sais pas faire....
-
?? je ne sais pas faire....
Je pensai à ça: Astuces pour calculs de plusieurs uts GPU Nvidia ... (http://forum.boinc-af.org/index.php/topic,3702.0.html)
ps: si ça baisse ton RAC d'avoir plus d'unités, tu trouveras peut etre une solution pour contraindre BM à faire ce qu'il te faut dans ce post..
-
@kasur.non je n'ai pas fait ça
@elguillermo: non du coup je l'ai désactivé en attendant une reponse et/ou dans le doute que ça ne foute la grouille dans les ut, je l’utilise que si je joue a des jeux.
-
faut que je vérifie ce point, dans mes souvenirs, il y avait 2 lignes identifiants nettement les 2 cartes (gpu0 et gpu1) et une ligne ou juste "nvidia gpu"
bon évidement quand je veux forcer le bug, il ne revient pas;...:(
tant mieux du coup
je vais laissé le sli et voir si ça reviens..je ferai une capture a ce moment la :)
-
c'est pourquoi on ne cesse de rappeler qu'il faut faire le calcul de conso avec 50% de la puissance max d'une alim
si la CM+CPU+GPU plein charge = 350W, il faut prendre une alim 750W :o
moi je n'ai qu'une 650W... :desole:
-
700w core i7 45nm et 2 gtx 460 24/24 allumé
-
c'est mon projet aussi ! :D
une petite HD7770 ou HD7850 (en fonction du prix) puis 1an après au moment des soldes (pour la sorti des HD8xxx :sun: ) la jumelle arrive !
et je tiendrais bien 2-3ans avec ce modèle du coup ! :D
mais comment ca crunch tes 3 cartes ?
chacune de leur coté ou toutes ensemble sur une UT (et dans ce cas tu est sur que la 9800 ralenti pas les autres) ?
en tout ca tu est paré pour l'hiver... coupe le chauffage ! :D
Alim 1200w 80+
Pour les UT ;
Sur moo il en prend 2 pour 1 ut, les plus puissantes... +1 PG ou autres
Sur PG 1 UT=1 CG
Extrait du log Boinc:
05/11/2011 22:27:58 | | Starting BOINC client version 6.12.34 for windows_x86_64
05/11/2011 22:27:58 | | Config: use all coprocessors
05/11/2011 22:27:58 | | Processor: 12 GenuineIntel Intel(R) Core(TM) i7 CPU X 980 @ 3.33GHz [Family 6 Model 44 Stepping 2]
05/11/2011 22:27:58 | | OS: Microsoft Windows 7: Professional x64 Edition, Service Pack 1, (06.01.7601.00)
05/11/2011 22:27:58 | | Memory: 11.99 GB physical, 19.80 GB virtual
05/11/2011 22:27:58 | | VirtualBox version: 4.1.4
05/11/2011 22:27:58 | | NVIDIA GPU 0: GeForce GTX 580 (driver version 28562, CUDA version 4010, compute capability 2.0, 1536MB, 1581 GFLOPS peak)
05/11/2011 22:27:58 | | NVIDIA GPU 1: GeForce 9800 GT (driver version 28562, CUDA version 4010, compute capability 1.1, 512MB, 381 GFLOPS peak)
05/11/2011 22:27:58 | | NVIDIA GPU 2: GeForce GTX 580 (driver version 28562, CUDA version 4010, compute capability 2.0, 1536MB, 1581 GFLOPS peak)
-
Alim 1200w 80+
Pour les UT ;
Sur moo il en prend 2 pour 1 ut, les plus puissantes... +1 PG ou autres
Sur PG 1 UT=1 CG
Extrait du log Boinc:
05/11/2011 22:27:58 | | Starting BOINC client version 6.12.34 for windows_x86_64
05/11/2011 22:27:58 | | Config: use all coprocessors
05/11/2011 22:27:58 | | Processor: 12 GenuineIntel Intel(R) Core(TM) i7 CPU X 980 @ 3.33GHz [Family 6 Model 44 Stepping 2]
05/11/2011 22:27:58 | | OS: Microsoft Windows 7: Professional x64 Edition, Service Pack 1, (06.01.7601.00)
05/11/2011 22:27:58 | | Memory: 11.99 GB physical, 19.80 GB virtual
05/11/2011 22:27:58 | | VirtualBox version: 4.1.4
05/11/2011 22:27:58 | | NVIDIA GPU 0: GeForce GTX 580 (driver version 28562, CUDA version 4010, compute capability 2.0, 1536MB, 1581 GFLOPS peak)
05/11/2011 22:27:58 | | NVIDIA GPU 1: GeForce 9800 GT (driver version 28562, CUDA version 4010, compute capability 1.1, 512MB, 381 GFLOPS peak)
05/11/2011 22:27:58 | | NVIDIA GPU 2: GeForce GTX 580 (driver version 28562, CUDA version 4010, compute capability 2.0, 1536MB, 1581 GFLOPS peak)
ah oué quand meme..je comprend mieux pourquoi je ne dépasse pas les 30k jour :)faut du lourd ^^
-
Salut,
j'ai regardé tes stats Ptit Greg et tu n'es pas sur des projets GPU qui paye le mieux, (Einstein et Seti qui marche mal), par contre 100% Milkyway tu dois remarqué la différence ;)
-
Salut
J'ai egalement regarde tu a deux gtx460 et deux Quadro FX 580 donc si tu voir encore plus la difference
tu devrait essayer primegrid en gpu bien sur :jap:
-
Plutôt DistRTgen.... :ange: quand il y aura du taf...
-
Avez-vous plus de détail sur le moment de la mise en vente des futurs HD7xxx de chez AMD !
-
Le seul truc que j'ai trouvé http://www.cowcotland.com/news/27694/hd-7xxx-au-premier-trimestre-2012.html (http://www.cowcotland.com/news/27694/hd-7xxx-au-premier-trimestre-2012.html)... :spamafote:
-
N'oublier pas nVidia qui va sans doute sortir ses bébés à peu près au même moment : http://fr.fah-addict.net/news/news-0-478+nvidia-kepler-pour-la-fin-d-annee.php
-
Salut
J'ai egalement regarde tu a deux gtx460 et deux Quadro FX 580 donc si tu voir encore plus la difference
tu devrait essayer primegrid en gpu bien sur :jap:
ok.
mais bon je reste fidele a seti c'est mon tout premier projet.. et j'aime bien..apres les points c'est bien mais ce n'est pas la priorité...;j'avoue que c'est toujours agréable de se voir monter dans le classement :)
@kikiphil, les 2fx sont sur un pc du boulot, planqué en salle serveur..effectivement il hihi..on va renouveler le parc avec du core i5 2500k je crois et des quadro 600 à 96 cuda, donc je vais changer...
et dans les 15 jour je lance mon core i7 + nvidia4870 que je fini de monter.peut etre en salle serveur aussi, bien planqué :)
-
sauvage... tu utilises aussi un peu leur clim nan ? :D
-
Bon, je viens de monter ma 6950 ... dès que je lance un appli OpenCL (PPS Sieve ou FAH par exemple), je perd le driver ATI, je suis obligé de rebooter. Aucun problème avec les applis utilisant CAL (Moo, Collatz, Milky) ou quoi que ce soit d'autre ...
Le tout avec les drivers 11.10 fraichement réinstallés sous XP 32 bits.
Quelqu'un a déjà vu ca ?
-
Cette carte est double précision ?? sinon, ce n'ai pas la peine...
-
La 5770 qui était là avant n'était pas double précision et elle marchait très bien ... je voie pas le rapport.
-
La 5770 qui était là avant n'était pas double précision et elle marchait très bien ... je voie pas le rapport.
Le rapport, c'est que tu ne peux pas faire de Milkyway avec une carte simple precision. Pour les autres projets, c'est pas genant...
-
oui mais Milky n'est pas son seul problème... et puis il lui dirait juste que le GPU n'est pas compatible, il lui effacerai pas le driver ! :pt1cable:
d'ailleurs la HD6950 est le haut de gamme ATI monoGPU en ce moment... si elle est pas en double je comprend plus rien ! :electric:
dsl Totow, je ne suis plus sous Win, donc pas possible de t'aider pour ma part ! :/
-
Milky marche très bien, comme toutes les applis CAL (Moo, Collatz, ...), les jeux, les vidéos, ...
Il n'y a que les applis OpenCL qui merdent (comme PPS de Primegrid ou Folding@Home).
Quoique ce soir, je peux ajouter un autre truc qui chie : quand j'ai voulu dumper mon BIOS avec GPU-Z, ca a aussi planté :priz2tet:
-
J'ai testé les 11.11 ... pas mieux :priz2tet:
-
ce qui est super bizarre c'est que ca marche bien avec ta HD5770... avec j'imagine les mêmes drivers ? :??:
-
Ben la 5770, j'avais du me débarasser du CCC pour pouvoir à nouveau booter Windows ... mais une fois fait, aucun problèmes.
Par contre avec la 6950, tout a l'air d'aller bien sauf OpenCL ... mais il y a quand même de grosses différences d'architecture entre les deux ...
Les plantages avec les 11.11 sont moins sales (je finis plus en VGA), mais il faut quand même rebooter pour pouvoir réutiliser la carte pour autre chose que de la 2D :(
-
ben y'a pas trop de différence d'archi entre les HD5xxx et les HD6xxx !
on est juste passé de VLIW5 à VLIW4 pour optimiser tous ces micros petit core !
et en casser un peu plus sans meilleur finesse de gravure ! :D
mais je suis étonner quand même du niveau de driver et des différents problèmes que je lis de ci de là... :/
moi qui voulais une HD7xxx@90W... je vais peu etre regarder chez les vert voir ce qu'ils ont en basse conso ! ;)
-
Oh chez les verts, le passage à CUDA 4 avait fait quelques dégats en GPGPU ... et je me souviens d'une série de drivers qui avaient des problèmes de gestion de la ventilation, certains y ont laissé leur carte ...
ElGuillermo> non c'est pas l'alim, sinon j'aurais aussi des problèmes avec les applis CAL (Milkyway ou Moo tapent sévèrent dans le GPU) ou en 3D ...
-
Avant :
(http://img.lbzh.fr/uploads/4ecc4392d6cc0.png)
Perf brutes distributed.net (l'appli qui est derrière Moo Wrapper) :
RC5-72: Benchmark for core #0 (IL 4-pipe c)
0.00:00:02.57 [1,731,424,272 keys/sec]
Après :
(http://img.lbzh.fr/uploads/4ecc439d3280c.png)
Perf brutes distributed.net :
RC5-72: Benchmark for core #0 (IL 4-pipe c)
0.00:00:02.35 [1,900,785,483 keys/sec]
Pour comparaison, ce que sort une 6970 de série non overclockée d'après la base de données de distributednet :
1,995,775,744 keys/sec
Ca m'a l'air pas mal du tout :sun:
-
En O/C, tu dois dépasser 2 Milliards à l'aise... :love: en montant le gpu clock...
-
Nouvelle version du pilote NVIDIA (http://www.nvnews.net/vbulletin/showthread.php?p=2503979) pour les cruncheurs GPU du monde du Libre. :fccpu:
-
D'après ce que je trouves sur le net 105°C serait la limite de température de ma GTX 470... on peut me confirmer, merci !
ma config : Zotac GTX 470 amp edition
-
pourquoi cette différence : 75°C-105°C ?
-
merci pour tes précisions, ma gpu à 2 ventilo dessus et j'ai un boitier coolmaster Haf 922 donc c'est bien aéré....
-
Tout est relatif ... il suffit de voir comme ATI régule ses 6900 à 90°C ...
Mais c'est vrai que 85-90°C reste une limite à ne pas dépasser si on veut garder son matériel en bon état ...
-
donc moi avec mes 70-73°c sous boinc c'est bon.... sachant que les ventilos sont en automatiques...
-
Oui c'est normal. Pense quand même à nettoyer régulièrement la carte pour éviter que la poussière d'accumule ;)
-
Le compte le faire en décembre et en rajoutant des caches poussière sur les ventilos qui la fait rentrer...
-
poussière rime avec galère :jap:
-
Bonsoir à tous! :kookoo:
J'ai lancé collatz sur mon windows familial, mais toutes les unités sur lesquelles doit cruncher ma hd 4600 series (attention, haut de gamme!) se mettent à 100% au bout d'une vingtaine de seconde, indiquant une erreur... quelqu'un aurait-il une idée? :cry:
Je me disais que ça pouvait être moi qui avait mal "identifié" mon gpu sur boinc, je ne sais pas si ça change quelque chose, parce que je reçois un message qui me dit "boinc didn't correctly identify your gpu..." et qui me demande de renseigner ça sur un site, via des menus déroulants (d'ailleurs je sais que j'ai une 46xx series, mais j'ai beau chercher un peu partout je ne sais pas comment connaître xx...). En même temps cette possibilité me parait étrange, puisque je fais tourner ma cg sur primegrid...
Bref, j'espère que quelqu'un aura compris mon message quelque peu confus...
Merci d'avance!
-
:hello:
mmmmh ...
Difficile de dire si tu as une Hd 4650 ou HD 4670 ???
La HD 4650 est cadencé à 600 Mhz et la HD 4670 à 750Mhz !
Primegrid ne donne pas les bonnes info dans le Stderr output de tes UT.
Mais on sait que c'est un R730 :D
http://www.primegrid.com/hosts_user.php?userid=75705
Mais ces deux cartes doivent tourner sans problème sur Collatz !
Tu as quel pilote graphique sur cette HD 46xx ???
Et peut-être essayer de le réinstaller ???
-
Quelle version des drivers ?
-
http://boinc.thesonntags.com/collatz/hosts_user.php?userid=36008
Les derniers si je me trompe pas.
-
Qu'il nettoie son PC puis remettre les paramètres du BIOS par défaut. :D
-
On dirait son anti virus Avast qui bloque :spamafote:
Bizarre !
Message du Stderr output
http://boinc.thesonntags.com/collatz/result.php?resultid=100175209
A voir ...
-
S'il a les 11.11, je parie que revenir aux 11.10 ou 11.9 résoudra le problème ...
-
collatz avec AMD 11.11/Boinc 6.13.12/Vista 32/HD5850&5870 : ca marche tres bien chez moi.
-
CAL a l'air d'avoir des poblèmes sur certaines HD4000 avec les 11.11 ...
-
Peut être cartes trop vieilles ???
-
Meuh non, c'est une question de drivers, quand je voie comme certaines appli OpenCL plantent méchamment sur les 11.11 et des cartes plus modernes comme ma 6950 ... :/
-
assez impressionnante cette chute des prix (je me souvient pas que cela ai déjà pris des proportion comme cela ! :eek: )
le THDG de chez AMD au prix d'un bas-MDG !!! (http://online.carrefour.fr/electromenager-multimedia/sapphire-technology/carte-graph-sapphire-hd6950-2g-gddr5-pci-e-dl-dvi-i-sl-dvi-d-hdmi-dp-w-dual-fan_a11893819_frfr.html) :miam:
moi qui veut absolument attendre la génération suivante ( et de toute façon j'ai budgété la CG que pour Juin prochain... j'espère qu'il y aura aussi des offres sympa !!! :/
-
:hello: Salut Augure
Toutes les années il y a de belle promo !
Mais là c'est vrai plus vite que les années précédente.
Une HD 6950 à ce prix là commence à être intéressant :D
Merci pour l'info :gniak:
-
Si c'est pas un design de référence, on peut pas la transformer en 6970 comme la mienne :D
-
Je sens que je vais m'offrir une ati pour accompagner mes 2 nv sur le 3eme port pci-E-x16 de ma CM pour noel...
J’espère que les drivers ne vont pas se mélanger...
-
Justement, mélanger les deux constructeurs, c'est le cas le plus galère ...
C'est possible sous XP et Seven, mais Vista n'en veut absolument pas. Et pour les faire calculer, c'est encore plus galère.
-
En effet c'est possible je l'ai déjà fait, avant que je crame mon ATI à cause de surchauffe :cpopossib:
C'est un peu galère quand même :/
-
En plus sa va chauffer severe avec deja 2 580gtx Infomat , reflechi bien avant de depenser des sous pour rien :kookoo:
-
L'alim ne va peut-être pas suivre non plus !
Déjà avec deux monstre c'est pas évident, alors trois ! :eek:
Effectivement ! le problème c'est que les cartes se chauffent entre elles aussi :desole:
Mais enfin c'est à voir selon le boitier et la disposition des cartes sur la carte mère :)
Reste aussi le problème des pilotes ! sur certaines machines ça fonctionne bien et d'autres c'est une catastrophe :desole: :desole: :desole: :desole:
-
J'ai une nvidia GTX 570 et une amd HD5770 dans ma machine, ça fonctionne impeccable :D
Il faut simplement un dongle DVD/VGA bricolé pour faire croire à l'AMD qu'un écran est connecté, sinon elle ne démarre pas.
-
Oui, effectivement cela peut être Ric-rac.
J'ai sur un PC: Chipset P45 ASUS. Avec un Proc Q9650 et 2 GPU. 1X GTX580 et 1X5870 ATI et ça merdouille sec. +Alim Corsaire TU 950 Watts. Bah c'est pas gagné! :cry:
-
Il faut simplement un dongle DVD/VGA bricolé pour faire croire à l'AMD qu'un écran est connecté, sinon elle ne démarre pas.
C'est vrai que sous Vista ... sous XP ou Seven il suffit d'étendre le bureau.
C'est le même principe si tu as deux cartes identiques ...
-
En plus sa va chauffer severe avec deja 2 580gtx Infomat , reflechi bien avant de depenser des sous pour rien :kookoo:
Je crois bien qu'infomat est watercoolé
-
Je crois bien qu'infomat est watercoolé
Merci pour vos réponses :jap:
Config de début 2011:
- CM EVGA FTW 3
- Cpu 980x watercoolé, O/C à 3.8, mais pas de water pour les 2 gpu mais O/C à 15%
- Ram g-skill 1333 12Go Triple channel DDR3
- Alim corsair 1200w 80+
- Boitier HAF-X avec des ventilos partout , devant derrière dessus et coté soit 6 + dissipateurs sur les 3 HD 2To WD green du raid 5 interne sata 2 .
- Graveur Blue-ray ASUS
- Corsair SSD 120Go pour win 7 x64
- 2HD 2To WD Green
et 2 NV 580 EVGA ... 1 emplacement de libre pci-E.
- Clavier, souris laser, caméra, volant avec secousses logitech
- Joy Micro$oft pour FS X, imprimante all in one HP, hub usb d-link,
- Routeur-câble Netgear avec wifi avec internet 100Mo
- TV Plasma Philips 42 pouces avec hdmi 1280x1024 75hz, écran Led acer 24 pouces 2048x 1900 3D 120hz
- Ensemble 4 Hp + caisson de basse, 2 micros pour karaoké
Config 2006:
- CM Msi 975 HS
- 4Go RAM DDR2
- 2 HD 300 Go sata 2
- NV MSI 9800 GT, 7600 GS.
- 1 Graveur DVD+/- sata 2
- Boitier standard 4 emplacements
- Clavier et souris Logitech USB
- Win XP x32
Config 2001:
- Intel p4 1.5ghz
- Cm Msi 945 AGP
- 780 Mo ram
- nvidia MSI GEForce 2 TI AGP
- Ecran Led Dell 19 pouces, Ecran TFT Sony 17 pouces
- HD 120 Go et 300 Go IDE
- Lecteur DVD pioneer et Graveur DVD x24 Philips
- Clavier Cherry mini-dyn, souris hp usb
- win xp x32
C'est Tout !!! :siflotte:
-
Merci pour vos réponses :jap:
Config de début 2011:
- CM EVGA FTW 3
- Cpu 980x watercoolé, O/C à 3.8, mais pas de water pour les 2 gpu mais O/C à 15%
- Ram g-skill 1333 12Go Triple channel DDR3
- Alim corsair 1200w 80+
- Boitier HAF-X avec des ventilos partout , devant derrière dessus et coté soit 6 + dissipateurs sur les 3 HD 2To WD green du raid 5 interne sata 2 .
- Graveur Blue-ray ASUS
- Corsair SSD 120Go pour win 7 x64
- 2HD 2To WD Green
et 2 NV 580 EVGA ... 1 emplacement de libre pci-E.
- Clavier, souris laser, caméra, volant avec secousses logitech
- Joy Micro$oft pour FS X, imprimante all in one HP, hub usb d-link,
- Routeur-câble Netgear avec wifi avec internet 100Mo
- TV Plasma Philips 42 pouces avec hdmi 1280x1024 75hz, écran Led acer 24 pouces 2048x 1900 3D 120hz
- Ensemble 4 Hp + caisson de basse, 2 micros pour karaoké
:love: :love: :love: :love: :love: :love: :love: :love: :love: :love: :love:
-
Pas de watercooling pour les GPU donc oui, attention à la surchauffe
-
1 Moulin à café 220V.
1 Sèche linge.
1 Réfrigérateur et congélo.
1 Lit avec sa commode.
1 égo a ma démesure.
bref je suis... Moi!
Avec mes amitiés ampoulés en 12V.
:desole:
-
On dirait du Prévert...
-
On dirait du Prévert...
L'abus de LEFFE ...............ca pardonne pas :ange:
-
On dirait du Prévert...
Y'a un peu de ça. :lol:
-
L'abus de LEFFE ...............ca pardonne pas :ange:
Pardon? :D
-
Oui je sais , ca fait lourd à lire mais j'avais déjà mis cette config sur un fofo en début d'année.
C’était aussi pour expliquer le pourquoi de la 3eme CG en ATI.
Et j'ai oublié le HD externe 1 To usb 2 ... :D
-
Pas de problème avec moi c'était mon moment de délire. :pt1cable:
Amitiés.
Le Gilloox
-
:hello: J'aime bien la leffe aussi... et la déconnade :D :ange: :pt1cable:
-
VOICI un article sur le GPGPU ( calcul scientifique par exemple) bench des hd 7970 qui sortent en janvier http://www.presence-pc.com/tests/amd-Radeon-hd-7970-23426/14/
-
Intéressant, mais ca reste des benchmark ...
Rien ne vaudra un test sur nos appli favorites ;)
-
Quels projets Boinc fonctionnent avec ?
http://statsbzh.boinc-af.org/statut_projets.php?pf=atigpu&
:coffeetime:
tout ceux notés ATI ! :D
-
Bijour,
je suis en train de chercher une machine pour le taf qui puisse bien faire tourner autocad, (et du crunch aussi :D) mais j'y connais rien en CG.
ça vaut quoi en temps que cg ça : AMD Radeon HD 6450
edit:
et il vaut mieux
2 x AMD FirePro V5900 de 2 Go
ou
1 x 2Go GDDR5 NVIDIA Quadro 4000
-
Ben sur le comparatif du site, la FirePro V5900 est souvent mieux classée que la quadro 4000...
Et niveau utilisation c'est autocad 2010, plans d'archi en 2D uniquement pour les réseaux de chauffage et d'eau. Pas de texturing.
-
Salut,
AutoCAD utilise PixelShader 3.0 il te faut donc une carte compatible (à partir de DX 9.0c). Il faut aussi qu'elle soit compatible Microsoft® Direct3D (DirectDraw pour la 2D??).
Tout ça utilise la mémoire vidéo, peut etre il vaut mieux une carte avec plus de mémoire meme si elle est d'une architecture inférieur..? je sais pas si ton soft utilisera bien un cross ATI (ou un SLI)...
edit: service commercial Autodesk: 01 46 46 38 38
Bon courage
-
perso pour ton utilisation, je ne prendrais pas des CG pro... le but de ces cartes est des drivers super stable !
mais l'utilisation d'autoCAD est super générique (je l'utilise très bien, et pour la même raison que toi ^^, avec un Ci7 ) !
alors moi je prendrais plutôt une HD6770, 3fois moins cher et tout aussi bien !
à savoir que tu n'as pas non plus besoin d'un Cross ou d'une HD7970 !!! :D
-
Au taf j'utilise AutoCAD MAP 3D 2012 pour du dessin 2D avec une Quadro FX 580 sous XP Pro 32 bits, c'est juste mais ça passe (~ 10 k de RAC pour les pps PrimeGrid :D)... perso je te conseille la Quadro 2000.
-
le test de la 7970 d'AMD , en computation ça s'améliore 3.79 TFLOPS ; http://www.comptoir-hardware.com/articles/cartes-graphiques/16532-test-amd-radeon-hd-7970.html?start=1 environ 500 euros la carte ^^
mais je prendrais plutot deux hd 5870 ce qui est mieux q'une hd 7970 ou une NVIDIA!
car hd 5870 : 2.72 gflops en SP et 544 gflops en double ( deux pour 220 euros en occaz)
hd 7970 :3.8 tflops en sp et 947 gfops en double
pour 500 euros
-
Il va surtout falloir attendre les optimisations pour la nouvelle architecture ...
-
J'ai acheté sur cdiscount une :
- XFX AMD HD 6970 2Go GDRR5 neuve pour 250 euros au lieu de 380.
J’espère que ca le fera sur moo:
Ca sera la 3eme CG de mon Monstre... :D
Pourvu que les drivers ne se mélangent pas les pinceaux entre NV et ATI :/
-
Ca va péter, mon colonel.... :pt1cable:
-
Info va falloir que tu demande d'augmenter la puissance de ton compteur électrique :D
Sinon tu va tout cramer :D
-
Pourvu que les drivers ne se mélangent pas les pinceaux entre NV et ATI :/
Justement, c'est pas recommandé ... suivant l'OS ca peut même ne pas du tout marcher (sous Vista, c'est impossible).
-
En même temps, tenter de faire le moindre truc sous Vista, c'est déjà pas mal courageux... :miam:
C'est juste pour faire vendre plus de souris à force de cliquer, c'est tout :siflotte:
-
J'avais pris mes précautions :
- Alim Corsair 1200W 80+
- Win 7 Pro
Et si ca va pas, je fais réparer mon ancienne UC et je mets l'ati dessus...
-
j'ai remarqué au boulot que mon pc va mettre par exemple 20 minutes pour calculer une mini-collatz en GPU et qu'au bout de quelques heures il va mettre 1 heure et même plus, mais si je quitte boinc et que je le relance, il va remettre 20 minutes...
quelqu'un a une idée de ce problème ?
-
j'ai remarqué au boulot que mon pc va mettre par exemple 20 minutes pour calculer une mini-collatz en GPU et qu'au bout de quelques heures il va mettre 1 heure et même plus, mais si je quitte boinc et que je le relance, il va remettre 20 minutes...
quelqu'un a une idée de ce problème ?
je dois ouvrir le gestionnaire pour arreter des processus FreeHal (en fait j'ai abandonné^^) et il y avait des fois des processus fantome de Collatz, regarde si tu n'en a pas par hazard, si il y en je saurai pas ce qu'il faut faire.
-
Ah oui, j'ai déjà eu le cas de processus Collatz qui trainaient là on sait pas pourquoi ... :/
-
mais j'ai la même chose sur Primegrid par exemple, quelques unités calculées en 45 minutes, puis au bout de quelques heures il lui faut 2 heures... si je relance boinc, hop 45 minutes...
-
Avec les nouvelles GTX 680 vous ne pourrez plus dires qu'elle consomme trop.... :D
par contre elle demande un support PCI e 3.0 ? pas sur que ma CM supporte cette norme.... http://www.gigabyte.fr/products/product-page.aspx?pid=3237&dl=1#sp (http://www.gigabyte.fr/products/product-page.aspx?pid=3237&dl=1#sp)
il va falloir que je change de CM et donc aussi de ventirad voir de CPU à cause de ce changement ? pour l'alim je pense pas j'ai une 650W de corsair
-
par contre elle demande un support PCI e 3.0 ? pas sur que ma CM supporte cette norme....
Si c'est comme le 2.0 et le 1.0, tu pourras la mettre sur un port PCIe 2.0 et tu y perdra q'un peu, si c'est comme entre 2.0 et 1.0 ;)
-
De toute façon on verra çà ds un an quand le prix sera sous les 200 e
-
lol ta deja vu des 580gtx sous 350euros ???
-
elle est plus sensé remplacer la 560Ti ! ;)
... et pis dans un an, tu en voudras une autre tout juste sortie ! :siflotte:
par contre, je me demande ce qu'elle vaut sur BOINC face au HD79xx car HFR la décri comme "spécialisé pour l'affichage et les jeux, au détriment du GPUcomputing" ! :/
-
C'est un peu ironique, alors que ATI s'intéresse enfin on GPGPU, nVidia l'oublie ... :/
Perso, je pense que nVidia tend vers ATI avec cette technologie ... beaucoup d'unités de calcul, on va retrouver les travers d'ATI, à savoir une conso CPU en hausse pour alimenter le GPU en calculs et une plus grande difficulté à utiliser toutes les unités ... :(
-
Pour vous les fans : http://www.configspc.com/nvidia-lance-la-geforce-gtx-680.html
-
elle est plus sensé remplacer la 560Ti ! ;)
Bien vu, avec un GPU milieu de gamme (GK 104), fortement o/c, c'est plutôt une 660Ti rebadgée en 680 en effet.
Sauf le prix qui est bien celui d'une 680 :eek:.
C'est un peu ironique, alors que ATI s'intéresse enfin on GPGPU, nVidia l'oublie ... :/
Pas faux, j'espère qu'on ne verra pas le GPU haut de gamme (GK 110) que sur les cartes Tesla :/.
-
Je pense que les caractéristiques de cette carte ne sont pas faites pour nous... :/
-
Les responsables de Primegrid conseillent de rester sur les GTX 5xx pour le calul GPU, la série GTX 6xx étant plus lente.
http://www.primegrid.com/forum_thread.php?id=4204
WARNING: The GTX 680 is **SLOWER** than the GTX 580
The results are in -- and the 680 performs horribly for GeneferCUDA.
It is significantly slower than a GTX 580 when running the GeneferCUDA application. The GTX 680 has severely crippled double precision speeds, and that's what's used by GeneferCUDA (and also llrCUDA).
If you're looking to run Genefer, the GTX 500 series GPUs are the best. Stay away from the Kepler (600 series) GPUs. I expect the 500's to drop in price, and they're better suited for this application than the newer cards.
La bonne nouvelle c'est que la sortie des GTX 6xx devrait faire baisser les prix des GTX 5xx.
-
...
La bonne nouvelle c'est que la sortie des GTX 6xx devrait faire baisser les prix des GTX 5xx.
Voilà une idée qu'elle me plaît!!! :D
-
je crois que la baisse à commencé... car quand je compare les promo de décembre et les dernières cela me parait assez sympa ? nan ?
effet d'optique à cause des 500€ de la 680 ?
Bien vu, avec un GPU milieu de gamme (GK 104), fortement o/c, c'est plutôt une 660Ti rebadgée en 680 en effet.
Sauf le prix qui est bien celui d'une 680 :eek:.
oui je suis d'accord... ce qui me fait dire que pour la GK110, se sera non seulement un chauffage centrale, mais cela coutera aussi le prix du chauffage centrale d'une barraque !!! :eek:
-
Mais non, ils vont juste nous refaire le coup des GTX 280 castrée suivie des GTX 285 avec tous les SP activé ... :/
-
Si tu le dis...
-
2 liens utiles pour comparer les caractéristiques et performances des GPU :
Pour les GPU AMD/ATI (http://en.wikipedia.org/wiki/Comparison_of_AMD_graphics_processing_units)
Pour les GPU NVIDIA (http://en.wikipedia.org/wiki/Comparison_of_Nvidia_graphics_processing_units)
:hello:
-
en faite c'est les ATI ancienne version qui baissent ! :D
http://www.cowcotland.com/news/30924/bons-plans-jibaka-hd-6850-111-97-avec-deus-ex.html
-
J'aimerais votre avis :
A noël je me suis acheté une GTX 560 TI (OC) et depuis j'ai essayé primegrid et gpugrid.
Au final je n'arrive pas à faire fonctionner gpugrid (surement à cause des fréquences trop élevées de mon GPU qui le rend instable sur ce projet) ainsi que genfer pour la même raison.
De plus je commence à m'ennuyer sous les deux autres sous-projets de primegrid.
Donc je souhaite passer à d'autre projets GPU comme Moo ou Collatz. Je sais qu'ils ne sont pas optimisés pour un GPU nvidia mais j'aimerais savoir lequel est le plus performant avec une nvidia et si ce n'est pas trop du gachis de temps de calculer avec une nvidia sur ces projets.
Merci d'avance pour vos avis :jap:
-
Je dirais Moo !
-
Il y a aussi disRTgen ...
-
merci pour vos réponses :jap:
Je suis en train de tester moo et disRTgen.
Je fais 1500 pts en 35min sur moo et 8700 en 35min sur disRTgen (qui sur-crédite pas mal).
J'essaierai aussi de tester collatz (qui est pour le coup plus un projet de math) mais ça a l'air plus compliqué à utiliser car il faut installer manuellement l'appli sous linux :/
-
Salut à tous, que me conseillez-vous en nVidia anciennes dans les 70€ maxi pour cruncher avec ? J'ai peut être une opportunité d'en avoir pour pas cher...
Je peux avoir une ati 6670 à 75€ ça vaut le coup ? combien je peux espérer de points avec ça ?
-
73-74°C c'est grave docteur ?
-
Si le GPU est à 99% de charge ça reste encore raisonnable !
Tu as peut-être une température plus élevé chez toi en ce moment non ?? c'est peut-être de là que vient l'augmentation ?
-
çà ossile entre 80 et 99% sur donate@home.
dans ma chambre il fait 22°C environs mais cela peut venir aussi de la poussière car depuis janvier-février je n'ai pas nettoyer ma carte... :desole:
Edit : Les ventilos ne sont qu'à 43% de leur puissance en automatique...
-
Oui possible aussi que les ailettes du radiateur commence à se boucher par la poussière sur ta carte. :spamafote:
Sur ma GTX470 avec le Zalman VF3000F ils sont à 50% et 60°C avec 26°C dans la pièce.
Par contre ma deuxième GTX c'est l'enfer !!! 100% du ventilo avec un bon 80°C :o (système d'origine Nvidia)
-
60°c sous donate@home ?
-
Euh non ! sous DistrRTgen avec un taux d'utilisation entre 93% et 99% :jap:
-
D'après les tests que j'ai faits, Donate est le projet qui consomme le plus sur nVidia, et de loin.
Donc qu'il provoque la température GPU la plus forte, c'est logique, et 73-74°C dans ces conditions ne me paraissent pas excessifs.
:hello:
-
merci de vos précisions...
-
Bonjour,
Quelles sondes je dois prendre en compte car dans GPU-Z il y a une différence de 4 °C en moins entre celle du pilote graphique et la ADT7473 ? merci
-
Je pense que la sonde matérielle doit être plus précise que la logicielle...
-
Si c'est pour surveiller ton matos, c'est plus prudent de prendre en compte la valeur la plus élevée.
-
donc faire confiance à la sonde du pilote graphique nvidia ?
-
Je pense que Nabz veut dire que, par sécurité, la valeur la plus haute est la meilleure...
-
C'est tout à fait ça. :jap:
Les photos infrarouge montrent que la thermographie d'une machine est complexe, il n'y a pas que le CPU et le GPU qui chauffent. C'est le piège du watercooling qui améliore les températures CPU et GPU, mais aggrave les températures d'autres composants, comme les étages d'alim des cartes mères et des cartes graphiques.
Pour retenir la valeur la plus basse, il faudrait que tu sois sûr que la mesure la plus haute, même moins précise, n'est pas située en un point de mesure réellement plus chaud.
-
ok merci...
c'est le pilote graphique qui dit 65 et la sonde 61°C par exemple...
-
Même dans un GPU, il y a plusieurs zones de température ... genre shaders, controleur mémoire, gestionnaire d'IO ...
Sur mon ancienne 4870, le problème venait des régulateurs de tension qui surchauffaient ... certes leur système de refroidissement maison était efficace pour le GPU, mais alors du coup, ca négligeait complètement les régulateurs.
Au final, les refroidissement de référence ATI et NV qui englobent la carte autour d'une turbine sont les plus homogènes pour la santé de la carte ... mes vieilles 9800 GTX+ sont encore là pour en témoigner :)
-
La gtx 470 zotac amp edition est bien ventilés avec ses 2 ventilos, non ?
-
Sur cette image quelle température de GPU prendre :
(http://img.lbzh.fr/uploads/4feb4c6f15098.PNG)
Edit : j'ai déjà poser la question mais j'aime avoir plusieurs fois le même avis...
-
Je dirais la plus haute 74°C :siflotte:
-
sur l'image il y a 51°C de temp ambiant au niveau GPU, cela signifie quoi ?
-
Je pense que c'est la température du PCB. C'est à dire de la carte.
-
Heureusement que n'as pas mon ATI, tu serais perdu entre le Display IO Temperature, le Shader Temperature, Memory Controller Temperature et le VDCC Temperature :siflotte:
-
5 mois sans enlevé la poussière et j'ai pris environs 13°C en plus sur le GPU et 10-15°C sur le CPU avec boinc... :desole:
J'ai mis des filtres à poussière sur les 3 ventilos qui font rentrer l'air, on va voir ce que cela donne...
ceux là sur mes ventilos de la portes latérale : materiel.net/acc... (https://www.materiel.net/accessoire-pour-boitier-pc/filtre-anti-poussiere-aluminium-120-mm-21437.html)
Et celui-ci sur le ventilo de la façade, mais il va falloir que j'en commande un autre car je me suis trompé sur la taille (il fallait un 200) : materiel.net/acc... (https://www.materiel.net/accessoire-pour-boitier-pc/silverstone-filtre-ventilateur-140-mm-68212.html)
-
A force de mettre ces filtres, tu risques de boucher les arrivées d'air...
Et d'augmenter la vitesse ou le diamètre des ventilos pour compenser...
-
Les filtres en aluminium de matériel.net sont très bien.
Ils sont solides, un petit coup d'aspirateur dessus et c'est réglé !
J'ai les mêmes sur ma porte latéral !
(http://img.lbzh.fr/uploads/4feea64caccd4.JPG)
En façade c'est ceux d'origine d'Antec, qui sont détachable
mais bien plus fragile :/
-
Justement j'ai mis 2 filtres venant de materiel.net sur la porte latérale et un sylverstone sur la façade avant mais pas de la bonne taille (140 au lieu de 200)
-
Depuis que je les installés, les températures on baissé comme d'hab après un nettoyage sur mon HAF 922
-
Faudrait aussi que je nettoie mon HAF-X.
Hildor, belles bêtes :love: :love: en effet :jap:
-
Ma carte mère n'est compatible que PCI 2.0 : http://www.gigabyte.fr/products/product-page.aspx?pid=3237&dl=1#sp
Je ne peux donc m'acheter les GTX 6xx qui sont PCI 3.0 :??:
Merci...
-
Si c est comme PCIE 1 et 2 c'est retrocompatible, avec qu une legere perte de performance sur les calculs les plus pousses. Entre 2 et 3 ça reste a confirmer. :hello:
-
Ma carte mère n'est compatible que PCI 2.0 : http://www.gigabyte.fr/products/product-page.aspx?pid=3237&dl=1#sp
Je ne peux donc m'acheter les GTX 6xx qui sont PCI 3.0 :??:
J'ai une GTX 6xx qui tourne sans problème ni perte de performances sur une CM PCI-E 2.0 seulement.
:hello:
-
Ok je pourrais en acheter une GTX 670 ds l'avenir...
-
Ok je pourrais en acheter une GTX 670 ds l'avenir...
Pour info la GTX 660 Ti, qui vient de sortir, consitue une alternative intéressante à la GTX 670.
Quelques infos ici : http://forum.boinc-af.org/index.php/topic,4733.msg322242.html#msg322242 (http://forum.boinc-af.org/index.php/topic,4733.msg322242.html#msg322242)
-
oui j'ai vus çà...
donc la conso électrique diminue avec cette carte ?
-
donc la conso électrique diminue avec cette carte ?
C'est ça, les GTX 600 consomment moins que les générations précédentes, que se soit au repos ou en charge.
-
sur çà donc pas besoin de changer d'alimentation, moi j'ai une TX 650 w
-
Tu peux utiliser ce calculateur pour avoir une bonne idee :
http://extreme.outervision.com/psucalculatorlite.jsp (http://extreme.outervision.com/psucalculatorlite.jsp)
-
sur çà donc pas besoin de changer d'alimentation, moi j'ai une TX 650 w
Le TDP d'une GTX 470 est de 215 W alors que celui d'une GTX 670 n'est que de 170 W, donc ton alim passe.
Après, tu peux savoir précisément ce que tu économiserais en conso si tu décidais de changer de carte en te procurant un énergiemètre, et en testant ta GTX 470 sur tes projets préférés selon la méthode que j'explique dans le tutoriel.
Ensuite, il te suffira de comparer les résultats de conso de ta GTX 470 avec ceux que Jascooby a fait avec sa GTX 670. ;)
-
J'ai une GTX 6xx qui tourne sans problème ni perte de performances sur une CM PCI-E 2.0 seulement.
:hello:
Peut-on me reconfirmer que c'est bien compatible car vus le prix des GTX 650 qui vient de sortir je vais peut être me laisser tenté mais apparemment il y a moins de coeur cuda que sur ma gtx 470 (384 contre 448) ???!
-
OUI, c'est compatible!
Pour les perfs, je sais pas repondre...
-
OUI, c'est compatible!
Pour les perfs, je sais pas repondre...
Pas mieux.
En effet, sortie des GTX 650 et GTX 660, qui se positionnent en milieu de gamme entre les GT 640 et GTX 660 Ti déjà dans le commerce. Merci pour l'info. :jap:
Je vais les ajouter au tableau comparatif de mon tuto.
-
Merci de vos réponses...
-
Nouveaux drivers nvidia arrivés .
-
Et ca apporte quoi ?
-
pas vraiment car il n'y a que GPUGRID en cuda 4 je crois....
-
pas vraiment car il n'y a que GPUGRID en cuda 4 je crois....
A tester... et puis c’était une info...
-
Comme 90% des maj de drivers GPU, ca sert à rien pour nous ...
Et le pourcentage de maj utiles baisse d'autant plus que le GPU est vieux :(
-
... vus le prix des GTX 650 qui vient de sortir je vais peut être me laisser tenté mais apparemment il y a moins de coeur cuda que sur ma gtx 470 (384 contre 448) ???!
Si ça peux t'aider, voici quelques éléments utiles.
La GTX 650 utilise le même GPU d'entrée de gamme (le GK 107) que GT 640. Je doute donc qu'elle soit apte aux calculs en double précision, contrairement à la GTX 470.
La puissance de calcul brute de la GTX 650 est de 813 GFlops, à comparer aux 1089 GFlops de la GTX 470.
La consommation (TDP) de la GTX 650 est de 64 W, à comparer aux 215 W de la GTX 470.
-
Merci pour les précisions sur pour la conso :eek:
et pour la 660 c'est quoi les chiffres ? merci
-
La GTX 660 utilise un GK 106, dispose de 960 SP, fournit 1882 GFlops, mais a un TDP de 140 W et coûte autour de 210 euros.
J'ai ajouté ces données dans le tableau de mon tuto (http://forum.boinc-af.org/index.php/topic,5000.msg324270.html#msg324270). :siflotte:
Après calculer autant en consommant moins, ou calculer plus en consommant autant, c'est un choix personnel.
-
donc elle consomme moins que ma 470... ok
-
Salutations,
actuellement j'utilise ceci :
Coprocesseurs : NVIDIA GeForce 8800 GTS (320MB) driver: 306.23
Si je change ma carte graphique pour ceci :
Coprocesseurs : NVIDIA GeForce GT 520 (1024MB) driver: 306.23
Pensez-vous que j'aurais un gain significatif ?
-
:kookoo: Necromago,
Il semblerait que non, tu n'y gagneras rien, au contraire. Compare les performances de tes cartes sur ces pages pour les projets de ton choix :
pour la 8800 GTS : http://wuprop.boinc-af.org/results/gpu.py?fabricant=NVIDIA&type=GeForce+8+%288xxx%29+series&modele=GeForce+8800+GTS&tri=projet&sort=asc (http://wuprop.boinc-af.org/results/gpu.py?fabricant=NVIDIA&type=GeForce+8+%288xxx%29+series&modele=GeForce+8800+GTS&tri=projet&sort=asc)
pour la GT520 : http://wuprop.boinc-af.org/results/gpu.py?fabricant=NVIDIA&type=GeForce+500+Series&modele=GeForce+GT+520&tri=projet&sort=asc (http://wuprop.boinc-af.org/results/gpu.py?fabricant=NVIDIA&type=GeForce+500+Series&modele=GeForce+GT+520&tri=projet&sort=asc)
-
Noté.
Merci
-
Tu passerais d'une carte ex-haut de gamme à une carte d'entrée de gamme ... mauvais plan.
-
Je le comprends bien.
Mais ma GeF 8800 GTS était de 2007 et là GeF 520 GT est de 2010 ou 2011.
Je mettrai les deux machines en concurrence, sur les mêmes projets et je comparerai.
C2Q + GeF 8800 GTS (http://setiathome.berkeley.edu/show_host_detail.php?hostid=6762492)
et
C2D + GeF 520 GT (http://setiathome.berkeley.edu/show_host_detail.php?hostid=6551073)
-
Comme il s'agit d'une question que nous nous posons tous avant un achat ou remplacement de matériel, j'ai créé une FAQ sur ce sujet. ICI (http://forum.boinc-af.org/index.php/topic,5063.0/topicseen.html#msg327288)
-
Driver NV GeForce (306.81 WHQL) - Windows XP dispo
-
Est-il vrai que malgré les données sur la puissance brute des Geforce 600 en FLOPS, celles-ci soient en réalité moins efficace que les G500?
-
ma GTX260 vient de rendre l'âme. Que me conseillez-vous pour la remplacer avec priorité à l'économie d'énergie, PCIe, carte pas trop longue pour tour moyenne, optimisation boinc et usage lecture vidéo (streaming ou DVD) sur grand écran, occasionnellement jeu type Dirt3, budget max. 200€ ? merci
-
Pas mieux :)
-
Ta pensé une prendre une AMD ? Elle sont pas chère, surtout avec les baisse qu'elle ont connus ces dernier temps, et elle sont tout aussi bien, voir meilleur.
-
Ah , l'éternel débat de la puissance de calcul entre nv et ati... :miam: :D
-
Il est exact que pour environ 250€ on peut avoir une GTX 660 Ti, mais aussi une HD 7950.
Après à chacun de se faire sa propre idée, fonction de ses besoins. :jap:
-
Pour les amateurs de sensations fortes, je viens de voir que les nVidia Tesla K20 (http://www.carri.com/html_gpu/nvidia/tesla_k20.php) font leur apparition dans le commerce autour de 3700 €. :siflotte:
-
:electric: :pt1cable: :bouh: :dingue: :gni: :pompiste: :poingordi:
-
Je vais braquer le bureau de poste du coin et je file m'en acheter une :gniak: :eek:
-
Je participe à ta quête! comme ça on en prends deux :D
-
:hilare:
-
:etmerde:
-
Lol, 190 GFLOP une Tesla K10 basée sur la GK104 (de la daube) autant gardé la tesla basée sur la GTX285 qui fait mieux XDXD
Franchement, kepler, c'est une énigme....Autant attendre les Maxwel que de foncer sur kepler pour les pros
-
Et c'est pas dit qu'elle fonctionne bien sous boinc...
-
Je me demande quel abonnement "EDF" il faut pour faire tourner ce genre de carte @ home...
-
je vais sans doute récupérer une ati 6870 d'occase, quel projet me conseillez vous pour cette carte ?
-
C'est de la bonne carte ça, j'en voudrais bien une :) je pense que la plupart des projets gpu tournent dessus.
-
je vais sans doute récupérer une ati 6870 d'occase, quel projet me conseillez vous pour cette carte ?
Toi qui aime les projets bio normalement [WCG]Help ConquerCancer et POEM doivent tourner dessus je pense.
-
ok je testerai d'entrée sur Poem, il faut boinc 7 il me semble ?
-
ok je testerai d'entrée sur Poem, il faut boinc 7 il me semble ?
Yep
-
mince Poem n'a plus de wus en stock, wait and see
-
Lol, 190 GFLOP une Tesla K10 basée sur la GK104 (de la daube) autant gardé la tesla basée sur la GTX285 qui fait mieux XDXD
Comme souvent, il faut que l'acheteur fasse un choix adapté à ses besoins. :spamafote:
La Tesla K10 bi-GPU est conçue pour des calculs en simple précision, où elle fournit 4577 GFlops. Avec 190 GFlops, elle n'est effectivement adaptée qu'à des calculs en double précision occasionnels.
Les Tesla K20/K20X mono-GPU sont conçues pour des calculs en double précision, où elles fournissent 1170/1312 GFlops. Elles sont moins adaptées à des calculs en simple précision, compte tenu des 3520/3935 GFlops "seulement" qu'elles fournissent.
Bien entendu, le cruncheur fan de GFlops leur préfèrera une HD 7970 Ghz qui pour 10 à 15 fois moins cher fournit 4096 GFlops en simple précision et 1024 GFlops en double précision. :D
Je me demande quel abonnement "EDF" il faut pour faire tourner ce genre de carte @ home...
La Tesla K10 consomme 250 W, et les Tesla K20/K20X 225/235 W.
Soit 2 à 3 fois la consommation d'un CPU.
-
question bête : la 6870 est simple ou double précision ?
-
Simple précision, sur les series 6xxx, la double précision n'était disponible qu'a partir des 69xx, si je me souviens bien :desole:
-
Simple précision, sur les series 6xxx, la double précision n'était disponible qu'a partir des 69xx, si je me souviens bien :desole:
Tu te souviens bien. :jap:
-
Ah ça me rassure, je commençais a croire que je yoyotais :lol: :lol:
-
zut, moi qui voulait faire du milky avec la 6870 c'est rapé alors ?
-
Oui, c'est rapé :(
-
Savez-vous comment on peut underclocker une nvidia (GTX560ti overclocker d'usine) avec les dernier pilotes (304) sous linux ?
En fait j'essaye de l'underclocker pour faire tourner des projets comme GPUGrid ou Genfer, ce que je ne peux pas faire actuellement car la plupart des unités partent en erreurs.
-
:hello:
J'avais réussi à un moment avec option Coolbits "5" sur GTX 470 mais j'avoue être un peu perdu avec la dernière génération de Ubuntu et Unity de ce point de vue là :/
Je vais essayer de me replonger dans la question :coffeetime:
-
Oui j'ai déjà essayé coolbits mais apparemment on ne peut plus modifier que la vitesse des ventilo avec les nouveaux pilotes de nvidia.
-
Oui, revendre la carte overclockée d'usine et en acheter une non overclockée :D :marcp:
-
Oui j'ai déjà essayé coolbits mais apparemment on ne peut plus modifier que la vitesse des ventilo avec les nouveaux pilotes de nvidia.
Ca, c'est plutôt une bonne nouvelle. :)
De nombreuses cartes ont été cramées à cause de bugs de pilotes ou de mauvais réglages des utilisateurs.
-
Et puis : régler le ventilo, c'est dangereux aussi : si, par mégarde, on le verrouille sur une position trop basse, on flinguera la carte aussi...
On est bien d'accord, je n'ai juste pas fait attention au "que" dans la phrase de matt, au temps pour moi. :etmerde:
-
(GTX560ti overclocker d'usine)
Les cartes overclockées d'usine, c'est le mal pour le GPGPU ... :/
On pourrait supposer que les utilisateurs Linux sont un poil plus "techniciens" que ceux de Windows.
Alors comment justifier que le pilote Windows peut overclocker, tandis que le pilote Linux ne peut pas ?
Simple : tous les benchs pour le concours de qui a la plus grosse (jeux et autres 3dmark) sont sous Windows ... :siflotte:
-
Bonjour à tous, quand on installer 2 GPUs Ati dans la même machine (4870 et 6870) faut-il installer les 2 catalysts ? (celui de la 4870 est en 12.6 et celui de la 6870 est en 12.10)
Si oui dans quel ordre ?
-
Perso, j'ai essayé une fois de mettre deux CG ati de générations différentes, et j'ai jamais réussi a les faire fonctionner toutes les deux :/ . Je confirme que cela fonctionne avec une ati et nvidia sous seven. :D
-
2 nv et 1 ati chez moi. :ange:
-
et les nvidia sont de même génération ? :kookoo:
-
pour tes 2 nvidia, tu as installé 2 pilotes ou 1 seul ? quelqu'un a déjà fait tourner 2 atis de 2 générations différentes ensemble ? (sur des projets différents)
-
Ma GTX260 est overclocker de 15% (sans problème), j'utilise le logiciel MSI Afterburner avec gestion automatique du ventilo de la carte.... c impec: utilisation GPU 100%, la température ne dépasse pas les 63°C^^ (mais un peu de bruit, car le ventilo peut atteindre les 75% de sa vitesse maxi)
Pour infos, c une Zotac Synergy Edition, la puce est la version 2 en 55 nm (non en 65 nm), mais tjr en 192 CUDA, (non 216)
-
Perso, j'ai essayé une fois de mettre deux CG ati de générations différentes, et j'ai jamais réussi a les faire fonctionner toutes les deux :/ . Je confirme que cela fonctionne avec une ati et nvidia sous seven. :D
Par contre il faut utiliser la Nvidia en Master car les catalyst ne doivent pas s'afficher correctement ? J'avais testé ça avec une GTX670 + HD7950
Sinon ptite question, une vieille ATI X1950 pro vous croyez que ça fonctionne encore sous Boinc ? :D
-
Moi, j'avais une HD 6950 en master et une gt 430 en second, le seul problème était pour mettre a jour les drivers nvidia, j'étais obligé de connecter la carte a l'écran. :/
Pour la ati 1950 pro, je laisse les spécialistes te répondre :D
-
La X1950 ne marchera pas, car n'utilisant pas l'architecture dite unifiée où on est actuellement...
Pour BOINC, minimum GeForce GTX260 chez Nvidia, et ATI HD3850 chez ATI
-
:jap:
-
et les nvidia sont de même génération ? :kookoo:
Au début, non, 2x 580gtx et 1x 9800 gt, même pilote, pas de pb.
Puis j'ai remplacé la 9800 par une ati 6970, donc 2 pilotes.
-
Dites moi, une "NVIDIA GeForce GTX 675MX avec 1 Go de mémoire GDDR5" ça reste nul ou c'est à peu près intéressant pour faire du crunch GPU (OpenCL only) ? Je suppose que c'est déjà mieux que mon ATI Radeon HD 4850... mais du fait de la limite OpenCL, il doit pas y avoir des masses de projets où c'est compatible, non ?
C'est ce qui équipe les nouveaux iMac (haut de gamme, sinon c'est "NVIDIA GeForce GTX 660M avec 512 Mo de mémoire GDDR5"), que je prendrai peut-être l'année prochaine, donc je me pose la question.
-
Dites moi, une "NVIDIA GeForce GTX 675MX avec 1 Go de mémoire GDDR5" ça reste nul ou c'est à peu près intéressant pour faire du crunch GPU (OpenCL only) ?
Au vu de mon article de référence (http://en.wikipedia.org/wiki/Comparison_of_Nvidia_graphics_processing_units) et de la page constructeur, la GTX 675 MX ressemble à une GTX 660 "de bureau", fortement underclockée de 980 à 600 Mhz, afin de faire chuter sa conso de 140 à 100 W (limite du design iMac :??:).
Elle est donnée pour 1152 GFlops en SP, et elle fournit probablement 96 GFlops en DP (pour Milkyway et Primegrid/genefer).
Par comparaison, la Mobility HD 4850 est donnée pour 800 GFlops en SP, et 160 GFlops en DP.
Les perfs en crunch devraient donc être similaires à ce que tu connais actuellement (sauf en DP), mais avec une meilleure compabilité (CUDA + OpenCL, si des applis Mac existent of course), et un bruit et des températures améliorées.
La GTX 680 MX devrait être plus méchante (2234 GFlops), mais je ne sais pas si elle sera disponible sur iMac.
-
"la Mobility HD 4850 est donnée pour 800 GFlops en SP, et 160 GFlops en DP" ben en DP c'est presque le double des 96 que tu signales pour la GTX 675 MX ! donc la nouvelle est moitié moins bonne, c'est ce que tu veux dire par "(sauf en DP) " ? Ça me paraît dingue... :eek:
En SP ça fait 44% de mieux, pas mal mais pas extraordinaire non plus...
-
Des calculs performants en DP (Double Précision) exigent des circuits dédiés nécessitant plusieurs milliards de transistors supplémentaires.
Les GPU allégés n'en sont pas équipés, en contrepartie ils sont moins coûteux à fabriquer et consomment moins. :spamafote:
-
Oui mais ce que je voulais dire c'est que j'ai déjà un "vieux" GPU mobile / allégé de ce type (le Mac a 3 ans d'âge, conception de 2009... préhistorique pour du GPU !) et qu'il est 2 fois plus puissant en DP qu'un GPU mobile de 2012 censé équiper le haut de gamme de la série :electric:
Alors en effet c'est le concurrent, donc ils ont pas les mêmes specs, mais bon... ça me surprenait, voila tout :)
-
Bah Apple quoi ... :/
-
Oui mais ce que je voulais dire c'est que j'ai déjà un "vieux" GPU mobile / allégé de ce type (le Mac a 3 ans d'âge, conception de 2009... préhistorique pour du GPU !) et qu'il est 2 fois plus puissant en DP qu'un GPU mobile de 2012 censé équiper le haut de gamme de la série :electric:
Ta Mobility HD 4850M était un haut de gamme en 2009, basé sur un GPU complet non allégé, seulement un peu underclocké pour limiter la chauffe.
L'équivalent qu'on s'attendrait à voir proposé sur un iMac haut de gamme en 2013 est soit la Mobility HD 7970M, soit la GTX 680 MX.
En SP les puissances de calcul brutes des 2 cartes sont très similaires (autour de 2200 GFlops), alors qu'en DP la 7970 avec son GPU complet ratatinerait la 680 pénalisée par son GPU allégé.
Mais à quoi sert la puissance en DP si on est pas fan de MilkyWay ou de PrimeGrid/Genefer ?
-
Chez Apple il y a toujours, le meilleur et le pire...
Comme les Mac Pros qui sont livrés de base avec une Radeon 5770 pour la modique somme de 2600 € en premier prix...
:cpopossib:
:electric: :eek: :eek: :gun: :gun:. Je comprends pourquoi j'ai laissé tomber Mac depuis longtemps (même si c'est super pour certaines choses)
-
J'ai toujours déteste cette boite ... Encore plus depuis qu'ils vendent de simples PC hors de prix (on a même plus la satisfaction de pouvoir dit qu'on a pas un simple x86 sous le capot).
-
Ok, ok, je viendrai plus demander votre avis :lol:
Mais bon merci pour les infos, et j'ai la réponse à ma question :jap:
-
C'est vrai que pour 2600 euros, t'as une config pc d'une grande puissance comparé a un xxxx iMac Pro au même prix..on paye le design en clair
-
C'est iMac ou Mac Pro, pas les deux :D
L'iMac coûte pas autant (ça varie de 1300 à 2000 selon la taille de l'écran et la config), c'est un grand portable qui se replie pas :)
Le Mac Pro est encore plus cher, ça monte jusqu'à 3800 :eek: (avec 2 Intel Xeon 6-Core à 2,4 GHz) c'est une tour où on peut mettre des cartes, des disques...
-
Bah oui, mac pro, imac, ipad, ipod......iarnaque oui, ceci est une révolution :lol: :lol:
-
Bah oui, mac pro, imac, ipad, ipod......iarnaque oui, ceci est une révolution :lol: :lol:
La révolution,, c'est la LIBERTE donnée à chacun de choisir mais aussi de respecter le libre arbitre de l'autre :gniak:
Mais bon, ça reste cher ... :D
-
A mais chacun est libre de payer plus cher un produit, juste pour un nom ou un logo, mon post n'était qu'une réflexion perso, exprimé par écrit :lol: :lol: :desole:
-
C'est clair que vouloir obliger les gens à prendre un PC pas cher avec un OS gratuit dedans, parce que c'est bien mieux épicétou, c'est de la dictature (et on approche vite du point Godwin (http://fr.wikipedia.org/wiki/Loi_de_Godwin)) :lol:
-
Plutôt que remplacer ton iMac encore presque neuf, tu pourrais t'assembler une crunchbox autonome sur base PC, pilotée depuis le Mac.
Comme nous savons que tu es un HWSC (*), nous sommes prêts à t'aider à trouver des idées pour déguiser et planquer la bestiole. :D
(*) Highly WAF Sensitive Cruncher
-
En fait, je pensais plutôt une crunchbox sous win7.
Pour sa machine principale, le choix entre Mac OS, Linux, ou Windows relève des convictions personnelles. :ange:
Mais pour une boite à crunch, il faut faire simple et efficace. :cavachier:
-
Finalement je vais me faire un petit SSD externe en FireWire 800 (http://forums.macg.co/imac-intel/prestataire-pour-ajout-solid-state-drive-dans-imac-1205546.html#post12437608) (*), j'ai trouvé des témoignages très positifs sur les forums (y compris pour en faire un disque de boot avec système + applis, en FW800), visiblement ça change la vie et donne une 2ème jeunesse , et vu que je ne peux pas m'attendre à des miracle avec le GPU iMac, j'ai envie de prolonger la vie de l'actuel.
D'aucuns crieront au sacrilège et au gaspillage (m'enfin c'est plus rapide dedans !) mais ça me paraît un très bon compromis sans aucun démontage ni prise de tête avec mon bel engin.
(*) j'ai commandé un SSD et un boitier ad hoc, car sinon ils sont toujours en USB3 ou en Thunderbolt, et je n'ai ni l'un ni l'autre, de plus le FW800 me permet de le chaîner avec les 2 DD externes
-
Pas un mauvaise solution, mais pour ma part avec un SSD, j'ai fait une partition image sur HDD où je fais un backup bootable, au cas où (super super ou CC cloner).
-
Pourquoi tu dis "mais" ? J'ai évidemment déjà un daily clone de mon système sur un DD externe, il continuera de se faire...
-
Toujours une bonne idée, la sécurité.
Mais ce n'est pas le bon topic pour en parler, bien sur :D
-
Toujours une bonne idée, la sécurité.
Mais ce n'est pas le bon topic pour en parler, bien sur :D
:kookoo: Infomat comptant de te relire et en forme, voilà qu'il fait le modo en plus, quelle pêche (http://www.smiley-lol.com/smiley/bananas/banana-noel-4.gif)
-
Moi je me suis procuré un SSD OCZ Vertex4 128 Go SATA-III pour le système, + un disque dur WD VelociRaptor 10000 trs/min SATA-III pour les jeux, les dossiers TEMP + les fichiers BOINC^^
C impec et hyper rapide, reste plus qu'a remplacer ma GTX260 par une 660 Ti, et si j'arrive a en trouver, un Phenom II X6 1090T ( la place du X4 955)
-
Je ne sais ce qui s'est passé dans la soirée, mais après l'installation d'un logiciel et le redémarrage parce que kaspersky avait détecter un truc et qu'il fallait réparer...
Ma carte graphique a déconnait et après plusieurs redémarrages un message de soi-disant soucis de voltage ou fréquence dans le bios (qui n'est apparue qu'une fois)...
J'ai aussi eu aussi un message en anglais à propos de choisir après combien de redémarrage, je ne sais plus quoi...
Édit : je sais, ce n'est pas très clair... :desole:
J'ai remis l'ancienne gtx 260 qui a fonctionné puis remis la 470 et s'est comme s'il n’y avait eu aucun souci... :??:
-
En faite cela doit être le bios puisque c'était au lancement...
Le logiciel que j'ai installé avant est mipony...
-
il y avait marqué overcloking dans le message par rapport au voltage et fréquence... mais je n'ai pas toucher aux fréquences...
Par contre, j'y ais pensé à faire un reset mais je ne sais plus comment faire :desole:
-
moi je n'arrivais pas à rentrer dans le bios...
à moins que ce soit le profil extreme des barrettes de mémoires ?
-
cela fait des semaines quelles sont réglés comme çà et pas soucis... j'ai des arès G.Skill Kit Extreme3 2 x 4 Go PC12800 ARES CAS9 (16go en tout en faite)
-
Bientôt, à la prochaine mise à jour :
(https://statseb.boinc-af.org/img/badge/500_100_0_0_0.png)
et
(https://statseb.boinc-af.org/img/badge/val.png) soit plus de 25M
Wahou 25M c est :oki: moi je suis que a un peux plus de 7M
en plus depuis bien 2 ou 3 ans quand j en fais j ai plein de WU qui plante ! C est le bordel !!!!!! surtout avec 2 GPU sur 1 PC
-
:jap:
Je confirme que cela plante assez régulièrement :/
Je ne savait pas que c'était le faite d'avoir 2 GPU, car j'ai 2 GPU également.
-
Et je te dis pas avec 3 gpu :kookoo:
-
je montais toujours des PC avec 1 ou 2 GPU mais du meme fabricant
PC bureau 1x 580 et 1x560
PC cave 2x 6950
je vais tester ( c est la tout de suite ) un PC avec 2 GPU mais :
1 x HD 5850
1 x GTX 260
pour tenter de supprimer le problème de plantage de WU du 2 eme GPU !
piste donné par kikiphil qui lui aussi a monté 1 ou 2 PC Bi-GPU ATI-Nvidia
( Salut kikiphil as tu déjà testé par exemple GPUGRID sur un de tes PC Bi-GPU ATI-Nvidia ??? marche ou marche pas ?? )
-
une solution ? Interdire de cruncher sur une des 2 cartes avec des 'exclude gpu' ?
-
une solution ? Interdire de cruncher sur une des 2 cartes avec des 'exclude gpu' ?
c est ce que je fait quand je reste plus d une semaine sur le projet en question !
mais quand on change de projet tout les 3 a 4 jours ( pour les étoiles WUProp ) il faut le modifier a chaque fois
moi je bricole dans les modif de base juste pour adapter le fichier a mes projets / a mes cartes / a mon Boinc ext !
mais de la a écrire un fichier ............. non j ai pas le niveau
je me dit qu avec le systeme Bi-GPU ATI-Nvidia
- plus de problème de 'exclude gpu'
- la possibilité de cruncher sur la totalité des PC avec touts les projets
- et meme de pouvoir avoir le lux de choisir 2 projets GPU avec un taux CPU qui ne dépasse pas 1 histoire de ne pas perdre de CPU pendant un Raid par exemple :
2 GPU nvidia sur distrRTgen = 2x0.865 CPU = un CPU de -
1 GPU Nvidia + 1 ATI = 1x0.865 cpu + 1x 0.05 CPU = pas de core de perdu !
reste a tester !!!!!!!!!!!! suite des infos courant de la semaine !
-
Vaudrait mieux basculer sur un topic GPU avant qu'il y est des sévices :siflotte:
Par exemple : http://forum.boinc-af.org/index.php/topic,3603.0.html
-
Poursuite de la discussion du topic badges...
Avec 3 gpu, 2x nv 580 + 1x ati 6970 et suivant les projets, j'ai eu de 1 à 3 cpu de pris par les gpu.
Et ton dernier ex: 0.865+0.05, ca prend quand même 1 cpu, boinc a du mal à calculer le nombre de cpu pris par les gpu, alors il ne faut pas compter sur des quarts ou des dixièmes de cpu, à part les wu nci et encore...
En ce moment, boinc m'a pris 3 cpu alors que le total des cpu des gpu est inférieur à 2...
-
Salut
Je viens d'acheter une MSI GTX 670 'OC'.
Je fais tourner du SETI dessus pour l'instant. Je m'intéresse surtout aux projets Astro.
Quelle est la température conseillée en maxi ? En réglage d'origine, je tournais entre 70 et 80°C, je sais qu'un GPU peut prendre bien plus, mais c'est au niveau de la durée de vie, j'ai pas envie de trop perdre non plus.
Là avec MSI Afterburn, j'ai fait une courbe perso Vitesse ventilo/température. Je stagne maintenant à 70°C, je peux faire moins mais ça fait du bruit après.
Et au passage si vous connaissez des projets Astro qui ont des WUs en GPU où le temps de calcul est plutôt faible (mieux quand l'ordi n'est pas allumé tout le temps).
Merci
-
Ok merci. Donc je peux remettre les réglages d'origine (silencieux) carrément ? Si 80°C c'est OK...
Pour la ventilation boitier. (vieux boitier bas de gamme)
J'avais ajouté un 120mm (12v) mais alimenté en 5V en façade (découpe), l'air chaud est expulsé à l'arrière en haut, par.... l'alim. Je n'ai pas d'autre ventilo à l'arrière. :siflotte:
Je reçois ma RAM bientôt. Et il faut que je change de CPU prochainement. Peut être un Phenom X6, je ne sais pas. C'est pas un PC à haut budget.
Je me ferais peut être un Watercooling CPU/GPU d'ici là... en achetant seulement les waterblocks et une pompe... à base d'un radiateur de voiture de ce type :
http://www.jmax-hardware.com/forum/index.php/topic,31.0.html
Car le bruit c'est quand même un frein... :o
Merci pour tes infos de températures.
-
Et au passage si vous connaissez des projets Astro qui ont des WUs en GPU où le temps de calcul est plutôt faible (mieux quand l'ordi n'est pas allumé tout le temps).
Hello Baptman, tu peux fouiller dans les résultats de l'application de Sébastien (http://wuprop.boinc-af.org/results/delai.py), mais également et si ce n'est déjà fait :
- faire tourner WUProp pour alimenter encore plus les résultats
- installer la barre de l'AF dans laquelle, au delà des raccourcis vers tous les projets et leurs sous menus, tu trouveras "la boîte à outils" ... mais je te laisse découvrir :sun:
Pour autant par rapport à ta question "où le temps de calcul est plutôt faible", ce n'est pas ce qui compte, c'est la deadline (date limite de retour), l'important => calculer le temps de service de ta machine vs la durée annoncée de calcul des WU en stock vs cette deadline, là aussi l'appli de Séb t'aidera.
Mais à priori dans ton cas il faut aussi régler le cache boinc au minimum pour ne pas stocker inutilement des WU qui ne seront pas calculées à temps.
-
Pas vraiment d'accord avec toi ElGuillermo au sujet du Watercooling et du silence.
Mais c'est vrai qu'il faut que le radiateur soit d'une taille assez importante et que l'on ne soit pas au limite de l'overclocking.
J'ai eu, il y a 2 ans la même réflexion et problématique que Baptman.
J'avais beaucoup de mal à refroidir mes 2 GPU avec un bruit assez important malgré la quantité d'aluminium placé sur mes GPU.
Je suis donc passé au watercooling avec le refroidissement de mon 6600K et de mes 2 GPU.
résultat, mes GPU tourne à 50°C max et mes ventilos régulés tournent au ralentie. Je n'entend plus mon PC.
Si j'avais pas boinc sur le PC, cela pourrait tourner en passif. Mais là avec une température ambiante de 21°C
mais 4 ventilos du radiateur de 18cm ne tourne qu'a 300 t/min, pour une température de l'eau à 35°C, autant dire que je n'ai les entends pas.
(http://img.lbzh.fr/uploads/5219a966ef1eb.JPG)
P.S. Il y a aussi Einstein qui à des unités en GPU
-
Il y a aussi Milkyway en projet astronomie et GPU, en plus les UTs sont courtes.
-
Milkyway est réputé pour faire fortement chauffer les GPUs :D
-
moins que d'autres comme GPUGRID ou Bitcoin Utopia ou l'ex Donate!
-
J'en sais rien, Milkyway ne marche pas sur mes vieilles nVidia, et GPUGRID ne marche pas sur mes ATI, je peux pas comparer :/
-
D'accord merci pour les conseils. :D
Par contre mon GPU n'est utilisé qu'à 50%~ d'après MSI Afterburner. Normal ?
6min50s pour Milkyway (1.02 opencl_nvidia) et environ 19min pour SETI (v7 7.0 cuda32).
J'ai bien ajouté WUProp. :jap:
-
Si tu libère un core CPU pour alimenter le GPU, c'est mieux ?
-
Comment ça ?
Car je ne fais pas cruncher mon CPU. J'ai mis Non à son utilisation dans la page de config des projets.
Donc normalement les cores sont libres pour le GPU : (0,XXX CPUs + 1 NVIDIA GPU)
EDIT : je teste le GPU sur DistrRTGen là. GPU à 100%. :pt1cable:
-
Je me demande si un truc de ce type ne serait pas mieux ? http://www.highspeedpc.com/images/TD_STD_320.jpg
Et surtout, possibilité de le faire soi-même. Au moins pour passer les tuyaux et les câbles.... :siflotte:
-
Question 'Mr Bricolage', il y a aussi des as ici sur ce forum : http://forum.boinc-af.org/index.php/topic,4972.0.html
-
Et si t'as pas le budget pour le faire dans un bois noble tu peux essayer en carton :D
-
Et si t'as pas le budget pour le faire dans un bois noble tu peux essayer en carton :D
En papier maché ça marche aussi.
-
J'ai réorganisé l'intérieur de mon boitier.
J'ai perdu 5°C CPU, 2°C GPU...
Le CPU est maintenant utilisé, sur Asteroids.
-
C'était "bête" de ne pas utiliser les cpu. mais il faut en garder 1 de libre par gpu sinon les temps de calcul par ut gpu explosent.
Et pourquoi faire tourner le gpu qu à 50%? autant l'utiliser au mieux de ses capacités. :kookoo:
-
En mettant 99% dans les préfs de boinc, est-ce que cela laisse un coeur pour le gpu ? :cpopossib:
-
Poly: a ton avis? Tu connais la réponse sans même qu'on y réponde : tu fais un essai sur ta machine et tu regardes si sur tes 4 coeurs, il n'y en a plus que 3 qui tournent, si c'est 2 coeurs seulement sur ta machine, un seul et si tu as un octocoeur, si il y en a que 7...
-
là je sais que je n'aurais que 7 coeurs utilisés pour les unités CPU mais pour le GPU, il n'utilisera donc pas le 8éme il prendra de la puissance sur les 7... je demandes juste une confirmation :desole:
-
Sur mes 3 coeurs, j'avais les 3 sur Asteroids.
+ une WU 0.xx CPU + 1 GPU.
Je pensais que la WU GPU utilisait juste ce qu'il fallait, et que la 3ième unité CPU, tournait moins vite.
Donc il faut vraiment que je libère un coeur complètement ?
J'ai donc mis 99% des CPU dans les préférences, je n'ai plus que 2 WU Asteroids qui tournent. Et donc un coeur de libre.
Vous confirmez ? Faut vraiment que je trouve un X6...
:jap:
-
Et si t'as pas le budget pour le faire dans un bois noble tu peux essayer en carton :D
J'ai vu une imprimante 3D sympa en vente autour de 600 euros. :siflotte:
-
Sur mes 3 coeurs, j'avais les 3 sur Asteroids.
+ une WU 0.xx CPU + 1 GPU.
Je pensais que la WU GPU utilisait juste ce qu'il fallait, et que la 3ième unité CPU, tournait moins vite.
Donc il faut vraiment que je libère un coeur complètement ?
J'ai donc mis 99% des CPU dans les préférences, je n'ai plus que 2 WU Asteroids qui tournent. Et donc un coeur de libre.
Vous confirmez ? Faut vraiment que je trouve un X6...
:jap:
euh...un CPU avec 3 coeurs :gne:
a quoi il te sert l'autre (le 4ieme) ? Ce qui est étrange c'est que tu as mis 99% et que tu en as plus que 2 qui tournent.
pour l'histoire du 0.XXCPU +1 GPU si xx est petit comme pour Collatz, Milkyway...tu peux remettre à 100%, ils ne vont pas ralentir grand chose par contre, ceux qui exigent une grosse fraction de CPU, il vaut mieux (style Distrtgen!) donc, il vaut mieux mettre 76% de CPU utilisés (c'est un peu plus que 75% :lol:) pour avoir 3 coeurs utilisés sur un quadricore. maintenant toi tu en as 3 pour une raison qui m'échappe, donc mets au moins 66%, ensuite 66, 70 ou 90, ca ne changera rien, comme dirait Coluche'j'ai pas trouvé la virgule' pour les coeurs (Coluche c'était avec les enfants...)
-
Il doit avoir un phenom ou athlon X3, c'est à dire un quadcore avec un core désactivé, à l'époque AMD faisait cela pour réduire les déchets, il désactivait le core défectueux.
Quand à savoir si il faut désactiver un core ou pas, le mieux est de faire un essai avec les projets que tu crunches et ton GPU (ça peut changer d'un GPU à l'autre) avec un logiciel comme GPU-z par exemple pour regarder si ton GPU est utilisé à 100% ou sinon si en enlevant un core tu gagnes en utilisation du GPU. :hello:
-
j'ai effectivement un athlon II X3... mais depuis le premier jour le 4ème core à été débloqué pour m'offrir un X4 APACHER !
(les X6 sont hors de prix pour de l'occaz... mais tant qu'ils partent les vendeurs auraient tord de se priver ! :o )
après, oui tout dépend sur quoi il crunch en GPU !
-
Je crunche sur Einstein et SETI. J avais débloqué le 4ième core il fonctionne. Mais j ai tout remis d origine. Le gain dans les jeux était nul.
-
Oui mais pour cruncher, c'est mieux, tu peux le réactiver :D
-
J'ai corrigé le poste du dessus. Je suis sur mon tel et j étais pressé.
Je le complète ici.
Avec le 4ième core, le ventirad d'origine est trop faiblard. Presque 70deg alors que la temps maxi sur le site d'AMD est de 71.
Et je suis un peu obligé de changer, car c'est dommage d'avoir une GTX 670 avec un CPU bas de gamme, pour jouer je perds en perf.
Et ça serait l'occasion de passer au watercooling avec un bon gros radiateur.
Hildor, le tien vient d'où s'il te plait ?
Il y a plus gros ? Merci.
-
Il vient de là : http://www.aquatuning.fr/product_info.php/info/p15389_Watercool-MO-RA3-360-LC.html
Ce n'est peut-être pas exactement celui-là, mais il en existe en effet des plus gros maintenant
des 9x140 moi ce n'était qu'un 9x120 ou 4x180 :D
-
alors pour la température, je me suis acheter un 212+@35€... bilan 4core@2,7Ghz@40°c en crunch !
maintenant si tu veux améliorer (en premier lieu) tes stats en JEU, le X6 n'est pas un bon choix... prend un PhenomII X4 BE !!! :sun:
tu peux en trouver pas mal en occaz à pas cher, surtout des 955BE, mais aussi mieux pour un prix autour de 50€ !
:jap:
... mais pour le crunch ... le X6 est bien sur mieux ! :siflotte:
-
:kookoo:
En aircooling, un Noctua NH-D14 (cpu) http://www.ginjfo.com/PhotoNews/NH-D14-18.jpg + un Accelero Xtreme III (gpu) http://i.pcworld.fr/1235463-arctic-accelero-xtreme-iii-04.jpg .
Actuellement j'ai le petit ventirad AMD http://static.pcinpact.com/images/bd/news/mini-107613-amd-apu-a8-3870k.png
Et la GTX 670 est en ventirad de référence http://img.clubic.com/05149526-photo-nvidia-geforce-gtx-670.jpg.
Ça serait beaucoup mieux ? (les températures actuelles sont bonnes, mais ça fait du bruit)
Donc si je limite la vitesse des ventilos sur ces gros ventirad pour être aux températures actuelles par exemple, ça devrait tourner largement moins vite, déjà que les ventilos sont plus gros d'origine, ça devrait être bien plus silencieux donc ?
-
Autant le changement de ventirad sur un cpu fait effectivement gagner de précieux degrés sans risques :jap:, autant le changement de ventilation sur une CG est "risqué" et sans grande garantie de gain en terme de température (bien sur, mon propos est basé sur mon expérience personnelle, d'autres te diront sans doute que c'est "génial" de changer la ventilation d'une CG), voila, c'est juste mon opinion :kookoo:
-
Faut que j'essaye d'apporter de l'air frais au niveau de l'aspiration d'air de la CG pour voir si j'arrive à diminuer la temp et donc la vitesse. :/
-
Fournir de l'air frais et enlever de l'air chaud au niveau du boitier est la solution que j'ai adoptée.
Comme ça TOUS les éléments en profitent... Mais ils faut bien choisir son circuit d'air.
Si possible, mettre des gros ventilos compatibles avec la CM et les faire tourner moins vite pour moins de bruit et une bonne efficacité.
Des ventirads sur le cpu et les gpu sont maintenant un minimum.
-
La solution, a mon sens, réside dans le boitier, il en faut un bon, de bonne taille pour accueillir des ventilateurs d'au moins 120/140, des emplacements de 200, c'est l'idéal. Pour moi le changement de ventirad sur une CG est "problématique" au sens ou les petits dissipateurs a coller sur les VRM sont, d'après ce que j'en ai compris en furetant sur des forums, pas toujours super collants, il n'est pas toujours aisé de bien les repérer sur le pcb de la carte, enfin voilà, vous avez compris l'idée. Personnellement, je l'ai essayer une fois sur HD 4850, et finalement, j'ai vite remis le ventirad d'origine. :siflotte:
-
Je vais regarder les tests pour un boitier bien insonorisé et sur lequel on peut avoir un bon flux d'air.
Le mien c'est du bas de gamme, vraiment.
-
Apparemment le Fractal Design R4 est pas trop mal, que ce soit au niveau refroidissement et bruit.
Si le GPU reçoit bien de l'air frais dans ce boitier et que le bruit est mieux absorbé, ça pourrait empêcher la modification de son ventirad.
Et vu que ma tour est totalement obsolète...trop petite, mal isolé, flux d'air pourri.... (le GPU aspire de l'air chaud). Déjà que j'ai dû faire de la découpe pour mettre un 120mm en façade...
-
Il me fait penser à mon HAF 922
-
En plus sobre. :D
-
Peut être... J'ai rajouter dessus 2 ventilos noctua sur la porte latérale... mais cela fait un peu de bruit
-
Ok, même en 5V ?
-
5V ?
-
Il y a des ventilos en 5 ou en 12 volts...
-
(http://i.snag.gy/1CKdX.jpg)
Je ne sais pas pour le voltage des fans d'origine et les noctua...
Par contre je ne comprends pas la ligne CPU qui dit que s'est monter à 55°C max et les autres qui disent que cela dépasse 60°C au dessus :??: (ce serait la CM qui serait à 55 au alentour du CPU ?)
-
Je ne sais pas trop, mais même si ton CPU est à 62°C, c'est correct.
J'ai un ventilo de 120mm en façade actuellement, c'est un 12V, mais je l'alimente en 5V directement sur une prise Molex. Il tourne pas vite, et fait peu de bruit. Et si je le mets à 12V, je n'ai aucun gain quasiment mais un bruit de soufflerie. Par contre si je l'enlève, dans les 10 secondes qui suivent : mon ventilo CPU s'affole (temp qui monte), et ma CG prend quelque degrés.
Je ne sais pas comment tu as branché les tiens, ceux que tu vois, c'est ceux qui sont gérés par la CM.
Sur certaine tour, il y a un interrupteur, pour passer de 5V, à 7V ou à 12V sur certains ventilos.
En parlant de boitier, apparemment le Antec P280 est mieux que le Fractal Define R4. Que ce soit niveau bruit (légèrement), mais surtout refroidissement.
-
Mes ventilos sont branchés directement sur la CM...
Celui de façade est un 200mm et celui du dessus aussi, celui de l'arrière est un 120mm comme ceux de la porte latéral par contre sur le CPU je ne sais plus si c'est un 90mm ou 120mm.
Avant j'avais 2 ventilos sur le ventirad mais on m'a dit que comme j'ai déjà celui de l'arrière j'avais pas besoin de faire çà :
(http://img.lbzh.fr/thumbs/52273464adaa9_600.jpg)
-
Tu as seulement celui de façade qui est en aspiration ?
Et tous les autres en extraction ?
D'après tout ce que j'ai lu, il vaut mieux avoir sa tour en dépression. Le contraire (+ d'aspi que d'extra) c'est seulement mieux pour éviter la poussière, mais ça chauffe globalement +.
-
façade, porte latéral et celui du cpu en espiration et les autres en extraction
-
@ Poly Le chiffre du cpu, ca doit être la moyenne à l'instant I puisque tu as aussi mini/maxi sur la même ligne. :kookoo:
-
la moyenne depuis l'allumage ?
-
C'est la colonne 'Current', donc valeur actuelle.
Je pense que la valeur CPU est moins exacte que celle des Cores. La sonde CPU doit être placée prêt de la surface d'échange métallique, donc température moins élevée ?
Ou alors la température des Cores est connue par un autre moyen qu'une sonde ?
-
On parle cpu sur le topic gpu... on va se faire modo-hé...
-
C'est le ventirad d'origine sur ta carte graphique Polynésia ?
-
On parle cpu sur le topic gpu... on va se faire modo-hé...
Oui, oui, alors modérez vous ou trouvez un topic (existant) ad hoc :D
-
oui c'est une gtx 470 zotac amp edtion
C'est le ventirad d'origine sur ta carte graphique Polynésia ?
-
On parle cpu sur le topic gpu... on va se faire modo-hé...
Oui, oui, alors modérez vous ou trouvez un topic (existant) ad hoc :D
Je savais que j'allais tomber sur un modo méchant :siflotte: :lol:
-
Bonjour a tous
Y a un truc que je ne comprends pas bien sur le crunch GPU et j'ai besoin de vos lumières. J'ai un CORE I7-2600k donc huit Thread. J'ai également une Radeon HD 7950. Ca crunch bien sur le GPU mais j'ai vu que ma CG n'est généralement chargé qu'a 20%. J'ai également remarqué que quand je passe de 8 thread à 7 thread sur le CPU ma charge GPU remonte bien plus haut entre 70% et 100% en fonction des projet.
C'est général pour les projets GPU ou c'est un réglage qui m'échappe? Faut il rester en permanence avec un thread de libre sur le CPU pour alimenter la CG?
A+
-
J'ai déplacé ton post car il est mieux ici, d'autant qu'en fouillant bien (et longtemps certes :/ ) tu y trouveras des réponses
-
Oki.
Donc pour COLLATZ c'est mort vu qu'il est en OPEN CL et pour POEM pareil... ca explique aussi pourquoi MILKYWAY fait bien chauffer mon GPU vu qu'il est en language ATI.
Maintenant je saurai, et pourrais prévoir ma config en fonction des projets que je traite. :smak:
-
En gros, si tu veux disposer des 8 threads pour du calcul CPU, privilégie les applis GPU en CAL et évite les OpenCL.
CAL ne fonctionne pas sur les puces GCN (HD 7k) ...
Et si l'appli OpenCL a besoin du CPU, c'est qu'elle est mal codée, c'est aussi simple que ça (combiné au fait que dans ce cas là, les admins de projets devraient faire en sorte que le client réserve son core CPU tout seul, mais qu'il ne le font pas) ...
Il te reste juste à choisir les projets en fonction ...
Pour l'instant, je n'ai trouvé que les applis Milkyway et Genefer et le projet Folding@Home (c'est pas du BOINC) qui fonctionnent bien sans avoir à libérer de CPU.
-
CAL ne fonctionne pas sur les puces GCN (HD 7k) ...
:hello: toTOW
S si ça fonctionne toujours, mais les projets favorise les appli OpenCL. Si tu veux utiliser les anciennes versions de CAL il faut faire un fichier app_info.xml et télécharger manuellement l'appli.
-
Ah ca a changé, parce qu'il me semble que vu que CAL n'est plus supporté, ca ne marchait plus sur les derniers GPU ... :??:
-
Donc pour COLLATZ c'est mort vu qu'il est en OPEN CL et pour POEM pareil...
Ben pour collatz c'est pas forcément mort justement, comme le dit toTOW ça dépend beaucoup comment c'est codé, sur Mac OS X en tous cas collatz prend très peu de CPU et ne gène pas les autres projets, je ne suis pas obligé de libérer de core du tout pour que ça tourne gentiment. Je sais pas ce qu'il en est sous win ou linux.
-
Pareil avec une ati récente sous windaube, 0.02 de cpu par ut :love:
-
Mais je crois que c'est à peu près le seul projet GPU OpenCL à pas être gourmand en CPU où je me trompe ?
-
Pareil avec une ati récente sous windaube, 0.02 de cpu par ut :love:
C'est ce que j'ai remarquer aussi.
Bonne soirée ;)
-
J'ai aussi remarqué que ca dépend du cpu utilisé.
Sur le portable de secours que j'utilise pour boinc en attendant que mon monstre revienne, il y a un i7-720M et les applis gpu ne demandent que quelques centièmes de cpu .
Mais il faut quand même enlever un core cpu pour que le gpu fonctionne mieux, collatz et seti entre autres sur le nv 320M.
-
Pareil avec une ati récente sous windaube, 0.02 de cpu par ut :love:
Ca c'est ce que dit le client ... il ne faut pas s'y fier mais regarder l'utilisation GPU ... si elle est pas à 100%, faut libérer un core CPU.
Mais je crois que c'est à peu près le seul projet GPU OpenCL à pas être gourmand en CPU où je me trompe ?
Sous Windows, c'est Milkyway et Genefer qui ont pas besoin du CPU en OpenCL tout du moins sur les anciens GPU (4k, 5k, 6k) ... et Folding@Home aussi :D
-
J'ai un FX 8120, et 7 threads actif, mon utilisation GPU varie de 70 a 90 %. 25 minutes par ut, ça me parait correct pour une solo collatz :D
-
Oui, c'est normal ...
Mais si l'utilisation GPU est en dessous de 50% c'est pas normal ...
-
Moi je suis à 97% sans avoir libérer un CPU... c'est bon docteur :gno:
-
Oki.
Donc pour COLLATZ c'est mort vu qu'il est en OPEN CL et pour POEM pareil... ca explique aussi pourquoi MILKYWAY fait bien chauffer mon GPU vu qu'il est en language ATI.
quitte à laisser un CPU pour le GPU, sur Collatz (comme dit juste au dessus) tu as une super option : Collatz Solo !
Chaque UT est vérifié par ton CPU libre qui du coup se tourne moins les pousses, cela évite de devoir envoyer l'UT à 2 personnes différentes et en échange ils font un joli cadeau de points bonus (ce qui est de bonne guerre, le projet allant alors BCP + vite !!!)
:jap:
-
à tiens je ne savais pas car j'ai calculés plusieurs de ses unités mais sans laisser une CPU de libre...
Si j'en laisse un elles ce calculs plus rapidement ?
-
Moi sur mon iMac j'ai jamais pu trouver d'utilitaire qui permettre de connaître l'utilisation du GPU (cf des discussions pas récentes à ce sujet sur le topic du pommier je pense), donc je sais pas si ça pourrait être "plus efficace" (en "libérant" un coeur, idée qui me déplait fortement car c'est au détriment d'un projet CPU) ou pas...
-
Re,
Ouhaaa elle déménage grave ma AMD Radeon HD 7950 (VTX) 930/1250 !
(http://img15.hostingpics.net/thumbs/mini_448959Boinc177.jpg) (http://www.hostingpics.net/viewer.php?id=448959Boinc177.jpg)
Nouvel overclocking de ma AMD Radeon HD 7950 (VTX) 930/1250 @ 1150/1450 ... Alimentation +8%, ventilateur 90% et température 67°. Il plante sous 3DMark06.
(http://img15.hostingpics.net/thumbs/mini_556862AMDRadeonHD7950VTX04.jpg) (http://www.hostingpics.net/viewer.php?id=556862AMDRadeonHD7950VTX04.jpg)
Je viens de baisser l'overclock à 1100/1400.
-
Gaffe avec l'alimentation, tu vas griller ta carte :electric: comme la précédente.
-
d'autant que l'OC génère des erreurs de calcul qui, si elles ne sont pas grave en jeu, t'annule des Ut !
:jap:
-
Elle doit être ultra silencieuse, pour prendre 90% de vitesse de ventilo sans défenestrer le matos :siflotte:. Ma 7950 de sapphire, dès qu'elle atteints 50 %, j'en envie de lui taper dessus :cavachier:.
Et puis, après ta mésaventure avec ton precedent matos, tu devrais peut-être y aller molo avec l'OC? enfin je dis ça, je dis rien :desole: :kookoo:
-
Non, Andro, ce qu'il aime, c'est acheter de nouveau un GPU.
C'est le "de nouveau" qui importe, on trouve son plaisir où on peut :siflotte:
-
Elle doit être ultra silencieuse, pour prendre 90% de vitesse de ventilo sans défenestrer le matos :siflotte:. Ma 7950 de sapphire, dès qu'elle atteints 50 %, j'en envie de lui taper dessus :cavachier:.
Et puis, après ta mésaventure avec ton precedent matos, tu devrais peut-être y aller molo avec l'OC? enfin je dis ça, je dis rien :desole: :kookoo:
et ta HD7870 niveau bruit cela donne quoi ?
-
Elle est en vente :D, mais niveau bruit, ça allait :siflotte:
-
Je viens de commencer à faire tourner 2 * GTX770 et le résultat est ... bluffant.
Essayée sur Collatz et un tout petit peu sur POEM, et elles laissent la GTX660Ti loin derrière :coffeetime:
En plus elles chauffent beaucoup moins.
Si vous connaissez un cruncher de confiance et bricoleur de talent, ça m'intéresse :D
Surtout s'il habite dans le Nord Est de la France, dans le coin Belgique/France/Luxembourg :??:
Bien envie de passer au WaterCooling total, sans quoi on ne peut pas vraiment exploiter
correctement GPU + CPU (j'insiste pas CPU puisque c'est pas le bon topic ;) )
Bonne Journée et Bon Crunch
-
Je vais acheter une GTX 770 gigabyte.
Est-ce que :
1/ une alim de 650W suffit vraiment ? car apparemment il faut une 600W mini mais bon avec tout le reste de la config...
2/ la version avec 2go de ram suffit ? car pour 30e il y a celle avec 4 go...
sachant que j'ai un DD interne + un SSD, i7 860 et 16go ram (4 barettes de 4 go), 6 ventilos sur la tour HAF 922 et sur le ventirad...
Passant d'une GTX 470 à une 770 cela booster mes calculs boinc :siflotte:
Apparemment c'est bon mais c'est pour avoir avis :siflotte:
-
Je vais acheter une GTX 770 gigabyte.
Est-ce que :
1/ une alim de 650W suffit vraiment ? car apparemment il faut une 600W mini mais bon avec tout le reste de la config...
2/ la version avec 2go de ram suffit ? car pour 30e il y a celle avec 4 go...
sachant que j'ai un DD interne + un SSD, i7 860 et 16go ram (4 barettes de 4 go), 6 ventilos sur la tour HAF 922 et sur le ventirad...
Passant d'une GTX 470 à une 770 cela booster mes calculs boinc :siflotte:
Apparemment c'est bon mais c'est pour avoir avis :siflotte:
Perso je dirais : FONCE :bimo: :sonic:
Quant à choisir entre 2Go et 4Go, pour 30€ de +, je prendrais 4Go. Pas vraiment très utile,
mais ça peut le devenir, par exemple si tu veux faire tourner 6 ou 8 UT's POEM, ou si de prochains
projets deviennent très gourmands en DDR5 de GPU.
Des BOINCEURS plus confirmés que moi pourront te répondre sans doute plus précisément.
Aujourd'hui j'ai mis 2 PrimeGrid GFN WR en route, après nettoyage du pc.
Temps prévu : 94 heures ! Alors que la moyenne des UT's calculées = 188 heures.
Sur une 660Ti tu en as pour environ 135h.
Pour l'alimentation, je vérifie toujours sur 2 sites (voir plus bas)
Perso, la config a été montée par un pro, et 2 * GTX770 / i7 4770K etc, alimentation de 750W.
Par contre si tu veux monter les 2 cartes, je ne sais pas si ça suffira, les séries 4xx consomment
probablement plus. A vérifier avec ces outils ;)
Amuse toi bien avec cette nouvelle carte :D
@ Bientôt,
Philippe
http://www.pc-code.com/base/rubrique/consommation.php
http://www.extreme.outervision.com/psucalculatorlite.jsp
Edit : Suivant les sites : entre 557 W et 638 W suivant les sites => 750 W c'est ok même pour les 2 cartes ensemble ! ;)
-
Pour les crunchers, voila la série des GK110 présents et futurs:
Modèles | GTX Titan Ultra | GTX Titan | GTX 780 Ti | GTX 780 Ghz Édition | GTX 780 |
Code | GK110-425-A1 | GK110-400-A1 | GK110-400-B1 | GK110-300-B1 | GK110-300-A1 |
CUDA cores | 2880 | 2688 | 2688 | 2304 | 2304 |
Fréquence de base | ? | 837 Mhz | 950 Mhz | 1006 Mhz | 863 Mhz |
Fréquence Turbo | ? | 876 Mhz | 1050 Mhz | 1046 Mhz | 900 Mhz |
Puissance GFLOPS FP32 | ? | 4300 GFLOPS | 4800 GFLOPS | 4200 GFLOPS | 3977 GFLOPS |
Puissance GFLOPS FP64 | ? | 1300 GFLOPS | 200 GFLOPS | 175 GFLOPS | 165 GFLOPS |
Date de sortie | Décembre 2013 | Février 2013 | 7 Novembre 2013 | Novembre 2013 | Mai 2013 |
Prix estimé | 999 $ | 899 $ | 699 $ | 599 $ | 559 $ |
-
ouaip c'est la 780 qui y a la nouvelle génération nvidia... mais bon la 770 (680 OC en faite) sera déjà pas mal...
Edit :en plus en ce moment, ils offrent 3 jeux avec son achat : http://bit.ly/1aeci9h
-
J'espère qu'avec cette carte, la chaleur dégager ne chauffera pas mon CPU de 5-6°C en plus comme ma GTX 470... :??: :cpopossib:
-
J'espère qu'avec cette carte, la chaleur dégager ne chauffera pas mon CPU de 5-6°C en plus comme ma GTX 470... :??: :cpopossib:
2 solutions : cartes avec ventilos externes : la chaleur est dégagée en grande partie dans le boîtier ...
Perso je laisse le boîtier ouvert et j'ai ajouté un mini ventilateur USB pour dissiper la chaleur => GPU 60 ° CPU 50 °
Cartes avec turbines, pratiquement toute la chaleur est expulsée vers l'arrière du pc, et pas dans le boîtier.
A toi de choisir :)
J'utilise un utilitaire EVGA pour réguler la t° des GPU's car beaucoup plus pratique et efficace que gestionnaire automatique.
-
Je vais acheter une GTX 770 gigabyte.
Les prix baissent :
http://www.clubic.com/carte-graphique/actualite-596376-nvidia-baisse-prix-gtx-770-gtx-780.html
-
Je vais acheter une GTX 770 gigabyte.
Les prix baissent :
http://www.clubic.com/carte-graphique/actualite-596376-nvidia-baisse-prix-gtx-770-gtx-780.html
Bonne Nouvelle !
Que vaut la Radeon R9 290X ? En terme de performances, pas de prix ;)
-
J'ai lu l'article, et oui, elle chauffe et consomme plus ...
-
Je vais acheter une GTX 770 gigabyte.
Les prix baissent :
http://www.clubic.com/carte-graphique/actualite-596376-nvidia-baisse-prix-gtx-770-gtx-780.html (http://www.clubic.com/carte-graphique/actualite-596376-nvidia-baisse-prix-gtx-770-gtx-780.html)
Pas chez materiel.net, elle est toujours à 356 pour la version 4go et 325 pour 2go pour la gigabyte
-
Je vais acheter une GTX 770 gigabyte.
Les prix baissent :
http://www.clubic.com/carte-graphique/actualite-596376-nvidia-baisse-prix-gtx-770-gtx-780.html (http://www.clubic.com/carte-graphique/actualite-596376-nvidia-baisse-prix-gtx-770-gtx-780.html)
Pas chez materiel.net, elle est toujours à 356 pour la version 4go et 325 pour 2go pour la gigabyte
Tout les fabricants ne baissent pas les prix dans la foulée + il y a "du stock" ...
Mais tu peux la trouver à 297 € (2Go) chez : http://www.ingedus.com/site_2008/pc_hebdo/3_promos/P3_04.htm
Chez cdiscount elle est à 299.9 €
Les prix ont pas mal baissé depuis juin, c'est pour ça que tu trouveras des cartes neuves moins chères que certaines occasions.
PS : nVidia ne vend pas ses cartes directement au public, chaque fabricant fixe ses propres prix, et d'un magasin à l'autre ....
PS2 : d'après certains sites allemands, les prix commencent à baisser : 290 € = le prix après la baisse
Voir : https://forums.robertsspaceindustries.com/discussion/70344/
A partir de € 277.- en Allemagne : http://geizhals.de/gigabyte-geforce-gtx-770-windforce-3x-oc-gv-n770oc-2gd-a953268.html
-
J'espère que les prix vont baissés d'ici la semaine prochaine car s'est là que je comptes l'acheter avec un DD interne de 2 go et des cartouches d'encres :desole:
Edit : ma carte mère est en PCI-E 2, là gtx 770 est-elle rétrocompatible ?
-
Je me demande si début 2014 je ne vais pas craquer pour çà : http://bit.ly/16Qhm3x et çà http://bit.ly/16QhqjO pour lui donner toute sa puissance et pour pas mal de choses aussi :love: :love:
-
Je me demande si début 2014 je ne vais pas craquer pour çà : http://bit.ly/16Qhm3x et çà http://bit.ly/16QhqjO pour lui donner toute sa puissance et pour pas mal de choses aussi :love: :love:
A ta place, j'attendrais janvier pour tout acheter d'un coup. Tu seras sur de pouvoir brancher les 2 CG sur ta CM ...
Sinon pour PCI 2 etc il faut vérifier sur le site du constructeur de la CG ou sur les sites qui donnent les détails techniques.
LDLC / Materiel.net etc
-
Tu seras sur de pouvoir brancher les 2 CG sur ta CM ...
Je ne compte pas les branchés toutes les 2 juste la 770
-
Tu seras sur de pouvoir brancher les 2 CG sur ta CM ...
Je ne compte pas les branchés toutes les 2 juste la 770
Pourras-tu résister ? :sun:
Enfin, sauf si tu la revends.
J'ai 2 HD5770 qui dorment dans un coin et ça m'énerve :rhaa: LOL
Si j'avais un pc pour les brancher, je le ferais, pour MOO et DistRGen ... ;)
-
Voila les perfs 3D:
(http://i56.servimg.com/u/f56/13/94/54/05/chartg10.png)
Et la toutes les cartes depuis le début avec les perfs GFLOPS FP32:
(http://i56.servimg.com/u/f56/13/94/54/05/chartg11.png)
-
Cool ! Merci pour ces infos.
-
je garde la 470 en cas de soucis par contre maintenant je ne sais pas quoi faire de ma GTX 260 :siflotte:
-
je garde la 470 en cas de soucis par contre maintenant je ne sais pas quoi faire de ma GTX 260 :siflotte:
Euh ... l'offrir à un musée ? :biglol:
Tout ça évolue tellement vite que dans 2 ou 3 ans on se demandera quoi faire de nos "vieilles" 770 .... :/
J'ai comme l'impression que les ATI deviennent moins vite obsolètes.
Mais bon. Ta GTX260 peut peut-être encore servir dans une petite config de jeux.
-
Mise à jour concernant la GTX 780 Ti:
Ce sera une GK110 complète avec 2880 CUDA cores - 240 TMU - 48 ROP. Elle aura 3 Go G-DDR5 à 1750 Mhz. Le GPU aura une fréquence de base de 876 Mhz jusqu’à 928 Mhz pour le Turbo Boost.
En terme de puissance FP32, elle sera bien supérieur à la Titan, mais pas de double précision qui reste une fonction exclusive à la Titan uniquement. Son prix sera entre 650-699 $.
D'un coté, AMD prépare sa Radeon R9-290 avec ses 2560 processeurs de flux - 160 TMU - 64 ROP. 4 Go G-DDR5 à 1250 Mhz. GPU de 800 Mhz à 947 Mhz. Prix prévu entre 500-450 $
-
Source ?
En tout cas, je vais me prendre la R9 290X ... ça sera toujours plus rentable électriquement que la 6950 qui peut pas faire grand chose efficacement à part les projets maths (Collatz, Moo ou PrimeGrid) ...
-
J'en reviens pas de la vitesse à laquelle les CG "évoluent" ...
-
La Loi de Moore (http://fr.wikipedia.org/wiki/Loi_de_Moore) pour notre plus grand bonheur
résumé: la puissance informatique double tous les 18 mois.
-
Les performances en Double précision:
(http://i56.servimg.com/u/f56/13/94/54/05/chartg12.png)
J'aimerai préciser que même si les HD3000 et HD4000 sont supérieurs en terme de puissance FP64, elles restent par contre inutilisable pour la raison qu'elles prennent en charge que l'OpenCL 1.0, minimum HD5800 pour la version 1.2
-
Nouvelles pour Nvidia:
La GTX 780 Ti sera une GK110 complète avec 2880 CUDA cores cadencés de 876 à 928 Mhz. 3 Go de mémoire à 1752 Mhz
Mais il y aura également une GTX 780 TI Black Édition avec le TDP illimité, donc potentiel énorme en overclocking. Ce sera aussi une GK110 complète allant de 1000 à 1033 Mhz. La mémoire augmente à 6 Go à 1752 Mhz. Des modèles à 12 Go seront également prévues.
Reste plus que la GTX 780 Ghz Édition qui a 2304 CUDA cores (comme on le sait), mais plus cadencé (allant jusqu’à 1050 Mhz)
Fort possible qu'avec les améliorations apportées dans la consommation des puces, une bi-gpu GTX 790 sort, mais on ne sait pas sous quelle GK110 elle sera basée.
-
je garde la 470 en cas de soucis par contre maintenant je ne sais pas quoi faire de ma GTX 260 :siflotte:
http://www.leboncoin.fr/informatique/559994167.htm?ca=15_s
-
La GTX 260 peut encore effectuer quelques projets dans Folding et BOINC...Elle va pas tarder a être plus soutenue par contre, donc profite en XD
-
ouaip... mais pour les petits jeux cela peut servir... plus qu'à trouver à qui la vendre...
-
Le bon coin ?
-
bof le bon coin, trop d'arnaque
-
Si tu vends, tu ne peux pas te faire arnaquer ...
-
Ben si on peut te payer en monnaie de singe. Exige des bitcoins bio.
-
Un virement sur un compte ou paypal .... No risk ;)
-
tu peux essayer ici déjà (voir HFR ensuite) ! ;)
(je pense qu'il n'y à peu de vente... mais niveau confiance, je crois que l'on est bien à l'AF ! ;) )
-
Salut les pros du GPU!!
Depuis mon upgrade vers Maverick (OSX 10.9), tout Collatz ne fonctionne plus!!!
J'obtiens ce message avec toutes les apps au bout de 2s!!
Sam 2 nov 17:01:30 2013 | Collatz Conjecture | Starting task mini_collatz_2382381840356711573864_103079215104_1 using mini_collatz version 410 (opencl_ati) in slot 17
Sam 2 nov 17:01:32 2013 | Collatz Conjecture | Computation for task mini_collatz_2382381840356711573864_103079215104_1 finished
Sam 2 nov 17:01:32 2013 | Collatz Conjecture | Output file mini_collatz_2382381840356711573864_103079215104_1_0 for task mini_collatz_2382381840356711573864_103079215104_1 absent
Une petite idée???
-
Pourtant boinc_master et boinc_project ont les droits en lecture et écriture!!
J'essaie...
-
Oui d'ailleurs tu remarqueras que le message le plus récent est de moi!!
Mais je me suis adressé ici aussi car plusieure source, c'est mieux!!! ;)
-
Il ya quelque chose dans le stderr des WUs en question ?
-
:hello:
Visiblement il y a un blème avec le gpu!!
Il y a ça:
Stderr output
<core_client_version>7.0.65</core_client_version>
<![CDATA[
<message>
process exited with code 245 (0xf5, -11)
</message>
<stderr_txt>
Collatz Conjecture v4.11 x86_64 for OpenCL 1.0 or later
Based on the AMD Brook+ kernels by Gipsel
Error in kernel:
Error returned by cvms_element_build_from_sourceclBuildProgram() failed (-11)Program build failure
Error -11 while initializing the GPU
16:17:08 (1318): called boinc_finish
</stderr_txt>
-
Pourquoi ne reviens-tu pas à la version OS précédente, et tu "re-upgrades" dès qu'il y a les infos que tu cherches pour corriger le problème ?
Sur les forums collatz ou ici dans la partie des problèmes techniques ?
-
A mon avis c'est un problème de drivers ... ça doit être une des versions qui avait des problèmes avec OpenCL (c'était le cas sous Windows, peut être aussi sous les autres OS) ... essaye d'installer la dernier version en date ...
-
Hum, sous Mac OS X, à ma connaissance, on a pas la main pour les drivers de carte graphique, "Apple s'en charge, merci Apple, quand ça marche"...
Et Primegrid GPU marche ? autres applis GPU aussi ?
(moi je peux faire que ces 2 là avec mon bousin)
Du coup je vais pas me précipiter sur maverick moi... ah non mais attends, ça fait un moment que j'avais décidé de surtout pas me précipiter sur maverick !!! :D
-
La GTX 780 Ti sera monstrueuse en terme de performance:
+30% supérieure à la R9-290X pour les performances 3D (donc plus de 40-50% face à la GTX 780)
5750 GFLOPS en GPGPU FP32, plus que la 290X qui fait 5632 GFLOPS pour une consommation supérieure.
En consommation justement: Elle consomme 250 Watts (comme la GTX 780 ou Titan) avec une température maximale de 83 °C, alors que la 290X culmine à 290 Watts à 95 °C
Son prix officiel est de 699 $, ça reste cher, mais mieux que la Titan qui est désormais loin derrière (Elle n'est plus la Titan concrètement XD)
-
Faut voir les performances OpenCL, Cuda, calculs généraux, pas que la 3D.
Je viens de poster une question sur le sujet sur le topic Primegrid.
Suis un pro nVidia (consommation, perfs, ....)
Mais je m'achèterais bien une de ces cartes permettant de faire tourner GFN World Record en 268000 secondes !
Avec GTX770 : 432000 secondes
=> 2 jours de mieux !!!!!
-
Salut les pros du GPU!!
Depuis mon upgrade vers Maverick (OSX 10.9), tout Collatz ne fonctionne plus!!!
J'obtiens ce message avec toutes les apps au bout de 2s!!
Sam 2 nov 17:01:30 2013 | Collatz Conjecture | Starting task mini_collatz_2382381840356711573864_103079215104_1 using mini_collatz version 410 (opencl_ati) in slot 17
Sam 2 nov 17:01:32 2013 | Collatz Conjecture | Computation for task mini_collatz_2382381840356711573864_103079215104_1 finished
Sam 2 nov 17:01:32 2013 | Collatz Conjecture | Output file mini_collatz_2382381840356711573864_103079215104_1_0 for task mini_collatz_2382381840356711573864_103079215104_1 absent
Une petite idée???
Salut ! Le problème est général, nVidia doit corriger un problème CUDA / Mavericks.
Il y a eu une annonce cet après-midi dans BOINC Manager
http://www.primegrid.com/forum_thread.php?id=5339
Ils disent de surtout pas upgrader ver Mavericks X 10.9
=> voir mon post précédent et revenir à la version précédente ;)
Bon Crunch, Philippe
-
:kookoo:
Merci de l'info mais mon problème est avec Collatz!!
Je réponds en même temps à la question de JeromeC, Primegrid fonctionne très bien chez moi!! 35,5mn pour une pps sieve en openCL!
Et ma carte n'est pas une nVidia mais une ATI 7950!
:jap:
-
:hello:
Oui mais est-ce que ce n'est pas aussi du CUDA ?
Enfin ok, c'est noté ;)
Concernant ta carte ATI 7950, j'ai vérifié les chiffres de ref. sur : http://gpuboss.com/gpus/Radeon-HD-7950-Boost-vs-GeForce-GTX-770
Je ne comprends pas que tu mettes 35 mins pour 1 PPS Sieve ...
Les séries TAHITI sont parmis les + rapide chez ATI : http://www.primegrid.com/gpu_list.php
Ici : 11 mins environ avec une GTX660 Ti et entre 9 et 10 mins avec une GTX770
(les cartes ne sont pas OC, elles tournent vitesse d'usine)
Tu peux vérifier sur le site de PrimeGrid pour voir la perf moyenne des autres 7950, ou sur autres sites de stats.
La 7950 devrait être beaucoup plus rapide que ça ......
A mon humble avis, entre 10 et 15 mins / UT. A vérifier.
Bon Crunch :jap:
Philippe
:kookoo:
Merci de l'info mais mon problème est avec Collatz!!
Je réponds en même temps à la question de JeromeC, Primegrid fonctionne très bien chez moi!! 35,5mn pour une pps sieve en openCL!
Et ma carte n'est pas une nVidia mais une ATI 7950!
:jap:
-
:kookoo:
J'ai lu ton PM...
Je pense que tu as oublié un détail, c'est que les stats que tu me donne c'est pour du pur ATI alors que la mienne calcule en openCL qui est nettement moins efficace!!
D'où certainement ces écarts de temps!!!
-
La GTX 780 Ti sera monstrueuse en terme de performance:
+30% supérieure à la R9-290X pour les performances 3D (donc plus de 40-50% face à la GTX 780)
5750 GFLOPS en GPGPU FP32, plus que la 290X qui fait 5632 GFLOPS pour une consommation supérieure.
En consommation justement: Elle consomme 250 Watts (comme la GTX 780 ou Titan) avec une température maximale de 83 °C, alors que la 290X culmine à 290 Watts à 95 °C
Son prix officiel est de 699 $, ça reste cher, mais mieux que la Titan qui est désormais loin derrière (Elle n'est plus la Titan concrètement XD)
C'est pas très logique ce que tu racontes ... t'es sur que tu confonds pas la GTX 780 Ti avec l'hypothétique Titan Ultra ?
-
:kookoo:
Merci de l'info mais mon problème est avec Collatz!!
Je réponds en même temps à la question de JeromeC, Primegrid fonctionne très bien chez moi!! 35,5mn pour une pps sieve en openCL!
Et ma carte n'est pas une nVidia mais une ATI 7950!
:jap:
Si ca se trouve, ils sont tellement mauvais qu'il ont aussi pété quelque chose dans le driver OpenCL ATI ... :siflotte:
-
non c'est officiel toTow:
La GTX 780 Ti a bien 2880 cores CUDA.
La Titan Ultra n'est qu'au stade de rumeur
-
:kookoo:
J'ai lu ton PM...
Je pense que tu as oublié un détail, c'est que les stats que tu me donne c'est pour du pur ATI alors que la mienne calcule en openCL qui est nettement moins efficace!!
D'où certainement ces écarts de temps!!!
:hello:
Autant pour moi. Je ne pensais pas qu'il pouvait y avoir une telle différence.
Par contre je constate que sur GFN WR ces cartes sont très très rapide.
Environ 270000 secondes ! pour +/- 550000 points.
(430000 secondes avec une GTX770)
Bonne Journée et Bon Crunch ;)
-
En tout cas, sur les R9 290X (et les 290 aussi), dans 95% des cas, on ne trouve plus de connecteurs compatibles pour utiliser des écrans VGA.
Et ça me fait bien chier :rhaa:
-
En tout cas, sur les R9 290X (et les 290 aussi), dans 95% des cas, on ne trouve plus de connecteurs compatibles pour utiliser des écrans VGA.
Et ça me fait bien chier :rhaa:
Les petits adaptateurs DVI ->VGA sont très pratiques ;)
Comme je ne joue pas, sur une des tours c'est ce que j'utilise pour pouvoir brancher un "vieil" écran plat de 14" ...
-
Les adapteurs DVI -> VGA ne marchent que si tu as déjà des signaux analogiques sur le DVI, ce qui est le cas avec les DVI-A (Analog) et DVI-I (Integrated). Mais là on a du DVI-D (Digital), qui ne transporte que le signal numérique.
Et un convertisseur DVI-D -> VGA, c'est aussi cher qu'un écran neuf http://www.lemondeducable.com/fr/cable/cable-ecran/adaptateur-dvi/fiche_prod.do?ftn=listingProd&prodId=404305 :/
-
J'ai 1 GTX 660 avec 1 port HDMI , un displayport et 2 port DVI , 1 DVI-I et un DVI-D avec 1 ecran brancher sur L'HDMi et l'autre sur le port DVI via un adaptateur DVI a VGA fourni avec une carte graphique si je change de port DVI soient le DVI-D ou DVI-I il fonctionne toujours .
-
Les adapteurs DVI -> VGA ne marchent que si tu as déjà des signaux analogiques sur le DVI, ce qui est le cas avec les DVI-A (Analog) et DVI-I (Integrated). Mais là on a du DVI-D (Digital), qui ne transporte que le signal numérique.
Et un convertisseur DVI-D -> VGA, c'est aussi cher qu'un écran neuf http://www.lemondeducable.com/fr/cable/cable-ecran/adaptateur-dvi/fiche_prod.do?ftn=listingProd&prodId=404305 :/
Entendu. Je n'y connais pas grand-chose. J'ai branché GTX770 grâce à un connecteur DVI->VGA et ça marche.
Je pensais que ça fonctionnait pour toutes les cartes.
Bon Crunch ! :jap:
-
un bon site canadien ou américain pour un achat ? merci
-
Grande nouvelle pour les crunchers:
La GTX 780 Ti est sortie aujourd'hui (pas encore testé cependant)
Autres infos: Elle a la double précision avec 960 cores CUDA FP64 pour presque 1800 GFLOPS..surprenant qu'elle coute que 699 $, il serai donc logique de baisser le prix de la Titan également, vu qu'elle est dépassée maintenant.........
-
Merci pour l'info.
Le "hic" c'est qu'elle coûtera probablement € 699, soit 35 % de plus qu'aux USA ...
Les bons deals en ce moment sont les cartes dont le prix a baissé : GTX 770 et GTX 780
Ce domaine bouge tellement vite qu'on ne peut en général pas suivre.
Je ne me rappelle plus où trouver ces stats précises, mais à mon humble avis,
les meilleures cartes nVidia en terme de perfs / conso / prix sont toujours les GTX660Ti et GTX670
Quoique les 770 et 780 vont aussi être disponibles d'occasion très rapidement à de très bons prix :D
Je ne parle pas des ATI qui, bien que moins chères, sont plus performantes sur certains projets, mais dont la consommation n'est pas vraiment maîtrisée ...
Enfin, si on me donne 2 * GTX 780 Ti, je suis preneur :siflotte:
Edit : http://www.pcinpact.com/news/84150-nvidia-baisse-ses-prix-et-annonce-780-ti-pour-7-novembre-a-699.htm
-
Informations Nvidia: Encore en stade de spéculations, mais sérieuses
Voila qu'une carte professionnelle nommée la Tesla M40c se pointe et utilise l'architecture Maxwel
Tesla M40c:
* Maxwel GM100
* 8.6 milliards de transistors
* Die de 550 mm² en 20 nm
* 6144 cores CUDA sous 24 blocs SM
* Fréquences de 930 à 1000 Mhz
* Puissance de 11428 GFLOPS en 32 bits
* Puissance de 3000 GFLOPS en 64 bits
* 384 TMU pour 384.00 Gtexels/s
* 64 ROP pour 64.00 GPixels/s
* 4 Go G-DDR5 à 1350 Mhz
* Bus mémoire de 512 bits pour un débit de 350 GB/s
* DirectX 11.2 et OpenCL 1.2 (enfin le 1.2 comme AMD), et OpenGL 4.4
Ce n'est encore que des spéculations, mais c'est énorme^^
-
Par contre J'ai lu qu'en calcul double pércision (utilisée uniquement en calcul et jamais en jeu), la fréquence des GPU de la gamme GEFORCE allait être baissée vers 850Mhz pour éviter de marcher sur les platebande des TESLA... a surveiller pour eviter les mauvaises surprises genre j'ai la plus puissante des cartes graphique de jeux mais qu'est ce que je me traine dans les crunchs GPU :priz2tet:
Sinon ATI ne bride pas le calcul DP. Et en plus vu la consommation, ca chauffe mon appart :coffeetime:
-
Bonjour,
est-il facile maintenant de faire cohabiter une Nvidia et une Ati dans le meme boitier sur Boinc? Le systeme serait un windows 7 64b
Merci d'avance :jap:
-
Aucun problème de faire cohabiter une Radeon et une Nvidia.
Pour BOINC, aucun problème
Pour Folding, des paramètres sont à faire, mais je les connais..
A toi de voir, mais mettre les 2 marques, aucun prob
-
Merci Gael :jap:
-
Grande stupéfaction: J'ai testé une vieille Radeon X1950 Pro pour un bench, et Folding s'ouvre automatiquement
Je vois que FAH la voit et marque: "Ready: 0.00% - R580 (Radeon X1950 Série)", surprenant XD
-
Et oui FAH était en avance. Bien avant le GPGPU moderne (CUDA et CAL puis OpenCL), ils avaient réussi à faire calculer les séries X1000 d'ATI en utilisant DirectX. Mais l'expérience a été un échec avec des résultats non fiables ...
-
Bon choix kasur , tu a acheter quel modele ??
Mmm, un méchant modo veut me faire du HS, que fais-je... :D (je repost ici pour pas pourrir le soutien au PD2S quand même)
j'ai pris celle la:
http://www.pixmania.fr/search/VTX3D-Radeon-HD-7970-X-Edition.html (http://www.pixmania.fr/search/VTX3D-Radeon-HD-7970-X-Edition.html)
Il y avait moins chères mais avec beaucoup de retour sur un sifflement, celle la à qu'un seule test mais très bon.
C'est une sous-marque mais elle est OC d'usine (la fréquence mémoire est pas à fond donc je me suis dit que ça doit pas être que marketing) et elle à un refroidissement maison.
(http://www.chip.pl/images/testy/podzespoly-pc/karty-graficzne/vtx3d-radeon-hd-7970-x-edition-3072mb-gddr5/55871_4.jpg/image_preview)
Vous validez? (je peux la renvoyer jusqu'au 15/11)
-
:+1:
Il y a plusieurs projets sur lesquels cette cartes fait des étincelles ! ;)
Félicitations :D
-
Milkyway est un peu la dessous^^ j'avais toujours voulu participer à ce projet mais avec mes nVidia en opencl ça n'aurait été que pour la forme. Après quand je vois ses stats ailleurs c'est énorme pour moi (je passe de 2300 à 5700 GFlops théoriques avec la GTX 570 que je garde).
-
Sur GFN WR la 7970 met 2 jours de moins qu'une GTX770 pour 1 UT ... ;)
-
Oui ça à l'air d'etre une brute, j'imagine meme pas les cartes au dessus (ati ou nvidia)
-
J'avais pas compris que les 7990 était des doubles 7970.. :jap:
Tes tests, tous opencl, sont édifiant et me conforte dans ce choix. Pas de soucis je compte pas prendre de GPU avant un certain temps (le SSD prend déjà la poussière dans ma liste et une console next-gen y pointe son nez^^)
Merci :hello:
-
Oui, prochaine config il y aura une 7970 dedans. A moins que je revende une GTX770 pour la remplacer par une 7970 ;)
-
Oui, prochaine config il y aura une 7970 dedans. A moins que je revende une GTX770 pour la remplacer par une 7970 ;)
Ben tu peux pas mettre une 3eme ?? oui bon sa va chauffer et surtout consommer c bien sa le soucis :pt1cable:
Une 7970 en h24 sur 1 mois , sa fait 15 euro d'electricite par mois :priz2tet:
-
"Malheureusement" non je peux en mettre que deux, mais des doubles et longues après c'est le ventirad du i7. Un deuxième PC pourrait se monté pour pas trop chère mais je trouverait ça excessif pour mon studio :cpopossib:
-
Oui, prochaine config il y aura une 7970 dedans. A moins que je revende une GTX770 pour la remplacer par une 7970 ;)
Ben tu peux pas mettre une 3eme ?? oui bon sa va chauffer et surtout consommer c bien sa le soucis :pt1cable:
Une 7970 en h24 sur 1 mois , sa fait 15 euro d'electricite par mois :priz2tet:
Il y a la place pour une 3° carte sur la CM, mais pas assez de place à cause du montage, l'alimentation prend de la place.
Et puis oui, côté consommation, je paye déjà assez comme ça ;)
Ptêt commencer à chercher une solution style batterie solaire :D
-
Dans le projet Mikiway, cela veut dire quoi "Validation peu concluante"?
-
c'est qu'il y a un problème vraisemblablement lié à la double précision à savoir que l'erreur est supérieure à une valeur critique. Enfin, c'est mles souvenirs...
Plus pratiquement, cette unité ne sera pas validée....
-
It seems lately there's been a bit of confusion as to how the new validator works, so I'm making this post to help explain everything to everyone.
All workunits are initially generated with a quorum of 1, so they all go through a first pass of the validator. During this first time through, the validator checks to see if the result is going to be inserted into one of the populations of our evolutionary algorithms. If it is going to, that means we'll be using it to generate new workunits. Because of this we need to validate it to make sure the result is a good one. The validator will then set the quorum to 2 and wait for another result. When this happens, your result will be set to "Completed, validation inconclusive." This doesn't mean your result was invalid or anything was wrong, just that the server is waiting for another result to validate it.
If your result won't improve one of our populations, there's still a chance that we're going to validate it. This is to make sure that people aren't using bad applications or scripts to scam the server for credit. In this case, the server will again increase the quorum of that workunit to 2, and your result will be set to "Completed, validation inconclusive." Again, nothing here is wrong with your result, its just that the server is waiting for another result to validate against.
Some results are simply validated without being checked, because we won't be using them to improve our search populations, and we didn't pick them for extra validation, they are simply marked valid and awarded credit. Previously, this happened to all results that didn't improve our searches, which is why you didn't see too many results being verified.
So this is how the new validation is working. Again, if you're seeing "Completed, validation inconclusive," that doesn't mean you won't be getting credit, it just means it went through the validator once and we're waiting for another result to compare it against. After that (if it's a valid result) it will be awarded credit.
If anyone has any other questions about the new validation system, please post inside this thread and I'll be happy to answer any questions.
--Travis
Je vais traduire.
-
Je dirais plutôt que l'unité ne sera peut-être pas validée.
Si plusieurs résultats (2 ou 3 selon le quorum) fournissent le même résultat "peu concluant" il sera validé pour tous les résultats peu concluant.
C'est comme les résultats avec "Validation inconclusive" pour d'autres projets, le résultat n'est pas celui attendu mais peut être validé quand même suivant les résultats des autres participants.
-
En gros c'est le fonctionnement normal du projet et il faut pas s’inquiéter ...
-
Si j'ai bien vu ils ont un quorum 1 mais dès fois il en demande une deuxième après coup, toutes mes unités dans ce cas ont été validées :hello:
-
Ces unités sont calculées par mon FX-8350
-
Il semblerait que dernièrement il y a eu beaucoup confusion concernant le fonctionnement du nouveau validateur, je fais donc ce post pour aider à tout expliquer.
Toutes les tâches sont initialement générées avec un « quorum » de 1, elles passent donc toute une première phase de validation. Durant cette première phase le validateur vérifie si le résultat va être inséré dans une des populations des algorithmes évolutionnaires. Si c’est le cas, cela signifie que nous allons l’utiliser pour générer de nouvelles tâches. A cause de cela nous devons valider la tâche pour être certain que le résultat est exact. Le validateur va donc passer le « quorum » à 2 et va attendre un second résultat. Quand cela arrive, votre résultat sera considéré comme « Terminé, validation peu concluante ». Cela ne signifie pas que votre résultat était invalide ou que quelque chose n'allait pas, seulement que le serveur est en attente d’un autre résultat pour le valider.
Si votre résultat ne va pas servir à améliorer une de nos populations, il existe encore une chance que nous allons le valider. Il s'agit de s'assurer que les gens n'utilisent pas de mauvaises applications ou de scripts pour escroquer des crédits au serveur. Dans ce cas, le serveur va également augmenter le « quorum » de votre unité à 2, et le résultat sera " Terminé, validation peu concluante". Encore une fois, rien ne cloche avec votre résultat, c'est juste que le serveur est en attente d'un autre résultat pour le valider.
Certains résultats sont simplement validés sans être contrôlés, car nous n’allons pas les utiliser pour améliorer nos populations de recherche, et nous ne les avons pas sélectionné pour une validation supplémentaire, ils sont simplement marqués comme valides et crédités. Auparavant, c’est ce qui arrivait à tous les résultats qui n'aidaient pas à améliorer nos recherches, ce qui explique pourquoi vous ne voyiez pas beaucoup de résultats en cours de vérification.
Voilà donc comment le nouveau validateur fonctionne. Encore une fois, si vous voyez « Terminé, validation peu concluante » cela ne signifie pas que vous n’allez pas obtenir de crédit, cela signifie simplement que la tâche est passé une première fois par le validateur et nous attendons un second résultat pour le comparer. Après cela (si c'est un résultat valide), il sera crédité.
--Travis
-
Merci cedricdd ... tu devrais peut être le mettre aussi dans le topic officiel de Milky ...
-
MilkyWay : est-ce un projet plutôt destiné ATI ?
-
Oui, projet un peu plus pour ATI, les unités openCL pour les NVidia sont plus à la traîne et peinent pas mal. Mais c'est mieux que le CPU. :)
Les projets CUDA sont nettement plus adaptés aux NVidia.
-
Le logiciel AIDA64 me révèle des infos assez intéressante au sujet des calculs entiers. Je voudrais savoir si il existe une base de données sur les performances des GPU sur ce domaine.
Pour infos, AIDA64 donne "Entier 24 bits Ops ES/s" et "Entier 32 bits Ops ES/s"
Je peux déjà donner les infos des cartes que je possède:
Radeon HD3870 X2: 2x110 GIOP/s (pour les 2)
GeForce GTX280: 622 GIOP/s et 127 GIOP/s
GeForce GTX660 Ti/670: 510 GIOP/s (pour les 2)
Pas encore fait pour la 8800 Ultra et 9800 GX2
Quelqu’un connaitrait-il cela et aurait des infos supp?
-
Oui, projet un peu plus pour ATI, les unités openCL pour les NVidia sont plus à la traîne et peinent pas mal. Mais c'est mieux que le CPU. :)
Les projets CUDA sont nettement plus adaptés aux NVidia.
Merci pour ta réponse. ça me conforte dans l'idée qu'il "faut" au moins 1 ATI et 1 nVidia ;)
D'après PrimeGrid, les cartes nVidia architecture Kepler sont + performantes (sur leurs projets) en OpenCL
et les Fermi en CUDA ...
Toujours est-il que ATI en OpenCL sont beaucoup plus rapides ...
Bref. Rien de nouveau ;)
Merci, Philippe
-
Bonjour,
j'ai monter la HD7970 que je suis allé chercher tout à l'heure, installé Catalyst et ça marche de travers.
Boinc ne veux calculer que sur un projet en même temps et met l'autre calcul en attente (j'ai un projet avec des unités nvidia et l'autre avec des ati).
Vous pouvez me dire ce qu'il lui arrive svp??
-
Tu as 1 ATI + 1 nVidia ?
As-tu installé le config xml pour que BOINC utilise les 2 cartes ?
Il y a probablement des gens avec beaucoup plus d'expérience que moi qui passeront par ici ;)
Essaye de voir sur les topics GPU ...
Bon Crunch :jap:
-
Si c'est le meme cconfig que: <use_all_gpus>1</use_all_gpus>
oui pas de soucis.
J'ai effacé les exclude_gpu du genre device_num 0 ou 1 qui me serve plus à rien, pas de changement. Avec des exclude_gpu du genre typ NVIDIA ATI, même résultat.
ça me parait bizarre mais DistriRTGen sur Nvidia est toujours en priorité haute même quand il a que 23 taches a rendre en 3 jours (j'ai 1 jours de cache).
J'essaye de virer ce priorité haute pour voir si c'est ça...
edit: Voila j'ai laissé que 2 taches à chaque projet, redémarrage et plus de priorité haute, les deux cartes crunch :D
ça m'embete quand meme beaucoup car DistriRTGen se met regulièrement en priorité haute et va me couper une carte 7 fois plus puissante pour rien..
edit2: et c'est normal Distrirtgen telecharge 25 unités ce qui représente 41h de calcul sur sa carte :priz2tet: edit3: logiquement, repassage en priorité haute, mais l'ATI garde le rythme :hello:
edit4 l'ATI a pas crunché longtemps à coté de la nvidia et s'est mis en attente. 1 projet pour les deux cartes et l'autre en secours, dès que le secours s'est mis en route sur la nvidia l'ati s'est mis en attente. D'après ce post il faut l'ati en carte d'affichage et la nvidia en coprocesseur, plus qu'à les changer de place pour essayer:
http://hardforum.com/showpost.php?s=551688a87bad0ed113ba30f16e342387&p=1039993253&postcount=10 (http://hardforum.com/showpost.php?s=551688a87bad0ed113ba30f16e342387&p=1039993253&postcount=10)
-
Faut ptêt choisir un projet différent pour chaque carte ?
Concernant DistRgen, je ne comprends pas trop les stats que je lis.
Hier j'en ai essayé 1 sur une 770, et c'était parti pour 1h30 ....
Bon Crunch :jap:
-
Ah ben finalement je vois que ça marche ;)
GenuineIntel
Intel(R) Core(TM) i7-3930K CPU @ 3.20GHz [Family 6 Model 45 Stepping 7]
(12 processeurs) NVIDIA GeForce GTX 570 (1280MB) driver: 327.23 OpenCL: 1.01, AMD AMD Radeon HD 7870/7950/7970 series (Tahiti) (3072MB) driver: 1.4.1848 OpenCL: 1.02
-
Non ça marche po, j'ai déactivé la nvidia et crunche sur la ATI uniquement (ce qui est pas mal)^^
L'Ati se met toujours en attente quand il y a un calcul sur la Nvidia, pourtant j'ai mis l'ATI en principal. Par contre je ne suis pas sur de comment s'appel le logiciel Nvidia optionnel pour l'effacer...
-
A mon humble avis, tu dois choisir certains projets par carte,
et du coup insérer des commandes "exclude gpu".
Si tu crunches PPS, POEM, GPU GRID sur la nVidia => exclude ATI dans ces projets
Si tu crunches DistRgen, Moo, MilkyWay sur la ATI => exclude nVidia dans ces projets.
Je pense qu'il ne faut pas faire calculer les 2 cartes sur le même projet ....
Bonnes Recherches
Philippe
+ Voir le dernier MP
-
DirstGen utilise les calculs en nombre entiers (GIOP/s), et non à virgule flottante (GFLOP/s). Ma 660 Ti a mit 2h20 pour faire 50%, et en dessous 1h40 à ma GTX280 pour 40%, autant dire qu'elles font un peu prés les mêmes performances.
-20
Autant dire de suite: les Nvidia sont nuls en calculs entiers..Pour DirstGen, il faut des AMD Radeon, et c'est pas une coïncidence que les Top participants de ce projet aient que des Radeon HD7900.
Pour infos: ma GTX660 Ti fait 510 GIOP/s, et la GTX280 en 622 GIOP/s, cela en calcul entier INT 24 bits, et 510 GIOP/s - 123 GIOP/s en INT 32 bits.
Bien que ça ait aucun rapport pour BOINC, il faut comparer avec le minage de bitcoin qui consiste à décrypter, chose que fait aussi DirsGen (si j'ai bien compris, vu que cela parle de tester les mots de passes et hachages). Les deux ont une choses en commun: cela emploi les nombres entiers.
Je n'ai pas de Radeon sous la main, donc peux pas vous dire quelle est la performance théorique d'une Radeon (le logiciel AIDA64 vous la donne). Mais il est clair même qu'une simple Radeon HD5870 fera mieux qu'une GK110 en calcul entier, ou pareil...Donc une HD7970 ou R9-290X vous sera bénéfique pour ces projets.
-
Gael, connais tu une marche à suivre pour Boinc pour que l'ati et la nvidia calcul ensemble? Pour l'instant c'est l'une qui crunch et l'autre en attente, avec une priorité pour nvidia...
J'ai totalement désinstallé la nvidia (et la mise à jour des pilotes windows^^) et suis en train d'installer le pack complet des outils Ati, pour qu'elle soit bien prise en principale.
Ensuite je vais réinstallé le minimum pour que la nvidia crunch et, j'espère, soit prise en secondaire et ne joue qu'un role de coprocesseur comme indiqué dans le lien plus haut. Si vous avez une idée de package minimum de driver pour ça je suis preneur ;)
Merci à tous en tous cas :hello:
-
DirstGen utilise les calculs en nombre entiers (GIOP/s), et non à virgule flottante (GFLOP/s). Ma 660 Ti a mit 2h20 pour faire 50%, et en dessous 1h40 à ma GTX280 pour 40%, autant dire qu'elles font un peu prés les mêmes performances.
Merci :jap:
Je laisse mes nVidia sur autre chose. Je dois avouer que je n'ai pas confiance en ce que fait DistrGen ...
=> Si j'achète une 7970, ce sera pour GFN WR, Milky Way, ...
-
Kasur: Je connais la marche à suivre pour FAH seulement, mais pour BOINC, je ne sais pas trop....
-
C'est bon! les deux tournent ensemble depuis deux heures :gno:
Ce qui a marché c'est de mettre l'ATI en première carte dans la tour, et lui installé tous ses logiciels. Pour la NVIDIA j'ai tout désinstallé et réinstallé les drivers vidéo et son.
Plus qu'à attendre de voir si une Priorité Haute remet le foutoir.
Merci :hello:
EDIT Je touche au PC et retour au bizarre, l'ATI se met en attente. OK j'utilise plus la GTX, elle partira à la vente quand j'aurai plus envie de la casser :priz2tet:
-
Faire cohabiter les deux marques dans une même machine, ça a toujours été folklorique ... :/
-
Faire cohabiter les deux marques dans une même machine, ça a toujours été folklorique ... :/
oui c'était mon idée aussi, j'avais cru qu'il y avait du changement mais je confirme que non.
Meme la GTX déactivé j'ai des redémarrages intenpestifs :cry: J'ai vérifier les pics en Ampère aujourd'hui d'après les premiers logs, si la moyenne est bien de 40A elle peut tirer 48A en vitesse de croisière avec des pics à 138... mon alimentation garantie 12V et 40A par rail...
Il y a deux rails dispos si je garde que la carte plus puissante, pensez vous que je puisse brancher c'est deux rails pour que la carte répartisse sa conso en Ampère? Ce sera tester de façon sur que ce n'est pas l'alimentation qui me fait les Blue Screen ?? (en fait j'espère que si, j'ai pas envie d'envoyer au SAV)
Vu la puissance de la HD 7970 elle fera très bien le taf tout seul (le taf de monter mes projets GPU en pic^^). Il y aura une GTX 460 et une GTX 570 bientot dans les annonces si vous étiez intéressés. :pompiste:
-
J'en reviens pas quand je vois les score des 7970 sur solo-collatz, GFN WR, MilkyWay etc
(Par rapport GTX660ti et 770)
=> Si un jour nouveau pc il y a, ce sera avec avec une HD ;)
-
Bon il y a un guide d'achat qui énonce un truc pas mal:
Déjà la base: un rail 12V à 40A ça veut dire 12*40=480W
L'ampérage max du rail est en fait le courant max que celui peut transmettre, si l'alim lui fourni! Bien souvent les Watts maximum par rail additionnés ne correspondent pas au Watts de l'alim, bien souvent inférieur.
Dans mon cas mon alim précise bien que la conso sur les rails 12V est de 850W (70.8A), ce qui est pas mal sur 900W ;)
Je vais sortir la GTX et brancher les deux rails sur la HD en espérant ne pas avoir de redémarrage cet aprèm.
A+ :hello:
-
Suis en train d'essayer :
2 PPS Sieve en parallèle sur GTX660Ti
2 ou 4 PPS Sieve en parallèle sur GTX770 : Idéal = 2 UT car aucun gain de temps avec 4 UT
2 Solo_Collatz en parallèle sur 660Ti et 770
Sur PPS l'augmentation du rendement quotidien est d'environ 40 % !
Sur Collatz, + 25 % à 30 % !
:cdmalad: :garf: :adonf:
-
2 nouvelles cartes en préparation:
* une ASUS MARS rassemblant 2xGK104 de la GTX760 (pourquoi on se demande, elle sera en retrait face à la GTX690, une GK110 X2 aurait été plus logique)
* AMD prépare "Vénusius", une double Hawai-XT: la R9-290X2 : 2x2816 processeurs de flux^^
-
Il y a deux rails dispos si je garde que la carte plus puissante, pensez vous que je puisse brancher c'est deux rails pour que la carte répartisse sa conso en Ampère? Ce sera tester de façon sur que ce n'est pas l'alimentation qui me fait les Blue Screen ?? (en fait j'espère que si, j'ai pas envie d'envoyer au SAV)
Bah c'est pas dur : ta carte graphique à deux prises d'alimentation PCIe à connecter pour qu'elle fonctionne ... alors tu en met une sur le rail 1, et une autre sur le rail 2.
C'est comme ça que sont cablées mes deux 9800 GTX+ sur l'alim 1000W, qui est en fait l'assemblage de deux alims 500W.
Après, si on en trouve encore, rien ne vaut une bonne vieille alim mono rail (comme ma Corsair TX 650W), comme ça pas besoin de réfléchir :siflotte:
-
en fait il y a 2*4+2 prises sur chaque rail, hier encore j'avais deux GTX qui sont aussi double prise.
Le système a redémarrer sauvagement même après que la carte soit sur deux rails douze Volts. Dans le log cette fois ci j'ai vu que les valeurs MVDDC (voltage mémoire) avait disparu quelques secondes, trente secondes avant la fin des enregistrement. J'ai retouché la fréquence mémoire dans le logiciel ATI pour enlever l'OC d'usine et le remettre à la fréquence "AMD". Depuis aucuns plantages, je lui ai même doublé ces unités Milkyway (Whoa 97% d'occupation GPU, whoa..) cette nuit et pas de plantage jusqu'ici :)
:hello:
A 100% d'occupation GPU le ventilo tourne à 60% :)
-
Après, si on en trouve encore, rien ne vaut une bonne vieille alim mono rail (comme ma Corsair TX 650W), comme ça pas besoin de réfléchir :siflotte:
Moi c'est-ce que j'ai. Ce modèle n'excite plus ?
-
Moi c'est-ce que j'ai. Ce modèle n'excite plus ?
Même si pour ma part ça ne m'excite pas tant que ça :heink:, les monorails existent encore.
La Corsair AX1200i que j'ai installée sur mon bi-xeon sort 100A sur 1 seul rail 12V.
-
La R9 290X est au pliage ... le coup de pied aux perfs par rapport à une 6950 est quand même impressionnant ... :eek:
Pour les autres retours, je vais attendre de l'avoir torturée un peu plus pour vous dire ce que j'en pense ... :siflotte:
-
La R9 290X est au pliage ... le coup de pied aux perfs par rapport à une 6950 est quand même impressionnant ... :eek:
Pour les autres retours, je vais attendre de l'avoir torturée un peu plus pour vous dire ce que j'en pense ... :siflotte:
Oui, tiens-nous au courant. ça m'intéresse d'en savoir plus sur cette carte ;)
-
Si tu as la possibilité de faire des tests de performances/consommation sur les projets Boinc, ça permettra de compléter le tuto. ;)
-
Sur FAH, je suis passé de 15k PPD avec la 6950 (shader réactivés) à 150k PPD sur la R9 :sun:
-
C'est ce qu'on appelle un saut quantitatif :D
-
Enfin mes Radeon R9-290^^
(http://i56.servimg.com/u/f56/13/94/54/05/imag0115.jpg) (http://i56.servimg.com/u/f56/13/94/54/05/imag0116.jpg)
-
Super pour toi... Ca chauffe pas trop les deux serrées comme ca???
Maintenant, a cause des drivers, Milkyway et Moo, tu ne pourras faire :sinon:
Distrtgen et Collatz oui, Primegrid, j'ai pas essayé
-
Très belles cartes !
Tu pourrais faire des malheurs sur le challenge PrimeGrid GFN WR ou Short ;)
Tu laisses le boîtier ouvert avec un ventilo externe en renfort ?
Bon Crunch !
-
Exceptionnel: Le logiciel EVGA Précision X qui semble être destiné que pour les Nvidia semble être compatible avec les Radeon:
(http://i56.servimg.com/u/f56/13/94/54/05/sans_t11.jpg)
-
Pour un meilleur ratio je devrai mettre combien de WU dans les projets OpenCL ATI?
-
Pour un meilleur ratio je devrai mettre combien de WU dans les projets OpenCL ATI?
Ah ben faut faire des essais. Mais bon, les ATI chauffent tellement que je ne peux
que te suggérer de ne pas en faire tourner trop en même temps ...
D'autres crunchers qui connaissent bien ces cartes te répondront certainement.
Perso : GTX770 sur PPS Sieve et Solo_Collatz, avec 2 GPU : 0.25 CPU / 0.50 GPU
Une question en passant : as-tu vu / lu mon message précédent au sujet de tes points et de ton équipe ?
Rien de grave en ce qui me concerne, mais tu es attaché à Grid-France, pas à la MT France de l'AF :miam:
Bon Crunch ;)
-
Chose à préciser: PrimeGrid me donne aucun travail, et j'ai tout cocher: CUDA Nvidia - OpenCL Nvidia - OpenCL ATI, j'ai enlever que CPU (c'est beaucoup trop long).
Et pour les points de notre team, ou je trouve le CPID correspondant?
-
Chose à préciser: PrimeGrid me donne aucun travail, et j'ai tout cocher: CUDA Nvidia - OpenCL Nvidia - OpenCL ATI, j'ai enlever que CPU (c'est beaucoup trop long).
Et pour les points de notre team, ou je trouve le CPID correspondant?
Si tu as des ATI, tu ne dois cocher QUE ATI Open CL. ça m'est déjà arrivé de ne plus recevoir d'UT => j'ai retiré PrimeGrid de la liste de mes projets dans BM,
puis me suis attaché à nouveau au projet. Et ensuite ça a re-fonctionné.
Concernant ton équipe, si tu veux rejoindre l'AF, tu dois aller modifier ton profil sur chaque projet.
Quitter ton équipe actuelle pour ensuite t'attacher à l'AF.
Ensuite, si tu veux faire partie d'une mini-team, tu peux faire précéder ton nom d'utilisateur par le tag [AF> xxxxxx] ou,
si tu ne veux pas rejoindre une mini-team, tu indique [AF]. Dans chaue projet aussi.
Tout est bien expliqué dans les Forums ;)
-
Enfin mes Radeon R9-290^^
(http://i56.servimg.com/u/f56/13/94/54/05/imag0115.jpg) (http://i56.servimg.com/u/f56/13/94/54/05/imag0116.jpg)
La classe :sun:
-
Bah, c'est du tout venant... :/
Sinon Gael tu passe quand chez nous autres de l'AF ?
@+
-
Concernant ton équipe, si tu veux rejoindre l'AF, tu dois aller modifier ton profil sur chaque projet.
Quitter ton équipe actuelle pour ensuite t'attacher à l'AF.
Ensuite, si tu veux faire partie d'une mini-team, tu peux faire précéder ton nom d'utilisateur par le tag [AF> xxxxxx] ou,
si tu ne veux pas rejoindre une mini-team, tu indique [AF]. Dans chaue projet aussi.
Avec BAM c'est fort facile à faire, s'occuper de son pseudo de façon centralisée en une fois pour tous les projets et l'appartenance à l'équipe pour chaque projet, finger in the nose. Vive BAM.
Mais faut se rattacher à BAM pour tous les projets / machines au début.
-
Bonjour,
j'ai installé il y a peu 2 GPU dans une tour, que ce soit au test de Boinc ou en pratique dans les temps de calculs et dans les charges GPU, la HD7950 s'en sort mieux que la HD7970. Pourtant leur noms ne sont pas trompeurs et la HD7970 est supérieur sur le papier (2048 puces à 1050MHz contre 1792 à 850MHz).
En détaillant dans GPU-Z je me suis apperçu que j'ai branché la 7970 sur un port PCI-E x8 (la 7950 est sur un x16). Pouvez me confirmez que ça impute dans les perfs de ce genre de monstre?
Je vais la déplacer et je voulais vous demander avant si vous feriez une différence (de perfs) entre un port x16/8 et un x16 "simple"?
La CM : https://www.asus.com/Motherboards/Z9PED8_WS/ (https://www.asus.com/Motherboards/Z9PED8_WS/)
Merci d'avance :jap:
-
Salut !
Je n'ai pas la réponse précise à ta question.
Cependant, sur une CM Asus Z87 pro, mes 2 GTX770 ref gv-n770oc-4gd ont des performances différentes...
Une des 2 tourne toujours moins vite que l'autre ...
Une chose est sure, ta 7970 doit déménager ! (Branchements = 6 + 6 ? ou 6 + 8 ? Merci)
Bonnes Recherches et Bon Dimanche :jap:
-
La 7950 est en 8+8 et la 7970 en 8+6.
edit: sur une alim modulaire qui peut envoyé 840W combiné en 12V.
-
ma GTX 770 gigabyte 4 go OC est 2*8
-
Non, c'est l'inverse 7950 de base = 6+6
7950 O/C = 8+6
7970 de base = 8+6
7970 O/C = 8+8
7990 de base = 8+8
La carte la plus puissante toujours en Haut de la CM
@+
-
Salut Giloox :kookoo:
la 7950 est bien alimenté en 8+8, c'est celle ci: http://www.sapphiretech.com/presentation/product/?cid=1&gid=3&sgid=1157&pid=1547&lid=1 (http://www.sapphiretech.com/presentation/product/?cid=1&gid=3&sgid=1157&pid=1547&lid=1)
2X150 Watt 8-pin PCI Express power connector is required.
Que pense tu de la différence entre un port PCI-E x16/8 et un x16 sur la CM?
-
Salut Kasur,
J'ai une 7950 DUAL-x AVEC 8/6 : http://www.pcinpact.com/news/69608-sapphire-hd-7970-dualx-oc-radeon-amd.htm O/C de base 950 Mhz et O/C par ma pomme à 1070 Mhz.
Pour les ports PCI-E 16/8 Cela n'ait pas significatif sur Boinc.
@+
-
Non, c'est l'inverse 7950 de base = 6+6
7950 O/C = 8+6
7970 de base = 8+6
7970 O/C = 8+8
7990 de base = 8+8
La carte la plus puissante toujours en Haut de la CM
@+
Merci pour l'info. Du coup suis allé vérifié les 770 : 8 + 6
=> Je pourrai(s) brancher une 7970 de base ;)
Vais jeter un oeil sur les soldes.
Ce qui me retient : nVidia + ATI sur la même CM ... ? Vu que parfois ça marche et parfois ça marche pas ... :coffeetime:
-
""Ce qui me retient : nVidia + ATI sur la même CM ... ? Vu que parfois ça marche et parfois ça marche pas ... :coffeetime:""
Il faut diversifier son élevage dans la ferme...
Par exemple faire du GPUGrid pour Nvdia et du Collatz sur ATI. :D
-
Je te le déconseille d'expérience perso, ensuite dans 2 PC :):):)
-
C'est pourtant la configuration qui tourne sur mon pc, et pas de problèmes pour l'instant. :siflotte:
-
Bonjour,
j'ai installé il y a peu 2 GPU dans une tour, que ce soit au test de Boinc ou en pratique dans les temps de calculs et dans les charges GPU, la HD7950 s'en sort mieux que la HD7970. Pourtant leur noms ne sont pas trompeurs et la HD7970 est supérieur sur le papier (2048 puces à 1050MHz contre 1792 à 850MHz).
En détaillant dans GPU-Z je me suis apperçu que j'ai branché la 7970 sur un port PCI-E x8 (la 7950 est sur un x16). Pouvez me confirmez que ça impute dans les perfs de ce genre de monstre?
Je vais la déplacer et je voulais vous demander avant si vous feriez une différence (de perfs) entre un port x16/8 et un x16 "simple"?
La CM : https://www.asus.com/Motherboards/Z9PED8_WS/ (https://www.asus.com/Motherboards/Z9PED8_WS/)
Merci d'avance :jap:
Celle qui va le moins vite, c'est celle qui pilote l'écran ?
-
Je te le déconseille d'expérience perso, ensuite dans 2 PC :):):)
Oui. Dès que possible, je pense m'installer une 2° crunchbox :coffeetime:
Mais bon, c'est pas pour tout de suite :siflotte:
-
Celle qui va le moins vite, c'est celle qui pilote l'écran ?
Non, la 7950 était dans la machine et pilotait l'écran et c'est celle qui va le plus vite, j'ai rajouté la 7970 après.
Je la replacerai en première position et les deux sur un port x16, j'espère que ça marchera mieux..
-
Hello ! :hello:
Suite à nos discussions dans le topic : Vos derniers achats :
La TITAN Black Edition est sortie, en même temps que la 750 / 750Ti
http://www.pcworld.fr/carte-graphique/actualites,nvidia-geforce-gtx-titan-black,546631,1.htm?comments=1#comments
http://www.generation-nt.com/geforce-gtx-titan-black-edition-carte-graphique-caracteristiques-specifications-features-actualite-1851882.html
En précommande pour le 24 ?
http://www.materiel.net/carte-graphique/asus-geforce-gtx-titan-black-6-go-101120.html?affcode=kelkoofr&utm_source=kelkoofr&utm_term=GeForce+GTX+TITAN+Black+-+6+Go&utm_medium=comparateur&utm_campaign=Composants+PC
:miam:
Si le prix est vraiment "aux alentours de € 1.000.-", les TITAN devraient baisser un peu ;)
Pour ceux et celles qui font déjà tourner des GTX, le nouveau driver 334.89 est sorti cette nuit ;)
Bonne Journée et Bon Crunch :jap: :hyperbon:
-
un peu de lecture sur la titan black : http://uk.hardware.info/reviews/5231/nvidia-geforce-gtx-titan-black-4-way-sli-review
sur les test GPGPU, j'ai tout de même l'impression que la R9 290X reste une meilleure affaire, quitte à en mettre 2 pour dépasser la titan en calculs DP.
après, il faut voir dans la réalité...
-
Tu n'as pas tord. Le rapport Calcul DP / Prix est en faveur de AMD.
J'hésite d'ailleurs entre acheter une Titan ou 2 HD7970 / R9 ... (d'occasion ;) )
Cependant, les Titan sont plus polyvalentes ... Surtout la Black Edition.
1700 Gflops en DP ! (il me semble)
On commence à trouver des Titan à 500 €, et l'arrivée des Black Edition
devrait faire baisser un peu leur prix. A moins que les Black ne coûtent
finalement beaucoup plus que les 1.000.- € annoncés ... ? :/
Si on reste raisonnable, c'est vrai que AMD est une bonne solution pour la DP
et on trouve des HD7970 à 200 € ... (HD7970 = R9 280X il me semble ?)
-
les 280X actuelles ne sont plus tout à fait des 7970 rebadgés.
les 7970 et les 1ères 280X avaientt un GPU Tahiti XT2.
les 280X actuelles ont des GPU Tahiti XTL : un peu plus performant en DP, qui consomme un peu moins, qui chauffe donc un peu moins.
mais ça reste assez semblable.
nota : je remets les liens des spécifications comparées des GPU de toutes générations, mobiles ou fixes :
http://en.wikipedia.org/wiki/Comparison_of_NVIDIA_graphics_processing_units
http://en.wikipedia.org/wiki/Comparison_of_AMD_graphics_processing_units
il faudra aussi voir ce que vont donner les 750Ti qui viennent de sortir sur l'entrée de gamme : ça a l'air de consommer pas grand chose; certaines se passe même d'alimentation extérieure en se contentant seulement de l'alimentation fournie par le port PCIex.
à l'heure actuelle, ça reste trop cher pour envisager quelque chose.
ce qui est sur, c'est que l'architecture Maxwell de nvidia a l'air sympathique : peu énergivore, et de bonnes performances.
il faudra surtout voir le reste de la gamme.
-
Merci pour les infos ! :jap:
PS : ce qui me fait hésiter pour AMD, c'est que j'aimerais aussi améliorer les temps de calcul sur GPUGRID ... :miam:
EDIT : En DP, les R9 290 ont été "bridées" par rapport aux 7970 ... enfin, d'après les chiffres des tableaux
Les R9 280X ont l'air pas mal en DP ... ?
-
Merci pour les infos ! :jap:
PS : ce qui me fait hésiter pour AMD, c'est que j'aimerais aussi améliorer les temps de calcul sur GPUGRID ... :miam:
sauf erreur de ma part (j'ai voulu tester le projet gpugrid :
voici le message recu de gpugrid :
"19/02/2014 10:31:32 | GPUGRID | Message du serveur: An NVIDIA GPU is required to run tasks for this project" donc pour AMD c'est pas gagné pour améliorer les temps.
Perso je n'ai presque que des AMD plus ou moins vieux (je ne joues pas du tout) j'ai acheté dernièrement une petite 7790 à 90 € et je viens de commander une gt 760 à 160 € car certain calcul me sont "interdit" avec les ati ou bien trop lents.
-
Re ! :hello:
Je ne sais pas si quelqu'un connait le sujet, mais j'ai une question concernant l'OC ...
Mes cartes GTX770 Gigabyte tournent d'origine à 1250 Mhz, et la mémoire GPU à 3500 Mhz
Avec EVGA Precision X, j'ai augmenté la fréquence GPU à 1390 (1500 = Max d'après EVGA Precision X)
+ la fréquence mémoire à 3900
Gain de temps sur PPS Sieve = environ 11 % et aucun changement niveau température.
Quelqu'un a t'il une idée du maximum envisageable sans risquer d'abîmer les cartes ?
Faut-il se fier à la t° ? (62 ° et 68 °)
Faut-il augmenter la fréquence mémoire + la fréquence GPU ? Si oui, dans les mêmes proportions ?
Merci ! :jap:
-
Monsieur Philapinou, :kookoo:
J'ai un peu laissé tomber les optimisations ces derniers temps, mais mon expérience était la suivante.
Augmenter la tension mène à la mort violente de l'électronique, comme notre ami Andro l'a démontré à plusieurs reprises. :/
Augmenter la fréquence mémoire ne sert pas en général à grand chose. On peut même souvent abaisser la fréquence mémoire, afin de baisser un poil la conso et chauffe, sans ralentir les calculs.
Augmenter la fréquence des processeurs de flux accélère quasi-proportionnellement les calculs, mais aussi la conso et donc la chauffe et le bruit, et augmente le risque d'erreurs de calculs. Au delà de certaines températures, dépendant principalement de refroidissement de la carte et du boitier, la durée de vie de la carte sera réduite.
Le mieux est donc de faire des tests précis et progressifs, si possible avec un wattmètre, pour voir si sur un projet donné le jeu en vaut la chandèle.
-
Hello Nabz ! :hello:
Merci pour ta réponse :jap:
Je ne touche pas au voltage, ça s'est certain :electric:
Par contre, en augmentant les fréquences GPU et RAM, d'environ 12 %, j'ai une amélioration des temps de calculs d'environ 10 % sans augmentation de t° :miam:
=> Je laisse tourner pour voir si c'est stable.
Je me demandais jusqu'où on pouvait aller, sachant que EVGA Precision X autorise de monter à
5000 Mhz pour la RAM et 1500 Mhz pour le GPU. (Pour le moment je suis à environ 3900 pour la RAM et 1350/1375)
Par contre, j'ai bloqué la charge électrique à 100 % (soit 1.2 V si je me souviens bien ?) et t° limitée à 79 °
Ah oui, dernière question : mes cartes ne tournent pas à le même cadence : c'est normal si je me souviens bien ?
1 PCI plus rapide que l'autre ? Une des cartes est bien à 1.2 V, l'autre 1.1875 ou qq chose du genre.
Merci !!!
-
Par contre, en augmentant les fréquences GPU et RAM, d'environ 12 %, j'ai une amélioration des temps de calculs d'environ 10 % sans augmentation de t° :miam:
Ca je n'y crois pas trop, ça serait trop beau. :spamafote:
C'est pour ça qu'il est préférable de se baser sur la mesure d'un wattmètre, plutôt que sur une valeur de température prise on ne sait pas où ni comment. ;)
-
euh ... T° est indiquée par GPU-Z et par EVGA Precision X ... ?
Je n'ai pas d'appareil de mesure.
Par contre charge "électrique" passé de 76 71 à 78 %
vais aller voir si je peux prendre des captures d'écrans ;)
Et si j'y arrive je les ajouterai ici plus tard :miam:
EDIT : J'arrête de jouer. Juste réussi à planter le pc en remettant l'OC en marche ... :gno: ;/ :D
-
Plus d'infos au sujet des futurs Maxwels:
GM200 (Succède aux GK110): Environ 6144 cores CUDA - 512 TMU - 48 ROP avec presque 13 milliards de transistors en 20 nm
GM204 (Succède aux GK104): Nombre de CUDA cores inconnu, peut-être équivalant aux GK110, 20 nm
GM206 (Succède aux GK106): Pas d'infos, 20 nm
GM207 (Succède aux GK107 et remix des GM107): même caractéristiques que les GM107, mais en 20 nm
GM208 (Succède directement aux GF118): Pas d'infos
-
@ Zarck : Merci pour l'info, je laisse tourner la config "par défaut" ;)
@ Gael91 : Chouette, avec un peu de chance, le prix des cartes actuelles devrait baisser un peu :adonf:
-
moi, j'ai suivi le chemin inverse de vous au niveau de l'OC.
j'ai des cartes OC d'usine dont je n'ai pas touché aux fréquences.
je n'ai donc pas augmenté celles-ci. j'ai laissé les fréquences OC d'usine.
et, j'ai diminué la tension jusqu'à obtenir un minimun stable.
-
Mes Gigabyte sont OC d'usine aussi il me semble, 1240 Mhz à 1.2 V.
Sauf qu'une des deux ne reçoit que 1.187 V => 1215 Mhz
Stables sur tous les projets, y compris GPUGRID et GFN / GFNWR
-
http://fr.evga.com/articles/00822/
€ 1.000.- => Le prix de la TITAN "simple" devrait logiquement baisser ...
http://www.materiel.net/carte-graphique/gigabyte-geforce-gtx-titan-black-6-go-101124.html
-
Merci pour l'info, je n'avais pas regardé :jap:
Je regarde surtout Cdiscount car il me semble que c'est un peu moins cher + on peut payer en 4x ;)
Sinon, sur le bon coin, on en trouve entre 500 et 650 € :D
Je dois avouer hésiter BEAUCOUP entre garder mes 770 et acheter R9 280X ou virer mes 770 pour une Titan et/ou une 780Ti ...
J'attends de voir ce que les prix vont faire ...
En plus les séries 8 vont arriver ....
Purée, ça évolue trop vite :hyperbon::coffeetime:
-
Disons que tous ces sites sont pratiques pour comparer les prix ...
On voit rapidement où il ne faut pas acheter :coffeetime:
-
Perso, Cdiscount, c'est terminé, ils m'ont retiré du jour au lendemain la possibilité de payer en 3x par CB, alors que je n'avais jamais eu le moindre incident de paiement. :rhaa:
Pour en revenir aux CG, je suis parvenu a mon maximum :cry:, je vais suivre avec attention le nouveau Maxwell de Nvidia, et si elles tiennent toutes leurs promesses dans le haut de gamme, je cèderai peut-être. :love:
-
Ce qui est "bien" en informatique c'est que la puissance double régulièrement, il y a pas très longtemps a attendre pour avoir une bonne excuse à dépenser une ptite fortune, y gagnerai tu beucoup à changer?
-
Euh ... je n'y gagnerais rien, sauf si je minais. D'ailleurs faudra que je m'intéresse au sujet ;)
Mais en terme de points, oui, beaucoup.
1 x R9 280X fait presque autant de points que 2 * GTX770 sur Collatz, voire plus sur tous les projets en DP.
R9 290 est mieux mais consomme trop.
Le seul inconvénient c'est l'impossibilité de calculer sur GPUGRID + "faiblesse" en calculs SP.
D'où l'idée d'en acheter 2 et de garder les GTX puis les alterner suivant les projets ...
On les trouve à 260 €
Mais celles qui me tentent le plus .... sont les TITAN et 780Ti
Ici l'investissement est plus ... euh .... déraisonnable :gno:
Mais avec la sortie de la TITAN BLACK, je pense qu'il va y avoir quelques bonnes occasions sur le bon coin ou ailleurs.
J'ai vu une annonce pour 2 * TITAN à € 1.000.- sur le bon coin, mais le vendeur ne répond pas aux messages ...
Sinon on en trouve àpd 600 €, et elles ne sont que 10 à 15 % moins performantes que les BLACK
etc etc etc :coffeetime:
:jap: :jap: :jap:
-
prend l'extension de mémoire 16 ko quand meme... perso jamais pu enregistrer mes programme sur casette.
-
moi avec leur clavier de base galere : une apres midi pour taper un petit jeu... trouver les erreurs de frapper et éteindre... A table !!!
-
ça me rappelle l'époque où un ami avait un Commodore 64, à cassettes.
Et écran en couleurs + quelques jeux style Jeux Olympiques :eek:
10 ans avant ça, j'ai évidemment joué à PONG :love:
Mon premier "PC" a été un Apple IIc, sur lequel j'ai passé plus d'heures à programmer et taper les programmes en BASIC qu'à jouer :D
Pour les nostalgiques ;) : http://oldcomputers.net/appleiic.html http://oldcomputers.net/
-
les 280X actuelles ne sont plus tout à fait des 7970 rebadgés.
les 7970 et les 1ères 280X avaientt un GPU Tahiti XT2.
les 280X actuelles ont des GPU Tahiti XTL : un peu plus performant en DP, qui consomme un peu moins, qui chauffe donc un peu moins.
mais ça reste assez semblable.
Encore merci pour les liens. :jap:
Une question : si je commande une R9 280X, comment puis-je m'assurer que j'aurai bien un GPU en Tahiti XTL qui est apparemment environ 15 % plus performant que XT2 ?
Ou, si je me décide pour une Radeon HD 7950 Boost Tahiti PRO-H2, comment m'assurer que je ne commande pas une Tahiti PRO2 ?
Apparemment, rien ne les distingue à l'extérieur => il faut les démonter pour vérifier ... :/
Merci
-
il n'y a plus de stock de vieilles puces pour les r9 280x.
c'étaient juste les 1ères.
pour les 7950, il faut voir quand le changement de puce a eu lieu :??:
mais, je pense que dès qu'il y a boost dans le nom de la carte, ça doit être ok.
-
Entendu, merci :jap:
-
Pour infos, AMD va sortir la R9-280 qui est une HD7950 optimisée:
1050 Mhz en fréquence GPU, sorte Tahiti-PRO3
-
Sur les sites des marques et sur la liste de leur produits ils font souvent la différence entre la 1ere version et la version révisée, tu y trouvera peut etre un indice comme une référence ou une boite un peu différrente.
-
http://www.ldlc.com/fiche/PB00162419.html
:bouh:
919 zorros. :lol:
Leur markéting est autant sur le calcul que sur le jeu! :bouh:
-
En fait ce que je cherche, c'est un bon compromis PRIX / CONSO / GFLOPFS DP
(Puisque nous somme sur le topic BLA BLA, j'élabore un peu :D)
J'hésite énormément entre plusieurs solutions, car je voudrais rester raisonnable niveau conso électrique ...
1) Soit 2 ATI que j'utiliserais en alternance avec les nVidia.
Avantage : Calcul DP pas trop cher, mais séries R9 bridées en DP par rapport aux 7950 BOOST et 7970 Edition
=> 7950 Boost à € 199 = bon compromis.
Inconvénients : Impossible de calculer sur GPUGRID, aucune économie de Watts
2) Soit 1 GTX TITAN BLACK
Avantages : Excellente carte sur tous les projets, SP, DP (énorme en DP !) avec des performances globales environ 100 % supérieure à une GTX770
=> 1 seule carte au lieu de 2 => moins de conso électrique. (TDP 250 au lieu de 2 * 230)
Inconvénients : Prix de départ, RAC va diminuer, ...
3) Soit 2 GTX TITAN d'occasion
Il y a e.a.une annonce sur le good corner, 2 * TITAN pour le prix d'1 TITAN BLACK.
Malheureusement le vendeur ne répond pas => BOF
Avantages : :love:
Inconvénients : Conso W, prix de départ, et puis c'est pas raisonnable. Ma femme va me lyncher :cavachier:
Tant que je n'aurai pas résolu ma quadrature du cercle, je continuerai à réfléchir :moimoi:
NB Sur TOPACHAT et Materiel.net les TITAN BLACK sont à moins de € 1.000.-
-
Tu as raison. Le mieux est d'attendre. Ne fût-ce qu'un peu.
Cependant je ne pense pas avoir la volonté nécessaire pour résister longtemps à l'appel de
(http://t1.gstatic.com/images?q=tbn:ANd9GcSD6TcWKAYT-tfvYwWXqce7vaHkbUDR2sY2U0p2Mo6ybTJOywJEoSNjCvl6)
-
2 x plus puissant qu'une TITAN ?
Euh fastoche ...
2 TITAN
:adonf:
:marcp:
-
si je comprends bien la 750 est un maxwell et la 770 une kepler ?
-
Yes :jap:
-
Ils auraient donc dû l'appeler autrement puisqu'elle succède à la 770 ?
-
oui et non, parce que les performances en jeu des gtx 750 (ti ou non) sont inférieures à celle de la gtx660 (tout court) actuelle...
-
ok donc avec ma 770 j'ai encore quelques mois devant moi :D
-
2 x plus puissant qu'une TITAN ?
Euh fastoche ...
2 TITAN
:adonf:
:marcp:
:ptdr:
-
Phil : le mieux en info c'est d'attendre, tu as en permanence la satisfaction de voir sortir la version A+ du matos, heureusement que t'as pas acheté la version A trois mois avant, imagine comme tu allais te faire ken ! En plus au niveau des économies c'est énorme tout ce que tu ne dépenses pas !
-
Phil : le mieux en info c'est d'attendre, tu as en permanence la satisfaction de voir sortir la version A+ du matos, heureusement que t'as pas acheté la version A trois mois avant, imagine comme tu allais te faire ken ! En plus au niveau des économies c'est énorme tout ce que tu ne dépenses pas !
Oui, merci. C'est un conseil avisé. C'est ce que je dis toujours pour les voitures et le matériel High Tech.
Tu sors du garage / magasin et la décote de X % est immédiate => mon appétit pour le matériel d'occasion mais récent :miam:
En informatique, c'est vraiment dingue comme les choses vont vite.
Je m'y suis remis grâce à BOINC en juillet 2013, et l'évolution sur 6 mois est ... impressionnante.
NB : Je viens de voir une TITAN BLACK à € 920.- sur http://www.ldlc.com/fiche/PB00162419.html
Ça m'incite à attendre :coffeetime: (Sur cdiscount 1 offre à € 1.350.- :cdmalad:)
Je leur ai demandé si c'était pas un peu cher pour une carte à € 1.000.-, mais pas de réponse LOL
On trouve des TITAN d'occasion à € 600.-, mais comme je veux remplacer 2 cartes par 1 seule ... faut qu'elle soit très performante.
Ça me fera des économies de facture EDF ;)
Bon Crunch ! :jap:
EDIT : D'apès votre expérience, GAINWARD = quel genre de qualité ? Merci ! :jap:
-
Merci Beaucoup pour l'info ! :jap:
-
Gainward, je n'ai eu que des pb avec leurs GPU 4850 et GTX580.
Pas de Pâte thermique et des températures de Fou + de 100°.
Dans mon ancienne équipe (EDLS) je préconisais de démonter le ventirad et de mettre de l' Artic Silver 5.
Maintenant, cela à peut être changé mais pour ce qui me concerne c'est terminé.
@+
-
Merci pour ton retour d'expérience :jap:
-
Pour moi cette une marque de seconde zone (même si c'est un vrai constructeur et pas du noname), mais c'est juste sur les détails de qualité moyenne que ça se joue, l'avantage que c'est leur prix sont plus bas, leur réput à la revente à pas l'air de poser de problème, à prix égal je préfèrai surement une MSI ou une Sapphire, à l'aveugle.
-
Moi, j'ai eu deux Sapphire (x1950 et une HD4830 de mémoire (ouais, j'ai pas eu beaucoup de carte graphiques :D )) qui ont claqué alors que je cruchait pas plus que ça dessus, j'ai pris l'habitude d'éviter cette marque.
-
Je pense me tourner vers, dans l'ordre de préférence :
GIGABYTE, ASUS, MSI
J'ai mis mes 770 Gigabyte en vente.
Pour info, au Luxembourg (ldlc.lu ;) ), qui est juste à côté, la TITAN BLACK GAINWARD coûte ..... € 882.- TTC !!!
http://www.ldlc.lu/fiche/PB00162419.html
Mais faut pas espérer la trouver en boutique à ce prix-là. Il y a 2 mois, j'ai vu une 670 > € 450.- chez "SATURN",
un hypermarché de l'électronique / hifi / électroménager.
J'attends :sinon: que d'autres marques soient disponibles, et puis : Allô ? Je peux me faire livrer un colis chez toi ?
:adonf:
-
Bon les gars, j'ai des problèmes avec ma R9 290X (Sapphire de référence) ... je me demande si les drivers pourraient provoquer ça ou si c'est la carte qui a un problème, alors dans le doute, je demande un avis par ici.
Ca fait deux fois que je retrouve ma machine dans cet état :
(http://img.lbzh.fr/thumbs/5325f44b20a82_600.jpg) (http://img.lbzh.fr/uploads/5325f44b20a82.jpg)
Dans cet état, le PC est bloqué, mon contrôle via VNC ne répond pas ... je suis obligé de lui mettre un reset dans la tronche pour que ça reparte ...
Je me demande si ce sont les drivers ou la carte qui merde ... :(
-
T'as pas overclocker la carte par hasard?
-
Non, elle est aux fréquence d'origine (1000/1250) et le driver se débrouille tout seul ...
-
:kookoo:
elle est encore sous garantie?
j'ai vu que cette carte est à 947MHz qui monte à 1000 sous les 95°C, ça peut valoir le coup de regarder si à 947 elle déconne, t'aurais trouver comment recréer le "bug".
-
Suis allé fouiner sur les sites US.
Beaucoup de gens se plaignent de problèmes généralement liés à une mauvaise gestion de la ventilation => plantages en série
http://www.tomshardware.com/reviews/radeon-r9-290-driver-fix,3666.html
http://www.tomshardware.com/reviews/radeon-r9-290x-thermal-paste-efficiency,3678.html
Je ne copie pas ici les liens des forums qui sont trop nombreux sur le sujet.
Apparemment AMD aurait résolu une partie des problèmes avec de nouveaux drivers en décembre/janvier ...
Mais il est conseillé de changer la pâte thermique des cartes neuves ! ... :/ (Ils ont pris une Gigabyte pour cet exemple, mais le problème serait généralisé ...)
Si ta carte est à turbine, ça vaut la peine de l'ouvrir pour la nettoyer.
Mais surtout trouver un moyen dans Catalyst ou autre de forcer une plus grande vitesse de la turbine / des ventilos .
Chez AMD la vitesse moyenne est souvent 40 % alors que c'est loin d'être suffisant pour ces cartes qui chauffent beaucoup.
Voir : http://www.tomshardware.com/reviews/radeon-r9-290-driver-fix,3666-4.html
Perso je n'ai que des nVidia, à turbine + à ventilos, mais je règle les courbes de % des ventilos comme suit : t° + 10
Je ne sais pas si ton problème vient de là, mais il y a de fortes probabilités pour que la surchauffe en soit l'origine.
Si tu en as la possibilité, essaye d'obtenir un échange contre une 280X qui a meilleure presse ?
Et si c'est une carte à turbine, tu peux aussi essayer de la remplacer par 2 ou 3 ventilos ... ?
Bonne Chance et Bon Crunch :jap:
EDIT : Désolé, les liens mènent vers des sites anglophones, mais c'est très détaillé.
-
J'ai l'impression que ta carte chauffe de trop ou un mauvais contact sur la prise DVI/VGA/HDMI.
Si cela peut être utile.
@+
-
Depuis que j'ai la carte, elle est réglée en PowerTune +50% et Ventilateur max 100% ... faut pas déconner avec les perfs hein :D
Je ne pense pas qu'elle chauffe trop, elle plie là et j'entend à peine le ventilo, alors qu'elle sort de quelques mois de minage en mode avion de chasse au décollage ... j'ai jamais eu de problèmes.
Retour aux 13.12 ... on va voir si ça tient.
Si elle plante, retour direct à l'envoyeur :cavachier: ... si elle plante pas par contre, je vais être sacrément emmerdé :siflotte:
En tout cas, c'est la première fois que AMD me déçoit avec un nouveau modèle de carte (et ses drivers associés) :cry:
-
Bon, mon GPU n'a pas planté aujourd'hui avec les 13.12 ... mais j'ai quand même eu des plantages (artefacts, reset GPU et BSOD) hier soir avec FAH, Firefox et du Flash ... du coup, je sais pas trop quoi conclure :??:
-
test la RAM.
-
Aucun plantages avec le test de stabilité OCCT ou les autres applis GPGPU ...
J'ai l'impression que c'est la gestion du boost qui déconne, comme si parfois, je me retrouvais dans une combinaison fréquence/tension pour laquelle la tension est insuffisante ...
C'est vraiment dommage qu'on ne puisse pas forcer des fréquences et des tensions fixes sur ces GPU :cry:
-
Pour information, n'utilisez pas des logiciels comme MSI Afterburner ou autre pour le monitoring, ils entrent en conflit avec le nouveau système de monitoring d'AMD et ça provoque des plantages.
Utilisez SEULEMENT ASUS Tweak, depuis, j'ai aucun prob
-
Oui, GPUZ me faisait planter depuis que j'ai eu cette carte ... le jour où AMD sortira un truc potable du premier coup n'est pas encore arrivé :(
-
Je crois que j'ai résolu mes problèmes de GPU :
- désinstallation des drivers ATI
- nettoyage de tous les drivers ATI avec leur outil (trouvé sur la page de DL des derniers beta) ... je me retrouve enfin avec un affichage en VGA
- installation des 14.3
J'ai pu surfer hier soir sans problèmes, un peu de flash aussi ... ça m'a l'air pas mal ...
Par contre, j'ai du mal à comprendre comment des drivers peuvent foutre autant de bordel qui ressemble quand même plus à une panne hard qu'à un problème de soft ... :priz2tet:
-
- nettoyage de tous les drivers ATI avec leur outil (trouvé sur la page de DL des derniers beta) ... je me retrouve enfin avec un affichage en VGA
:oki: merci
-
Je mets le lien vers l'outil AMD pour que ça dépanne quelqu'un d'autre ;) : AMD Clean Uninstall Utility (http://support.amd.com/en-us/kb-articles/Pages/AMD-Clean-Uninstall-Utility.aspx)
-
Bon, il semblerait que mes nombreux bugs sur la R9 290X aient leur explication : http://www.overclock.net/t/1441349/290-290x-black-screen-poll/680#post_21873327
Ca me casse les burnes ... même un coup de SAV ne suffira pas :cry:
-
Donc une limite à l'OC pour ta carte...
-
Pour ceux ou celles qui veulent supprimer les pilotes AMD, faites le de manière normale, NE JAMAIS employer AMD Clean Uninstal Utility.
Certe, il supprime bien les pilotes, mais supprime malheureusement certains composants du registre Windows dont les droits administrateurs.
J'ai tester une fois, et après, voila que mes HDD externes me sont interdits d’accès. Et je ne compte pas les nombreuses fonctionnalités de Windows que me refusent toute manip (même la création d'un simple dossier était impossible)
J'ai vérifié dans d'autres PC (Afin de savoir si c'était pas isolé): même résultat.
Et aucune solution de revenir en arrière, car tt manip de restauration est impossible faute de droit (même depuis un DVD Windows). Seule solution: Formater-_-
NE PRENEZ PAS CETTE MERDE :x
-
Donc une limite à l'OC pour ta carte...
Le problème, c'est qu'elle n'est pas OC ... c'est une carte de référence aux fréquences de référence ... :/Pour ceux ou celles qui veulent supprimer les pilotes AMD, faites le de manière normale, NE JAMAIS employer AMD Clean Uninstal Utility.
Certe, il supprime bien les pilotes, mais supprime malheureusement certains composants du registre Windows dont les droits administrateurs.
J'ai tester une fois, et après, voila que mes HDD externes me sont interdits d’accès. Et je ne compte pas les nombreuses fonctionnalités de Windows que me refusent toute manip (même la création d'un simple dossier était impossible)
J'ai vérifié dans d'autres PC (Afin de savoir si c'était pas isolé): même résultat.
Et aucune solution de revenir en arrière, car tt manip de restauration est impossible faute de droit (même depuis un DVD Windows). Seule solution: Formater-_-
NE PRENEZ PAS CETTE MERDE :x
Je n'ai eu aucun problèmes, et pourtant je l'ai utilisé pour passer des 13.12 aux 14.1, puis aux 14.2 et ainsi de suite jusqu'aux 14.4 ...
Le seul défaut, c'est qu'il faut ensuite refaire les configs éventuelles dans le CCC.
Tu as une machine à chipset AMD ? Dans ce cas là, il a peut être desinstallé les pilotes des différents composants de la carte mère, et là c'est effectivement plus chiant ...
-
donc soucis du pilote ou bug sur la carte
-
GTX 770 à € 240.- : aucune idée de la qualité de cette marque : http://www.materiel.net/carte-graphique/gainward-geforce-gtx-770-2-go-91794.html?affcode=newsletter&clic=img&utm_source=newsletter&utm_medium=news-produits&utm_campaign=20140614-nvidia-gtx770&utm_content=img
(http://www.materiel.net/live/216885.jpg)
-
:hello:
Au sujet des pilotes : Ne vous pressez surtout pas de télécharger la version 340.43 BETA.
Sur mes 770 et 660 Ti = ralentissement de 10 % à 15 % constaté sur GPUGRID et COLLATZ ...
=> retour à 337.88
Bon Crunch :hyperbon:
-
aie je l'ai déjà télécharger mais pas tester sur ses projets :??:
-
Si tu essayes, tiens-moi au courant stp. Merci :jap:
Le problème est peut-être chez moi ?
En tout cas j'ai remis 337.88 et ça semble mieux fonctionner.
Bon Dimanche et Bon :hyperbon:
-
je vais tester une large collatz pour voir
bon dimanche
-
Merci :jap:
Ici large Collatz = 9h sous 340.43 au lieu de 7h30 sous 337.88 ... :??:
-
D'où le nom de BETA :o
-
:hello:
Une petite question pour les spécialistes ATI : La fréquence de fonctionnement des GPU en DP = fréquence "de base" ?
Et Hautes Performances / Boost "seulement" en SP ?
Merci :jap:
-
Il n'y a pas de fréquences différentes .... par contre, il y a des limites logicielles pour brider les performances en DP ... mais c'est pareil chez NV. D'ailleurs il me semble que sur un GPU NV, on pouvait (mais ça a pas duré longtemps comme manip, ils ont vite corrigé leur design LOL) transformer une GeForce en Quadro ou en Tesla en soudant deux résistances sur le PCB de la carte ...
Tu auras toujours les paliers suivant sur ATI : Boot / Idle / Video / Performance ... Boot est optionnel, et souvent égal à Performance s'il existe. Ce sont des palier qui pilotent des combinaisons de fréquences GPU/RAM et de tension GPU. Les GPU les plus récents ont aussi un mode ULPC (Ultra Low Power Consumption) qui leur permet d'éteindre le GPU et la RAM lorsque l'écran est en veille pour consommer encore moins.
Exemple extrait d'un BIOS de R9 290X :
GPU Device Id: 0x1002 0x67B0
113-C6710100-U02 C67101 Hawaii XT A0 GDDR5 4GB 64Mx32 300e/150m
(C) 1988-2010, Advanced Micro Devices, Inc.
ATOMBIOSBK-AMD VER015.041.000.002.000000 285X0500.U42
PowerTune Limit: -50 to 50
CCC Overdrive Limits GPU Clock: 1500.00 MHz Memory Clock: 2000.00 MHz
Clock State 0 Core Clk: 1000.00 MHz Memory Clk: 1250.00 MHz Flags: Boot
Clock State 1 Core Clk: 1000.00 MHz Memory Clk: 1250.00 MHz Flags: Optimal Perf
Memory Support
4096 MB, GDDR5, Autodetect
4096 MB, GDDR5, Hynix H5GQ2H24AFR
4096 MB, GDDR5, Elpida EDW2032BBBG_DEBUG2
-
Merci pour ces explications :jap:
-
Salut ! :hello:
Quelqu'un peut-il me dire à quoi sert ce bouton marqué "S" sur la HD7950 Boost DualX Sapphire ?
OC sans passer par Catalyst ?
J'ai cherché un mode d'emploi en ligne mais euh ... :/
Merci ! :jap:
(http://img.lbzh.fr/thumbs/53e656bc9e290_600.jpg)
-
Personne ne sait à quoi sert ce bouton ?
Cherché sur le net, sans succès.
On va dire que c'est de l'OC manuel ... :??:
-
Merci ! :jap: :jap: :jap:
Comme je n'ai pas le modèle Vapor-X mais Dual-X, je n'avais pas regardé par là.
Sur le lien que tu m'as donné, j'ai trouvé ça dont le symbole ressemble à ce qu'il y a sur le bouton :
(http://www.sapphiretech.com//images/contentLib/icon/Anti-aliasing%20features_20091209_5643.gif)
Anti-aliasing features
Supports advanced AA (Anti-aliasing) features to maximise your enjoyment of high definition gaming.
Multi-sample anti-aliasing (2, 4 or 8 samples per pixel)
Up to 24x Custom Filter Anti-Aliasing (CFAA) for superior quality
Adaptive super-sampling and multi-sampling
Gamma correct
Super AA (AMD CrossFireX™configurations only)
All anti-aliasing features compatible with HDR rendering
-
Je pense aussi que c'est un bouton pour régler les profils de performances ...
-
Entendu merci. Je ne l'utiliserai pas car aucune idée de l'impact sur les calculs :coffeetime:
Je teste cette carte ATI, ma 1ère carte capable de cruncher en DP :hyperbon:
MilkyWay = Nickel
Collatz : les solos durent plus longtemps qu'avant ? (50 mins ?)
Moo : que des erreurs
GFN Short : En cours :D
-
Pense à libérer un core de CPU ou à fixer l'affinité des appli sur un seul pour avoir les meilleures perfs en OpenCL ...
-
Ben moi Mikyway ne fait que bosser mon CPU.....
Tjr rien pour mes 3 Radeon: 2xRadeon R9-290 + Radeon HD7970 Ghz Edition
-
Pense à libérer un core de CPU ou à fixer l'affinité des appli sur un seul pour avoir les meilleures perfs en OpenCL ...
Merci du conseil. :jap:
Comme je ne connais pas bien OpenCL, j'avais vérifié les stats d'autres crunchers sur les stats pour définir le temps CPU ;)
D'ailleurs ce besoin en CPU des ATI donne un point de plus à nVidia.
Ben moi Mikyway ne fait que bosser mon CPU.....
Tjr rien pour mes 3 Radeon: 2xRadeon R9-290 + Radeon HD7970 Ghz Edition
Ça par contre ce n'est pas normal. En tout cas pour la 7970.
Ces cartes calculent les 2 types d'UT GPU MW en resp. 32 et 64 secondes ... :)
Vérifie bien tes préférences, et si nécessaire, n'accepte que les UT GPU.
Sur plusieurs projets on ne trouve aucune stats pour les R9 290 et R9 290X :??:
-
J'ai fait en sorte qu'aucun projet CPU ne soit téléchargé, mais aucuns changements. Ça reste muet.
D'autant plus que sur la liste des PC, ça m'affiche: "[3] AMD Hawaii (3072MB) OpenCL: 1.02"
Pourquoi 3 Hawaï alors qu'il y a une Tahiti......pas étonnant que ça se mélange les pinceaux si BOINC ne peut pas différencier des GPU sous un même driver...
-
Le problème des noms affichés est connu, (idem nVidia et ATI) mais ne devrait pas t'empêcher de recevoir des UT's GPU MW...
Tu en as reçu, mais ça plante :
Stderr output
<core_client_version>7.2.42</core_client_version>
<![CDATA[
<message>
couldn't start app: CreateProcess() failed - Le fichier spécifié est introuvable.
(0x2)
</message>
]]>
Si quelqu'un ayant une R9 290 pouvait confirmer si elle tourne bien sous MW ce serait sympa.
En attendant, dans cc_config tu peux essayer d'exclure les R9, et essayer de ne recevoir des UT que pour ta 7970.
Modèle pour exclure GPU :
<cc_config>
<options>
<use_all_gpus>1</use_all_gpus>
<exclude_gpu>
<url>http://boinc.fzk.de/poem/</url>
<device_num>0</device_num>
</exclude_gpu>
<exclude_gpu>
<url>http://moowrap.net//</url>
<device_num>1</device_num>
</exclude_gpu>
</options>
</cc_config>
[/quote]
EDIT : Aurais-tu un app_info dans MW ?
-
Pour infos, j'ai aucun UT avec ma HD5470 de mon portable........
Ça devient un soucis chez Milkyway la gestion des AMD.........
Non, aucun app_info, rien du tout
-
Pour infos, j'ai aucun UT avec ma HD5470 de mon portable........
Ça devient un soucis chez Milkyway la gestion des AMD.........
Non, aucun app_info, rien du tout
Sur ce pc, tu as plein d'erreurs + d'annulations + "plateforme anonyme" (=> "app_info" il me semble, mais je peux me tromper. )
ID: 545943
AMD FX(tm)-8350 Eight-Core Processor [Family 21 Model 2 Stepping 0]
(8 processeurs) [3] AMD Hawaii (3072MB) OpenCL: 1.02 Microsoft Windows 8.1
Enterprise x64 Edition, (06.03.9600.00) 11 Aug 2014, 17:23:08 UTC
http://milkyway.cs.rpi.edu/milkyway/results.php?hostid=545943&offset=0&show_names=0&state=6&appid=
Je me demande s'il ne faudrait pas :
a) Vérifier qu'il n'y a pas "app_info"
b) Exclure les R9 290 car il n'y en a aucune dans les stats du projet ... ?
Bon Amusement :hello: :kookoo:
-
Ouais les erreurs CPU étaient du par une mauvaise installation des SDK AMD........depuis c'est résolu......
Vu que je tests divers GPU, je dois parfois changer de pilotes..
-
Bon, j'ai mit la HD7970 en compagnie de 2xGTX280 dans un autre pc: Milkyway les fait toutes marcher^^
Pour ma config normale, seule la GTX660 Ti bosse, les R9-290 restent toujours la à rien faire...
-
R9 290 et MW ne font probablement pas bon ménage ... ? :/
-
Tout simplement parce qu'ils ne sont pas à jour..j'imagine que ceux qui auront les nouvelles AMD R9-285(X) TONGA auront le même phénomène. Idem pour les Maxwell si ils sont si lent à se mettre à jour...
Petite infos: Les Radeon basées sur GCN (v1) peuvent encore calculer du CAL. C'est à partir des GCN2 (Hawaii-Bonaire et Tonga) que c'est plus prise en charge...
-
Ça y est, mes R9-290 bossent sous Milwyway@Home avec ma HD7970........2 minutes maximum pour chaque calcul, hyper vite........A coté la 660 ti fait pale figure XD
-
Ce n'est déjà pas la même classe de GPU, mais en plus les Nvidia sont salement bridées en DP :D
Ce qui me fait penser que j'ai une 5870 à retaper.
-
J'ai mes HD6990 et HD5970, mas chauffent bcp trop, et rentrent dans mon autre pc-_-
-
Les R9 290(et X) sont aussi plus bridée en DP que les HD 79xx ... au final, les perfs entre les deux générations n'ont pas évolué en DP :/
-
Il faut comprendre que le coeur de cible des CG, c'est le gamer, pour avoir un GPU en pleine possession de ses moyens, il faut aller dans la gamme "pro" et là c'est plus le même tarif. :eek:
-
On trouve des cartes d'occasion assez performantes en DP pour 100 € / 120 €.
En DP, les R9 280X sont plus puissantes que les R9 290/X *** ! ;)
=> 7950/7970/R9 280X d'occaze pour la DP et OpenCL, c'est parfait.
Mais une bonne TITAN BLACK :love: :love: :love:
***
280X : Tahiti XT2 = 870 GFLOPS / Tahiti XTL = 1024 GFLOPS
290 : Hawaii PRO = 606 GFLOPS
290X : Hawaii XT = 704 GFLOPS
=> 7950 Boost à 100 € FDPIN : Tahiti PRO2 = 761 GFLOPS / Tahiti PRO-H2 = 828 GFLOPS
-
Ça y est, mes R9-290 bossent sous Milwyway@Home avec ma HD7970........2 minutes maximum pour chaque calcul, hyper vite........A coté la 660 ti fait pale figure XD
c'est sur que pour Milky, il faut avoir une ATI. J'ai abandonné depuis longtemps sur une NVIDIA mais GPUGRID ne marche que sur NVIDIA...
-
Voici comment on se base sur la performance des GPU en computing (On se basera sur 1000 Mhz en fréquence pour plus de facilité):
Pour NVIDIA:
Chez Maxwell:
*GM200 (Titan II): 4000 SP => 8000 GFLOP FP32 - 2666 GFLOP FP64 (Si on se base tjr du 1/3)
*GM204 (880): 2560 SP => 5120 GFLOP FP32 - 160 GFLOP FP64
*GM206 (860): 1280 SP => 2560 GFLOP FP32 - 80 GFLOP FP64
*GM107/207 (750-850): 640 SP => 1280 GFLOP FP32 - 40 GFLOP FP64
Chez Kepler:
*GK110 (TItan): 2880 SP => 5760 GFLOP FP32 - 1920 GFLOP FP64
*GK110 (780Ti): 2880 SP => 5760 GFLOP FP32 - 240 GFLOP FP64
*GK104 (770): 1536 SP => 3072 GFLOP FP32 - 128 GFLOP FP64
*GK106 (660): 960 SP => 1920 GFLOP FP32 - 80 GFLOP FP64
*GK107 (650): 384 SP => 768 GFLOP FP32 - 32 GFLOP FP64
Chez Fermi:
*GF110 (580): 512 SP => 1024 GFLOP FP32 - 128 GFLOP FP64
*GF114 (560): 384 SP => 768 GFLOP FP32 - 64 GFLOP FP64
*GF116 (550): 192 SP => 384 GFLOP FP32 - 32 GFLOP FP64
*GF118 (520): 96 SP => 192 GFLOP FP32 - 16 GFLOP FP64
Chez Tesla:
*GT200 (280): 240 SP => 480 GFLOP FP32 - 60 GFLOP FP64
*G92/G80 (9800/8800): 128 SP => 256 GFLOP FP32
Pour AMD:
Chez AMD GCN:
*Bermude (R9-390(X)): 4096 SP => 8192 GFLOP FP32 - 1024 GFLOP FP64 (1/8)
*Fiji (R9-380(X)): 3200 SP => 6400 GFLOP FP32 - 1600 GFLOP FP64 (Si on se base sur 1/4 comme Tahiti) ou 800 GFLOP (1/8 comme Hawaii)
*Hawaii (R9-290(X)): 2816 SP => 5632 GFLOP FP32 - 704 GFLOP FP64
*Tonga (R9-285(X)): 2048 SP => 4096 GFLOP FP32 - ?
*Tahiti (R9-280(X)): 2048 SP => 4096 GFLOP FP32 - 1024 GFLOP FP64
*Pitcairn (R9-270(X)): 1280 SP => 2560 GFLOP FP32 - 160 GFLOP FP64
*Bonaire (R7-260(X)): 896 SP => 1792 GFLOP FP32 - 112 GFLOP FP64
*Cape Verde (R7-250X/HD77xx): 640 SP => 1280 GFLOP FP32 - 80 GFLOP FP64
*Oland (R7-250/240): 384 SP => 768 GFLOP FP32 - 48 GFLOP FP64
Chez AMD/ATI VLIWx:
*Cayman (HD69xx): 1536 SP => 3072 GFLOP FP32 - 768 GFLOP FP64
*Cypress (HD58xx): 1600 SP => 3200 GFLOP FP32 - 640 GFLOP FP64
*RV790/RV770 (HD48xx): 800 SP => 1600 GFLOP FP32 - 320 GFLOP FP64
*RV740 (HD47xx): 640 SP => 1280 GFLOP FP32 - 256 GFLOP FP64
*RV670 (HD38xx): 320 SP => 640 GFLOP FP32 - 128 GFLOP FP64
-
nVidia sort les GTX 9XX le 19.09.2014
Juste à temps pour le RAID :hilare:
NB : La conso baisse "en flèche" !
http://wccftech.com/nvidia-geforce-gtx-980-geforce-gtx-980m-geforce-gtx-970-geforce-gtx-970m-3dmark-firestrike-performance-numbers-unveiled/
http://www.infos-mobiles.com/nvidia/nvidia-les-details-sur-legeforce-gtx-980-et-gtx-970-strix-sont-devoiles/76710
-
Si ça te dérange pas, je vais attendre les analyses techniques des sites références en hardware ...
-
Rien ne me dérange. Ma liberté s'arrête là où commence la tienne :D :hello:
-
pour du pps sieve, ça devrait être sympa au niveau rapport perf/puissance/€.
l'architecture maxwell des dernières nvidia (750 et 750TI) semblent assez frugales en électricité.
pourvu que ça dure.
par contre, en DP, je pense que ce n'est pas demain la veille que l'on égalera les R9 280X (ou 280 = 7950)...
d'ailleurs, je n'ai toujours pas trouvé d'info pour le calcul en FP64 pour la toute récente R9 285...
-
http://www.comptoir-hardware.com/actus/cartes-graphiques/26215-les-premiers-benchmarks-des-gtx-980-et-gtx-970.html
-
Apparemment, les nouvelles GTX 970 et 980 devraient arriver le 19.09.2014
Si on en croit les différents articles en ligne, les performances des GTX 980 se situeraient entre les 780 et 780 Ti,
pour une consommation inférieure de 20 % à 30 %
TDP annoncé 200W
:love: :miam:
-
Bon , j'vais garder mes 780 TI dans ce cas , peut être les mettre à l'eau :D
-
Voila peut-être les spécifications des Maxwell:
*GeForce GTX Titan II: GM200 - 3200 SP - 200 TMU - 64 ROP en 512 bits 8GB - 230 Watts TDP
*GeForce GTX 980: GM204 - 2048 SP - 128 TMU - 32 ROP en 256 bits 4GB - 175 Watts TDP
*GeForce GTX 970: GM204 - 1664 SP - 104 TMU - 32 ROP en 256 bits 4GB - 150 Watts TDP
*GeForce GTX 960 Ti: GM206 - 1280 SP - 80 TMU - 24 ROP en 192 bits 2GB - 130 Watts TDP
*GeForce GTX 960: GM206 - 896 SP - 56 TMU - 24 ROP en 192 bits 2GB - 110-120 Watts TDP
*GeForce GTX 950 Ti: GM107 - 640 SP - 40 TMU - 16 ROP en 128 bits 1GB - 60 Watts TDP
*GeForce GTX 950: GM107 - 512 SP - 32 TMU - 16 ROP en 128 bits 1GB - 55 Watts TDP
*GeForce GT 940: GM208 - 384 SP - 24 TMU - 8 ROP en 128 bits 1GB - 30 Watts TDP
*GeForce GT 930: GM208 - 256 SP - 16 TMU - 8 ROP en 128 bits 1GB - 20 Watts TDP
Les GM204 sont pour le 19 Septembre, les GM206 et GM208 pour Novembre et Décembre 2014. idem les GM107 qui sont déjà présentes. La Titan II (et peut-être une dérivé type GTX 980 Ti), ce sera pour Q2/2015.
-
Oki , merci à tous les deux pour les infos , à suivre :D
-
1ère photo d'une boîte ;)
http://www.cowcotland.com/news/43782/carte-graphique-nvidia-gtx-970-zotac.html
(http://www.cowcotland.com/images/news/2014/09/carte-graphique-nvidia-gtx-970-zotac.jpeg)
-
:hello:
Plus je me torture creuse les méninges ... et plus j'ai envie de faire l'impasse sur la Titan Black pour 2 GTX 980 à la place ... :pt1cable:
Normalement, si les prix annoncés sont corrects, le prix de 2 * GTX 980 devrait être sensiblement le même que 1 * Titan Black Gigabyte ...
Et tant pis pour la DP. Pour le moment en tout cas.
Pour la petite histoire, suis trop noob pour changer d'alimentation => besoin de cartes en PCI 8 +6 ou 6 + 6 :miam:
Si vous avez un conseil, n'hésitez pas. Je ne passerai la commande que jeudi ou vendredi, ou dès que 980 Gigabyte dispos :siflotte:
:jap:
-
Risque de sortie , de 980 ti qui te feront peut être regretter d'avoir pris des 980 , la titan apporte elle un plus , la DP , mais si ce n'est que pour cruncher cela fait un peu cher je trouve .
si je devais me monter une machine pour cruncher , je prendrais au max , des 970 voir 960 ti .
-
Hello :hello:
Merci :jap:
Oui, ce n'est que pour cruncher => ça fait un peu cher la DP ... :/ (en nVidia en tout cas ;) )
http://www.comptoir-hardware.com/actus/cartes-graphiques/26279-la-gtx-970-gaming-de-msi-en-vrai.html
http://www.nokytech.net/la_gtx970_de_galaxy_testee_et_-13309-a-c.html
-
Donc il faut encore attendre 6 mois pour avoir la puces haut de gamme complète ... :/
-
Probablement. Mais les 970/980
sont déjà ont l'air pas mal ;)
-
Bah ils nous refont le coup des GTX7xx ... des sorties au compte goutte :(
-
Pour la petite histoire, suis trop noob pour changer d'alimentation => besoin de cartes en PCI 8 +6 ou 6 + 6 :miam:
Si vous avez un conseil, n'hésitez pas. Je ne passerai la commande que jeudi ou vendredi, ou dès que 980 Gigabyte dispos :siflotte:
Les alims ATX sont normalisées, c'est facile à remplacer si on la choisit correctement. Choisis une alim modulaire et proposant des câbles PCI-E 6+2 broches, par exemple dans les séries Corsair HX ou AX.
Comme ça, pas besoin de recâbler quand tu passes d'une CG 6+6 à une CG 6+8 ou 8+8, ou inversement.
-
Merci du conseil. :jap:
Mon alimentation n'étant pas modulaire, j'en prendrai une quand je devrai changerai.
(Pas envie de tout démonter juste avant le RAID ;)
Corsair mieux que Be Quiet ? J'ai vu une Be Quiet 850 W modulaire, et le câblage fourni a l'air super. (?)
Grosses gaines, prises PCI numérotées, ...
En attendant, je pense que les 980, tout comme les TITAN, se "contentent" de 6 + 8. Enfin, j'espère :D
:hello:
-
Tu a Seasonic aussi , c'est ce que j'ai , elle sont un peu moins cher que corsair , en plus je crois que c'est eux qui les fabrique les alim Corsair , le fait qu'elle soit modulaire n'est pas une obligation , la certification 80+ l'est plus et en platinium elles sont modulaire de toutes façon :jap:
-
Attention à bien choisir la puissance surtout, pour être à 50% de ses possibilités et ainsi profiter du meilleur rendement et ne pas surestimé la consommation de son GPU.Il me semble que nabz l'a évoqué dans son tuto.
-
J'ai opté pour une Akasa Venom Power 1000 80PLUS Gold à 139 €,
http://www.ldlc.com/fiche/PB00136705.html
:cavachier:
Elle a l'air pas mal et son prix raisonnable.
Merci :jap:
-
si vous voulez des alim seasonic, n'oubliez pas que les alim badgées LDLC (http://www.ldlc.com/informatique/pieces-informatique/alimentation-pc/ldlc/c4289-b000000888/p1e48t3o0a1.html) sont des seasonic rebadgées, et, un peu moins cher.
ça peut valoir le coup.
-
Les Akasa Venom, j'en ai vu beaucoup mourir chez des mineurs :/
Chez moi j'ai que du Corsair (TX 650W et HX 1000W), jamais eu de problèmes :)
-
Désolé c'est en anglais :
http://wccftech.com/geforce-gtx-980-alleged-benchmark-tdp-170w/
http://wccftech.com/nvidia-geforce-gtx-980-maxwell-pictured-features-nvttm-cooler-backplate-updated-pcb/
-
Bien bien tout ça, je suis content que nVidia aille chercher + d'efficacité par Watt (oui j'aime cruncher dans le silence).
Sinon pour les alims, je suis pro-BeQuiet, j'en ai 3 qui tournent h24 depuis + d'un an.
Les câbles et connecteurs sont de qualité, le ventilo en 135mm également est hyper silencieux et ventile fort au démarrage pour montrer qu'il est toujours présent.
Sur les modèles Dark Power, on peux choisir soit des rails 12V séparé (pour du multi-GPU) ou 12V unique (mono-GPU).
La garantie est de 5 ans et c'est une des marques qui a le + faible retour: http://www.hardware.fr/articles/920-3/alimentations.html
Effectivement bien choisir la puissance pour se retrouver dans la meilleure tranche de rendement.
-
Oui, l'efficacité / W augmente très significativement.
Pour l'alimentation, je ne vais rien toucher pour l'instant.
J'ai une Antec 750 W ... et si je craque pour des GTX980, ça suffira amplement :D
Sinon, suis d'accord au sujet des Be Quiet. Celle que j'ai vu chez mon pote est vraiment pas mal.
Je ne connais pas les refs. mais 850W modulaire.
-
:kookoo: les AFons,
J'ai l'intention d'acheter une GTX 780 (http://www.zotac.com/fr/products/graphics-cards/geforce-700-series/gtx-780/product/gtx-780/detail/geforce-gtx-780-oc-3.html) pour la monter sur ma bécane, la CM (http://www.asus.com/fr/Motherboards/M4A89GTD_PROUSB3/) n'a que du PCIe 2.0... toussa est-il possible, et niveau performance n'y aura-t-il pas trop de perte???
-
Aucune idée, mais les GTX 970 sortent vendredi ... ;)
-
C'est pas le bon moment pour acheter des GPU, nVidia va sortir des nouvelles cartes sous Maxwell dans qqs jours/semaines. Les gammes vont être réajustées.
-
Bin, je peux l'avoir à 339,95 € et la garantie de la marque est de 5 ans. :spamafote:
-
Bin, je peux l'avoir à 339,95 € et la garantie de la marque est de 5 ans. :spamafote:
Pour 399 € (normalement) tu devrais pouvoir acheter, dès ce vendredi 19.09.2014, une GTX 970
dont la puissance de calcul se situe entre 780 et 780 TI pour un TDP de 150/170 W contre 250 ;)
+ la nouvelle architecture nVidia Maxwell
-
Maxwell a pas ma de bugs sur FAH ... j'epsère que c'est pas le cas sur les applis BOINC ...
Sinon pas de problèmes de compatibilités avec le PCIe, c'est rétrocompatible.
-
Pour 399 € (normalement) tu devrais pouvoir acheter, dès ce vendredi 19.09.2014, une GTX 970
dont la puissance de calcul se situe entre 780 et 780 TI pour un TDP de 150/170 W contre 250 ;)
+ la nouvelle architecture nVidia Maxwell
T'en est sûr pour le prix?
La baisse de la conso est intéressante.
La promo pour la ZOTAC s'arrête à minuit. :/
...
Sinon pas de problèmes de compatibilités avec le PCIe, c'est rétrocompatible.
Merci pour l'info. :jap:
-
La promo pour la ZOTAC s'arrête à minuit. :/
Probablement pour vider les stocks et faire place aux nouveaux modèles ... c'est à toi de voir si tu veux en profiter ou attendre ...
-
@al@ON :hello:
Non, personne ne connait les prix exacts, mais ce sont les rumeurs qui circulent sur les sites généralement bien informés.
Perso, j'attendrais les nouvelles cartes. Les GTX970 seront dispos en version constructeur + améliorées par les marques que nous connaissons.
La GTX980 ayant pris un peu de retard de développement, il faudra attendre un peu plus longtemps.
Je pense (mais ce n'est pas moi qui paye ;)) que ça vaut la peine d'attendre 1 semaine ou 2 pour avoir une toute nouvelle carte beaucoup plus performante, surtout énergétiquement parlant :coffeetime:
-
:kookoo: Phil, ça fait des années que je reporte l'achat de ma 1ère CG... quelques jours/semaines de +... :D
C'était juste pour faire, enfin, le RAID en GPU. :hyperbon:
-
Pas un seul site n'a sorti de test en GPGPU sur les GTX 980 :rhaa:
-
http://www.clubic.com/carte-graphique/carte-graphique-nvidia/article-728013-1-nvidia-geforce-gtx-980-970-maxwell-directx-12.html (http://www.clubic.com/carte-graphique/carte-graphique-nvidia/article-728013-1-nvidia-geforce-gtx-980-970-maxwell-directx-12.html)
Il suffisait de demander :D
-
GPGPU on parle XD
On s'en fout de la 3D pour BOINC xd
-
Y'a pas que BOINC dans la vie :siflotte:
-
oui mais pas de test en calcul (crunch)... :cpopossib:
-
Si je n'arrive pas à faire tourner mes 780Ti correctement (plus lente que 770 sur PPS Sieve :gno: ), ça sent la 980 à plein nez :D
-
les 970 ont l'air mieux niveau rapport €/perf.
à voir...
-
Ah oui, ptêt bien.
Je pense qu'il y aura bientôt 2 * 780 Ti sur le marché :lol:
-
GPGPU on parle XD
On s'en fout de la 3D pour BOINC xd
C'est ça ... des tests pour les gamers y'en a la pelle, et ici on s'en fiche un peu, c'est du GPGPU qu'on veut !
-
Au temps pour moi :desole:
-
D'ailleurs généralement, les tests de HFR sont bien plus techniques et intéressants ...
-
Oui Clubic reste très léger au niveau technique et mesures effectuées.
HFR est plus pointu: http://www.hardware.fr/articles/928-1/nvidia-geforce-gtx-980-gtx-970-gm204-maxwell-gigabyte-g1-gaming-test.html
Sinon TT-H a souvent une très bonne analyse mais peu actif malheureusement.
-
GPGPU on parle XD
On s'en fout de la 3D pour BOINC xd
C'est ça ... des tests pour les gamers y'en a la pelle, et ici on s'en fiche un peu, c'est du GPGPU qu'on veut !
C'est ça , les Gamers dehors , bon désolé j'ai une partie de BF 4 en court :gropet: :marcp: :kookoo:
-
Et moi j'ai du monstre à pourfendre en deux sur Dark Souls 2 :D
-
De mon côté, réparation ou réinstallation W7 sur crunchbox parce que j'arrive pas à faire tourner mes cartes :priz2tet: :doh: :smile45ad:
-
bien mal acquis ne profite jamais. :desole:
-
:hilare:
Ben ... je ne les ai pas volées non plus :siflotte:
Juste payées un très bon prix, et pour une fois, la loi du côté du plus faible :gno:
Au départ, je demandais juste une réduction de 10 % sur une TITAN BLACK.
Ils ont joué avec mes pieds, ben finalement ils ont payés :gniak:
:D
Dis, existe t'il un test que je pourrais exécuter sur mes cartes pour vérifier si elles tournent vraiment comme elles le devraient ?
http://www.3dmark.com/ ?
Est-ce que les UT's PPS Sieve ont tendance à "s'allonger" au fil du temps à cause des calculs sous-jacents qui sont peut-être de plus en plus "gros" ?
:hello: :jap: :kookoo:
-
je reçois la mienne lundi...
et, je l'ai déjà revendu pour faire une place à une 970, je pense.
-
MDR
Sérieusement, j'ai un problème que je n'arrive pas à résoudre.
Les GPU commencent sur PPS Sieve, et après quelques minutes une des cartes s'emballe (ventilo) et hop ça plante le pc.
Sur GPUGRID, que des erreurs :/ :/ :/
Est-ce que l'alim peut provoquer ça ? Une Corsair RM 1000 toute neuve (avec ses câbles de m**** même pas gaînés)
Pour l'instant le CPU tient ... mais j'ai envie de fracasser les cartes au mur.
Si je les avais payées le prix plein, elles seraient déjà reparties.
Je pense vais monter une crunchbox avec un i3 ou i5 juste pour les projets GPU, et garder la tour avec 4770K uniquement pour CPU.....
Lors d'un plantage ça m'a même viré WuProp
J'en ai maaaaaaaaaaaaaaarre :priz2tet: :priz2tet: :priz2tet: :priz2tet: :priz2tet: :cavachier: :cavachier: :cavachier: :cavachier: :cavachier:
Vais prendre l'air :D :coffeetime:
NB : En plus les radins de chez Gygabite n'ont pas jugé utile de fournir de pont SLI (pour test ou pour les gamers) :gun:
-
j'ai bien fait de la revendre au p'tit voisin... :siflotte:
-
Je dirais que tu as un problème de surchauffe. Si la température de tes cartes montent trop, le ventilo s'emballe mais cela chauffe aussi la carte maman et l'ordi s'arrete...
Donc mets déjà une seule carte, tu lui mets un gros ventilo sous le nez. J'ai déjà eu ce genre de problème avec les CGs de mon père. il a une GTX 570 et une 660 Ti et une des cartes(je ne me souviens plus laquelle mais je crois que c'est la 660), je lui interdis GPUGrid sinon, tout part en erreur et l'ordi plante. Primegrid chauffe beaucoup aussi par contre, Collatz, ca devrait passer...
Une fois que tu as résolu le problème, tu peux mettre la deuxième mais là rien de garanti. J'ai un PC où je revais de mettre 2 CGs mais si je le fais, ca chauffe trop, ventilation pas suffisante...
Bon courage,...
-
Bonne idée, je vais faire tourner sur 1 carte à la fois pour voir ce que ça donne.
-
1 à la fois ça fonctionne.
J'ai mis des ventilos externes en renfort, boîtier ouvert et tout le bazar.
Vais réessayer les 2 en même temps.
Par contre GPUGRID qui plante, ... mystère ...
NB Aussi remis 340.52 car driver 344.11 plante
-
les 2 à la fois, elles se chauffent mutuellement car elles sont proches.
Pour GPUGRId, certainement un problème de chauffage fort de la CG à cause du projet
-
:kookoo:
C'est peut-être ça l'origine des mes écrans bleu; c'est vrai que cela coïncide.
Je retourne sous Windows pour voir se cela recommence en désactivent le GPU.
-
Remplace Gpugrid par Collatz pour voir si tu as moins de problèmes d'écran bleu... Avec Einstein ou SETI, ca devrait marcher sans problème mais ca crédite bcq moins
-
les 2 à la fois, elles se chauffent mutuellement car elles sont proches.
Pour GPUGRId, certainement un problème de chauffage fort de la CG à cause du projet
:hello:
Alors voilà. Le boîtier est un NineHundredTwo (Antec il me semble) devenu beaucoup trop petit pour mettre dedans tout ce que je veux.
Après avoir suivi ton conseil et fait tourner une carte après l'autre, je me suis aperçu que la nouvelle alimentation Corsair 1000
dont le GPU du bas n'est distant que de quelques centimètres, a un ventilateur "silencieux" ... => il ne démarre qu'une fois
que l'alimentation est TRÈS CHAUDE => il propulse directement sur le GPU juste au dessus (au lieu de le propulser à l'extérieur du boîtier :pt1cable: ) un air chauffé à au moins 80° :o => CRASH
J'ai donc sorti l'alimentation du boîtier, et une partie du problème est résolue.
Ce que je n'arrive pas à comprendre, c'est pourquoi ces 780Ti ont des performances (qui me paraissent) très faibles sur PPS Sieve.
Faudra que je teste sur GPUGRID plus tard.
Les calculs PPS Sieve se sont-ils "allongés" depuis 6 semaines ?
Par rapport à mes 770 et 660Ti, je suis très déçu.
490 secondes pour 1 UT alors que les 770 en calculaient 2 en 900 secondes, et que la 660Ti en calcule 2 en moins de 1200 secondes.
Bien évidemment, j'ai pu faire une erreur quelque part, mais je ne sais pas où ni quel réglage je devrais changer dans les paramètres nVidia etc.
Si quelqu'un a un tuyau, je suis preneur.
Merci !!! :jap:
-
tu as regardé ton occupation GPU avec GPUZ (http://www.techpowerup.com/gpuz/) ?
de base, avec la 7950 sans app_config.xml ou app_info.xml, l'occupation était aux alentours de 50%.
en effectuant ceci :
bizarre ???
comme l'avait suggéré "je ne sais plus qui...", j'ai juste réglé l'affinité CPU avec Bill2's Process Manager (http://www.bill2-software.com/processmanager/) pour que l'appli PPS sieve soit toujours sur le même coeur du CPU.
j'ai fait ça sur les 2 configs avec GPU (celle avec la 7950, et l'autre avec le couple 7850/5850).
et, je tourne sans app_config.xml.
un résultat au hasard : http://www.primegrid.com/result.php?resultid=573014450
l'occupation GPU est alors passée à 100% avec des UTs finies en 20-22 minutes plutôt qu'en 40-45 minutes.
c'est peut-être juste valable en OpenCL (donc sur ATI).
-
Oui ... tout l'après-midi.
99 %
Je dois avouer ne pas piger.
Un pote est venu m'aider pour voir ce qui déconne, mais on a juste aéré le pc, pas regardé les soft.
J'attends d'avoir un pont SLI pour vérifier perfs / benchmark Mark3D ou truc du genre.
Ou alors les perfs sont normales sur PPS Sieve avec une 780Ti et c'est moi qui déconne en comparant avec 770/660Ti.
Je pense faire tourner GPUGRID cette nuit pour en avoir le cœur net.
Des UT longues.
Avec l'outil de comparaison de GPUGRID, ce sera plus simple de me faire une idée.
En plus, je ne pige pas CORSAIR qui propulse l'air bouillant de l'alim dans le pc. Enfin, je suppose que le but est de prendre l'air frais à l'extérieur.
=> Me faut une tour grand ATX style http://www.materiel.net/boitier-pc/cooler-master-haf-932-advanced-65856.html
ou carrément WaterCooling intégral.
-
:kookoo:
Phil , j'ai jamais vu une alim rejeter l'air chaud dans le boitier , normalement aspiration par le ventilo et rejet par la grille derrière , elle est neuve t'on alim ?
Pour les 780 ti , les miennes mettent 10 minutes , ( 600 secondes ) une UT par carte pour pps sieve et ma R9 280X , 15 minutes ( 900 secondes )
pour le SLI cela ne changera rien ,
PS: les ponts SLI sont normalement fournis avec la carte maman et non les GPUs
-
Heu, je mets 15 minutes par WU sur la R9 290X ... y'a comme une couille là non ?
-
Merci pour vos retours !
Je suis de plus en plus confus :cass_tet:
Sur le pc de mon fils [AF>Amis des Lapins] Mael2004, une petite GTX 660 Ti fait tourner 2 UT aussi rapidement que sur 780 Ti :??:
Et mes 770 en calculaient 2 en 900 secondes.
Donc je ne comprends pas qu'une 780 Ti mettent 480 / 500 secondes pour en calculer 1 ... :??:
Vais essayer cette nuit 1 UT seule sur la 660 Ti pour voir ce que ça donne.
Il y a peut-être/probablement eu des changements au niveau de PPS Sieve, mais je n'ai pas trouvé d'info précise sur le sujet + je ne vais pas chercher plus loin dans les forums :coffeetime:
Et oui, l'alimentation sort de sa boîte ... toute neuve ... :/
-
Sur le pc de mon fils [AF>Amis des Lapins] Mael2004, une petite GTX 660 Ti fait tourner 2 UT aussi rapidement que sur 780 Ti :??:
T'inquiète, c'est pas la dernière fois que ton fils te mettra une patée ! :ptilu:
:D
-
:hilare:
-
Je viens de commander 1 ZOTAC GeForce GTX 970 4 GB (http://www.zotac.com/fr/products/graphics-cards/geforce-900-series/gtx-970/product/gtx-970/detail/geforce-gtx-970.html) mais je ne l'aurais pas avant une semaine... dommage pour mes perfs sur le RAID.
-
Le classement est très curieux,
1 (1.000) GeForce GTX TITAN Black
2 (0.912) Quadro K6000
3 (0.814) GeForce GTX 770
4 (0.788) GeForce GTX 780 Ti
5 (0.723) GeForce GTX 670
6 (0.695) Tesla K20m
7 (0.649) GeForce GTX 660 Ti
8 (0.640) GeForce GTX 870M
9 (0.635) GeForce GTX TITAN
10 (0.630) GeForce GTX 680
http://www.primegrid.com/gpu_list.php
Une explication ?
:lol:
Ps: j'ai calculé une unité avec ma Titan, mode double précision activée,
573327198 405826268 474904 20 Sep 2014 | 22:25:49 UTC 20 Sep 2014 | 22:36:24 UTC Terminé et validé 621.22 47.58 3,371.00 PPS (Sieve) v1.39 (cudaPPSsieve)
:hello:
Ces classements sont aussi basés sur le nombres d'UTs renvoyés par un certain type de carte, pas uniquement la vitesse.
Avec la TITAN, il vaut mieux désactiver la DP, car il n'y a que GFN qui en a besoin :jap:
Tu devrais arriver à +/- 500 secondes
:kookoo:
-
Sur le pc de mon fils [AF>Amis des Lapins] Mael2004, une petite GTX 660 Ti fait tourner 2 UT aussi rapidement que sur 780 Ti :??:
T'inquiète, c'est pas la dernière fois que ton fils te mettra une patée ! :ptilu:
:D
:hilare:
Mes fils aînés (20 et 23 ans) n'ont pas encore osé => j'ai le temps avec le petit dernier (10 ans)
En tout cas c'est la dernière fois que je lui prête son PC pour participer à un RAID :lol: :siflotte:
:hello: :kookoo:
-
Je viens de commander 1 ZOTAC GeForce GTX 970 4 GB (http://www.zotac.com/fr/products/graphics-cards/geforce-900-series/gtx-970/product/gtx-970/detail/geforce-gtx-970.html) mais je ne l'aurais pas avant une semaine... dommage pour mes perfs sur le RAID.
Bon achat !
Avec un peu de chances, peut-être pour les derniers jours.
-
J'aimerai bien!
Il me tarde de voir ce qu'elle a dans le ventre GPU. :D
-
Belle acquisition en tout cas ! :cetaboir:
-
Je viens de commander 1 ZOTAC GeForce GTX 970 4 GB (http://www.zotac.com/fr/products/graphics-cards/geforce-900-series/gtx-970/product/gtx-970/detail/geforce-gtx-970.html) mais je ne l'aurais pas avant une semaine... dommage pour mes perfs sur le RAID.
:oki: :pakitooo: :winner2:
-
Au fait, juste pour info, les GTX970 / 980 tournent à présent aussi en OpenCL 1.2 ! :D
Commandé celles-ci : http://www.materiel.net/carte-graphique/gigabyte-geforce-gtx-970-gaming-windforce-3x-4-go-109170.html
-
:hello:
Petite question au sujet des GPU : la "BackPlate" qui se trouve sur certaines cartes dont la GV-N970G1 GAMING-4GD (http://www.gigabyte.fr/products/product-page.aspx?pid=5209#ov) sert-elle à une meilleure dissipation de la chaleur ?
Et/ou en cas de SLI ça permet d'éviter d'envoyer trop de chaleur sur la 2° carte ?
Je n'avais pas remarqué ce détail, mais chez GigaByte, la GTX 970 "de base" n'a pas cette plaque qu'on retrouve sur la 970 Gaming G1.
NB : Si vous êtes intéressés par ces nouvelles Maxwell, un essai très détaillé ici (en anglais) : http://www.guru3d.com/articles_pages/gigabyte_geforce_gtx_970_g1_gaming_review,1.html
Merci :jap:
-
En général les Backplates servent avant tout comme raidisseur pour éviter que le PCB se déforme sous le poids de la carte complète lorsque elle est à l'horizontale, tu pourras regarder sur certains tests proposant la vue thermographie IR que les cartes avec BP font surtout plus de rétention de chaleur (ce qui n'est pas ce qu'il y a de mieux).
Pour envoyer moins de chaleur sur la 2ème carte, un ventilo idéalement placé peut être une bonne solution, et/ou disposer d'un boitier avec les cartes à la verticale.
NB : bizarre que le test HFR 970/980 ne propose pas les vues ThermoIR, alors qu'il y était pour la TitanZ (catastrophique), la R9 285, le megatest R9 290(X), peut être que NV est passé mettre un coup de pression à LDLC...
-
:hello:
Il y a des photos IR dans l'essai guru3d : http://www.guru3d.com/articles_pages/gigabyte_geforce_gtx_970_g1_gaming_review,9.html
Concernant le SLI, j'ai toujours mis des ventilos externes en renfort pour souffler entre les cartes + boîtier ouvert ;)
Mais comme je viens d'acheter un boîtier pour installer les cartes verticalement (pour évacuation "idéale" de la chaleur, facilité d'accès, facilité d'installation des GPU sans risque de les voir plier, isolation thermique de l'alimentation etc) et que je compte garder ce boîtier fermé, vais probablement devoir ajouter quelques ventilos.
Ceci étant dit, ces Maxwell ont l'air de ne pas chauffer très fort.
Merci pour l'info sur la BackPlate. (NB elle est aérée / "perforée" sur ces cartes)
(http://www.hardwareheaven.com/wp-content/uploads/2014/09/gigabyte-gtx-970-back.jpg)
(http://cdn.eteknix.com/wp-content/uploads/2014/09/Gigabyte_GTX980_g1gaming-4.jpg)
-
Même less BP percées font de la rétention de chaleur, en terme de chaleur produite à proprement parlé elles sont bien placées pour la temp GPU 3 à 5°C de moins qu'une bonne custom rouge, mais peu d'infos ressortent pour l'étage d'alim, tu nous diras tout ça :jap:
En effet, si tu as un boitier pour les tenir verticales, des modèles avec backplate ne sont pas les "mieux", mais comme on dit le mieux est l'ennemi du bien. :coffeetime:
-
Si je ne me trompe pas, il y a 2 ventilos de 180 à la base de la tour + ceux que je vais ajouter + ceux en extraction etc.
Ca devrait fonctionner ;)
Sinon ... je casse tout :jeanphi:
:hilare:
-
après tu as les boitiers "table de bench" : carte mère à plat, tout ouvert :siflotte:, parfois des petits accessoires pour monter un ventilo pour souffler sur un endroit bien précis, etc.
le gros soucis, c'est pas WAF, et, encore moins adapté aux p'tits enfants...
-
J'ai la chance de pouvoir compter sur la certification WAF, la crunchbox étant située hors "zone de vie" :lol:
Pour le reste, je dois avouer que je deviens (encore plus) fou :help:
Quitte à monter une nouvelle crunchbox, suis en train d'essayer de ne pas craquer :non: pour un 4930K + Asus Rampage 4 Extreme (650 € le tout d'occaze) tout noir.
Ça ferait un pc tout noir + uniquement led bleue sur les GPU :miam:
Et le 4770K pourrait servir pour une crunchbox sans GPU.
Faut que je trouve un grand très costaud pour me mettre une baffe, histoire de me calmer :cavachier: :chunks:
-
Attends Skylake-E avec une entrée de gamme 6C/12T, ton 4770K a encore de beau jour devant lui :)
-
si c'est hors zone de vie, fais toi plaisir avec une table de bench.
en plus, toi qui est fan du dépoussiérage, ça te simplifieras la vie :sun:
-
Je dois avouer avoir une préférence pour l'occasion ou les "bonnes affaires" :gniak:
Ça fait moins mal, surtout quand on revend "vite" :cry:
Et puis surtout, j'aimerais avoir plus de cores CPU, mais XEON > 2.5 Ghz trop ... cher et pas simple à trouver en occaze.
Comme les séries i7-5xxx sont trop chères pour moi, sans compter CM et RAM spécifiques pas données non plus,
je regarde du côté des 4930K ...
NB : + de cores CPU car les UT "LLR" de PrimeGrid sont destinées à tourner en AVX2/FMA3 => HT OFF
Et avec un i7 4770K HT OFF, moins 1 core pour le GPU, il n'y a plus que 3 cores dispos ... :coffeetime:
si c'est hors zone de vie, fais toi plaisir avec une table de bench.
en plus, toi qui est fan du dépoussiérage, ça te simplifieras la vie :sun:
Comme celles de Lian Li ou des vraies tables avec dessus en verre et tout le bazar "dans" la table ;)
Va falloir que j'investisse dans un compresseur. Les bombes d'air sec, ça commence à faire cher :lol:
http://cdn.overclock.net/2/24/600x400px-LL-2445ff5e_2.jpeg
http://www.overclockersclub.com/vimages/news/news31011_8678-red_harbinger_transforms_your_desk_into_a_monster_gaming_pc.jpg
https://www.google.fr/search?q=gamer+pc+table&client=firefox-a&hs=Kgf&rls=org.mozilla:fr:official&channel=sb&source=lnms&tbm=isch&sa=X&ei=5JgvVOPwNc2yad72gYAN&ved=0CAgQ_AUoAQ&biw=1536&bih=734
(http://www.singwithavril.com/wp-content/uploads/2014/09/office-and-workspace-astounding-computer-gaming-desk-ideas-10-fancy-computer-desks-for-gaming-ideas-pc-gaming-desk-computer-gaming-desk-gaming-computer-chair.jpg)
-
c'est joli les bureaux.
mais c'est pas ce qui a de plus pratique...
j'ai tourné un temps avec une machine accrochée au mur sur une planche de bois, le tout derrière du plexy réactif aux UVs, pour augmenter la convection naturelle.
la config était complètement WC avec, pour le coté JackyPC, des tuyaux réactifs aux UVs avec les LED et le néon qui vont bien.
de mémoire, c'était un opteron 144 avec une 7800GTX.
mais, ça, c'était avant.
effectivement, le compresseur ne serait pas du luxe...
-
Avec un peu de chance, je devrais pouvoir essayer les 970 ce week-end.
Chronopost prévoit de passer ce matin :kermit: :doh:
Pour une fois qu'ils viennent plus tôt que prévu :lol:
-
COLIS Arrivés ! :D
Vais réquisitionner mon pote pour faire le montage :lol:
Mais déjà, vais essayer les 970 sur PPS Sieve.
Probablement un peu moins bien que 780Ti, mais 80W de moins ;)
:hello: :kookoo:
-
et, les 2 en même temps !!! :nexath:
(http://www.aeriesguard.com/assets/img/smileys/troll.gif)
-
COLIS Arrivés ! :D
Vais réquisitionner mon pote pour faire le montage :lol:
Mais déjà, vais essayer les 970 sur PPS Sieve.
Probablement un peu moins bien que 780Ti, mais 80W de moins ;)
:hello: :kookoo:
Bonne nouvelle pour toi :bounce: et pour l'AF
Tu as un wattmètre pour faire des comparaisons de conso électrique ?
-
Euh non pas d'appareil de mesures :/
Par contre, elles sont installées :
a) Beaucoup plus légères que les 770 / 780Ti :+1:
b) Un très beau logo WINDFORCE illuminé par des leds bleues :D
c) installation 344.16 en cours
d) démarrage tests PPS Sieve dans 5 minutes
-
et, les 2 en même temps !!! :nexath:
(http://www.aeriesguard.com/assets/img/smileys/troll.gif)
:plusun:
Exact : reçu aussi le Silverstone RAVEN 01.
Avec un peu de chance, mon pote pourra venir cet après-midi => j'irai pas au tir aujourd'hui :lol: :gun:
-
10 ° de moins que les 780 Ti sur PPS Sieve
Par contre, elles sont vraiment OC !
Sans rien toucher : 1400 Mhz
-
Merci beaucoup pour le tuyau !!! :jap:
-
Merci beaucoup pour le tuyau !!! :jap:
et l'aspirateur aussi non... :siflotte: :siflotte: :siflotte:
:marcp: :suri: :suri:............[ ]
-
Je savais que quelqu'un comprendrait :lol:
-
Je n'oserais pas l'utiliser en mode soufflerie dans un pc s'il a un jour servi à aspirer de l'eau :miam:
-
mais si...
pas dans la foulée, mais un peu plus tard, pourquoi pas ???
-
à cause d'elle (http://fr.wikipedia.org/wiki/Loi_de_Murphy) :lol:
-
Infos^^:
R9-380X pour Février 2015 il semble: En 20 nm et mémoire HBM. Technologie HSA intégrée et OpenCL 2.0
Maxwell aura une vie très courte, car nvidia compte sortir Volta dés Mi-2015
-
Phil commence à prévoir de me faire un prix pour les GTX 970 :D
Merci pour l'info Gael :hello:
-
Phil commence à prévoir de me faire un prix pour les GTX 970 :D
Merci pour l'info Gael :hello:
Comment as-tu deviné que les 980 me démangent ??? :D
Les 970 tournent vraiment bien. Je ne sais pas s'il y a une énorme différence en terme de performances avec les 780,
mais en terme de conso ...
GPUGRID tourne sur 1 carte et PPS Sieve sur l'autre : le ventilo de l'alimentation ne tourne même pas ... ! :miam:
Par contre je ne trouve pas preneur pour les 780Ti.
Vais baisser le prix à 399 € / carte ;)
-
C'est l'inconvénient de revendre des cartes d'ancienne génération ... y'en a beaucoup sur le marché et les gens préfèrent les nouvelles ...
-
Tu as bien fait de prendre les G1, elles semblent ne pas faire de Coil Whine comme la 970 MSI, en avait tu sur 780 TI ?
Ton prix de vente pour les TI est trop haut, même si je comprends que tu laisses une marge pour la discussion.
-
:hello:
Rien de grave : étant donné le prix que j'ai payé + j'ai le temps ;)
Concernant le prix, je viens de les mettre sur eBay, et ce sont les 780Ti les moins chères il me semble.
Ces 2 cartes n'ont aucun soucis de bruit ou de performance.
Par contre, pour une raison mystérieuse, elles ne fonctionnent pas sur GPUGRID si on ne descend pas la fréquence de la RAM ...
Les 970 G1 sont vraiment géniales. Non seulement elles ont des performances de calculs assez élevées, mais elles ne chauffent pratiquement pas et consomment très peu (par rapport aux 780Ti) : le ventilo de l'alimentation ne tourne pas, même avec les 2 cartes en route.
Pour des cartes OC d'environ 30 %, c'est génial.
En plus, joli logo avec LED bleu ;)
Ceci étant dit, si je n'arrive pas à vendre les 780Ti, soit je les garde pour faire un jour une autre crunchbox, soit je braderai le prix encore plus.
Suis trop tenté par des 980 d'ici quelques semaines, lorsque Gigabyte sortira quelques séries :lol:
-
Les 980 sont au top, par contre elles n'ont pas un aussi bon rapport prix/perf que les 970, après c'est un choix en fonction de chacun (budget, prévisions de changement pour le 20 nm dans un an, etc..), tu aurais très bien pu continuer avec les 780TI qui sont encore d'excellentes cartes pendant un long moment.
-
Je n'ai acheté les 780Ti que pour les revendre. Pas pour les utiliser :miam:
Les 2 (neuves) ne m'ont pas coûté le pris d'une seule 780 ;) et je ne les ai que depuis 2 semaines :siflotte:
Par contre, si elles avaient fonctionné sur GPUGRID, je n'aurais pas pris les 970 si rapidement ...
-
c'est quoi le souci avec la TI sur GPUGrid?
-
elles chauffent, puis crashent... :siflotte:
-
C'est bizarre :??:
-
Ah non non, elles ne chauffent pas du tout !
(Sur Collatz à fonds ou PPS Sieve, temp° max = 65 ° carte du dessous et 72 ° carte du dessus)
En plus, j'avais 4 ventilos externes dirigés vers le dos des cartes
Même pas le temps d'atteindre 50° que les UT's plantent.
Ce sont les gars de GPUGRID qui disent que c'est un problème de VRM qui chauffe, mais je n'en sais franchement rien.
D'autres crunchers ont les mêmes soucis avec les cartes Gigabyte 780Ti de cette série.
En fait, les UT plantent après une dizaine de seconde, même pas le temps pour GPUGRID de vraiment démarrer ...
Par contre, 58° et 63° pour les 970 ;)
-
tu as matté la température des VRM ?
-
Sais pas comment on fait.
Mais de toute façon, elles dorment à présent dans leur boîte, en attente d'un nouveau propriétaire.
Les ai mises sur LBC + eBaille.
Aujourd'hui, si j'ose m'y mettre (le "cable-management" m'effraie un peu), je vais démonter mon pc et l'installer dans le RAVEN.
Vu que mon pote qui devait venir hier m'aider à le faire n'est pas venu et que je ne veux pas lui casser les pieds ;)
Je regarde quelques videos / photos, et je vais attaquer le démontage / remontage.
Le plus coton va être de caser le Nepton 140XL.
-
avec un peu de méthode ça passera.
pense bien à monter la plaque arrière de l'AiO avant de monter la carte-mère : il ne semble pas y avoir de petite fenêtre sur le plateau CM de ton boitier qui te permettrait de le faire après.
il va donc falloir que tu fixes ton AiO sur la CM avant de tout mettre dans le boitier...
-
Oui j'ai remarqué ça :/
Dingue pour un boîtier de ce prix-là.
Enfin, je n'ai pas pensé à tout avant de l'acheter.
J'apprends ;)
Je devrais peut-être découper une partie du fonds :lol:
Vais probablement m'y mettre une fois que j'aurai atteint 500000 pour mon fils sur le RAID.
Ou pas.
Vais tout de même sms mon pote. Quelques cafés ou quelques bières le motiveront peut-être ;)
-
Avec l'onglet Sensor de GPU-Z et le log to file, tu dois pouvoir monitorer la température des VRM.
-
Merci, je n'y avais pas songé. J'utilise surtout GPU-Z pour vérifier la charge GPU ...
Si je remonte les 780Ti, je vérifierai.
Ceci étant dit, elles tournent comme des horloges sur PPS Sieve, Collatz, Einstein. Pas essayé d'autre projet.
-
Je ne pense pas...
Elles fonctionnent ...
Mais je peux essayer ;)
Merci pour l'info :jap:
NB je demanderai un échange pour des 980 :hilare:
EDIT : Et voilà. J'ai envoyé des messages à Gigabyte. On va voir s'ils réagissent ...
Encore merci pour l'idée :jap:
-
AMD propose déjà un driver OpenCL 2.0 : http://support.amd.com/en-us/kb-articles/Pages/OpenCL2-Driver.aspx
On sait quelles puces ont les instructions nécessaires pour supporter cette version ? Et on sait pourquoi il n'est dispo que pour Windows 8.1 ?
-
Voila les puces supportées:
AMD Desktop supported: AMD R9-200 séries - AMD R9-285 séries - AMD R7-260 séries - AMD R7-250/240 - AMD HD7000 séries - AMD HD8000 séries
AMD APU supported: AMD A-série R7 - AMD A-série R6 - AMD A-série R5 - AMD A-série R4 - AMD A-série R3 - AMD A-série R2 - AMD HD8000D séries - AMD HD8000G séries
AMD Mobility supported: AMD R9-M200 séries - AMD R7-M200 séries - AMD R5-M200 séries - AMD HD8000M séries
En clair, tous les GCN...mais pas les anciennes VLIW qui resteront au max 1.2
-
Pourtant les dernières puces n'ont jamais été vendue comme OpenCL 2.0 ?
-
Peut-être seulement les GPU supportés par les drivers qui intègrent OpenCL 2.0..mais ouais, probabilité que le 2.0 ne soit géré au minimum que par les Rx-300... Enfin bon on verra...on peut nous faire le coup de DirectX (les GCN sont sorties avec DirectX 11.1, et finalement elles peuvent prendre le 12)
-
:hello:
Je n'ai pas trouvé de réponse à ma question sur le forum, aussi je la pose ici :
J'ai deux Asus GeForce GTX 770, chacune est installée sur un PC i7. Comme les CG ne prenaient jamais d'UT OpenCL, j'ai regardé dans le logiciel Asus GPU Tweak GPU-Z ce qu'il en était.
Dans Computing, OpenCL n'est pas coché. En utilisant TechPowerUp GPU-Z, je vois OpenCLcoché. J'ai vérifié que j'avais bien les derniers drivers installés. J'ai même réinstallé en manuel la mise à jour complète. OpenCL est toujours décoché. Je n'ai rien trouvé sur les forums à ce sujet pour cocher OpenCL :??:
Quelqu'un a-t-il été confronté à ce problème ?
Mersi bras.
-
:hello:
Si tu as installé nVidia GeForce Experience, tout ça est géré automatiquement.
Le plus simple, pour vérifier si ça fonctionne, est d'essayer de faire tourner 1 UT Collatz Solo en OpenCL pour nVidia.
Si ça ne fonctionne pas, il faut réinstaller GeForce ou les derniers drivers.
Ici je tourne sous 344.11 et 344.16
Ici tout ça a toujours été automatique (660Ti, 770, 780Ti, 970)
:hello: :kookoo:
-
:kookoo: Suis pas mécontent j'ai nettoyé mon PC en rentrant cet après-midi, maj Drivers AMD 14.9.1 (mode perfs et tesselation opti AMD) et j'ai lancé un Valley Bench Extrême HD avec 4670K@4.6 et R9 290 TriX @1170/1600, et j'ai (enfin) dépassé le Score symbolique des 3000 pts pour températures max GPU 86*C en profil ventilation Auto.
Dans les mêmes conditions Drivers et OC, score graphique Firestrike 13285 points. :sun:
-
:hello:
Si tu as installé nVidia GeForce Experience, tout ça est géré automatiquement.
Le plus simple, pour vérifier si ça fonctionne, est d'essayer de faire tourner 1 UT Collatz Solo en OpenCL pour nVidia.
Si ça ne fonctionne pas, il faut réinstaller GeForce ou les derniers drivers.
Ici je tourne sous 344.11 et 344.16
Ici tout ça a toujours été automatique (660Ti, 770, 780Ti, 970)
:hello: :kookoo:
Merci Phil, :jap: J'ai une Collatz Solo en OpenCL pour nVidia qui tourne sur l'une de mes CG. Je vais retester les UT PRPNet en GPU.
-
Récap des versions OpenCL^^:
*OpenCL 1.0: GeForce G8x/G9x/GT2xx - Radeon R700 (HD4000)
*OpenCL 1.1: GeForce Fermi GF10x/GF11x - GeForce Kepler GK10x/GK110 - GeForce Maxwell Mobile GM20x (GeForce GTX900M) + GM107
*OpenCL 1.2: GeForce Maxwell GM20x - Radeon R800 (HD5000) - R900 (HD6000) - R1000 (HD7000-Rx-200)
*OpenCL 2.0: GeForce Volta GVxxx ou Pascal GPxx? - Radeon R1100 (Rx-300)
-
Récap des versions OpenCL^^:
*OpenCL 1.0: GeForce G8x/G9x/GT2xx - Radeon R700 (HD4000)
*OpenCL 1.1: GeForce Fermi GF10x/GF11x - GeForce Kepler GK10x/GK110 - GeForce Maxwell Mobile GM20x (GeForce GTX900M) + GM107
*OpenCL 1.2: GeForce Maxwell GM20x - Radeon R800 (HD5000) - R900 (HD6000) - R1000 (HD7000-Rx-200)
*OpenCL 2.0: GeForce Volta GVxxx ou Pascal GPxx? - Radeon R1100 (Rx-300)
Aussi bizarre que ça puisse paraître, les Maxwell annoncée OpenCL 1.02 tournent toujours en 1.01
Il me semblait avoir lu qu'elles étaient OpenCL1.2, mais finalement non ?
Faut-il télécharger un truc en plus que GeForce Experience ne chargerait pas d'office ?
Voici mes cartes sur Collatz :
[2] NVIDIA GeForce GTX 970 (4095MB) driver: 344.16 OpenCL: 1.01
Merci :jap:
EDIT : Quelle est la différence entre OpenCL 1.01 / 1.02 / 1.1 / 1.2 ?
Merci :jap:
-
La réponse à la question de Phil1966 est ICI (http://forum.boinc-af.org/index.php/topic,6303.msg399131.html#msg399131)
-
Merci :hello: :jap:
-
Hello !
Une petite question : la personne à qui j'ai vendu les 2 * 780ti n'arrive pas à activer le SLI.
Apparemment l'option n'est pas "cochable" dans GeForce.
Quelqu'un aurait-il une idée de l'origine de ce genre de soucis ?
Je lui ai donné ce lien : http://support.nvidia.eu/hc/fr/articles/201010072-Conseils-de-D%C3%A9pannage-SLI
+ quelques explications, mais je n'ai jamais utilisé le SLI ...
Merci !!! :jap: :jap: :jap:
-
Merci pour ta réponse :jap:
Je lui ai dit de vérifier BIOS, caractéristique CM, branchements, etc ...
J'espère qu'il va s'en sortir avec le lien que je lui ai envoyé, car si je comprends bien,
il peut y avoir de nombreux facteurs à l'origine de ce problème ...
Merci ! :jap:
-
Merci Beaucoup ! :jap:
ne cherche plus ;) :jap: :hello:
-
Nouvelles sur les GPU:
Nvidia sortira finalement les futurs GM200 que début 2016 à cause du retard de la gravure en 16 nm.....Nvidia ayant en effet opté cette gravure, car la GM200 étant beaucoup trop grosse pour être gravée en 28 nm, voire 20 nm. La GM200 incarnée par les futurs GTX Titan II et GTX 980 Ti ne sortira pas avant début 2016.On aura malgré tout droit courant 2015 a un dieshrink des GM204 en 20 nm si possible....
Rien de changé avec AMD qui sortira comme prévu les FIJI R9-380(X) qui succéderont aux Tahiti/Tonga et les TREASURE R9-370(X) pour les Pitcairn.....Possibilité qu'AMD attende le 16 nm également pour les futurs BERMUDE R9-390(X) qui succéderont aux Hawaï et concurrencera la gamme des GM200
-
MaJ Driver Nvidia (Game Ready Driver - 344.75), je ne reçois plus rien de Primegrid et Collatz, attention !
-
Encore ! ? :??:
Merci pour l'info ! :jap: :hello:
-
News AMD:
Pas encore de dates prévues pour les FIJI qui seront sous les R9-390X et R9-390. Idem pour les R9-370X/370. Par contre, les R9-380X et R9-380 sortiront vers Février 2015.
Les spécificités sont par contre révélés (A 90%):
*R9-390X => FIJI-XT: 4096 SP - 256 TMU - 128 ROP - 4GB HBM1 4096 bits 1250 Mhz 640 GB/s
*R9-390 => FIJI-PRO: 3520 SP - 220 TMU - 128 ROP - 3GB HBM1 3072 bits 1250 Mhz 480 GB/s
*R9-380X => HAWAII-XTX: 3072 SP - 192 TMU - 64 ROP - 4GB GDDR5 512 bits 1500 Mhz 380 GB/s
*R9-380 => HAWAII-PRO2: 2816 SP - 176 TMU - 64 ROP - 4GB GDDR5 512 bits 1375 Mhz?
Du coté de nvidia, la GTX Titan II disposerai de 3072 SP - 192 TMU - 96 ROP avec 12GB GDDR5 384 bits à 1500 Mhz...
-
MaJ Driver Nvidia (Game Ready Driver - 344.75), je ne reçois plus rien de Primegrid et Collatz, attention !
Bizarre ... Impossible à installer sur un de mes pc's ... :/
-
C'est arrangé.
Sorti les GPU, désinstallé + effacé toute trace de GeForce => installation toute propre et OK en 344.75
-
Et ca bloque rien ?
cf : "MaJ Driver Nvidia (Game Ready Driver - 344.75), je ne reçois plus rien de Primegrid et Collatz, attention !"
-
Euh .... non :non:
(Je ne fais tourner que GPUGRID en ce moment)
:hello: :kookoo:
-
Je viens de lire ceci : http://www.touslesdrivers.com/index.php?v_page=3&v_code=5370
Nvidia retire l'encodeur vidéo CUDA des drivers :??:
-
Ben il semblerai que oui. Cet API va donc le remplacer pour l'encodage vidéo.
Encore faut-il que les logiciels en question soient mis à jour pour exploiter cela..Déja que l'OpenCL est quasi absent, n'imaginons pas pour NVENC
-
Est-ce que ça change quelques chose pour nous ?
Ou pour les "gamers" ?
Merci :jap:
-
Ça concerne que l'encodage vidéo. Donc pour les autres activités comme BOINC, Folding ou tout le reste, y a aucun changement...
Et pour les jeux, autant dire tout de suite, les jeux n'ont JAMAIS employé CUDA, donc aucune crainte...
-
Si les jeux l'emploient s'ils font du PhysX ... mais bon ça aussi déjà, c'est assez rare :siflotte:
-
PhysX n'a rien à voir avec CUDA, sinon elle serai pas utilisable sur les CPU quand on a un GPU non nvidia.....
Vu que PhysX, c'est à la base une technologie d'AEGIA....
D'un coté, il y a des calculs physique employant OpenCL, bien ça reste rare aussi..
-
Plus d'infos sur les nouvelles Radeon^^:
*BERMUDE R9-395 séries: 16 nm
=>R9-395X: ?-?-? - 8GB HBM1 8192 bits 1280GB/s
*FIJI R9-390 séries: 28/20 nm
=>R9-390X: 4096-256-128 - 4GB HBM1 4096 bits 640GB/s
=>R9-390: 3520-220-96 - 3GB HBM1 3072 bits 520GB/s
*HAWAII R9-380 séries: 28 nm
=>R9-380X: 3072-192-64 - 4GB G-DDR5 512 bits >350GB/S
=>R9-380: 2560-160-64 - 4GB G-DDR5 512 bits >330GB/S
*TONGA R9-370 séries: 28 nm
=>R9-370X: 2048-128-32 - 3GB G-DDR5 384 bits ~290GB/s
=>R9-370: 1792-112-32 - 2GB G-DDR5 256 bits ~200GB/s
*TREASURE R7-360 séries: 20 nm
=>R7-360X: ?-?-16 - 1GB HBM1 1024 bits
=>R7-360: ?-?-16 - 1GB HBM1 1024 bits
*ICELAND R7-350 séries: 28 nm
=>R7-350X: ?-?-16 - 1GB G-DDR5 128 bits
=>R7-350: ?-?-16 - 1GB G-DDR5 128 bits
*SAMOA R7-340 séries: 28 nm
=>R7-340: ?-?-8 - 1GB G-DDR5 128 bits
Pour BERMUDE et TREASURE, c hypothétique, mais plausible.
-
Merci :jap:
Des infos quant à la consommation ?
Rien trouvé sur le sujet ici : http://en.wikipedia.org/wiki/List_of_AMD_graphics_processing_units#Southern_Islands_.28HD_7xxx.29_Series
-
La 390X aurai un TDP de 196 Watts^^
-
Si ça se confirme, ça deviendra intéressant ;)
-
et dans le lot, lesquelles sont de simples renommages des puces actuelles avec peut-être une finesse de gravure plus faible ?
je parierais bien sur les puces accompagnées de GDDR5...
-
R9-380 => R9-290 (Finesse améliorée)
R9-370 => R9-285 (Idem)
Tout le reste, c'est nouveau: la 380X est aussi une Hawaï, mais boosté (la 290X avait 2816 SP au max)
-
Pour les perfs, on suppose ceci:
R9-395X => 50-60% supérieure à la 390X/980 -- A coté la GTX Titan II >50% a la 980
R9-390X => 20% supérieure à la GTX980
R9-390 => Équivalente à la GTX980
R9-380X => Entre GTX980 et GTX780 Ti
R9-380 => Niveau GTX970
R9-370X => Entre GTX770 et GTX780
R9-370 => Niveau GTX770 ou GTX960
Si les fréquences sont niveau 1000 Mhz, on aura la puissance suivante en GPGPU:
390X => 8192 GFLOP
390 => 7040 GFLOP
380X => 6144 GFLOP
380 => 5120 GFLOP
370X => 4096 GFLOP
370 => 3584 GFLOP
Il est clair que la double précision sera bridée sur les FIJI (peut-être 1/8 comme les Hawaï d'ailleurs), donc de 640 à 1024 GFLOP....les autres seront à coup sur des 1/16
Je rajoute que les nouvelles Radeon auront le OpenCL 2.0 - DirectX 12 - OpenGL 4.5 - le nouvel OpenGL ES3.8 - Mantle - CrossFire XDMA - EyeFinity 24 écrans - Virtual Super Resolution (3/4K en 1080p) etc...
-
Je ne sais pas si on peut vraiment comparer les performances des ATI / nVidia ?
Hormis le nombre de FPS sur un jeu donné + une définition d'écran donnée ...
-
En tout cas si AMD reprend du poil de la bête, c'est une bonne nouvelle, je suis pour la biodiversité. :)
Marre que nVidia nous tonde en nous vendant des cartes mono-GPU milieu de gamme, au prix auquel on pouvait avoir des bi-GPU haut de gamme il y a quelques années. :rhaa:
-
Tu vas encore étre plus en rogne XD
nVidia officialise pour Janvier la GTX960:
GM206 => 1280-80-48 - 3GB G-DDR5 192 bits à .........240 dollars XD
A ce prix la, autant prendre la R9-290-_-
-
grosses news AMD et NVIDIA: (Cores:TMU:ROP)
R9-390X: BERMUDE 20 nm => 4736:296:128 - 8GB HBM 8192 bits => 10% supérieure à la GM200
R9-390: BERMUDE 20 nm => 4480:280:128 - 8GB HBM 8192 bits
R9-380X: FIJI 20 nm => 3840:240:64 - 4GB HBM 4096 bits => 17% supérieure à la GTX980
R9-380: FIJI 20 nm => 3584:224:64 - 4GB HBM 4096 bits
GeForce GTX Titan II => GM200 20 nm => 3072:192:96 - 12GB GDDR5 512 bits
GeForce GTX 985 => GM200 20 nm => 2688:168:96 - 8GB GDDR5 512 bits
Consommations:
BERMUDE: ?
FIJI: 220 Watts
GM200: 230 Watts
Rien sur les R9-370, possible que ce soit des TONGA boostées pour faire pareil que les Hawaï.
Rapports performances: (en 4K)
BERMUDE: 150.7%
GTX Titan II: 135.2%
GTX 985: 119.9%
FIJI: 118.8%
GTX980: 100%
R9-290X: 90.5%
GTX780 Ti: 89.7%
-
nVidia : driver: 347.9 dispo (BETA)
-
Bon bah si j'en crois BOINC et les projets : Coprocesseurs AMD Hawaii (4096MB) OpenCL: 2.0
Ca m'étonne que Hawaii soit compatible OpenCL 2.0 ... après c'est peut être juste la version des drivers qu'il voit ?
-
C'est les drivers qui sont en 2.0, mais Hawaï c'est du 1.2......
BOINC mélange un peu les deux, et n'est pas vraiment top au niveau détection: Tu retourne en version Catalyst 14.9 par exemple, tu retrouvera 1.2
Utilise AIDA64 si tu veux savoir ta VRAI version matériel et software...
Le 2.0, ce sera avec les Radeon Rx-300 GCN2.0 + le IGP des APU "Carrizo"
-
Pourtant :
C:\Users\toTOW>clinfo
Number of platforms: 1
Platform Profile: FULL_PROFILE
Platform Version: OpenCL 2.0 AMD-APP (1642.5)
Platform Name: AMD Accelerated Parallel Proces
sing
Platform Vendor: Advanced Micro Devices, Inc.
Platform Extensions: cl_khr_icd cl_khr_d3d10_sharing
cl_khr_d3d11_sharing cl_khr_dx9_media_sharing cl_amd_event_callback cl_amd_offl
ine_devices
Platform Name: AMD Accelerated Parallel Proces
sing
Number of devices: 2
Device Type: CL_DEVICE_TYPE_GPU
Vendor ID: 1002h
Board name: AMD Radeon R9 200 Series
Device Topology: PCI[ B#2, D#0, F#0 ]
Max compute units: 44
Max work items dimensions: 3
Max work items[0]: 256
Max work items[1]: 256
Max work items[2]: 256
Max work group size: 256
Preferred vector width char: 4
Preferred vector width short: 2
Preferred vector width int: 1
Preferred vector width long: 1
Preferred vector width float: 1
Preferred vector width double: 1
Native vector width char: 4
Native vector width short: 2
Native vector width int: 1
Native vector width long: 1
Native vector width float: 1
Native vector width double: 1
Max clock frequency: 1000Mhz
Address bits: 64
Max memory allocation: 4024434688
Image support: Yes
Max number of images read arguments: 128
Max number of images write arguments: 64
Max image 2D width: 16384
Max image 2D height: 16384
Max image 3D width: 2048
Max image 3D height: 2048
Max image 3D depth: 2048
Max samplers within kernel: 16
Max size of kernel argument: 1024
Alignment (bits) of base address: 2048
Minimum alignment (bytes) for any datatype: 128
Single precision floating point capability
Denorms: No
Quiet NaNs: Yes
Round to nearest even: Yes
Round to zero: Yes
Round to +ve and infinity: Yes
IEEE754-2008 fused multiply-add: Yes
Cache type: Read/Write
Cache line size: 64
Cache size: 16384
Global memory size: 4294967296
Constant buffer size: 65536
Max number of constant args: 8
Local memory type: Scratchpad
Local memory size: 32768
Max pipe arguments: 16
Max pipe active reservations: 16
Max pipe packet size: 4024434688
Max global variable size: 3621991168
Max global variable preferred total size: 4294967296
Max read/write image args: 64
Max on device events: 1024
Queue on device max size: 524288
Max on device queues: 1
Queue on device preferred size: 16384
SVM capabilities:
Coarse grain buffer: Yes
Fine grain buffer: Yes
Fine grain system: No
Atomics: No
Preferred platform atomic alignment: 0
Preferred global atomic alignment: 0
Preferred local atomic alignment: 0
Kernel Preferred work group size multiple: 64
Error correction support: 0
Unified memory for Host and Device: 0
Profiling timer resolution: 1
Device endianess: Little
Available: Yes
Compiler available: Yes
Execution capabilities:
Execute OpenCL kernels: Yes
Execute native function: No
Queue on Host properties:
Out-of-Order: No
Profiling : Yes
Queue on Device properties:
Out-of-Order: Yes
Profiling : Yes
Platform ID: 000007FED9C96B60
Name: Hawaii
Vendor: Advanced Micro Devices, Inc.
Device OpenCL C version: OpenCL C 2.0
Driver version: 1642.5 (VM)
Profile: FULL_PROFILE
Version: OpenCL 2.0 AMD-APP (1642.5)
Extensions: cl_khr_fp64 cl_amd_fp64 cl_khr_
global_int32_base_atomics cl_khr_global_int32_extended_atomics cl_khr_local_int3
2_base_atomics cl_khr_local_int32_extended_atomics cl_khr_int64_base_atomics cl_
khr_int64_extended_atomics cl_khr_3d_image_writes cl_khr_byte_addressable_store
cl_khr_gl_sharing cl_ext_atomic_counters_32 cl_amd_device_attribute_query cl_amd
_vec3 cl_amd_printf cl_amd_media_ops cl_amd_media_ops2 cl_amd_popcnt cl_khr_d3d1
0_sharing cl_khr_d3d11_sharing cl_khr_dx9_media_sharing cl_khr_image2d_from_buff
er cl_khr_spir cl_khr_subgroups cl_khr_gl_event cl_khr_depth_images
Device Type: CL_DEVICE_TYPE_CPU
Vendor ID: 1002h
Board name:
Max compute units: 8
Max work items dimensions: 3
Max work items[0]: 1024
Max work items[1]: 1024
Max work items[2]: 1024
Max work group size: 1024
Preferred vector width char: 16
Preferred vector width short: 8
Preferred vector width int: 4
Preferred vector width long: 2
Preferred vector width float: 4
Preferred vector width double: 2
Native vector width char: 16
Native vector width short: 8
Native vector width int: 4
Native vector width long: 2
Native vector width float: 4
Native vector width double: 2
Max clock frequency: 3337Mhz
Address bits: 64
Max memory allocation: 2413327360
Image support: Yes
Max number of images read arguments: 128
Max number of images write arguments: 64
Max image 2D width: 8192
Max image 2D height: 8192
Max image 3D width: 2048
Max image 3D height: 2048
Max image 3D depth: 2048
Max samplers within kernel: 16
Max size of kernel argument: 4096
Alignment (bits) of base address: 1024
Minimum alignment (bytes) for any datatype: 128
Single precision floating point capability
Denorms: Yes
Quiet NaNs: Yes
Round to nearest even: Yes
Round to zero: Yes
Round to +ve and infinity: Yes
IEEE754-2008 fused multiply-add: Yes
Cache type: Read/Write
Cache line size: 64
Cache size: 32768
Global memory size: 9653309440
Constant buffer size: 65536
Max number of constant args: 8
Local memory type: Global
Local memory size: 32768
Max pipe arguments: 16
Max pipe active reservations: 16
Max pipe packet size: 2413327360
Max global variable size: 1879048192
Max global variable preferred total size: 1879048192
Max read/write image args: 64
Max on device events: 0
Queue on device max size: 0
Max on device queues: 0
Queue on device preferred size: 0
SVM capabilities:
Coarse grain buffer: Yes
Fine grain buffer: Yes
Fine grain system: Yes
Atomics: Yes
Preferred platform atomic alignment: 0
Preferred global atomic alignment: 0
Preferred local atomic alignment: 0
Kernel Preferred work group size multiple: 1
Error correction support: 0
Unified memory for Host and Device: 1
Profiling timer resolution: 306
Device endianess: Little
Available: Yes
Compiler available: Yes
Execution capabilities:
Execute OpenCL kernels: Yes
Execute native function: Yes
Queue on Host properties:
Out-of-Order: No
Profiling : Yes
Queue on Device properties:
Out-of-Order: No
Profiling : No
Platform ID: 000007FED9C96B60
Name: Intel(R) Core(TM) i7 CPU
920 @ 2.67GHz
Vendor: GenuineIntel
Device OpenCL C version: OpenCL C 1.2
Driver version: 1642.5 (sse2)
Profile: FULL_PROFILE
Version: OpenCL 1.2 AMD-APP (1642.5)
Extensions: cl_khr_fp64 cl_amd_fp64 cl_khr_
global_int32_base_atomics cl_khr_global_int32_extended_atomics cl_khr_local_int3
2_base_atomics cl_khr_local_int32_extended_atomics cl_khr_int64_base_atomics cl_
khr_int64_extended_atomics cl_khr_3d_image_writes cl_khr_byte_addressable_store
cl_khr_gl_sharing cl_ext_device_fission cl_amd_device_attribute_query cl_amd_vec
3 cl_amd_printf cl_amd_media_ops cl_amd_media_ops2 cl_amd_popcnt cl_khr_d3d10_sh
aring cl_khr_spir cl_khr_gl_event
Et ça semble logique, pour OpenCL 2.0 sur CPU, j'ai vu qu'il fallait absolument du SSE4.x ...
D'ailleurs, même le Khronos Group indique Hawaii comme compatible ici : https://www.khronos.org/conformance/adopters/conformant-products#opencl
-
(http://i39.servimg.com/u/f39/13/94/54/05/gpupu11.jpg)
-
Bizarre du coup ...
-
Petite question GPU justement...
J'aimerai mettre à contribution mon GPU sur ma Debian Wheezy:
CUDA: NVIDIA GPU 0: GeForce GT 520 (driver version unknown, CUDA version 5.5, compute capability 2.1, 1023MB, 992MB available, 156 GFLOPS peak)
Mais je souhaiterai un projet qui ne me fasse pas déprimer en voyant ma petite carte gfx lutter pour faire une UT...
Auriez-vous des idées et/ou conseils pour moi ?
Merci.
-
Si trop long, les Collatz Mini. Sinon, PPS Sieve ça devrait fonctionner.
:hello: :kookoo:
-
Je viens de lancer ces projets en test:
Collatz Conjecture
Einstein@home
Milkyway@home
POEM@home
PrimeGrid
Seti@home
Et toujours ce dernier:
WUProp@Home
Je vous tiens au courant des résultats sous 8j.
-
Collatz et Milkyway sont des proejts pour ATI ... je te les déconseille ...
Pour les autres tu devrais pas avoir trop de déceptions, à moins d'incompatibilité des applis avec linux ...
-
C'est noté, merci.
-
Collatz et Milkyway sont des proejts pour ATI ... je te les déconseille ...
DP pure ?
-
Oui pour Milky.
Collatz ne calcule ni en SP, ni en DP, mais en entiers.
-
Ben alors, pourquoi pas de Colatz en SP pour NVidia ?
-
J'ai des WU pour ma Nvidia pourtant...
-
Oui MW fonctionne sur les cartes nVidia.
Par contre, les performances en Double Précision des cartes GTX sont ... disons ... très faibles, surtout comparées aux ATI.
(à l'exception des TITAN et TITAN BLACK + cartes pros)
Une GTX770 mettra au moins 10 x plus de temps pour calculer une UT MW qu'une HD7950.
=> La remarque de toTOW concerne les performances, pas la possibilité technique de faire tourner les projets :jap:
AMHA, une GT520 peut être utilisée "idéalement" sur EINSTEIN, PPS Sieve, Collatz Mini (CUDA)
Eventuellement Collatz Solo (= de points / 24h que les Mini).
:hello: :kookoo:
-
Merci pour l'info ! :jap:
Et niveau "temps de calcul", ça donne quoi ?
Pas moyen d'optimiser tout ça ?
-
Bon, après tests, hormis deux projets, la GeForce GT 520 ne dépote pas :(
Einstein@home
ou
Seti@home
Au moins je suis fixé :)
-
:hello:
Hormis ton GPU, quelle est la configuration de ton pc ?
Si tu veux changer de carte, c'est bientôt les soldes + il y a probablement de nombreux gamers
qui vont en revendre après le passage du Père Noël ;)
Il y a pas mal de cartes < 100 € (occasion) qui sont 10x plus performantes que la GT520.
(GTX750Ti (pas besoin d'alimentation par câble PCI-E si j'ai bien compris) , GTX660 / 660Ti, HD7950, ...)
:kookoo:
-
La configuration est assez basique...
CM : ASROCK ConRoe1333-D667 R1.0 (PCI-X 1.1)
CPU : Intel C2D E6850
RAM : 2Go DDR
GfX : GeForce GT 520
HDD : 40 Go IDE
Oui, c'est avant tout de la récupération :)
-
:jap:
Je laisse des crunchers plus expérimentés te conseiller pour le choix d'un autre GPU, au cas où tu voudrais en changer.
Ce genre de carte ne demande pas beaucoup de puissance électrique : http://www.leboncoin.fr/informatique/746628978.htm?ca=15_s
+ en CUDA, pas besoin de beaucoup de temps CPU
:hello: :kookoo:
-
Je comprends bien, mais j'aimerai que la carte soit 100% compatible avec ma carte-mère...
Des fois qu'un jour je recycle le PC pour mes nains.
-
juste pour info, j'ai fait tourné un couple hd7850/hd5850 sur une carte mère asus avec le même chipset que toi et un processeur moins véloce (un e6300)
c'est juste que les perf 3D de la carte graphique peuvent être bridées par le port pci-e 1.1 et son débit plus faible.
mais ça fonctionnera tout de même.
-
Noté :)
Je vais attendre les "soldes" pour changer ma GeF GT 520 alors :)
-
C'est normal, les validations peu concluantes font partie de la vie de Milkyway. Elles vont finir par passer en validée au bout d'un moment ...
-
Z'êtes marrants quand même quand vous dites (tout le temps) "ce projet est nul sur ATI ou nVidia, vaut mieux faire tel autre à la place", vous vous placez juste dans la perspective de faire "n'importe quel projet plus performant qu'un autre sur telle ou telle carte", mais maintenant si on intéressé par en particulier par tel projet et qu'il y a des UT nVidia ou ATI dessus et qu'elles tournent 10 fois ou même "juste 2 fois" plus vite que des UT CPU dispo pour ce projet, ben c'est toujours bon à prendre...
-
Des news chez nvidia: Pour Fin Janvier 2015, 3 nouvelles cartes sont prévues:
*GeForce GTX 960 Ti => GM204 (1536:96:48-192 bits - 4GB G-DDR5)
*GeForce GTX 960 => GM206(1280:80:32-192 bits - 3/4GB G-DDR5)
*GeForce GTX 950 Ti => GM206(1024:64:32-192 bits)
Et pour Février:
*GeForce GTX Titan II => GM200(3072:192:96-384 bits - 12GB G-DDR5)
Du coté AMD, du retard à cause du retard de la gravure en 20 nm. Donc les R300 initialement prévue pour Février 2015 repoussés pour Avril 2015...
-
Merci pour ces infos ! :jap:
-
Je vais m'orienter vers une Nvidia GeForce GTX 750 Ti (http://www.nvidia.fr/object/geforce-gtx-750-ti-fr.html) :)
Car après plusieurs recherches, elle me parait très bien sans devoir faire un emprunt pour payer EDF ;)
-
Les GM107 seront améliorés en GM207 avec les GTX950 et GT940, elles seront moins cher, plus rapide niveau GPGPU (car étant basée sur le SM_5.2, au contraire du GM107 qui est en SM_5.0) et légèrement plus faible en TDP
-
GeForce 347.25 est disponible :hello:
(Version précédente était 347.9, je dois avouer ne pas trop comprendre ? à moins qu'il s'agissait en fait de 347.09 ?)
Et sortie des GTX960 :kookoo:
-
GeForce GTX 960: GM206 avec 2.94 milliards de transistors
1024 cores CUDA - 64 TMU et 32 ROP en 128 bits
768 Ko cache L2
1120 à 1176 Mhz
Voila la petite bébête^^
-
encore une fois, ça consomme que dalle mais c'est castré comme pas permis en FP64... :priz2tet:
-
si je me fis à cet article (http://en.wikipedia.org/wiki/List_of_Nvidia_graphics_processing_units#GeForce_900_Series)de wikipedia, on a à l'achat :
- pour la 970 : 10,6 GFlops/$ en SP et 0,32 GFlops/$ en DP
- pour la 960 : 11,6 GFlops/$ en SP et 0,36 GFlops/$ en DP
à l'achat, la 960 en donne donc un peu plus.
mais elle a un rapport GFlops/W moins intéressant.
-
Effectivement :jap: Je n'avais en tête que 970 et 980 :desole:
Me suis amusé à comparer les performances 970 / 980 sur GPUGRID.
Et AMHA le prix de la 980 ne se justifie pas.
En tout cas pour GPUGRID / BOINC. (Folding@Home ?)
Pour jouer, je n'en sais rien ;)
Enfin, je me dis ça parce que je n'aurais pas pu me payer 4 * 980 :lol:
-
http://www.overclockingmadeinfrance.com/un-prix-pour-la-gtx-titan-x/
-
:hello:
Un beau joujou hors de prix mais beau joujou quand même
http://www.overclockingmadeinfrance.com/un-prix-pour-la-gtx-titan-x/ (http://www.overclockingmadeinfrance.com/un-prix-pour-la-gtx-titan-x/) :gropet:
-
Si la Titan X se base sur le méme ratio que les Kepler, ce sera cela en DP:
3072 cores CUDA - 192 TMU et 96 ROP en 384 bits
3072 Ko cache L2
Jusqu’à 1390 Mhz, donc 8540 GFLOP en SP, et 2846 GFLOP en DP (1000 GFLOP de plus face à la Titan Black)
Pour la GTX 960, la ratio est tjr de 1/32, donc ce sera 2408 GFLOP en SP et 75 GFLOP en DP (bonne vingtaine de GFLOP en moins face à une GTX 660)...
En SP, elle sera plus efficace que les GK106, mais restera limité par ses 768 Ko L2, au contraire des 2 Mo des GM204 (980/970)
-
Avec ma GTX970, ca avance bien en GPGPU, sauf sur milkyway qui est en DP (et sans doute pareil sur les autres projets en DP) et la c'est moins rapide que ma RADEON 7950 que j'avais avant (paix a ses transistors)
D'ailleurs y a moyen de savoir quels projets GPU sont en DP et lesquels en SP?
-
Milkyway bien sur et PrimeGrid je pense, les autres sais pas
-
Milkyway bien sur et PrimeGrid je pense, les autres sais pas
NB PrimeGrid : Uniquement les GFN. PPS Sieve = SP :hello: :kookoo:
-
Pour moi, le meilleur choix pour faire du GPGPU reste la GTX 970 ... la 960 est plus adaptée aux gamers (ou à ceux qui veulent faire attention au budget) et la 980 à ceux qui n'ont pas de limite de budget ...
-
Des précisions sur les nouvelles Radeon. Ce n'est pas encore sur, mais la gamme devrai s'organiser comme ceci:
(http://i38.servimg.com/u/f38/13/94/54/05/sans_t12.jpg)
A vous de juger^^
-
Je voulais acheter une R280X pour enchaîner les UT MilkyWay, mais du coup je vais attendre que cette nouvelle gamme soit sortie. Ce sera sans doute beaucoup plus intéressant.
Merci pour ces précisions Gael :)
-
c'est peut-être pas forcément une bonne idée pour milkyway qui réclame juste la double précision : la R9 280X fournit 1024GFlops en double précision (FP64), soit l'équivalent de la R9 390 pour une consommation équivalente, mais 150€ de moins à l'achat.
certes, la 280X se fait manger en simple précision (moitié moins que la 390).
je constate avec dépit qu'AMD suit Nvidia sur la route du bridage en FP64 : AMD a aussi divisé par 2 le rapport FP64/FP32 par rapport à l'ancienne génération. :priz2tet:
je sais qu'il faut bien qu'ils vendent des cartes pro mais quand même...
petit rappel des tableaux récapitulatifs des caractéristiques:
- AMD : http://en.wikipedia.org/wiki/List_of_AMD_graphics_processing_units
- Nvidia : http://en.wikipedia.org/wiki/List_of_Nvidia_graphics_processing_units
-
Entièrement d'accord ;)
7950/7970 et R9 280X = parfaites pour MW et PrimeGrid GFN.
Pour moi, le meilleur choix pour faire du GPGPU reste la GTX 970 ... la 960 est plus adaptée aux gamers (ou à ceux qui veulent faire attention au budget) et la 980 à ceux qui n'ont pas de limite de budget ...
:plusun:
-
De nouvelles Informations nous parviennent. Hawaii a été rebranché en Grenada (optimisée), Carrizo en APU, et Bermude qui est la double-fiji.
Oui, la double précision commence à être bridé, car la puissance en FP32 devient si grande, que mettre un petit ratio deviendra stupide, et portera trop d'ombre sur les FirePro. mias bon, ça reste bien au dessus des ridicules centaines de GFLOP de Nvidia XD
Je précise que ces infos ne sont pas officiels à 100%, et la ratio des FIJI est hypothétique......on va dire logique.........Et puis aussi, un ratio trop bas rendra la puce trop consommatrice, chose qu'AMD cherche à éviter, surtout quand des GeForce qui consomment peu à coté.
(http://i38.servimg.com/u/f38/13/94/54/05/radeon10.jpg)
-
On apprend que la GM200 n'aura pas la double précision à haute vitesse comme la GK110.....Donc la Titan II ne sera la Titan qu'en simple précision...
AMD restera donc avantagée dans ce domaine, et la Kepler GK110 garde encore sa fonction de computing avancée..
La raison est que Maxwell se concentre sur la basse consommation, et nous savons bien que la double précision provoque une grosse montée de la consommation de la puce. Maxwell ne sera donc pas dérivée dans la gamme des Tesla (d'où la nouvelle). Kepler restera la référence jusqu’à son remplacement qui est l'architecture Pascal prévue pour 2016.
-
je suis au delà de 95% sur mes 3 GPU AMD (7950/7850/5850).
pour celà il faut faire une petite modif dans les préférence de MW : la fréquence que j'ai descendu à 20
Frequency (in Hz) that should try to complete individual work chunks. Hi |