C'est très bien pour folding. Mais est-ce que Berkeley a prévu de faire un BOINC GPU ou pas car je n'ai pas encore entendu parler de cette idée...
Et puis en plus, tous les projets devraient proposer des applis GPU.
C'est prévu sur boinc6 depuis pas mal de temps, après une fois sorti il suffit d'attendre que les projets sortent leur application codée pour cuda
GF8 ou GF9 c'est vieux, GTX260 maintenant :p
Flux : MacBidouille.com
Publié le : lundi 16 juin 2008 16:51
Auteur : lionel@macbidouille.com (Lionel)
Objet : Les nouvelles Geforce sont officiellement lancées
Source : NVidia
NVidia a levé le voile sur ses nouvelles Geforce de la série GTX 2x0. Si l'on savait presque tout de cette série, les chiffres restent impressionnants. La puce a 1,4 milliards de transistors dont 80% dédiés au calcul 3D, fonctionne avec de la DDR sur un bus 512 bits avec une bande passante pouvant atteindre les 142 Go/s..;
Deux modèles sont déjà annoncés:
Geforce GTX 260:
- 192 unités de calcul
- Fréquences de 576/1242 MHz
- 896 Mo de DDR3 à 1 GHz sur un bus mémoire 448 bits
Geforce GTX 280:
- 240 unités de calcul
- Fréquences de 602/1296 MHz
- 1 Go de DDR3 à 1,1 GHz sur un bus mémoire 512 bits
Le plus intéressant est certainement la stratégie commerciale de NVidia. La société n'a pas cherché à axer son argumentaire de vente sur la puissance de la carte graphique, mais bien du supercalculateur qu'elle représente. Ils parlent essentiellement d'accélération via le CUDA des encodages vidéo ou d'autres calculs.
Et visiblement, ils ne mentent pas comme en a témoigné PCiNpact. Avec un client Folding Home optimisé pour tirer parti de la carte, ils ont réussi à faire 5000 points par jour là où une PS3 atteint seulement les 900 et un ancien Pentium E deux coeurs 600 points.
Difficile de parler de révolution, on a déjà connu par le passé des coprocesseurs, mais cette entrée fracassante de NVidia dans ce domaine, chose inconcevable il y a seulement un an risque de changer la donne dans notre environnement informatique.
PS: Hardware.fr a mis en ligne un test complet de la carte. Il confirme qu'elle est aussi puissante qu'une autre dotée de deux puces GeForce 9800. Reste à connaître la réponse d'ATI/AMD avec ses prochaines Radeon 48x0.
Flux : MacBidouille.com
Publié le : mardi 17 juin 2008 06:11
Auteur : lionel@macbidouille.com (Lionel)
Objet : Firestream 9250 chez AMD
Source : AMD
Si la nouvelle puce graphique RV 770 d'AMD ne sera présentée que dans une dizaine de jours, la société a déjà annoncé la carte Firestream 9250 qui en utilise une, mais n'a pas de sortie vidéo. Cette carte n'est destinée qu'à servir d'accélérateur de calcul à l'image de ce que fait aussi NVidia avec ses Geforce GTX 2x0.
La Firestream 9250 atteinte le TeraFlop, étant capable de réaliser 1000 milliards d'opérations en virgule flottante par seconde.
elle embarque 1 Go de DDR3 et est destinée aux milieux scientifiques et financiers.
Ceci confirme ce que nous vous disions hier au sujet de la nouvelle donne du marché des cartes vidéo. Elle sortent de leur contexte primitif pour s'attaquer au processeur et lui ravir son rôle le plus noble, certainement au grand regret d'Intel qui va devoir se remettre en question.
Bonjour,
L'équipe de bioinformatique Sequoia (INRIA / LIFL / Univ. Lille 1) propose le sujet de stage ci-dessous.
Les candidatures sont ouvertes jusqu'au 30 juin.
Cordialement,
Mathieu Giraud
====
Stage financé, niveau Master, été-automne 2008
Durée : 3 à 4 mois. Début du stage entre juillet et septembre 2008
Bit-parallélisme et calcul sur carte graphiques
http://www2.lifl.fr/~giraud/bit-gpu.html
Pour quelques centaines d'euros, on peut se procurer des cartes graphiques atteignant plusieurs centaines de gigaflops, à comparer aux dizaines de gigaflops des processeurs conventionnels double-coeur ou quadri-coeur. Cette puissance "brute" reflète un modèle d'exécution parallèle bien particulier. Au départ, le calcul généraliste sur unités graphique (GPGPU) détournait l'utilisation des primitives graphiques. Aujourd'hui, des librairies telles que CUDA (Nvidia) permettent d'utiliser directement les cartes graphiques à partir d'un langage C légèrement modifié. Programmer efficacement en CUDA demande cependant une bonne réflexion sur l'architecture sous-jacente.
Le stage consiste à étudier la mise en oeuvre, sur carte graphique, d'une famille d'algorithmes de recherche de motifs utilisés en bioinformatique, au moyen du bit-parallélisme. Le parallélisme au niveau du bit est une technique utilisant les opérateurs logiques comme opérateurs parallèles. Un processeur à 32 ou 64 bits est ainsi vu comme autant de petites unités de calcul parallèles. Avec le grand nombre de processeurs élémentaires sur les cartes graphiques, on peut atteindre dès aujourd'hui des téra-opérations par seconde, ce qui permet de rechercher des motifs complexes sur des génomes entiers.
Selon le profil du candidat, le stage pourra s'orienter vers le développement d'une bibliothèque distribuable d'opérateurs ou bien vers l'étude d'algorithmes adaptés. Dans les deux cas, le succès du stage dépendra d'une compréhension fine de l'architecture de la carte graphique et de ses contraintes.
Prérequis : connaissances en architecture des ordinateurs, et si possible en CUDA.
Références bibliographiques
1. NVIDIA, CUDA Programming Guide, 2007.
2. S. Wu and U. Manber, Fast Text Searching Allowing Errors, Communications of the ACM, 35, 83-91, 1992.
--
Mathieu Giraud - http://www.lifl.fr/~giraud
CNRS, LIFL, Université Lille 1, INRIA Lille - Nord Europe, France
La 6.2.6 est déjà disponible en bêta, est-ce qu'elle incorpore la gestion de CUDA ?http://boinc.berkeley.edu/dev/forum_thread.php?id=2518 :p...
Tiens un fan de l'amirale Daala :D
@Exar Kun : :jap: [spoiler]Au fait, tu peut toujours rejoindre l'AF si tu veut :whistle: ...[/spoiler]
Désolé mais en tant que membre fondateur de mon équipe je me vois forcé de refuser encore une fois l'offre ;-)
Cela dit si vous avez un moyen quelconque de considérer que les points de l'équipe Star Wars [FR] sont aussi ceux de l'Alliance Francophone, c'est avec plaisir que je vous les donne ^^
Tada !:bounce: !
http://img300.imageshack.us/img300/5999/foldinggpuxg0.jpg
Le client utilise 100% d'un core de mon V8 (soit 13% de ma puissance).
ça freeze un peu lorsque l'animation graphique tourne.
Voilà je ne suis pas un pro alors cela oscille entre 1700 et 1900 iter/sec avec ma 8800 GTS 320 mo
Inscrit dans la Team51 :)
En lançant boinc en parallèle sur les 8 cores les iter/sec se détériorent et oscillent entre 500 et 900En augmentant d'un cran la priorité de Folding dans le gestionnaire des taches, il prendrait peut-être le dessus sur BOINC :) ?
Tada !
http://img300.imageshack.us/img300/5999/foldinggpuxg0.jpg
Le client utilise 100% d'un core de mon V8 (soit 13% de ma puissance).
Voilà je ne suis pas un pro alors cela oscille entre 1700 et 1900 iter/sec avec ma 8800 GTS 320 mo
Je vais modifier mon pseudo:jap:
4000ppd soit l'équivalent d'un V8 à 2.4ghz:ouch:, et pour 10 fois moins chère ! :pt1cable:
Please keep it to this forum thread until I'm happy, then I will post it in more places (the URL will change tomorrow). I'd rather it not get all over the place before we find the bugs, and we're already at DEFCON 2 from when digg showed up way too early.
Tu as l'air d'aimer le projet :o, et vu que ABC et Riesel ne ce prêtent pas aux calculs sur les CG, je dirai que c'est Cosmo :whistle: ...
Par contre moi j'attend ça sous boinc6 et je sais déjà qu'il y'a un projet qui travaille sur une application CUDA :whistle: mais je vous dirai pas lequel :pt1cable:
Tu as l'air d'aimer le projet :o, et vu que ABC et Riesel ne ce prêtent pas aux calculs sur les CG, je dirai que c'est Cosmo :whistle: ...
@misterinpact : tu tape dans les combien de points jours :) ?
Sinon c'est quoi ta carte graphique? moi c'est 32 - 33min avec boinc derrière
Nvidia Geforce 8600M GT 256MB DDR2 (T8300 / 2GB DDR2 800Mhz)
475/400/950 - 0:01:24 - 1008 PPD
675/445/1350 - 0:01:01 - 1388 PPD
Nvidia Geforce 8600 GT 256MB DDR3 (E7200 / 2GB DDR2 800Mhz)
540/700/1400 - 0:00:50 - 1693 PPD
725/750/1880 - 0:00:33 - 2565 PPD
Project : 5001
Nvidia Geforce 8600 GT 256MB DDR3 (E7200 / 2GB DDR2 800Mhz)
725/750/1880 - 0:00:38 - 2228 PPD
J'ai upgradé sur les drivers de 174.55 à 177.5 et je suis passé de 1600 PPD à 2650 PPD avec Fahmon.:bounce:
Faut dire que le V8 est une plateforme peu conventionnelle avec une bande passante mémoire plus faible qu'un quad et ça se trouve je suis en PCI express x8 :whistle:
Vais tester une 8600 GT 512 Mo sur un Q6600 :)
@laurent: bien sûr que non, il faut pas de pci express 2.0 pour faire tourner des GF9 ou GTX :p , c'est rétrocompatible hein :sol:
Absoluement rien ;)
Le pci ex 16x n'est pas encore saturé, et le 2.0 apporte principalement une alimentation plus puissante pour les cartes graphiques, on passe de 75w pour le V1 à 150w il me semble pour le 2.0 :hello:
Par contre faut voir si le pci express est pas en 8x, ça peut influer, pour ça GPU-Z hein :)
:jap:
Donc si j'ai bien compris tu as déjà fait l'essai sur une de tes machines ?
L'alimentation 75W n'est pas un peu juste pour certaines cartes 2.0 (GTX) existantes ou à venir ?
@celtar: ceci explique celà, regarde dans le bios au cas où tu pourrais enclancher en 16x ;)
Tu as testé ? :)
En augmentant d'un cran la priorité de Folding dans le gestionnaire des taches, il prendrait peut-être le dessus sur BOINC :) ?
Pour ce qui est de l'alimentation, tu remarqueras que n'importe quelle carte graphique performante possède des connecteurs additionnels :whistle:
Petite question : quand vous utilisez F@H GPU en même temps que Boinc, vous enlevez un core de BOINC pour le mettre sur F@H, ou vous laissez la totalité des cores sur BOINC en laissant le reste se passer ?
@celtar: riesel/abc/primegrid
et non il ne faut pas dédier un core à folding, il faut juste bien paramètrer leur client et mettre une priorité plus haut (barre tout à droite dans les paramètres) et voilà il ne faut rien faire de plus
Ok pour les projets merci.
Et bien désolé de te contredire mais sur mon cas particulier de V8 j'ai un écart de PPD sur 8800 GTS 320 Mo
7 cores boinc + F@h@gpu = 3386 PPD
8 cores boinc + F@h@gpu avec priority slightly higher = 2330 PPD
:hello: la team 51 !J'ai rédigé ça pour la team 51, une âme charitable pour corriger mes fautes daurtograf :p ?
Suite à la sortie du client bêta de Folding pour les cartes graphiques nVIDIA compatible CUDA, certains d'entre-nous ont décidés de mettre leur CG au service de la science et de calculer pour votre équipe en attendant la sortie de BOINC6 compatible CUDA :) (vous avez peut-être aperçu des [BOINC>... Pseudo dans vos stats :whistle: ...)
Nous ne faisons pas ça pour provoquer des conflits entre nos deux team, bien au contraire ;). Nous avons juste la même passion que vous, utilisé nos processeurs pour faire avancer la recherche, malgré que nous n'utilisons pas la même plateforme de calcul :jap:.
Rom_185
L'Alliance Francophone, une Communauté pour la Science
Citer:hello: la team 51 !J'ai rédigé ça pour la team 51, une âme charitable pour corriger mes fautes d'orthographe :p ?
Suite à la sortie du client bêta de Folding pour les cartes graphiques nVIDIA compatibles CUDA, certains d'entre nous ont décidé de mettre leur CG au service de la science et de calculer pour votre équipe en attendant la sortie de BOINC V6 compatible CUDA :) (vous avez peut-être aperçu des [BOINC>... Pseudo dans vos stats :whistle: ...)
Nous ne faisons pas ça pour provoquer des conflits entre nos deux équipes, bien au contraire ;). Nous avons la même passion que vous, utiliser nos processeurs pour faire avancer la recherche, même si nous n'utilisons pas la même plateforme de calcul :jap:.
Rom_185
L'Alliance Francophone, une Communauté pour la Science
toTOW à répondu positivement et nous souhaites la bienvenu :).
Mais il demande d'utilité le TAG [BOINC] sans rien d'autre pour ne pas fatiguer leur site de stat ;).
Difficile pour moi de rivaliser avec vos 8800 et autre 9600 avec ma 8600gt ^^
j'active le compte en banque pour un nouvel ordi (depuis le temps....). [:yada44:5]Tu vas RACquer!!! :whistle:
Moi je suis en train de réfléchir pour voir si je vais pas prendre une GTX260... une fois les réparations faites sur ma voiture, j'active le compte en banque pour un nouvel ordi (depuis le temps....). [:yada44:5]
D'après les premiers testes de Celtar, la vitesse de calcul est de 1900 iter/sec sur une 8800 GTS 320Mo et utilise la totalité d'un de ses core, et la 9600GT de Zeuz fait du 2600 iter/sec et n'utilise quasiment pas le processeur :
ça doit être une 5003 à 479 points non ? J'en ai eu une cet après-midi :)
Rom, pour info, cette différence de perf et d'utilisation du processeur venait surtout du fait que j'utilisais au début les drivers CUDA 174.55 et Zeuz les 177.35. Depuis que j'ai updaté en 177.35 avec un fichier .inf moddé j'ai récupéré de la performance.Je cour éditer ça ... [:douglas riper]
Je pense qu'il faut reprendre plutôt les performances en PPD (points per day) que nous avons donné. De plus les iter/sec sur le display ne sont pas fiables :jap:
Salut nico 8313 :)
Bienvenue chez les cruncher with GPU (une race qui tend à se développer :D)
En tous cas tenez moi au courant de la sorti de boinc version 6 celle qui doit faire fonctionner nos GPU !
Bonjour !
En tous cas tenez moi au courant de la sorti de boinc version 6 celle qui doit faire fonctionner nos GPU !
Je serai de la partie !
Voili Voilou @plus :)
[19:36:12] Folding@Home GPU Core - Beta
[19:36:12] Version 1.06 (Mon Jun 23 10:53:13 PDT 2008)
Non le core c'est la partie qui s'occupe des calcul (si j'ai bien compris) on peut voir la version dans le logCiter[19:36:12] Folding@Home GPU Core - Beta
[19:36:12] Version 1.06 (Mon Jun 23 10:53:13 PDT 2008)
Voici le lien sur le forum officiel
http://foldingforum.org/viewtopic.php?f=43&t=3585
Oui, c'est pas la version de folding....
Par contre, c'est bizarre, sur le lien que j'ai trouvé, il y a une version 1.1, et 2.0 beta2... :??:
http://www.nvidia.com/object/cuda_get.html
ça doit pas être la même chose.... :heink:
Que je comprenne bien, en fait il y a CUDA, qui permet d'utiliser les cartes graphiques, et folding qui a une application qui utilise CUDA ? c'est ce que j'ai compris moi... :sweat:
Que je comprenne bien, en fait il y a CUDA, qui permet d'utiliser les cartes graphiques, et folding qui a une application qui utilise CUDA ? c'est ce que j'ai compris moi... :sweat:
Que je comprenne bien, en fait il y a CUDA, qui permet d'utiliser les cartes graphiques, et folding qui a une application qui utilise CUDA ? c'est ce que j'ai compris moi... :sweat:
XTC_ZeuZ
Ce qui confirme que les cartes ATI peuvent bien tourner avec l’application de folding !
J'y suis donc allé de ma petite question sur le forum de Cosmo: http://cosmologyathome.org//forum_thread.php?id=514
:)
L'université de l'Illinoi (Cosmology@Home) vient d'être nommée Centre d'Excellence CUDA par nVidia et à ce titre a reçu une dotation de $500.000. J'y suis donc allé de ma petite question sur le forum de Cosmo: http://cosmologyathome.org//forum_thread.php?id=514
:)
Are there currently plans to do this? No.:/
Have we been discussing this for the future? Definitely.
Are there currently plans to do this? No.
Have we been discussing this for the future? Definitely.
CiterAre there currently plans to do this? No.
Have we been discussing this for the future? Definitely.
Mes deux bras sont tombés ! :(
Mouai bha tant pis pour eux, d'autres projets s'y sont mi, on leur offrira notre puissance GPU, y'a pas de soucis ... pourtant il n'y a rien d'insurmontable, CUDA est assez simple et la doc fournie par nvidia semble très complète ... de la mauvaise volonté voilà tout
Pour moi, cela veut dire qu’ils en ont discuté et Cosmologie@Home POURRAIT éventuellement bénéficier de la technologie CUDA ultérieurement (encore au stade discussion).
CiterAre there currently plans to do this? No.
Have we been discussing this for the future? Definitely.
Mes deux bras sont tombés ! :(
Ah j'ai mal compris alors?
Definitely pour moi c'est définitivement, donc un non définitif, par contre sur systran il dit que c'est certainement, mon dico d'anglais ne dis rien du tout :lol:
Alors faux ami ou pas? enfin si tu es sûr de la bonne interprétation, c'est du tout bon ça :)
I'm a little bit burned :D
There is no standard for GPU computing (yet). Picking one particular model: how many Einstein@home participants do have an NVidia Quadro card that they want to actually use for crunching? Remember that displaying anything is not (yet) possible when using the GPU for numerical calculations.
As far as I understand the Folding@home application is based on Brook or some similar higher level language, the Einstein@home application is (currently) not. Our "Fstat engine" could be thought of as an FFT for narrow frequency bands. It's actually possible to use standard FFT implementations to calculate it, but in the current framework this would be rather inefficient. The current code was chosen for Einstein@home because it allows us to split the frequency bands into many small pieces (workunits), keeping computing time and data transfer volume within the bounds of a volunteer computing project.
Pinkesh Patel (a LSC member) is working on a program that actually uses standard FFT algorithms (I think with little modifications) for calculating the F-Statistic, but his code isn't ready to be used yet (at least not on E@H), using it would require a completely different search- and workunit design, and it would be much more demanding for machines and their connection to the servers than what we currently expect our participants to have.
I definitely think that using high-level languages / libraries like Brook that have efficient implementations for every platform is the way to go in the future, but for the moment (i.e. S5R4) we need to stick to what we have.
Les GTX diminuent constamment de prix, pour l'instant la 280 se trouve à 400$ ce qui est bien mieu que les 550 de départ, les prix se tassent
C'est normal, les graphismes ne sont pas au point.
As-tu aussi installer BOINC pour que ton processeur aide la science lui aussi quand tu ne l'utilise pas :) ?
La données comparative est le PPD et non le iter/sec pas fiable avec ces versions beta de folding.
Tu as des stats dans les pages d'avant. :)
Il faut télécharger un logiciel qui s'appelle FahMon (recherche google)
Tu le configures et tu vois le PPD de ta carte :)
En résumé :
1. Linux 64 bits
2. Boinc 6.35 http://boinc.berkeley.edu/dl/boinc_ubuntu_6.3.5_x86_64-pc-linux-gnu.sh
3. Drivers Cuda http://www.nvidia.com/object/cuda_get.html
4. GeForce 8, 9 ou 2x : http://www.nvidia.com/object/cuda_learn_products.html
Un café et l'addition :D
Pourrait-on noter le nombre d'iter/sec en fonction des cartes graphiques de chacun, pour se donner une idée, et voir si certaines cartes ont un avantage coût/iter, et éventuellement intégrer la consommation électrique ?
Il est inutile d'avoir du crossfire ou du sli, le simple fait d'avoir les 2 cartes branchées sur la carte mère suffit, y'en a sur folding@home qui utilise une ATI et une Nvidia en même temps, sur la même machine
Salut vivelechristroi
Tu as lancé le logiciel en admin ? Ca ressemble à une question de droit d'accès.
Dès que quelqu'un arrive à faire tourner l'application GPU qu'il n'hésite pas à faire un article pour expliquer l'installation et pour donner quelques chiffres de comparaison par rapport à la PS3
Merci ! C'était bien ça ! :bounce:
;) Si c'est vraiment valable mais difficile à mettre en place, il faudrait alors songer à s'organiser une Linux/Boinc-party [:frederic] pour installer tout ça ensemble.Ho, toi tu veut tenter l'aventure du passage au libre :D.
Dès que quelqu'un arrive à faire tourner l'application GPU qu'il n'hésite pas à faire un article pour expliquer l'installation et pour donner quelques chiffres de comparaison par rapport à la PS3
du coup, avec un quad et une 8800 GT par exemple, tu ne fait tourner que 4 applis.
Ca perd un peu de son interêt, non ?
du coup, avec un quad et une 8800 GT par exemple, tu ne fait tourner que 4 applis.
Ca perd un peu de son interêt, non ?
4 gpu sur 1 core par ex, pour l'instant ce n'est que le début aussi donc patience
Ca va être assez dur de comparer un cpu et un gpu sur ce projet, étant donné qu'il est impossible de faire tourner un cpu et on peut pas non plus comparer les crédits avec un autre projet
Je ne parle pas de hide ;)
Petites nouvelles
J'en suis a 10h20 pour 53.3% , 9600GT non oc
J'ai testé les driver 177.13 et 173.14 et c'est kif kif bourricot, j'essayerai si j'ai le courrage ce soir les 169.09 mais je pense qu'il n'y a pas de différence
Je pense donc être tombé sur une unité longue, j'en ai d'ailleur une seconde à 21.4% pour 3h24 (j'ai juste testé pour voir si c'était aussi long) elle semble donc plus petite
Sur PS3grid y'en a un qui a eu une unité de 4h sur 8800GS (=9600GT grosso modo) mais elle n'a pas été créditée
Bref wait and see, vivement dans 9h pour voir mon unité terminée
Euh oui rien à voir avec Folding@home :p
Ce que je peux dire c'est que ma 9600GT tourne vraiment bien sous CUDA :naughty: mais il y'a mieu pour moin cher :naughty:
En effet, les 8800GS ou encore 9600 GSO (ce sont les mêmes cartes, entièrement identique mais sous 2 noms différents) se trouvent à 80 - 90€ , ces cartes en plein jeux se retrouvent en dessou d'une 9600GT, pas de beaucoup mais le fait est là, par contre en fuinant un peu plus, il s'avère qu'elle est meilleur pour CUDA
Je m'explique, sous les jeux il y'a de nombreuses choses qui entre en jeux, la puissance brute du GPU (fréquence GPU/Shader + nombre de SP* + ROP**) et la bande passante de la ram (Taille du bus*** + fréquence et une moindre mesure les timings mémoire)
Pour CUDA, d'après mes tests ce qui importe c'est exclusivement la puissance brute du GPU, c'est à dire le nombre de SP ainsi que la vitesse du GPU et des shaders, la ram n'influence en aucun cas sur les perfs (taille/fréquence/taille du bus/timings)
Revenons à nos 8800GS, elles se retrouvent sous la 9600GT pour une raison, principalement la bande passante, en effet elle est plus faible que la 9600GT (bus 192b // 1600mhz DDR pour la 8800GS contre 256b // 1800mhz DDR pour la 9600GT). La bande passante étant largement meilleure sur la 9600GT, ses perfs s'envolent notamment avec l'antialiasing ou les hautes réso (pas trop haute quand même :sweat: ) :hello:
Si on prend le coté GPU, la 8800GS a 112 SP, un gpu cadancé à 550mhz, les shaders à 1375mhz, ce qui donne 264 Gflops, à coté la 9600GT tourne avec 64 SP, un GPU à 650mhz et des shaders à 1625mhz ce qui donne quand même 208 Gflops, elle est cadancée plus haut mais il y'a pratiquement 2 fois moin de SP malgrés qu'ils soient un poils amélioré (-') (un quadcore à 2ghz sous boinc sera plus performant qu'un dualcore à 3ghz sous boinc :sol: )
On voit donc que la 8800GS a une puissance brute supérieure à une 9600GT aux fréquences d'origines (-') voilà le pourquoi j'ai mes unités qui se calculent un poil moin vite qu'une 8800GS :jap:
Pour faire simple, si vous voulez cruncher mais que le jeux ça ne vous interesse pas, une 8800GS//9600GSO sera un meilleur investissement qu'une 9600GT surtout qu'elle est 10 - 15€ moin chère, en contre partie, la carte consomme un peu plus.
Je vous donne à titre d'info la puissance brute de quelques cartes compatibles CUDA
8800GTS320/640: 230 Gflops
8800GS//9600GSO: 264 Gflops
8800GT512: 336 Gflops
8800 Ultra: 576 Gflops
GTX280: 933Gflops
Quadcore intel dans les 2.66 - 3ghz: 51 Gflops au total
Tout ceci est bien sûr résumé pour la compréhension de tous et de moi même :whistle: :lol:
PS pour les non connaisseurs:
*SP = Unité de calcul un peu comme les cores d'un processeur
**ROP = Unité de calcul qui se charge de l'antialiasing notamment et bien d'autre chose, certainement inutile pour CUDA
***Largeur de bus = une autoroute où de nombreux véhicules circulent, plus il y'a de bande (largeur du bus) plus le nombre de voiture (info traitées par le GPU) à une vitesse donnée est élevée (-(
Bien sûr mais ne t'attend pas à des perfs de folie lol
Tout les GF8/9/GTX200 sont compatible
Une personne peut donner les caractéristiques de ce projet pour que j'édite le premier poste :).
Merci.
(petit frère de PS3Grid)
8800GT512: 336 Gflops
la ram n'influence en aucun cas sur les perfs (taille/fréquence/taille du bus/timings)
quelqu'un connait des sites US qui expédient en france ? avec le cours du dollars, une GTX 280 vaudrait environ 270 €. si on y ajoute les frais de port et éventuellement la TVA à la douane, ça reste interessant... A part pourle SAV mais bon...
Je viens d'essayer mais ça ne fonctionne pas pour une expédition en france !
T'as regardé sur amazon.com ?
si c'est concluant, je compte upgrader ma CG :D
pour l'instant ça se passe pas trop mal, j'ai enfin le bon pilote nvidia
c'est le lancement de boinc qui pêche :
Pas vraiment la carte est trop peu puissante, environ 50h sur une 8600GT contre 12h sur une 8800GT ou 15h sur une 9600GT
PS : est-ce que d'autres projets sont prévus pour tourner sur GPU à court ou moyen terme ?
Une application sous Windows XP serait du meilleur alois.
Moi ça m'arrangerai que ça tourne en win64 ;)
j'ai cherché un forum francophone plus spécialisé sur cuda en général, mais orienté hardware, rien trouvé de concluant
en fait je cherche des discussions sur le montage de machines de mort pour bien cruncher
pas d'overclocking, budget confortable, conso mini et max de silence mais sans trop monter en température, en bref, la solution ultime :)
1- trouver un boitier qui ventile très bien silencieusement
2- trouver une alim conséquente, avec un bon rapport (>85%) et silencieuse
3- trouver une bonne carte mère
4- un proc adapté pour cuda
5- une ou plusieurs cartes nvidia je ne sais pas si on peut mixer des GTX280 et des tesla C1060
Je ne sais pas du tout
Hier toute la soirée j'ai essayé de l'installer sous vista64 et pas moyen, boinc avec les drivers cuda plantait à chaque fois, du coup j'ai installé boinc 32b , là il démarrait mais CUDA n'était pas détecté (évidement puisque les drivers sont en 64b ... )
J'ai trifouillé un peu puis j'ai abandonné, pluggé un disque dur en rab et réinstallé xp32 pour le test, après vous pouvez toujours essayé, j'avais peut être un soucis (vu que j'ai trifouillé pas mal de chose pour tenter de faire tourner seti cuda sans succès ... )
Est-ce que tu sais comment faire pour participer aux tests sur Seti ?
Mon seul GPU CUDA est sous Vista64 et le restera. J'essairais donc ce soir pour voir si j'arrive à faire mieux que toi... ;)
Ok tient nous au courrant, je préfère mon vista64 que le xp ...
Info pour tous
Gpugrid peut maintenant tourner sur windows32b , il vous faut boinc 6.3.8 et les drivers 177.35 dispo ici
xp32: http://www.nvidia.com/object/thankyou.html?url=/compute/cuda/2.0-Beta2/windows/driver/NVIDIADisplayWin2K(177_35)Int.exe
vista32: http://www.nvidia.com/object/thankyou.html?url=/compute/cuda/2.0-Beta2/windows/driver/NVIDIADisplayWinVista(177_35)Int.exe
Quelques petits ralentissement sont à prévoir tout comme sous linux
edit: j'oubliais, c'est en version alpha, donc ne rallez pas si votre wu plante après 15h de calcul :whistle:
Pour info, avez-vous rencontrer un problème d'install/upgrade avec la version 6.3.8?
Je n'ai pas moyen de l'utiliser que ce soit sur Vista x64 ou Server 2008 x64!!
Je vais ressayer ce soir car à distance ce n'est pas simple!
:jap:
Tu as quoi comme GPU?
Moi je trouve le temps long, plus que sous nux en tout cas, j'ai augmenter mon cpu de 600mhz pour voir mais visiblement ça change rien
edit: ah tu es sous vista32 , ok je comprend mieu, sous xp32 et vista32 y'a pas de soucis, c'est sous vista64 que ça coince :whistle:
yes, installé avec un peu de mal mais tout fonctionne donc wait & see!
dès que j'aurai fini de cruncher une unité, on pourra se faire une base de comparaison entre les GPUs :)
Quelqu'un a déjà terminé une unité?? :) Moi encore 8h mdr
I'm running 169.21 with not much problem. Only 5 failures out of 235 tries, but most of these have been on the alpha project, not here on PS3GRID.
il peut y avoir plusieurs pistes
A- les instructions 64 bits
B- une puissance minimum du cpu (celui ci pourrait ralentir le traitement s'il est trop lent)
C- windows prend des ressources et s'intercale dans le traitement de la WU soit coté cpu, soit coté gpu
D- la réponse D
edit :
E- boinc mal optimisé
F- pilotes nvidia win mal optimisés
G- les unités gpugrid ne sont pas les mêmes en fonction des plateformes de boinc ?
Exact, 13/14h les perfs d'une 8800GT, j'ai mp le type qui possède 3 8800gt sous xp pour connaitre sa version de driver, les 3 cartes mettent 13h par unité, une 8800GTS512 est largement au dessu quand même :/
L'os je sais pas si ça joue, à priori non ou de quelques malheureux pourcents
Sinon j'ai trouvé ceci
http://i28.photobucket.com/albums/c241/legoman666/ppdstuff.gif
C'est pour F@H gpu mais ça s'applique aussi pour boinc et les projets cuda :)
Sinon j'ai trouvé ceci
http://i28.photobucket.com/albums/c241/legoman666/ppdstuff.gif
C'est pour F@H gpu mais ça s'applique aussi pour boinc et les projets cuda :)
Bon je teste ça demain [:mysti13]
Cdiscount non merci hein ! :o
Edit : alors on oublie le premier lien... vous connaissez des sites qui vendent encore des 8800GT en 256 Mo ?
13h35 seulement? ta carte était bien avec les fréquences 3D? donc ça se confirme bel et bien qu'il y'a une différence de perfs entre linux et xp alors qu'il ne devrai pas y en avoir d'après l'admin :/
Question peut-être idiote par rapport au tableau ci-dessus : les points sont des points Folding@Home, donc ça n'a rien à voir avec des points Boinc si ?
@Jim: Je parle du temps de calcul même sous nux, ça me parait un peu beaucoup, tu as les perfs d'une 8800GTS v2 :??: , est ce que tu pourrais mettre un screen de gpu-z 0.2.7 quand tu fais tourner PS3grid stp? sous nux je sais qu'il y'a un soucis avec les GTX260, elles restent à leur fréquence 2D, peut être que c'est le cas également sur windows :jap:
- 9600GT (650/1625/900) // xp32b // 177.35 // 23h
- 9600GT (725/1900/900) // xp32b // 174.55 // 20-21h
- 9600GT (725/1900/900) // linux64b // ?? // 16-17h
- 8800GTS v2 (650/1625/970) // xp32b // 177.35 // 17h
- GTX260 (576/1242/1000) // xp64b // ?? // 13h30
- GTX260 (576/1242/1000) // linux64b // ?? // 10h20
- 9600GT (650/1625/900) // xp32b // 177.35 // 23h
- 9600GT (725/1900/900) // xp32b // 174.55 // 20-21h
- 9600GT (725/1900/900) // linux64b // ?? // 16-17h
- 8800GTS v2 (650/1625/970) // xp32b // 177.35 // 17h
- 8800GTS v2 (650/1625/970) // linux64b // 173.14.12 // 10h30
- GTX260 (576/1242/1000) // xp64b // ?? // 13h30
- GTX260 (576/1242/1000) // linux64b // ?? // 10h20
Merci, je t'ajouteCiter
- 9600GT (650/1625/900) // xp32b // 177.35 // 23h
- 9600GT (725/1900/900) // xp32b // 174.55 // 20-21h
- 9600GT (725/1900/900) // linux64b // ?? // 16-17h
- 8800GTS v2 (650/1625/970) // xp32b // 177.35 // 17h
- 8800GTS v2 (650/1625/970) // linux64b // 173.14.12 // 10h30
- GTX260 (576/1242/1000) // xp64b // ?? // 13h30
- GTX260 (576/1242/1000) // linux64b // ?? // 10h20
Si un modo ou l'auteur du topic pouvait mettre le premier post à jour avec ces chiffres, ce serai bien ;) merci :jap:
on va pouvoir vérifier la citation de rom comme ça :D
C'est fait :jap:
Bah...
Mais moi ça ne me dérange pas de faire les MàJ de 1er post, il a déjà changé 4 fois et je suis ce topic de prêt (c'est mon mien quand même :D).
A titre de comparaison :
http://www.ps3grid.net/workunit.php?wuid=35457
A titre de comparaison :
http://www.ps3grid.net/workunit.php?wuid=35457
Carte
Albatron 8800GTS
gpu clock 730 Mhz
memory clock 1000 Mhz
Temp 55 °C
Drivers 173.14.12
OS
Ubuntu 8.04 64 Bits
pitheque@pitheque-desktop:/usr/bin$ ./nvclock -i
-- General info --
Card: nVidia Geforce 8800GTS 512
Architecture: G92 A2
PCI id: 0x600
GPU clock: 729.000 MHz
Bustype: PCI-Express
-- Shader info --
Clock: 1836.000 MHz
Stream units: 128 (1b)
ROP units: 16 (1b)
-- Memory info --
Amount: 512 MB
Type: 128 bit DDR3
Clock: 999.000 MHz
-- PCI-Express info --
Current Rate: 16X
Maximum rate: 16X
-- Sensor info --
Sensor: Analog Devices ADT7473
Board temperature: 42C
GPU temperature: 47C
Fanspeed: 767 RPM
Fanspeed mode: auto
PWM duty cycle: 49.0%
-- VideoBios information --
Version: 62.92.25.00.05
Signon message: GeForce 8800 GTS 512 VGA BIOS
Performance level 0: gpu 650MHz/shader 1625MHz/memory 972MHz/1.15V/100%
VID mask: 3
Voltage level 0: 1.00V, VID: 0
Voltage level 1: 1.05V, VID: 1
Voltage level 2: 1.10V, VID: 2
Voltage level 3: 1.15V, VID: 3
Les infos sur la carte :
-- Shader info --
Clock: 1836.000 MHz
- 9600GT (650/1625/900) // xp32b // 177.35 // 23h
- 9600GT (725/1900/900) // xp32b // 174.55 // 20-21h
- 9600GT (725/1900/900) // linux64b // ?? // 16-17h
- 8800GTS v2 (650/1625/970) // xp32b // 177.35 // 17h
- 8800GTS v2 (650/1625/970) // linux64b // 173.14.12 // 10h30
- 8800GTS v2 (730/1836/1000) // linux64b // 173.14.12 // 9h20
- GTX260 (576/1242/1000) // xp64b // ?? // 13h30
- GTX260 (576/1242/1000) // linux64b // ?? // 10h20
Nom Twintech GeForce 8800 GTS 512 Mo DDR3
Page web du produit Anglais
Support multi-GPU SLI
Ventilateur intégré Oui
Bi-écran Oui
Compatible HDTV Oui
Sortie DVI Oui
Tuner TV Non
Support DirectX 10, OpenGL 2.0
Sortie TV Oui
RamDAC
Résolution max 2560x1600 pixels
Mémoire totale 512.0 Mo
Fréquence GPU 650 MHz
Vitesse de mémoire 970 MHz
Type de mémoire DDR3
Bus mémoire 256 bit
Type d'interface x16
Interface PCI-E
Système PC
Chipset graphique GeForce 8800 GTS
Citer
- 9600GT (650/1625/900) // xp32b // 177.35 // 23h
- 9600GT (725/1900/900) // xp32b // 174.55 // 20-21h
- 9600GT (725/1900/900) // linux64b // ?? // 16-17h
- 8800GTS v2 (650/1625/970) // xp32b // 177.35 // 17h
- 8800GTS v2 (650/1625/970) // linux64b // 173.14.12 // 10h30
- 8800GTS v2 (730/1836/1000) // linux64b // 173.14.12 // 9h20
- GTX260 (576/1242/1000) // xp64b // 177.35 // 13h30
- GTX260 (576/1242/1000) // linux64b // 177.13 // 10h20
@Jm@rc: si ta config y est, c'est une des GTS v2 :)
Ok Jim ;)
Sinon pour l'oc sous nux c'est la galère, perso j'avais modifié le bios de ma carte et je l'avais flashée parce qu'à chaque reboot les fréquences d'origines se remettait et puis je pouvais pas modifier les shaders indépendamment du gpu ;)
- 9600GT (650/1625/900) // xp32b // 177.35 // 23h
- 9600GT (725/1900/900) // xp32b // 174.55 // 20-21h
- 9600GT (725/1900/900) // linux64b // ?? // 16-17h
- 8800GTS v2 (650/1625/970) // xp32b // 177.35 // 17h
- 8800GTS v2 (650/1625/970) // vista32b // 177.35 // 12h30
- 8800GTS v2 (650/1625/970) // linux64b // 173.14.12 // 10h30
- 8800GTS v2 (730/1836/1000) // linux64b // 173.14.12 // 9h20
- GTX260 (576/1242/1000) // xp64b // 177.35 // 13h30
- GTX260 (576/1242/1000) // linux64b // 177.13 // 10h20
6.3.8
- exit code 98 (0x62)
Unrecognized XML in parse_init_data_file: computation_deadline
Skipping: 1219328165.136000
Skipping: /computation_deadline
MDIO ERROR: cannot open file "?"
ERROR: mdioload.cu, line 128: Unable to read PDB velfile
called boinc_finish
]]>
il faudrait signaler que c'est boinc qui ne fonctionne pas
Merci de votre aide , g telecharger le framework 2.0
a l'installation il me dit le produit est deja installé donc c pas sa :sweat:
@Zeuz : MàJ :) !
Et oui, mais pour l'instant les GTX sont trop chers et trop bruyantes pour moi.
" Je disais ça pour info et non en sous entendant que c'était une carte moyenne ou autre, au vu du prix (on en trouve à 110€) on peut difficilement avoir mieu en neuf ;) "
C'est du moyenne gamme, mais c'est pas grave. :lol:
Je suis à près d'une heure et 4%! :fou:
J'ai relancé sous Ubuntu, et 4% prend une 20 de minutes!!! :pt1cable:
même constat chez moi avec une 8600GT
ubuntu64 : terminées en 40h30
XP64 : estimation à 60h :ouch:
il y a un vrai souci pour xp64
Oui les lags sont présent, après on dirai que certain driver sont moin sujet aux lags, d'après l'admin c'est parce qu'ils ont mi des molécules de taille conséquentes, ils peuvent régler le soucis une fois pour toute mais une perte de performance est inévitable, pour l'instant ils essayent de trouver le bon compromis et ils verront bien
Note que sur les gros gpu, apparement (toujours d'après l'admin) le phénomène est bien diminué
@Jim: merci, on attend la fin de tes tests très interessant (c'est Robrouge qui va être content, lui qui compte s'acheter 2 GTX260 au minimum ^^ )
Sur les PC d'un collègue :
Xp32 / 175.xx / Xeon / Boinc 6.3.8 / 8800GT > Voici les temps des unités faites à ce jour : 37h, 36h30, 32h50, 35h20. 5 unités en erreur sur les 9 et 4 toujours en cours.
Si j'ai une 8600 j'ai un quad Q6600 vu que je setise ;)
Pourtant c'était franchement lent :o
Désolé mais j'ai pas compris de quoi tu voulais parler :sweat:
Note que sur les gros gpu, apparement (toujours d'après l'admin) le phénomène est bien diminué
Faut mettre quoi dans les (xxx/xxxx/xxx) :??:.
A very frequent checkpointing set in the boinc user preference will slow down the application (even by 50% more). New application version will fix this.
GDF
August 20, 2008 GPU BOINC updateCa veut dire que ça tourne aussi sous nux 32b maintenant ?
ALL LINUX users of the GPU application should update to boinc version 6.3.8. Link available from www.gpugrid.net.
- Tu te logues, tu fais CTRL ALT F1
- Tu te relogues
- Tu tapes sudo /etc/init.d/gdm stop
- Vu que ton driver est sur le bureau tu fais cd ~/Bureau , puis tu tapes dir pour avoir le listing des fichiers présents sur le bureau
- Enfin tu fais sudo sh le_nom_du_driver.run (tu auras le nom du driver sous les yeux grâce à la commande dir)
- Tu auras un ecran bleu, tu clics sur accept, tu réponds OUI (yes, yes et ok) à toutes les questions sauf celle qui parle des librairies de l'openGL 32bits où là tu mets no , tu laisses faire puis une fois revenu sur la console, tu tapes sudo reboot et voilà c'est fait
Au démarrage, avant d'arriver sur l'ecran de connection, tu auras le logo nvidia qui apparait, si tu le vois c'est que c'est bien installé
tristesire : Moi j'arrive déjà pas à installer les drivers Nvidia sur Linux 64 :/.
J'ai préparé mon windows avec le boinc 6.3.8 et les drivers Nvidia, je reçois des unités, qui partent aussitôt en erreur.
C'est un peu lourd le calcul GPU.
Merci pour le lien Dudumomo
Ouai bon y'a largement mieu, je comprend pourquoi tu as des soucis avec :p
Prend du corsair HX ou seasonic S12 , ce sont les mêmes alims et y'a pas mieu, c'est cher mais au moin tu as la qualité qui est là
Je ne sais pas si cela vaut le coup d'utiliser pendant presque 2 jours 1 coeur en GPU pour faire seulement 2000 points, alors qu'en laissant mes 4 coeurs cruncher comme d'habitude je fais plus...
ma carte vidéo n'est pas assez puissante...
snif : ma 8600GT m'a couté 154€ y'a quelques mois !
actuellement je dois faire en moyenne dans les 4500 points par jours avec mes 4 coeurs, soit 1125 points par coeur par jour (et même des fois je fais plus). Si je consacre 1 coeur au GPU et qu'il me fait 2000 points en 2 jours, soit 1000 points par jour, au lieu de 4500 points je ferais 3 x 1125 + 1 x 1000 = 4375 points, je serais donc perdant, ma carte vidéo n'est pas assez puissante...
snif : ma 8600GT m'a couté 154€ y'a quelques mois !
Marche pas, ça plante après 80sec chez moi, les plus récents chez moi ce sont les 177.35, d'ailleur la version 6.30 a un soucis, le temps de calcul est plus élevé que la 6.29
en meme temps tu as acheter ta carte pour jouer ;) et tu dois bien t'amuser avec :p
:lol:
Je me répète, mais je pense que ce topic aurait plutôt sa place en FAQ. Là où justement d'autres membres penseraient à le chercher.
Pour le bien de tous, je pense qu'il faudrait que vous organisiez ce topic en vue de synthétiser tout ça et de mieux aider les autres :jap:
Oki... Pas moyen de faire tourner WCG sur le GPU donc?
Le soucis c'est que Rom185 veut absoluement s'en occuper/être le créateur du topic, à lui maintenant de nous faire un beau petit truc sinon je le créé moi même quand j'ai le temps (un peu surbooker ces derniers jours :sleep: )
D'ailleurs je pense déjà au Nehalem (8 cores hyperthreading -> 16 cores !)
boinc 6.3.9 vient de sortir
nvidia a sorti les 177.84 sur la page de cuda ya pas longtemps
qui est assez téméraire pour tester tout ca ??
@laxou: déjà testé, 6.3.9 marche toujours pas sous vista64, j'ai pas essayé en win32 vu que ça apporte rien d'utile pour moi (multigpu fonctionnel) , les 177.84 ne fonctionnent pas sous xp32, même problème que toutes les versions supérieurs au 177.35, c'est à dire que la wu part en erreur au bout d'une minute :pfff:
Bref on est toujours au même point
rien n'empêche de laisser ce topic ici puis de l'épurer
en revanche, je te laisse le soin de créer celui de la zone FAQ technique :whistle:
A ce que j'ai compris, il est difficile de prendre des morceaux de ce post pour le coller dans le nouveau topic en zone FAQ technique :sweat:
C'est l'idée. A condition que le 1er post soit suffisamment bien organisé pour que les membres puissent retrouver les infos qu'ils cherchentMe dérange pas :p.
Me dérange pas :p.
Je fais une petite MàJ ce soir ;) !
So, we have found out several issues with the drivers and anomalies between cuda1.1 and recent drivers.
We were using driver 173.x thanks to the nvidia-installer --update which does not seem to update to anything recent. Our machines were all on old drivers which worked quite well with the cuda1.1 toolkit which was used to compile. All of you were on newer drivers. Our fault, we did not realize that nvidia-installer does not work as expected.
Although, they had told us that from 1.1 to 2.0 there would be back compatibility this is not the case. This was the problem with the Windows 64 boinc client.
Upgrading our machines to the latest drivers we could finally reproduce the errors, which means that we can now solve them.
In a way it seems that driver-toolkit version need to match to work properly, but there is not specification of which driver work with which compiler.
NEXT
I am expecting that everything will be much better with cuda2.0.
Finally cuda2.0 is out, so we will upgrade as soon as possible to the 2.0 toolkit and will test on the newest drivers.
gdf
Tu as installé CUDA2.0 indépendamment des drivers? si oui c'est pas CUDA mais un toolkit ou des samples, CUDA est intégré dans les drivers, tu peux pas l'installer tout seul :p
Sinon pour ton soucis, il faut juste attendre la nouvelle version qui devrai pas tarder, la version linux est sortie, la version win devrai arriver rapidement
News à propos de la nouvelle application, elle ne tournera qu'avec les cartes graphiques compatibles CUDA 1.1 et 2.0, soit quelques GF8 (8800GT/8800GTS512) et toutes les GF9 ainsi GTX260/280, en gros ceux qui ont des 8400/8600 , 8800GTS320/640mo, 8800GTX/Ultra ne pourront plus calculer avec leur carte ;) Désolé :whistle:
C'est ça, apparement les cartes compatibles CUDA 1.1 et 2.0 intègrent de nouvelles opérations "atomiques", je ne sais pas de quoi il en retourne réèllement, je ne suis pas assez documenté là dessu donc je ne sais pas si ça va augmenter la vitesse de calcul ou non, je l'espère en tout cas
Ce passage est inévitable dans le sens où les nouveaux drivers ne fonctionnent plus avec la version 1.1 de CUDA, normalement c'était rétrocompatible mais il y'aurai un bug .... bref
@mcroger: je veux bien vous concocter un bon guides avec les différentes cartes graphiques actuelles, malheureusement cette semaine va être très chargée pour ma part, au mieu je pourrai commencer que le week end prochain, donc oui je veux bien m'y atteler mais pas avant une bonne semaine ;)
Après je verrai avec rom_185 à son retour si on l'intègre dans son premier post ou non, je pense aussi qu'il est préférable de faire ainsi étant donné que ce post ne sera un guide destiné uniquement pour le gpu computing et non un guide pour les performances dans les jeux.
Je rappèle qu'une carte graphique X plus performante qu'une carte Y dans les jeux, n'est pas forcément plus performante sous CUDA ;)
moi je continue de récupérer des 6.30 et elles crashent a chaque fois :(
25/08/2008 13:54:20|PS3GRID|Started download of acemd_6.30_windows_intelx86__cuda.exe
25/08/2008 13:54:20|PS3GRID|Started download of tcl85.dll
25/08/2008 13:54:28|PS3GRID|Finished download of acemd_6.30_windows_intelx86__cuda.exe
25/08/2008 13:54:28|PS3GRID|Started download of cudart.dll
25/08/2008 13:54:29|PS3GRID|Finished download of cudart.dll
25/08/2008 13:54:29|PS3GRID|Started download of IKN7022-GPUTEST2-1-LICENSE
25/08/2008 13:54:29|PS3GRID|[error] Checksum or signature error for cudart.dll <--- Erreur systématique
25/08/2008 13:54:30|PS3GRID|Finished download of tcl85.dll
T'es en retard Jim ^^
Sinon non elle est pas dispo, elle est en cours de test dixit l'admin, ils ont des soucis de DL avec, perso aucun soucis chez moi
http://www.ps3grid.net/forum_thread.php?id=303&nowrap=true#1702
@laxou: Mais lol t'es grave toi :lol: , une vrai tête de mule :heink: , on dit que l'appli déconne depuis plusieurs jours, qu'elles mets les unités en erreur et qu'on arrête de l'utiliser et toi tu n'arrêtes pas d'essayer encore et encore :lol: dingue ou alors tu lis pas mes messages je sais pas, blabla francès? :whistle:
edit: @jim humour, c'était juste pour dire que tu t'étais fait grillé de 6min par moi même :D , elle venait de sortir à l'instant :hello:
Visiblement c'est pas mon engin comme tu dis :lol: vu que ça touche tout le monde, toi y compris :lol: :D trop drôle ^^ [:jump400:4] [:modesti:3]c'est la preuve par l'expérience : je veux voire moi même si ça marche.
depuis la 6.29 plus rien ne marche quoi ...
6.41 online, ça semble fonctionner cette fois, wait and see :)
EDIT: à prioris il y'a un gain de perfs par rappot aux anciennes applications, en gros maintenant d'après mon rapide calcul, je devrai mettre 17h comme linux64 au lieu de 21h avec l'ancienne application :love:
News à propos de la nouvelle application, elle ne tournera qu'avec les cartes graphiques compatibles CUDA 1.1 et 2.0, soit quelques GF8 (8800GT/8800GTS512) et toutes les GF9 ainsi GTX260/280, en gros ceux qui ont des 8400/8600 , 8800GTS320/640mo, 8800GTX/Ultra ne pourront plus calculer avec leur carte ;) Désolé :whistle:
Ca y est, j'ai enfin retrouvé ce topic. J'espère qu'il va rester ici au moins quelques jours... ;)
Bon, je m'en vais lire toutes mes pages de retard...
2 ans plutôt ^^ m'enfin c'est plus tout jeune, tu aurais du attendre que CUDA soit utilisé sur boinc pour t'acheter une carte graphique, pour 120€ maxi tu as une 9800GT qui est plus performante sous CUDA et les jeux tout en consommant moin et elle a les instructions nécessaires à la nouvelle application :/
Sinon le topic a été déplacé qu'une fois, il est resté plusieures semaines dans blabla et il a été mi ici en faq dans la bonne catégorie
La nouvelle appli Windows est disponible!
Je ne pourrai pas tester avant tard ce soir.
Sinon, mes test de la GTX 280 se sont avérés un peu galère.
Mais bon maintenant, j'ai une machine avec XP32/64, Vista 32/64 et Ubuntu64.
Au mons je peux faire des test dans chaque environnement.
Pour le moment, je n'ai réussi que sur Ubuntu à faire tourner des WU jusqu'à la fin.
Résultat:
GTX 280 sur Ubuntu64 et 177.84 et Boinc 6.3.8
9h39 et 9h51
Un petit test sur XP64 et Boinc 6.3.10 a bien fait tourné 2 WU en même temps, mais crash des WU et de la machine.
Donc wait and see la nouvelle appli.
:hello:
ne paniquez pas, je vais vous faire un guide
Corran Horn: oui c'est du passif ta proposition mais je te le déconseille fortement sauf si tu tient pas à ta carte lol
Vivement ton guide ZeuZ, [:mysti13] , dès que tu l'as mis en ligne, je fonce au magasin et je me prépare à ce genre de dialogue à la maison:
Elle: "Pfff, presque 200 € ! Tu avais vraiment besoin d'une carte graphique pour le PC de jeux des gamins, il ne vaut même plus ça ?"
Moi: " Mais bien, sûr, ça devient super exigeant les jeux des 6-10, faut déjà au moins ça pour Adibou, et j'te parle pas de Barbie au Pays des Fées avec le brouillard, les explosions itou itou !"
[:czame17:5]
Ah oui mais pas en passif ;)
Le passif pour l'usage que nous voulons en faire: pas sûre que ce soit une bonne chose ;)
bah ... tu met un petit ventillo 5V dessus et tu garde ton silence pour plus de fraicheur ;) !
:p
Dans ce cas, il faut améliorer le refroidissement du boitier. Je pense que les modèles qui expulsent l'air vers l'extérieur me semblent plus appropriés ;)
Je tiens surtout au relatif silence de mon bureau ;)
le celeron core a quand même bien moins de cache, il mettra peut être quand même plus de temps qu'un C2D.
Dites je pensais, on peut gérer l'affichage avec une autre carte et dédier tout le calcul sur une 9600 GTX par exemple en théorie ça devrait marcher non ?
Salut les ami(e)s ! :hello:
Je rentre de vacances et je suis un peu largué !
J’ai xp32 avec une 8800GTS 640 (G80) je voudrais savoir
qu’elle version de boinc il me faut et quels pilotes nvidia pour cruncher avec PS3GIRD ???
J’ai aussi Ubuntu64 et là pareil : qu’elle version de boinc et pilotes ???
Actuellement j’ai les pilotes 177.35 avec boinc 6.3.10 pour xp
et 173.14.12 avec boinc 6.3.8 pour Linux
Mais les WU terminent toutes en erreur sans même avoir commencé !
Au secours !!! :cry:
Merci :jap:
petit compte-rendu de mes perfs après quelques unités gpugrid :love:
9800GTX (675/1688/1100) // xp64 // 177.84 // 13h32 [c2d E6550 2.33GHz]
9800GTX (675/1688/1100) // xp64 // 177.84 // 13h28 [c2d E6700 2.66GHz]
9800GTX (675/1688/1100) // lin64 // 177.15 // 13h20 [c2d E6700 2.66GHz]
je n'ai pas de linux 64 sur le c2d E6550 2.33
C'est toujours 1,987.41 par UT. :p
tu pourrais juste une fois pour me faire une idée mettre les crédits obtenus par ces 3 UT ?
merci :jap:
C'est mort. T'es dans le même cas que moi: la nouvelle version de CUDA n'est plus compatible avec nos cartes :fou:
C'est toujours 1,987.41 par UT. :p
C'est ce que nVidia préconise... Tu m'étonnes :lol:
Il faudra m'expliquer comment faire histoire de recycler la 8600 si j'achète une bête de course.
Bon je vais mettre un peu les choses au point parce que c'est n'importe là
...
- beaucoup (et moi le premier) on sentis le frémissement de Cuda et ont investit dans une carte plus que correcte (GF8) qui ne va pas servir au crunch.
Après, ton erreur est d'avoir acheté ta carte très tôt, peut être as tu eu l'occasion de tester CUDA bien avant nous mais tu as payé ta carte au prix fort pour pas grand chose, maintenant elle ne vaut plus grand chose, elle a de bon reste certe mais elle équivaut une carte basique à 90€ soit le bas de l'échelle pratiquement [:czame17:9]
Après comme je le dis et redis, une carte à 90 - 120€ (9600GSO/8800GT=/=9800GT) permet quand même de faire entre 3000 et 4000 de RAC sur ce projet, ce n'est que 120€ maxi, il faut un Q6600 sans oc sous un os 64b et ABC pour obtenir les mêmes crédits ;) sauf qu'ici le gpu n'utilise qu'un core, en gros avec un pentium4 qui mouline dans la semoulle vous pouvez le rendre aussi performant qu'un quadcore en lui greffant une bète carte graphique à 120€ ... je trouve que c'est déjà un bon début, enfin moi je trouve
On verra bien par la suite, mais vous voulez quand même le beurre, l'argent du beurre et la crémière!
Quand je vois que maintenant les possesseurs de cartes non compatible viennent râler (à juste titre) alors qu'ils ont même pas encore fait une unité, c'est assez rigolo :lol: , je rappèle quand même que le projet pour GF8 toutes confondues est dispo depuis un bon moment ;) , comme par hasard c'est le lendemain de la sortie de la dite application que les GF8 GTSv1 se manifestent, bizarre non? pourquoi elles n'ont pas débarqué il y'a un mois?
Pour ma part, je suis en Vista64. Il a donc fallu que j'attende la version windows de l'appli, puis le débugage de boinc qui ne fonctionne correctement sous Vista64 que depuis ce week-end... ;)
j'avais cru lire quelque part que c'était le compilateur qui merdait pour compiler pour une carte cuda 1.1 ?
Tu ne peux pas me dire ça avec un pseudo comme le tien ;)
Pour ma part, je suis en Vista64. Il a donc fallu que j'attende la version windows de l'appli, puis le débugage de boinc qui ne fonctionne correctement sous Vista64 que depuis ce week-end... ;)
On peut lui donner plusieurs connotations à mon pseudo!
Mais il fait uniquement référence à une série.
Merci Zeuz pour le lien très intéressant. Mais honnêtement j'avoue être perdu je comprend pas pourquoi certaines 8800 ne tournent pas et les 8600 Gt et 8400 (mes 2 cartes) toureneraient :pt1cable: -potentiellement car trop lentes, dixit le lien-
Enfin bon :jap:
où as tu lu que tu avais 112 shaders?
cruncher sur un autre projet en même temps sur le 2ième core du cpu ne fait plus planter l'unité gpugrid :bounce:
:??: L'unité plantait si tu crunchais sur un autre projet? :heink: jamais eu le soucis et jamais lu ça sur quelconque forum :??:
:??: L'unité plantait si tu crunchais sur un autre projet? :heink: jamais eu le soucis et jamais lu ça sur quelconque forum :??:
@nico: c'est un bug, aucune 8800GTS v1 n'a 112 SP, elles ont toutes 96, tu as bel et bien 96 SP pas plus, pas moin :hello:
non : à un moment nvidia a décidé de booster les GTS et les a passé à 112 SP.
Dite, qui a réussi à faire tourner GPUgrid sous vista64? j'ai un petit gars de ma team (webjo) qui a un soucis (device emulation dans les messages boinc au lieu du nom du GPU, autrement dit ça fonctionne pas) , j'ai posé la question sur le forum de GPUgrid et apparement ça fonctionne pas sous vista64 :lol: :pt1cable: pourtant je tourne sous vista64 :whistle: :lol: , je suis le seul apparement .... :ouch: :D
Bref ça n'arrange pas mes affaires, si je suis le seul ... et étant donné que je n'ai rien fais de particulier ... :sweat:
Oui ca s'appelle GTSv2 ou GTS512 :whistle: , aurement dit aucun rapport avec sa carte :onon non tu te trompes : c'est une version avec un G80.
Oui ca s'appelle GTSv2 ou GTS512 :whistle: , aurement dit aucun rapport avec sa carte :o
Ah ok RLDF, je savais pas, étonnant d'ailleur
NVIDIA Announces 112 SP 8800 GTS Works w/ Original 8800 GTS In SLI
NVIDIA told their AICs not to market the new Geforce 8800 GTS 640MB as a card that has 112 SPs on board (upgraded from previous 96 SPs) but Partners can label it as a special edition, or OC edition. Also the new 112 SP 8800 GTS will still work with the original 96 SP variants in SLI configurations. Further NVIDIA stressed that they will not offer an upgraded 112 SP 8800 GTS in 320MB configurations.
J'y crois pas :o et j'y croirai pas tant que j'aurai pas vu un test de ce modèle si rare ...
Sinon apparement il a fait de nouvelles unités avec une nouvelle application, le soucis c'est que ça sous crédite maintenant :(
vous voulez dire que les wu creditées pres de 2000 points étaient sous-créditées :??:
article INtéressant sur pcinpact.com :
http://www.pcinpact.com/actu/news/45586-NVISION-Folding-GeForce-BOINC-CUDA.htm
D'ailleurs dans les commentaires, j'ai fait discrétement de la pub pour l'AF :D
et RLDF vient de poster un pavé :D
Très bon pavé de RLDF :jap:... AMHA il aurait pu mettre, puisqu'il en parle, les liens vers les sites de stats myboinc & SETIBZH. :ange:
j'ai pas osé en ajouter une couche, promis la prochaine fois je fais de la pub :)
L'augmentation des points est fulgurante :love: 3232points soit 190pts/h sur ma 9600GT, du jamais vu :love: , 4500 de RAC (revendez vos PS3 :lol: ) :D , une GTX260 doit taper les 8000 de RAC :pt1cable:
http://i28.photobucket.com/albums/c241/legoman666/ppdstuff.gif
Dans ce cas, ça vaut peut-être le coût de faire un investissement :)
Qu'est-ce qu'il vaut mieux prendre comme carte en regardant surtout le nombre de points par Watt... ? :jap:
Je suis en train de rédiger le petit guide comme demandé, je pense l'avoir terminé samedi :hello:
28/08/2008 17:29:56|PS3GRID|Starting tnr8251-GPUTEST3-0-10-acemd_1
28/08/2008 17:29:56|PS3GRID|Starting task tnr8251-GPUTEST3-0-10-acemd_1 using acemd version 643
28/08/2008 17:29:57|PS3GRID|Computation for task tnr8251-GPUTEST3-0-10-acemd_1 finished
28/08/2008 17:29:57|PS3GRID|Output file tnr8251-GPUTEST3-0-10-acemd_1_1 for task tnr8251-GPUTEST3-0-10-acemd_1 absent
28/08/2008 17:29:57|PS3GRID|Output file tnr8251-GPUTEST3-0-10-acemd_1_2 for task tnr8251-GPUTEST3-0-10-acemd_1 absent
28/08/2008 17:29:57|PS3GRID|Output file tnr8251-GPUTEST3-0-10-acemd_1_3 for task tnr8251-GPUTEST3-0-10-acemd_1 absent
28/08/2008 17:29:59|PS3GRID|Started upload of tnr8251-GPUTEST3-0-10-acemd_1_0
28/08/2008 17:30:01|PS3GRID|Finished upload of tnr8251-GPUTEST3-0-10-acemd_1_0
28/08/2008 17:30:57|PS3GRID|Sending scheduler request: To fetch work. Requesting 60480 seconds of work, reporting 1 completed tasks
...
28/08/2008 17:31:38|PS3GRID|Starting ji10573-GPUTEST2-0-10-acemd_1
28/08/2008 17:31:38|PS3GRID|Starting task ji10573-GPUTEST2-0-10-acemd_1 using acemd version 643
28/08/2008 17:31:39|PS3GRID|Computation for task ji10573-GPUTEST2-0-10-acemd_1 finished
28/08/2008 17:31:39|PS3GRID|Output file ji10573-GPUTEST2-0-10-acemd_1_1 for task ji10573-GPUTEST2-0-10-acemd_1 absent
28/08/2008 17:31:39|PS3GRID|Output file ji10573-GPUTEST2-0-10-acemd_1_2 for task ji10573-GPUTEST2-0-10-acemd_1 absent
28/08/2008 17:31:39|PS3GRID|Output file ji10573-GPUTEST2-0-10-acemd_1_3 for task ji10573-GPUTEST2-0-10-acemd_1 absent
...
28/08/2008 17:32:09|PS3GRID|Starting Bwo8190-GPUTEST2-1-10-acemd_0
28/08/2008 17:32:09|PS3GRID|Starting task Bwo8190-GPUTEST2-1-10-acemd_0 using acemd version 643
28/08/2008 17:32:10|PS3GRID|Computation for task Bwo8190-GPUTEST2-1-10-acemd_0 finished
28/08/2008 17:32:10|PS3GRID|Output file Bwo8190-GPUTEST2-1-10-acemd_0_1 for task Bwo8190-GPUTEST2-1-10-acemd_0 absent
28/08/2008 17:32:10|PS3GRID|Output file Bwo8190-GPUTEST2-1-10-acemd_0_2 for task Bwo8190-GPUTEST2-1-10-acemd_0 absent
28/08/2008 17:32:10|PS3GRID|Output file Bwo8190-GPUTEST2-1-10-acemd_0_3 for task Bwo8190-GPUTEST2-1-10-acemd_0 absent
28/08/2008 17:32:12|PS3GRID|Started upload of Bwo8190-GPUTEST2-1-10-acemd_0_0
28/08/2008 17:32:15|PS3GRID|Finished upload of Bwo8190-GPUTEST2-1-10-acemd_0_0
28/08/2008 17:33:11|PS3GRID|Sending scheduler request: To fetch work. Requesting 60480 seconds of work, reporting 2 completed tasks
28/08/2008 17:33:16|PS3GRID|Scheduler request completed: got 0 new tasks
28/08/2008 17:33:16|PS3GRID|Message from server: No work sent
28/08/2008 17:33:16|PS3GRID|Message from server: (reached daily quota of 4 results)
Solution trouvée pour vista64 + boinc :lol:
En fait faut pas installer boinc en service, Webjo à réinstaller boinc sans le service parce qu'il souhaitait démarrer boinc manuellement et l'arrêter manuellement sans que ça tourne toujours en arrière plan et bingo :love:
Ce qui est curieux c'est que moi il est installé en service :lol: mais bon cherchons pas à comprendre !
pas sympa les nouvelles unités, je dois attendre demain pour remplir mon cache sur une machine :Code: [Sélectionner]
28/08/2008 17:29:56|PS3GRID|Starting tnr8251-GPUTEST3-0-10-acemd_1
28/08/2008 17:29:56|PS3GRID|Starting task tnr8251-GPUTEST3-0-10-acemd_1 using acemd version 643
28/08/2008 17:29:57|PS3GRID|Computation for task tnr8251-GPUTEST3-0-10-acemd_1 finished
28/08/2008 17:29:57|PS3GRID|Output file tnr8251-GPUTEST3-0-10-acemd_1_1 for task tnr8251-GPUTEST3-0-10-acemd_1 absent
28/08/2008 17:29:57|PS3GRID|Output file tnr8251-GPUTEST3-0-10-acemd_1_2 for task tnr8251-GPUTEST3-0-10-acemd_1 absent
28/08/2008 17:29:57|PS3GRID|Output file tnr8251-GPUTEST3-0-10-acemd_1_3 for task tnr8251-GPUTEST3-0-10-acemd_1 absent
28/08/2008 17:29:59|PS3GRID|Started upload of tnr8251-GPUTEST3-0-10-acemd_1_0
28/08/2008 17:30:01|PS3GRID|Finished upload of tnr8251-GPUTEST3-0-10-acemd_1_0
28/08/2008 17:30:57|PS3GRID|Sending scheduler request: To fetch work. Requesting 60480 seconds of work, reporting 1 completed tasks
...
28/08/2008 17:31:38|PS3GRID|Starting ji10573-GPUTEST2-0-10-acemd_1
28/08/2008 17:31:38|PS3GRID|Starting task ji10573-GPUTEST2-0-10-acemd_1 using acemd version 643
28/08/2008 17:31:39|PS3GRID|Computation for task ji10573-GPUTEST2-0-10-acemd_1 finished
28/08/2008 17:31:39|PS3GRID|Output file ji10573-GPUTEST2-0-10-acemd_1_1 for task ji10573-GPUTEST2-0-10-acemd_1 absent
28/08/2008 17:31:39|PS3GRID|Output file ji10573-GPUTEST2-0-10-acemd_1_2 for task ji10573-GPUTEST2-0-10-acemd_1 absent
28/08/2008 17:31:39|PS3GRID|Output file ji10573-GPUTEST2-0-10-acemd_1_3 for task ji10573-GPUTEST2-0-10-acemd_1 absent
...
28/08/2008 17:32:09|PS3GRID|Starting Bwo8190-GPUTEST2-1-10-acemd_0
28/08/2008 17:32:09|PS3GRID|Starting task Bwo8190-GPUTEST2-1-10-acemd_0 using acemd version 643
28/08/2008 17:32:10|PS3GRID|Computation for task Bwo8190-GPUTEST2-1-10-acemd_0 finished
28/08/2008 17:32:10|PS3GRID|Output file Bwo8190-GPUTEST2-1-10-acemd_0_1 for task Bwo8190-GPUTEST2-1-10-acemd_0 absent
28/08/2008 17:32:10|PS3GRID|Output file Bwo8190-GPUTEST2-1-10-acemd_0_2 for task Bwo8190-GPUTEST2-1-10-acemd_0 absent
28/08/2008 17:32:10|PS3GRID|Output file Bwo8190-GPUTEST2-1-10-acemd_0_3 for task Bwo8190-GPUTEST2-1-10-acemd_0 absent
28/08/2008 17:32:12|PS3GRID|Started upload of Bwo8190-GPUTEST2-1-10-acemd_0_0
28/08/2008 17:32:15|PS3GRID|Finished upload of Bwo8190-GPUTEST2-1-10-acemd_0_0
28/08/2008 17:33:11|PS3GRID|Sending scheduler request: To fetch work. Requesting 60480 seconds of work, reporting 2 completed tasks
28/08/2008 17:33:16|PS3GRID|Scheduler request completed: got 0 new tasks
28/08/2008 17:33:16|PS3GRID|Message from server: No work sent
28/08/2008 17:33:16|PS3GRID|Message from server: (reached daily quota of 4 results)
:cry:
29/08/2008 07:33:36|PS3GRID|Computation for task IG10924-GPUTEST2-0-10-acemd_1 finished
29/08/2008 07:33:36|PS3GRID|Output file IG10924-GPUTEST2-0-10-acemd_1_0 for task IG10924-GPUTEST2-0-10-acemd_1 absent
29/08/2008 07:33:36|PS3GRID|Output file IG10924-GPUTEST2-0-10-acemd_1_1 for task IG10924-GPUTEST2-0-10-acemd_1 absent
29/08/2008 07:33:36|PS3GRID|Output file IG10924-GPUTEST2-0-10-acemd_1_2 for task IG10924-GPUTEST2-0-10-acemd_1 absent
29/08/2008 07:33:36|PS3GRID|Output file IG10924-GPUTEST2-0-10-acemd_1_3 for task IG10924-GPUTEST2-0-10-acemd_1 absent
29/08/2008 07:33:36|PS3GRID|Starting HJP9289-GPUTEST2-1-10-acemd_0
29/08/2008 07:33:36|PS3GRID|Starting task HJP9289-GPUTEST2-1-10-acemd_0 using acemd version 643
29/08/2008 07:33:39|PS3GRID|Computation for task HJP9289-GPUTEST2-1-10-acemd_0 finished
29/08/2008 07:33:39|PS3GRID|Output file HJP9289-GPUTEST2-1-10-acemd_0_0 for task HJP9289-GPUTEST2-1-10-acemd_0 absent
29/08/2008 07:33:39|PS3GRID|Output file HJP9289-GPUTEST2-1-10-acemd_0_1 for task HJP9289-GPUTEST2-1-10-acemd_0 absent
29/08/2008 07:33:39|PS3GRID|Output file HJP9289-GPUTEST2-1-10-acemd_0_2 for task HJP9289-GPUTEST2-1-10-acemd_0 absent
29/08/2008 07:33:39|PS3GRID|Output file HJP9289-GPUTEST2-1-10-acemd_0_3 for task HJP9289-GPUTEST2-1-10-acemd_0 absent
Bha alors ne t'étonne pas si ça fonctionne pas mdr, les 177.35 comme dit plus haut ne sont plus compatible ! :Dj'avais pourtant demandé sur ce topic, il y a plusieurs pages, si je devais upgrader mes drivers et ont m'avais dit non si je ne me trompe :/
EDIT: petit lien pour le téléchargement des drivers pour ceux qui ne le connaisse pas encore http://www.nvidia.com/object/cuda_get.html
:hello:
je repose mon drapeau, j'avais perdu le fil...
faudrait que j'upgrade CUDA en v2 pour voir accélérer un peu mes calculs?
D'après ce que j'ai compris oui ;)
Le gain est non négligeable car il est de 20 à 25%
j'avais pourtant demandé sur ce topic, il y a plusieurs pages, si je devais upgrader mes drivers et ont m'avais dit non si je ne me trompe :/
edit: autant pour moi, j'avais mal lu...
29/08/2008 11:53:37|PS3GRID|Starting ko10396-GPUTEST2-1-10-acemd_0
29/08/2008 11:53:37|PS3GRID|Starting task ko10396-GPUTEST2-1-10-acemd_0 using acemd version 643
29/08/2008 11:53:38|PS3GRID|Computation for task ko10396-GPUTEST2-1-10-acemd_0 finished
29/08/2008 11:53:38|PS3GRID|Output file ko10396-GPUTEST2-1-10-acemd_0_1 for task ko10396-GPUTEST2-1-10-acemd_0 absent
29/08/2008 11:53:38|PS3GRID|Output file ko10396-GPUTEST2-1-10-acemd_0_2 for task ko10396-GPUTEST2-1-10-acemd_0 absent
29/08/2008 11:53:38|PS3GRID|Output file ko10396-GPUTEST2-1-10-acemd_0_3 for task ko10396-GPUTEST2-1-10-acemd_0 absent
29/08/2008 11:53:40|PS3GRID|Started upload of ko10396-GPUTEST2-1-10-acemd_0_0
Pas de violence, c'est les vacances :lol:
Bizarre, néanmoin tu as d'anciennes unités, essaye d'avoir des V3
j'ai dépassé le quota des 4/j :cry:
le quota a rechangé ? ça a été changé pour 1/cpu récemment.
Oh le beau bug: http://www.ps3grid.net/PS3GRID/result.php?resultid=47769
Ca fait quand même du 427 000 de rac :pt1cable:
Sinon, le mieux que j'ai trouvé en parcourant un peu les résultats sous Windows, c'est 30650s sur une GTX260 à 1.4GHz. Ca fait plus de 9000 de rac :love:
Je ne vois pas de bug, ou ça du être corrigé!
Sinon regarde ici (http://www.ps3grid.net/PS3GRID/workunit.php?wuid=37201) 30700 sec, par contre je ne sais pas si c'est avec une GTX 260 ou 280 :??:
S'il y a mélange de cartes, on ne peut pas savoir quelle carte a calculée l'unité.
:hello:
# Using CUDA device 0
Regarde le temps cpu, c'est 10min et quelques :D , j'espère que c'est un bug du temps de calcul parce que s'il a effectivement mi 10mi :o
J'ai donc tentance à dire que pour le moment, l'application n'utilise pas la totalité des shaders disponibles.
Regarde le temps cpu, c'est 10min et quelques :D , j'espère que c'est un bug du temps de calcul parce que s'il a effectivement mi 10mi :o
pour info, je fais tourner Enigma sur les 3 autres cores, et ça n'a pas l'air de ralentir le calcul de GPUgrid
Téléchargement en cours, on va bien voir ce que ca donne :D
Q6600 @3Ghz, 8800GT (512 Mo), Xp 32b. C'est partiiiiiiiiiiiii :bounce:
Je pensais que désormais l'application pour XP était aussi rapide que sous linux 64 bits !
29/08/2008 19:23:02||CUDA devices found
29/08/2008 19:23:02||Coprocessor: GeForce 8800 GTS 512 (1)
29/08/2008 19:43:01|PS3GRID|Sending scheduler request: To fetch work. Requesting 45078 seconds of work, reporting 0 completed tasks
29/08/2008 19:43:07|PS3GRID|Scheduler request completed: got 0 new tasks
29/08/2008 19:43:07|PS3GRID|Message from server: No work sent
29/08/2008 19:43:07|PS3GRID|Message from server: Full-atom molecular dynamics is not available for your type of computer.
29/08/2008 19:43:07|PS3GRID|Message from server: Full-atom molecular dynamics for Cell processor is not available for your type of computer.
30/08/2008 08:26:03|PS3GRID|Sending scheduler request: Requested by user. Requesting 42558 seconds of work, reporting 0 completed tasks
30/08/2008 08:26:08|PS3GRID|Scheduler request completed: got 2 new tasks
A mon avis.... 17 heures ! :pEt on va bien voir le rendement point / h :miam:
Faut lire un peu... ;) ta carte n'est malheureusement pas supportée par CUDA 2.0 tout comme la mienne une 8800 GTS 320 :(
a jouer? :)
Suite à la demande de rom (par MP), je transfère le 1er post de ce topic à Zeuz
Je viens de lancer GPUgrid sur mon pc : Windows XP 32 bits, drivers 177.84, boinc 6.3.10, carte graphique 8800GT 256 Mo
ça devrait durer 16h40 par wu... :heink:
quelqu'un a demandé a yoyo s"il pouvait développer un portage distributed.net -> boinc pour cuda ?
EDIT: pb HW résolus, pour la question "petit CPU" avec CUDA => mon retour d'ici ce soir ou demain ;)
Mon premier calcul vient de se terminer. Finalement j'ai mis un peu moins de 16 heures... Enfin, 15h59m46s ! :D
Ma première unité : :bounce:
donc 13h17 avec Vista64b (Drivers 177.84) Boinc 6.3.10 et 8800GT
frequence : GPU Memory Shader(112): 600/900/1500
Pour l'overclocking du GPU je vais attendre un peu car là 91°C quand même :ouch:
La vitesse du ventilo est à 37% (1130rpm), le jour ou il sera à 100% à plus de 3000rpm ce sera une vrai soufflerie là :whistle:
Inutile de mettre ntune, GPU-Z et ça roule, pas d'installe et plein d'info interessante
Il y a aussi CPUID Hardware Monitor, qui reprend la température la plus haute des 3 sensors visible sur GPU-Z, mais GPU-Z est en effet très bien !
Sinon je ne comprend pas pourquoi, j'ai l'impression d'avoir une carte GPU 8800GT plus performante que d'autres ?
13h17 au lieu de 16 ou 17h ?!
Vista 64b, OC à 3,2 GHz, FSB à 1600MHz !?
Vous arrivez à aller sur le site de ps3grid/gpugrid vous? moi pas du coup je sais pas renvoyer mon unité
edit: bha le serveur est out jusque lundi minimum :o , apparement le serveur est tombé pour raison electrique (pense l'admin) , il en saura plus lundi quand il ira le voir
Heureusement j'ai une unité pour tenir jusque cette nuit :whistle:
Je n'arrive quand même pas à comprendre pourquoi ma 8800GT est bien supérieur à celle de Lauent02 ou celle
de la 9800GT de Mcroger. Presque 30% de différence quand même !
Je pense quand même à une optimisation de Vista64b
Mince, j'ai une unité bloqué et il ne me reste que 9h de calcul, je ne tiendrai pas jusqu'à demain ! :sarcastic:
Je n'arrive quand même pas à comprendre pourquoi ma 8800GT est bien supérieur à celle de Lauent02 ou celle
de la 9800GT de Mcroger. Presque 30% de différence quand même !
Nvidia a préféré insister, pour les mois voire années à venir, sur l'intégration du moteur PhysX dans ses GPU d'une part, et d'autre part sur sa technologie CUDA - Compute Unified Device Architecture.
En effet Damien tu es très mal renseigné sur le physix
Petit topo, c'est agea une société tier qui a lancé ça il y'a quelques années 2 - 3 ans un truc du genre, bref ça a fait un flop total du fait du prix, du fait qu'il faut ajouter une ènième carte dans son pc et du fait qu'il y'a qu'un jeux au monde qui en tire parti, UT3 ....
Bref ça n'a pas marché, nvidia les a racheté l'année dernière et ils ont bossé là dessu, alors concrètement comment ça marche maintenant, ben c'est pas une puce supplémentaire (comme tu semble le penser) ajoutée sur la carte graphique non non, c'est juste le gpu qui calcule les effets physiques grâce à ... CUDA et oui, si le physix fonctionne sur les gforce c'est grâce à CUDA donc il est bien entendu impossible/ininteressant de faire tourner des applis sur PPU étant donné que ça fait appel à CUDA ;)
Je pense avoir été simple et clair :)
Ma 9800GT est marquée comme PhysX "ready", apparemment juste une question de driver d'après le commentaire sur la boîte
Moi 48° avec ma 9600GT et refroidissement d'origine modifié en refroidissement maison :D
Vous arrivez à aller sur le site de ps3grid/gpugrid vous? moi pas du coup je sais pas renvoyer mon unité
edit: bha le serveur est out jusque lundi minimum :o , apparement le serveur est tombé pour raison electrique (pense l'admin) , il en saura plus lundi quand il ira le voir
Heureusement j'ai une unité pour tenir jusque cette nuit :whistle:
Moi c'est fait depuis ce matin déjà, trop peur que ça fasse comme riesel et que les unités s'annule d'elles mêmes :lol: ça ferai mal au derrière :pt1cable:
Pfffff: la Leffe chauffe :D
Passe à la Westmaele, tu en oublieras la température. :lol:
Bonjour à vous ! :hello:
Et pour ceux qui ne se sentent pas de toucher à leur carte graphique (polissage GPU + pate thermique appliquée très finement + radiateur 100% cuivre), vous avez aussi la solution d’un ventilo de boitier à 3 positions !
Par contre ma méthode et un peu plus bruyante que celle de ZeuZ mais très efficace pour tournez 24/24H !
http://www.kirikoo.net/images/7nico8313-20080831-121443.jpg
C'est pas franchement interessant, c'est trop peu puissant, tu devrais mettre 50 - 60 heure par unité :/
J’ai une question pour RDLF !
Tu as pris quoi comme 9800 GTX ?
Quelle marque et modèle ?
Si ce n'est pas trop indiscret !
Merci à toi :jap:
Mais il y a aussi des versions avec 504 Gflops!!
:hello:
la gtx+ utilise un g92b (= un g92 gravé en 55nm) avec un petit boost des frequences, sinon tu as raison c'est la même carte ... nvidia ils ont de bons marketteux !
Et voilà, le petit guide est en ligne :D , première page, poste numéro 2 :jap:
Quant au premier poste, il n'est pas encore terminé mais ne concerne que le GPU sur boinc et plus précisément sur GPUgrid donc inutile pour la compréhension du guide :hello:
Bonne lecture, en espérant que ce soit compréhensible pour les moins connaisseurs, j'ai fais en simplifié pour que tout le monde comprenne même si c'est pas un sujet très hardû ;)
1.0, 1.1, 1.2 et 1.3.C'est pas CUDA 2.0 :??: ?
la révision de CUDA au sein de votre carte graphique
sinon tu devrais mettre les tableaux dans le post pour améliorer la lisibilité.+1 ;).
Des tonnes de liens? C'est toujours les mêmes, je peux les enlever, je trouvais que ça donnait mieu que tout noir en étant sobre lol mais si vous préférez je les retire
sur ma gtx260 un peu o/c ça me donne environ 6h de prevision de calcul, ça fait bien rapide, on verra dans qques temps :)
Bha suffisait de le dire au départ, c'est pour vous que j'ai fais le guide, c'est à vous qu'il doit convenir, moi j'en ai pas besoin, fallait le dire que c'était trop chargé :jap: je ne mord pas :lol: , je griffe ça oui :lol: :whistle:
Maintenant ça va mieu? j'ai aussi mi en rouge le lien du tableau pour qu'il ressorte plus :jap:
[:czame17:9]
edit2: 9800GT de mcroger ajouté dans la BDD que je dois remodeler d'urgence dans un soucis de lisibilité :D
Oui c'est tout à fait possible (c'est pour ça que j'ai inclus la 9800GX2 dans le tableau) , je crois que Jim Profit a testé d'ailleur, je sais pas si c'est déjà au point? je rajouterai cette question dans la FAQ en première page après la réponse de Jim
Le seul truc c'est qu'il faut le SLI désactivé :hello:
Oui c'est possible, et oui j'ai testé!
Et il ne faut pas de SLI.
Cela fonctionne.
J'ai peut-être un petit soucis de chaleur dégagé avec 2 GTX, parce que ça chauffe ces petites bestioles :lol: , qui ferait que la carte supérieure ralentirai, mais je dois encore tester pour voir.
:hello:
Ben ! ce qui me bloque c'est le prix pour deux cartes !
Sur cdiscount.com on trouve des 9800GTX pour 150 Euro !
Je trouve ça intéressant quand même prix/perf. :)
edit : Oui tu à raison j’avais pas vu les 9800 GTX+ à 164 Euro ! :D
mais on est bien d'accord, c'est toi qui veut te prendre 2 cartes :p ^^
Pour le crunch mais pas seulement car je suis aussi gameur !
Sous ubuntu :o
Il faudra donc une carte avec 4 broches PCI-E. Je crois que ça existe à partir d'alim qui sont à 800-850 W. Mais je suis nul en matos. ca reste donc à vérifier ;)
en fait mon ancien temps (12h30) n'est plus vraiment d'actualité donc tu peux le supprimer de la liste... déjà que j'avais fait ce temps sur une seule unité et qu'au final elles étaient toutes calculées en 15h/15h30 environ
Bravo ZeuZ, c'est du beau boulot :love: :hello:
Zeuz j'ai besoin d'un avis.
J'ai peut-être la possibilité d'avoir une 9800 GX2 pour environ 200€.
Si je comprends bien, cela correspond à 2 8800 GTS?
Sinon, quelle est la température que je peux attendre?
:hello:
http://www.ps3grid.net/workunit.php?wuid=38897
c'est parti, 8h et 3232 points ;)
Sinon pour répondre à mcroger, le cpu n'ayant aucune importance, avec une 9800GT tu feras le même nombre de point sur un P4 ou sur un quadcore :jap:
Tout à fait, c'est la meilleure des choses à faire effectivement :) , à la limite même une 8600GT c'est rentable sur ce genre de config :) ça fait du 75pts/h au lieu de 15 - 20 pour le P4 , sur un C2D/Q c'est tout de suite moin interessant
A éviter parce que sur une machine récente c'est limite contre productif ;) , avec un bon quad tu peux faire du 60 pts/h sur un seul core facilement or ici depuis qu'ils ont réévaluer les crédits, elles fait du 75pts/h, étant donné la faible différence pour une surconsommation et un ralentissement comme tu le dis de l'affichage, oui c'est à éviter, c'est loin d'être interessant même avec cette hausse de crédit d'un peu plus de 50% ;)
Après pour une machine très peu puissante comme un P4 la donne change un peu bien que les ralentissement soient toujours présents, c'est certain
:hello:
9800GTX 705/2075/1120
9H 25'
8096 Points/jour
Drivers 177.84
:jap:
l'efficacité des GPUs en image :D:love: :love: :love:
http://www.break.com/index/painting-mona-lisa-in008-seconds.html
Parce qu'il y'a aucun rapport, c'est une blague en quelques sortes :lol:
Merci TontonGege, je te rajoute :jap:
Concernant le bruit je vois que beaucoup ici en parle en ayant peur que ce soit un problème, c'est en fait un faux problème qui peut être résolu de la manière suivante, je sais que des gens étaient interessés, j'ai donc fais des photos :jap: , bien sûr certaines cartes ne pourront pas être modifiée de la sorte, tout dépent du type de radiateur que vous possèdez :jap:
Premièrement on a ceci, silencieux au repos, un peu moin en calcul
[url]http://www.kirikoo.net/images/tn/tn_forum_7ZeuZ-1-20080902-142959.jpg (http://www.kirikoo.net/images/7ZeuZ-1-20080902-142959.jpg)[/url]
On enlève la carcasse qui ne sert absoluement à rien si ce n'est à faire beau ;)
On y découvre un petit ventilateur 60 - 70mm pour la plupart des cartes, c'est très petit, ça souffle peu et ça fait du bruit une fois que la carte chauffe
[url]http://www.kirikoo.net/images/tn/tn_forum_7ZeuZ-2-20080902-143000.jpg (http://www.kirikoo.net/images/7ZeuZ-2-20080902-143000.jpg)[/url]
on l'enlève
[url]http://www.kirikoo.net/images/tn/tn_forum_7ZeuZ-3-20080902-143001.jpg (http://www.kirikoo.net/images/7ZeuZ-3-20080902-143001.jpg)[/url]
On vient enfin y fixer un vrai ventilo ... rose :lol: ne vous fiez pas à la couleur, c'est du bon :o
Un 92mm qui tourne en 5v, directement branché sur la carte mère, ça tourne à 1000 - 1500 tour par minute (ça peut monter à 3500 mais ça sert pas à grand chose ^^ ) et ça refroidit bien mieu [:mysti13] , le silence est présent et le froid également :sol:
[url]http://www.kirikoo.net/images/tn/tn_forum_7ZeuZ-1-20080902-143515.jpg (http://www.kirikoo.net/images/7ZeuZ-1-20080902-143515.jpg)[/url]
On utilise des colçons (4) pour l'attacher, on coupe ce qui dépasse et voilà le travail :sol:
[url]http://www.kirikoo.net/images/tn/tn_forum_7ZeuZ-2-20080902-143516.jpg (http://www.kirikoo.net/images/7ZeuZ-2-20080902-143516.jpg)[/url]
[url]http://www.kirikoo.net/images/tn/tn_forum_7ZeuZ-3-20080902-143516.jpg (http://www.kirikoo.net/images/7ZeuZ-3-20080902-143516.jpg)[/url]
PS: évitez les elastiques, c'est une mauvaise idée, après un certain temps elles se cassent même si la carte est pas chaude :kaola:
Pour les récalcitrants, ça n'annule pas la garantie, suffit de remettre tout en place en cas de pépin :sol:
Il y a un rapport. Le rapport entre le cpu qui effectue nettement moins de taches en simultanée qu'un GPU ;)
Merci pour l'idée et voici un vieux site d'un gars HFR qui devrait t'amuser : http://comte.christophe.free.fr/pcbourrin/articles/article7.html
Ca se trouve où on colçons ??
Et sinon à la base ta carte c'est quoi ?
bravo Chris32, 10.000 points aujourd'hui rien que sur PS3Grid !
merci ^^ ça donnerai presque envie d'en commander une 2eme carte graphique
:jap: Mise à jour faite :)Il faudrait que je refasse des test sous XP.
Ceci
- GTX260 (576/1242/1000) // xp64b // 177.69 // 10h20 c'est toujours d'actualité?
J'ai mis 110mhz en vitesse pci express ça apporte qquechose ?
mer 03 sep 2008 21:00:32 CEST|PS3GRID|Output file Ryf9737-GPUTEST3-4-10-acemd_0_3 for task Ryf9737-GPUTEST3-4-10-acemd_0 absent
Le design de base des nouvelles GTX, est trop juste pour une utilisation en SLI.
Des solutions bientôt dispo.
http://www.tt-hardware.com/modules.php?name=News&file=article&sid=11925
:bounce:
reboot ta machine aussi, moi ça m'a aidé pour les fichiers de résultats absents
Ca fonctionne pas sous nux, moi la seule solution que j'avais trouvée c'est de flasher la carte graphique avec les fréquences stables trouvées sous windows ;)
Sous linux (ubuntu 8.04), j'avais overclocké la carte avec NVclock disponible dans les dépots .
J'ai essaye mais elle ne semble visiblement pas être capable d'avancer d'un Mhz.
Quand j'ai testé avec nvclock ou même coolbit ajouté dans xorg, ça me faisait pareil que toi avec les nouveaux drivers, par contre avec les anciens (174) ça fonctionnait +/- bien sauf qu'à chaque reboot je devais re overclocker
Quand j'ai testé avec nvclock ou même coolbit ajouté dans xorg, ça me faisait pareil que toi avec les nouveaux drivers, par contre avec les anciens (174) ça fonctionnait +/- bien sauf qu'à chaque reboot je devais re overclocker
nvidia-settings --assign="GPU3DClockFreqs=x,y"
x et y en Mhz
Oui ça ce voit qu'elle est bien ventilée parce que 61 pour une passive sans bonne ventilation c'est pas possible sauf au pôle nord :)
Question: ma carte a du mal à passer plus haut en OC, donc je me dis qu'une fois le CPU "rôdé" je monterai un peu plus.
Sinon, on peut aussi jouer avec la tension pour les GPU, ça se fait ou c'est plus casse-g. que sur les CPU (je connais les risques habituels - grillage-électromigration mais pas les marges de manoeuvre) ?
Sinon bonne nouvelle, bientôt on ne devrai plus avoir besoin d'un core cpu par carte :love: , du coup si j'ai bien compris, la carte graphique sera utilisée comme un core supplémentaire, un dual core aurai donc 3 calculs en même temps, ça changera tout :love:
Salut Pousse :hello: :hello:
Je te rajoute poto :jap:
L'application étant identique pour win32/win64 que ce soit xp ou vista, c'est une optimisation des drivers, ce qui veut dire que ça pourra sans doute être corrigé par nvidia au fil des drivers :jap:
Premier feedback sur les drivers 177.92.
En Win32 ils n'apportent rien en terme de perfs.
J'ai une légère dégradation (+9 minutes => >16h) avec la première UT, sans doute causée par l'utilisation du PC avec un jeu.
Test en cours en Vista64 Drivers beta 177.92 ...
Bad new client error
C'était de l'humour, c'est comme quand on dit, qu'est ce qui est plus lourd qu'un éléphant, tu réponds 2 éléphants :lol: :o ....
Il y'a 5 cartes graphiques plus performantes que ta 8800GTS512 d'après mon tableau en première page
Tableau comparatif de diverses cartes nVIDIA sous CUDA (http://divers.boinc-af.org/ZeuZ/cuda.html)
Ben non mais bon le truc s'est pas fait en 5min et vous l'utilisez pas :(
Y'a toutes les infos nécessaires pour voir quel carte est meilleur que la tienne, en un coup d'oeil tu as l'info ;)
Bref, on s'est mal compris, on ne parlait pas de la même chose :D
:hello:
oui cela pourrait être un bon compromis... et puis d'ici décembre les prix auront encore chutés :)
c'est pas toi qui en a acheté une ou deux des 9800, RLDF?
Ben non mais bon le truc s'est pas fait en 5min et vous l'utilisez pas :(
Y'a toutes les infos nécessaires pour voir quel carte est meilleur que la tienne, en un coup d'oeil tu as l'info ;)
Bref, on s'est mal compris, on ne parlait pas de la même chose :D
:hello:
En théorie oui, en pratique aussi, sauf qu'une GTX+ s'oc aussi voir mieu grâce au die shrink :D
Ben non mais bon le truc s'est pas fait en 5min et vous l'utilisez pas :(
Y'a toutes les infos nécessaires pour voir quel carte est meilleur que la tienne, en un coup d'oeil tu as l'info ;)
Bref, on s'est mal compris, on ne parlait pas de la même chose :D
:hello:
[:jump400:4] Limite on ferai bien une commande groupée, aller on achète 100 9800GTX+ :lol:
Je suis plutôt pour l'idée de commande groupée. Après faut voir pour quand et sur quel modèle. Et surtout je n'ai pas d'idée du nombre qu'il faut être pour bénéficier d'une réduc honorable
Z'avez de l'expérience dans le domaine ?
C'est pas sur le fofo HFR qu'il y avait eu une commande groupée juste avant l'été ? ça n'avait pas marché terrible je crois....
Pas d'erreur ici sauf l'unité testée avec les drivers béta 177.92 ...
Nouvelle application linux, celle de windows devrai arriver
Au programme, diminution de l'utilisation cpu et amélioration de l'affichage du temps de calcul, le calcul sera plus précis et on pourra mieu comparer chaque carte
La version 6.3.11 ne devrai plus tarder, au menu (normalement) on pourra, pour un dual core par ex, utilisez ses 2 cores sur d'autres projets que gpugrid tout en calculant avec son gpu, un des cores sera utilisé en partie par gpugrid, mais le reste pourra normalement être alloué à un autre projet :love:
:bounce:
J'ai commandé une petite GTX260 histoire de tester un peu... ;)
La version 216sp n'est pas encore sortie
:bounce:
J'ai commandé une petite GTX260 histoire de tester un peu... ;)
Je viens de déplacer mes disques durs dans la tour. A priori maintenant j'ai la place pour une carte 27 cm.
Reste à voir pour le bruit de la carte et si mon alim suit. C'est uniquement une 500 W SeaSonic 80+. De mémoire ça doit être celle là. Mais ça fait longtemps qu'elle est chez moi donc je peux me planter.
http://www.materiel.net/ctl/Alimentations/29597-S12II_500HT.html
heu... a vrai dire, je suis trop habitué à utiliser la souris sous windows.... depuis le Dos 6, j'ai pas vraiment l'habitude de saisir des lignes de commande !
la méthode que j'ai suivi je l'ai eu sur le site de GPUGrid... Je veux bien me loguer en Root mais pour moi c'est du charabia ! quelle manip je dois faire, ou ligne de commande je dois saisir ?
heu... a vrai dire, je suis trop habitué à utiliser la souris sous windows.... depuis le Dos 6, j'ai pas vraiment l'habitude de saisir des lignes de commande !
la méthode que j'ai suivi je l'ai eu sur le site de GPUGrid... Je veux bien me loguer en Root mais pour moi c'est du charabia ! quelle manip je dois faire, ou ligne de commande je dois saisir ?
C'est fait, je suppose que tu voulais dire les 177.84?
Et aucune erreur de calcul avec un OC pareil?
Je vais finir par croire que ma 9800gt est une vraie casserole...
La nouvelle application donne un temps cpu de 2 - 4% c'est appréciable, par contre l'affichage est fortement ralenti, avec la 6.44 je ne sentais pratiquement pas la différence, ici c'est horrible :(
Mouaiff ce n'est pas super optimum tout de même. Le cpu tourne à 100% sans que j'ai le moindre problème. On en arrive à monter des machines uniquement pour le crunch là :/
Sinon une carte à 100€ fait le calcul en moin de 20h, c'est pas énorme comme investissement
Quant à moi, je revois mon jugement, mon temps estimé s'est amélioré de manière spectaculaire cet après-midi: 37% d'avancement pour 6 H restantes
=> env. 9h au total contre 15-16 h. [:mysti13]
Là, j'ai vraiment l'impression d'être "à niveau", on va voir si cela se confirme quand l'UT aura été terminée/validée. :sweat:
Par contre, impossible à dire si c'est dû aux nouveaux drivers 177.98 (pas encore dispos chez Nvidia) ou à l'appli 6.45 vu que j'ai changé les deux quasi simultanément.
Bon, ben, tellement accéléré que chez mois ça s'est fini en "compute error" après 12H et pas 09h comme annoncé par la colonne ETC. :cry:
Je pense que pour la version finale, ils ont tout intérêt à ce qu'il soit possible de regarder normalement une vidéo, quitte à perdre quelques pourcents d'efficacité, sinon, ils vont perdre bien plus.
C'est clair :(
il se permet de partir en vacances alors qu'on attend la 6.3.11 avec impatience ! lol
Citeril se permet de partir en vacances alors qu'on attend la 6.3.11 avec impatience ! lol
C'est vrai quoi, non mais où va-t-on?
boinc est installé en service ou pas ?
C'est du béta, donc j'accepte sans problème.
Même problème ici, avec la même erreur.
11 WU's parties avant de m'apercevoir d problème.
Comme j'ai dépassé le quota, pas de nouvelles unités avant demain matin.
C'est du béta, donc j'accepte sans problème.
http://www.ps3grid.net/PS3GRID/result.php?resultid=61297
ça ressemble pourtant à l'erreur que tu as :??:
Non. Toi tu as un "Out of memory" et moi un "Initialization error" ;)
Pour ton cas, il y a une thread ouverte par Laxou sur le forum de PS3Grid :jap:
ThierryH il faut aussi ne pas sélectionner le protect mode!
Sinon c'est une carte additionnel ou pas?
:hello:
Sous Server 2003 il faut activer l'accélération graphique qui est désactivé par défaut.
:hello:
Un p'tit clic droit sur le bureau>propriétés>settings>advanced>troubleshoot
Et là tu mets full!
Je n'ai qu'une version anglaise sous la main, mais ça ne devrait pas être trop dur de trouver!
:hello:
Ca crunche :bounce:
:hello:
Le GPU crunching occupe un core à 100% sur ma lessiveuse. Vous constatez ça aussi chez vous?
EDIT: Ah oui c'est normal à priori :o :D
Il ne faut pas installer de driver cuda, ils sont avec les derniers drivers dispo dans la première page, ce que tu as installé c'est sans doute le sdk, ce n'est pas un driver
Tu as utilisé la version de boinc qui est aussi en première page?
Bonne nouvelle ThierryH :D, sinon la prochaine fois tu peux aussi activer le TSE :D (bureau a distance) ça peut permettre d'éviter ce genre de manipulation fastidieuse :D
@thomas: ok j'avais mal compris pour les drivers
@pithèque: j'ai rajouté ta carte en première page
6.3.10
# Using CUDA device 0
# Device 0: "GeForce 9600 GT"
# Clock rate: 1850000 kilohertz
MDIO ERROR: cannot open file "restart.coor"
# Using CUDA device 0
# Device 0: "GeForce 9600 GT"
# Clock rate: 1850000 kilohertz
# Time per step: 81.921 ms
# Approximate elapsed time for entire WU: 69632.776 s
called boinc_finish
]]>
6.3.10
# Using CUDA device 0
# Device 0: "GeForce 8800 GTS 512"
# Clock rate: 1890000 kilohertz
MDIO ERROR: cannot open file "restart.coor"
# Time per step: 54.761 ms
# Approximate elapsed time for entire WU: 46546.734 s
called boinc_finish
]]>
Ah oui c'est toi qui a une quadro, RLDF aussi et tu peux annuler ton unité, elle ne se terminera pas à temps :p
C'est une carte super méga lente, je comprend alors pourquoi tu dis que c'est vraiment très lent pour l'affichage :) , en gros laisse tomber ça vaut même pas une 8400Gs
Il n'est pas complètement faux, il a été fait avec les anciennes applications qui n'intègrait pas le temps GPU !!!
j'ai que des quadro :'( et les seul compatible cuda sont les plus petite :'(
les plus grosse (Fx4500) sont pas compatible :'(
sniff
apres c'est de l'ATI et Brooks + est tj pas implémenté :'(
9/6/2008 4:36:44 PM|PS3GRID|Output file wm25047-GPUTEST3-5-10-acemd_0_1 for task wm25047-GPUTEST3-5-10-acemd_0 absent
9/6/2008 4:36:44 PM|PS3GRID|Output file wm25047-GPUTEST3-5-10-acemd_0_2 for task wm25047-GPUTEST3-5-10-acemd_0 absent
9/6/2008 4:36:44 PM|PS3GRID|Output file wm25047-GPUTEST3-5-10-acemd_0_3 for task wm25047-GPUTEST3-5-10-acemd_0 absent
19/09/2008 20:29:28|PS3GRID|Computation for task RZ16285-GPUTEST3-0-10-acemd_0 finished
19/09/2008 20:29:28|PS3GRID|Output file RZ16285-GPUTEST3-0-10-acemd_0_1 for task RZ16285-GPUTEST3-0-10-acemd_0 absent
19/09/2008 20:29:28|PS3GRID|Output file RZ16285-GPUTEST3-0-10-acemd_0_2 for task RZ16285-GPUTEST3-0-10-acemd_0 absent
19/09/2008 20:29:28|PS3GRID|Output file RZ16285-GPUTEST3-0-10-acemd_0_3 for task RZ16285-GPUTEST3-0-10-acemd_0 absent
6.3.10
Fonction incorrecte. (0x1) - exit code 1 (0x1)
# Using CUDA device 0
Cuda error in file 'deviceQuery.cu' in line 59 : initialization error.
]]>
je pense que c'est lié a XP64, mais pour confirmer il faudrait qu'une autre personne le soit aussi et rencontre le même problème au bout de quelques jours
je tourne sous Vista32, avec les drivers Cuda 177.84 et Boinc 6.3.10toutes mes unités partent en erreur comme ca, vous auriez une idée?
voilà ce que j'ai eu pour mes deux unités du jour:Citer19/09/2008 20:29:28|PS3GRID|Computation for task RZ16285-GPUTEST3-0-10-acemd_0 finished
19/09/2008 20:29:28|PS3GRID|Output file RZ16285-GPUTEST3-0-10-acemd_0_1 for task RZ16285-GPUTEST3-0-10-acemd_0 absent
19/09/2008 20:29:28|PS3GRID|Output file RZ16285-GPUTEST3-0-10-acemd_0_2 for task RZ16285-GPUTEST3-0-10-acemd_0 absent
19/09/2008 20:29:28|PS3GRID|Output file RZ16285-GPUTEST3-0-10-acemd_0_3 for task RZ16285-GPUTEST3-0-10-acemd_0 absent
et sur le site de GPUGrid:Citer6.3.10
Fonction incorrecte. (0x1) - exit code 1 (0x1)
# Using CUDA device 0
Cuda error in file 'deviceQuery.cu' in line 59 : initialization error.
]]>
toutes mes unités partent en erreur comme ca, vous auriez une idée?
J'ai des valeurs très variables entre un peu en dessous de 11h à presque 15h, alors bon ! pas facile :??:
essaye en recommencant le projet et reboot de la machine
Bravo ZeuZ pour la qualité du guide en début de ce topic :jap:
d'après la page 1 ta 8800GTS n'est pas compatible CUDA...
24h :o c'est énorme, tu devrais pourtant tourner dans les 17h
Merci, je te rajouterai tout à l'heure en même temps que jm@rc
Il semblerait que l'astuce pour augmenter le nombre de cpu afin d'utiliser quand même le cpu dédié au calcul gpu ralentisse ce dernier :(
4 par jour normalement !
C'était la limitation que j'avais quand je plantais régulièrement mes Wus
et que je devais attendre le lendemain pour en avoir d'autres :whistle:
Jim, félicitations pour la première place de l'AF sur PS3Grid :jap:
Bonjour
voila j'ai deux trois petites question et je n'ais pas encore pu lire tout les sujet se rapportant a boinc GPU
1/ quand vous parller "ppd" c'est point per day?
2/comment je peut calculer la puissance en gflops de mes processeurs?
3/est que es projet du world community grid sont compatible avec le client boinc GPU?
4/j'ai deux port pci-x pour 2 proc dual core est ce que si je prend deux 9800GX2 est ce que les deux gpu seront attribuer a un seul coeur ou a un gpu pour un coeur?
5/donc 2 9800GTX+ ou 2 9800GX2?
cordialement
(la manip donnée plus haut est foireuse, à ne pas utiliser sous win)
Il faut vraiment les surveiller de près les wu GPUGrid. Ca fait 22h que ma GTX260 n'a rien fait et que tout le stock de wu est parti en erreur :cry:
Je ne suis pas d'accord. Je pense qu'il faut garder un coeur cpu de libre pour le gavage des gpu, quelque soit leur nombre ;)
Il faudrait de Jim nous test ça avec ses deux GTX2xx :jap:
J'ai testé la manip et effectivement cela ralenti assez considérablement les WUs.
Qu'il y est 1 ou 2 GPU!
J'ai testé avec un Q6600, en mettant n+1 et n+2.
Donc à éviter pour le moment!
Mais ce qui ralenti aussi, c'est l'affichage.
Sur une machine que j'utilise, le temps est augmenté en fonction de l'utilisation :kaola:
Et cela même avec une GTX2xx!
Mais cela me parait normal.
:hello:
Je ne suis pas certain de bien comprendre ce que tu as fait dans ton test :o
Là où je pense que l'on peut gagner quelque chose, c'est en ayant, dans ton cas (2 gpu + 4 cores cpu), 2 tâches GPUGrid et 3 autres tâches boinc.
Est-ce que c'était le cas de ton test ? :jap:
Oui c'est le test que j'ai fait!
Que ce soit 2 gpu + 4 cores, ou 2 gpu + 3 cores, il y a de toute façon un ralentissement.
:hello:
Bonne nouvelle ça, merci pour l'info Jim PROFIT
Pas de problème
Alim faudra du très lourd, seasonic 600w ne sera pas de trop
Bha comme je te l'ai dis en mp la carte qui sera sur le pci express 4x aura des perfs diminuées
Alim de 600w de qualité , quand je dis qualité c'est une bonne marque et une alim qui vaut 100€ au minimum, ne vas pas acheter une alim de 700w qui coute 29€ ...
En analysant mes 10 Wus "6.45" j'en ai 7 qui sont entre 39218s à 40625s et 4 supérieurs à 42309 dont une à 53537 :??:
En faisant une médiane de mes valeurs j'obtiens 39717s soit 11h02
8800GT (771/1944/999) - Vista64 - 177.84
Une nouvelle application devrait apparaitre prochainement, permettant des gains de l'ordre de 30% pour les GTX 260/280, et approximativement le même gain pour les autres cartes.
Et cela grâce à Nvidia!
La news ici (http://www.ps3grid.net/forum_thread.php?id=396)
:hello:
Qu'en est-il des plantages au bout de deux jours avec les nouveaux drivers nVidia ? :jap:
Pour le moment, je reboot ma machine toutes les 48H => plus aucun plantage.
Qu'en est-il des plantages au bout de deux jours avec les nouveaux drivers nVidia ? :jap:
Pour le moment, je reboot ma machine toutes les 48H => plus aucun plantage.
j'ai programmé un reboot toutes les 24h et ça tient plutôt bien :)
demarrer, executer, cmd
at /?
et la commande a executer : shutdown -r -f -t0 (reboot/force/tout de suite)
Peut-être une nouveauté!
Je viens d'uploader une WU, et juste après mon système s'est mis à cruncher 4 WUs en même temps + 2 de PS3Grid!
Sans rien changer dans mes paramètres :??:
Je verrais demain matin le résultat, mais peut-être que la "nouvelleé application approche :D
:hello:
Mes 2 9800gt commence à carburé :sol: Mais j'en est oc que une pour le moment, et je vois une différence même si l'oc est pas énorme, je gagne jusqu'à 20% sur une wus en regardant par rapport à la 2ème cg.
:cry: Marre de gpu-cruncher des molécules ! je suis impatient ( :fou: ) que d'autres que PS3grid développent sous cuda.
Avez vous des pistes sur Einstein, Orbit, Cosmo, Milky (de l'astro quoi !)
:bounce: idem de mon coté : ça crunch 5 wu en //
- 4 pour Einstein
- 1 pour PS3grid (1 seule carte graphique)
Que du bonheur !
Je parlais à Tetardking lol mais si tu es sous windows c'est valable aussi pour toi
J'ai demandé à l'admin de faire quelques choses, là je suis parti pour 26h de calcul au lieu de 18-19 ! , j'imagine même pas sur une 8600/8500GT lol , sur une GTX260 on passe de 9 à 12h de calcul
Ca ne touche que windows bien entendu, ceux sous nux les durées de calcul sont inchangées
On peut toujours forcer boinc à n'utiliser que 3 cpu dans les préférences ;)
Jim Profit et Hildor : vous utilisez la 6.3.13 ?
Une réponse un peu tardive : 6.3.10 encore pour moi !
C'est quoi comme marque de 9800 GT (curiosité...) ?
http://www.pixmania.com/fr/fr/1463776/art/sparkle/geforce-9800-gt-512-mo-gd.html
:jap: :hello:
Même configuration que TontonGege et même constatation :
40182s pour ma dernière unité, ce qui correspond aux unités les plus longue que j'avais avant,
soit 10 min maximum de ralentissement, mais à confirmer !
Elles valaient 99€ il y a 3 semaines .... :whistle:
C'est à ce moment la que je les ais acheter :D
ok, comme j'avais arrêté GPUGrid en attendant cette nouveauté, c'est tout bénéf pour moi
Chez moi même après mise à jour, redémarrage de Boinc j'ai toujours 6 unités qui tourne avec mes 2 cg
http://www.pixmania.com/fr/fr/1463776/art/sparkle/geforce-9800-gt-512-mo-gd.html
:jap: :hello:
D'ailleurs, je viens d'activer le sli sur le gestionnaire nvidia pour testé mais sans cable qui raccorde les 2 cg. Tout est reconnue comme une seul carte virtuel, mais je ne trouves pas que ça va vraiment plus vite, le cable qui manque doit en être la cause.
Tu as combien de calculs en cours? 4 ou 5? c'est quand même bizarre qu'ayant vista64 + boinc 6.3.10 + 178.13 j'ai des pertes de perfs et que toi non :??:
Bonjour,
j'ai actuellement des difficultés à obtenir des unités pour GPUGRID, voici ma config :
2 * opteron 2216HE
4 Go RAM
2 * 9800GT 512 Mo
Ubuntu 8.04
d'après Nvidia X settings mes drivers sont les 177.68
Boinc est en version 6.3.10 (essai en 6.2.15 ca ne change rien)
voici les messages que j'obtient :
http://walgui.homeftp.org/vrac/boinc_PS3GRID_fault.jpg
est-ce que quelqu'un a rencotnré le problème ?
Y-a-t-il un driver spécifique CUDA à télécharger ?
merci de votre aide
Eh bien voilà que je n'ai plus que 4 calculs en simultanés :??:
au lieu de 4+1, sans aucune modification !
salut a tous,
Je tournais en 4+1 et mon cpu a 100%. A 3+1 je suis a 80% :fou:
Alors, il faut le dire soit c'est du 4+1 ou du 3+1! A 3+1 je ne rachete pas de GPU et j'arrete ps3grid
salut a tous,
Je tournais en 4+1 et mon cpu a 100%. A 3+1 je suis a 80% :fou:
Alors, il faut le dire soit c'est du 4+1 ou du 3+1! A 3+1 je ne rachete pas de GPU et j'arrete ps3grid
Moi aussi, j'ai acheté la 9800GT chez Pix a 99€ et elle fait une UT en 55.000 sec : :lol:
http://www.ps3grid.net/results.php?hostid=10504
Cordialement a tous
Pour ceux qui maitrisent bien le sujet GPUGrid, il faudrait faire un article assez rapidement pour la page d'accueil de boinc-af.
De sorte que lorsque on aura envoyé le mail pour le RAID, il y ait un article sur GPUGrid sur la page d'accueil du site.
Cette actu pourrait ainsi amener une bonne cinquantaine de nouveaux participants, la production de l'AF serait quasiment doublée sur GPUGRID
Très bonne idée :)
ZeuuuuuuuuZ, t'es demandé :lol:
:fou: on est repassés en mode où le core dédié à une wu de PS3GRID se tourne les pouces ! ( :sleep: )
POURQUOI ? :??:
PC3 : 8600GT (540/700/1296) - xp32-177.84 => WU : 201594s = 56h00mn :D (id 72993)
:hello:
Nouvelle version BOINC 6.3.14 !
J'essayerais peut-être demain,
là c'est :sleep:
Mais vous les trouvez ou les nouvelles versions 6.3x?
Je ne les trouve pas sur lite de Berkeley.
quel systeme windows est le mieux je tourne actuelement avec xp64 car quand j'avais fait les essais avec vista 64je perdais 20% de puissance :fou: mais c'etait pendant le beta et le debut de vista
les projet de WCG sont ou vont il estre compatible avec le client GPU? :pfff:
j'ai cru voir sur ce topic qu'attribuer tout ces coeur faisait perdre des performance? :sweat:
bi opteron 2222se @ 3750 Mhz :sol:
8400gs (en attendant de prendre deux 9800GX2 en fonction de vos reponse)
o
Voila mes tests j'ai envoyé ma première WU :
Durée en seconde indiqué=3,950.32
Point=3232.06365740741
Le temps en seconde me parait vraiment très faible !!
Parce qu'il est faux. ;)
Il faut aller sur ton compte Gpugrid et dans les unités terminées, regarder le string "stderr out" qui va ressembler à ceci:6.3.10 # Using CUDA device 0 # Device 0: "GeForce 9800 GT" # Clock rate: 1782000 kilohertz MDIO ERROR: cannot open file "restart.coor" # Using CUDA device 0 # Device 0: "GeForce 9800 GT" # Clock rate: 1782000 kilohertz # Time per step: 63.629 ms # Approximate elapsed time for entire WU: 54084.934 s called boinc_finish ]]>
C'est cette durée-là que tu dois prendre en compte. Ma 9800GT overclockée sous XP32 fait 54085 sec soit 15h.
:jap:
bonjour,
j'ai quelque peu progressé, maintenant Boinc me donne des unités à calculer pour GPUGRID, mais elles finissent en erreur :
[error] Missing a CUDA coprocessor
voià la sortie stderr :6.3.14
process exited with code 127 (0x7f, -129)
acemd_6.47_x86_64-pc-linux-gnu__cuda: error while loading shared libraries: libcufft.so.2: cannot open shared object file: No such file or directory
]]>
svp, savez - vous je trouver le fichier libcufft.so et ou le mettre ?
pour rappel : Ubuntu 8.04 boinc 6.3.14 nvidia toolkit et drivers forceware 177.73
merci de votre aide
Ok merci bien :)
Alors pour cuda il te faut au minimum la 6.3.10 donc inutile d'essayer des versions plus anciennes
Concernant tes drivers, quand tu démarres ta machines tu as le logo nvidia qui s'affiche? si il s'affiche c'est bon ils sont bien installé, sinon il y'a un soucis à ce niveau et c'est là que ce pose le problème, je parierai que ton soucis vient de là
Cela est peut être dû à l'installation des drivers Nvidia avec sudo ?
QQn aurait une idée pour "forcer" GPUGrid ? J'ai régulièrement les 4 coeurs de mon proc qui tournent sur autres choses (en l'occurence MilkyWay), alors que j'ai une priorité de 1 pour 100 000 pour GPUGrid :/ Une piste ? :jap:
Bizarre ! je n'ai pas ce problème avec une priorité de 1 pour 1000.
Sauf quand j'ai des unités qui ce mettes en hautes priorités, c'est ton cas ?
les wus Milky sont toutes en high priority chez moi aussi...
Les wu milky ont une deadline très courte. Donc, si tu mets un gros cache, elle finissent par tomber en high priority. Min cache est à 0.1 et je n'ai aucun problème.
:jap:
Effectivement, elles sont en high priority. Du coup, GPUGRID ne crunch plus, et ca, ca va pas :o
J'ai sucré une dizaine de Wu's, et ca remarche à merveille. Je vais baisser le cache :jap:
Salut,
Alors la je suis sur le c*l, 3232 points en 1 journée avec ma 8800gt :)
http://www.myboinc.com/scores/buildmt_u.php?intid=6044
autant qu'avec mes 3 cpu (1 quad et 2 dual core)
Je sais pas si j'ai bien fait, dans l'article sur les GPU sur le site de l'AF j'ai mis les liens de téléchargement du BOINC Manager 6.3.10
J'ai fait ça suite aux nombreux problèmes avec la 6.3.14. J'avais peur que les nouveaux, qui vont recevoir le mail du Raid ce soir, partent avec une version et que leurs premières unités se terminent en erreur de calcul.
Sinon déjà 2 nouveaux participants depuis la parution de l'article : http://www.boincsynergy.com/stats/team-movements.php?project=ps3&team=6
et on est aussi bien placé dans google actu avec le mot clé nvidia : http://news.google.fr/news?hl=fr&q=nvidia&um=1&ie=UTF-8&sa=N&tab=wn
La nouvelle appli pour windows est sortie, la 6.48 est d'après l'admin 30% plus rapide pour les GTX et sans doute un poil plus perfs pour les autres carte, seul bémol, elle est plus gourmande en cpu
Il n'y a aucun gain en 64bits de plus il n'a pas dit qu'il mettait 24h pour faire une unité (il met 17h) donc il ne doublera jamais sa production
La nouvelle appli pour windows est sortie, la 6.48 est d'après l'admin 30% plus rapide pour les GTX et sans doute un poil plus perfs pour les autres carte, seul bémol, elle est plus gourmande en cpu
Je viens de tester le projet GPUGrid sur une carte graphique équipée du gpu GTX 280 : Asus ENGTX280 (non overclockée).
Je l'ai utilisé sous Linux 64 bits avec Boinc 6.3.14, les pilotes NVidia 177.80 et l'application GPUGrid 6.47.
Elle a calculé une unité en 5h59mn pour être précis.
C'est un vrai monstre de puissance, cette carte. :D
tu parles des GTX260/280 ou des 9800GTX/GTX+ ?
Avec la version 6.3.14 de boinc, vous pouvez améliorer le temps de calcul de 20% en mettant le paramètre ncpus de cc_config.xml à "nb coeurs + nb gpu -1" :jap:
:hello: tu peux nous rappeler ou il se trouve ce fichier à modifier ?
Normalement dans la zone de notification tu as le petit icône Nvidia ? Normalement cela se trouve dedans pour accédés à l'activation du SLI ou pas. Je ne peut te dire ou exactement, vue que je ne suis pas sur mon PC en ce moment.
QQn aurait une idée pour "forcer" GPUGrid ? J'ai régulièrement les 4 coeurs de mon proc qui tournent sur autres choses (en l'occurence MilkyWay), alors que j'ai une priorité de 1 pour 100 000 pour GPUGrid :/ Une piste ? :jap:
Les wu milky ont une deadline très courte. Donc, si tu mets un gros cache, elle finissent par tomber en high priority. Min cache est à 0.1 et je n'ai aucun problème.
:jap:
Oui, mais je crois que ce n'est même plus la peine de baisser ton cache, milkyway doit maintenant estimer correctement son temps de calcul pour une Wu, il n'en t'en donnera plus autant.
J'ai eu le problème inverse, un projet surestimait de beaucoup (plus de 1000h) sont temps de calcul pour une Wu, cette tâche passait donc en haute priorité également !
Non, si c'est une question d'IRQ et de canal DMA, ça n'a rien à voir avec le cpu ou la ram.
Version 6.3.15 de boinc sortie :
http://boinc.berkeley.edu/dl/
à tester...
Version 6.3.15 de boinc sortie :
http://boinc.berkeley.edu/dl/
à tester...
Ce qui veut dire qu'il faut un proc pas trop nul et de la ram suffisante pour se faire un quad SLI ?
Alors les possesseurs de GTX 260 z'avez vu une nette amélioration ?
ok et bien j'abandonne l'idée de 8400gs
11H05 => 6H50 :jap:
Nouveau pilote nVidia à tester :
http://www.clubic.com/actualite-170144-pilotes-beta-nvidia-geforce-180.html
ça rapporte combien de points par jour un config comme la tienne f11ksx ?
:jap:
11 000 points
Euhh...539pts à l'heure ??? soit du 13 000pts par jour....hmmmm....Ca pousse vraiment alors !
Tes stats vont s'envoler !
Est-ce que GPU-Grid et PS3-Grid sont une seule et même chose au niveau de stats ?
Car je vois que l'AF torche tout sur ce projet... :sol:
C'est carrément hallucinant. :ouch:
ET au niveau conso électrique, une idée ?
Car j'avais cru comprendre que le core n'est pas entièrement utilisé (anti aliasing par exemple)
Donc les valeurs "full" des benchmark des cartes testées en "jeu" ne sont pas forcément exactes.
Au niveau conso électrique, un système Q6600 avec nvidia GTX 280 4Go de ram disque dur 80Go sans lecteur cdrom dvdrom ou autre, on arrive à une conso de 275W (j'ai une alim corsair 520hx). Pas mal, hein ? (écran en veille bien sûr, etc..)
Est-ce que GPU-Grid et PS3-Grid sont une seule et même chose au niveau de stats ?
Car je vois que l'AF torche tout sur ce projet... :sol:
Tu te trompes allipse, 99.9% des tests donnent la conso maximale de toute la config
Pour ça il nous faudrai bien plus d'info sur ta machine, déjà savoir si c'est une de marque ou une assemblée par quelqu'un
Il nous faut aussi les dimensions intérieures de ton boiter là où la carte graphique sera, souvent la cage de disque dur gène sur les petites/moyens boitier, il faut aussi connaitre la marque/modèle/puissance de ta carte graphique pour être certain de ne pas la cramer, si c'est une alim à 20€ (c'est surment ça malheureusement) ça va pas faire long feu, ou au contraire ça va faire du feu tout de suite :sol:
edit: alipse :jap: 99.9% :D
Un quad SLI ca doit dépoté ! ThierryH c'est ce que tu essayes de faire ?
Sinon la plus puissante CG de Nvidia dans le commerce est la GTX280 ? ou ya mieux encore ?
Comment ça?
Non, seulement 3 CG, mais par contre, bi-gpu. Soit 6 gpu pour un total de 768 shaders :pt1cable:
Je voulais dire, si le SLI est supporté pour CUDA, aurait il une différence de perf à activer le SLI ?
ThierryH, c'est des 9800X2 c'est ça ? Mais les GTX280 sont plus puissante non ?
Va falloir revendre ton parc de PS3 pour faire un parc de CG !!
Déjà commencé. Il m'en reste une à vendre :)
Tu as réussi à les vendre à bon prix ?
La derniere tu la vends à combien ?
nouvelles versions 6.3.16 et 6.3.17 !
http://boinc.berkeley.edu/dl/
j'ai terminé ma 3ème wu GPUGrid sur ma 8600GT (version 6.48 avec boinc 6.3.15) !
Tant que je pourrais faire 4 wus + 1 wu GPUGrid en même temps sur mon 4 cores je continuerais, c'est tout bénéf, 1000 points de + par jour pour moi, lol
en win XP 32, je peux espérer combien par jour ?
apparamment non:pourquoi non :??:
[cpp]wido 3552 1 0 09:13 ? 00:00:12 ./boinc
wido 17942 17939 0 15:54 pts/0 00:00:00 grep boinc[/cpp]
bon la semaine prochaine je teste ma gtx260 216SP @666MHz ... ça devrait bien tourner :ange: !
Mc roger, tu mets combien de temps avec les nouveautés sur ta CG ? :ange:
Suggestion d'amélioration du tableau en page 1 : mettre la finesse de gravure au niveau de la liste des cartes.
:jap:
C'est plutot merci à toi Zeuz !
100 € la 8800 GT...
Mais je ne vois pas que le prix initial, je vois aussi la consommation...
Et je me disais qu'un carte pas trop au-dessus des 100W ce serait bien.
26/10/2008 01:32:40|PS3GRID|Message from server: No work sent
26/10/2008 01:32:40|PS3GRID|Message from server: Full-atom molecular dynamics is not available for your type of computer.
26/10/2008 01:32:40|PS3GRID|Message from server: Full-atom molecular dynamics for Cell processor is not available for your type of computer.
26/10/2008 01:32:40|PS3GRID|Message from server: Full-atom molecular dynamics on Cell processor is not available for your type of computer.
Faut obligatoirement la dernière version de boinc ? (j'ai la 5.1)
Ah toutes mes excuses, c'est la première fois que je vois ça, sur la mienne y'a pas :pt1cable:
Interessant celà dit, j'ai la preuve que j'avais bien raison sur le fait que 256mo suffisent amplement pour l'instant :D :D [:michrone]
edit: pour ton soucis, je vais mettre à jours les liens de boinc en première page, il faut maintenant utiliser le 6.3.17 qui règle tout ces soucis, il est sorti hier et apparement il tourne bien :jap:
autre question : les wus gpugrid repartent elles à 0 quand le process boinc s'arrete, ou ya des checkpoint ? :??:
Y'a des checkpoints lol :)
Interessant celà dit, j'ai la preuve que j'avais bien raison sur le fait que 256mo suffisent amplement pour l'instant :D :D [:michrone]
Bonsoir les gens, je suis en train de mettre à jour les tableaux en début de topic
Pouvez vous me donner vos durées de calcul avec l'application 6.47 et 6.48 avec vos infos (Frequence carte graphique, driver, os, ... CF tableau en première page)
Merci :jap:
Le Profanateur si je lis bien ton graphique, ta 8800 GT est à 41 °C en full ?
elle est refroidie comment ?
Le Profanateur si je lis bien ton graphique, ta 8800 GT est à 41 °C en full ?
elle est refroidie comment ?
Lien pour quoi dis moi? :)
http://boinc.berkeley.edu/dl/
AH si c'est pour DL boinc -> première page, y'a tout ce qu'il faut
Et alors? tu gagnes une puissance folle ... trouve moi un seul processeur qui fournis plus de 150 points par heure sur un seul core ... :p
Et encore 150 c'est une carte graphique bas de gamme, prend une GTX260 à 200 - 250€ et tu fais plus de 500pts par heure soit 12 000 par jour rien qu'avec ta carte graphique, si ça ça ne vaut pas le coup :/
Bha si tu recherches pas un rac max ne vient pas sur gpugrid :p
Sinon j'ai testé vite fait, moi ça utilise 10 - 15% maximum d'un seul core de mon cpu donc 5 - 7.5% du total de mon cpu contre tes 40%, tu as sans doute un soucis ...
Là suis sous vista64
302 pour un 4300 c'est du domaine du normal (j'ai aussi eut un 4300)
sérieux je capte pas, 40% du proc c'est énorme :gratgrat:
moi aussi j'ai environ 40% mais c'est normal j'ai deux gpu qui tournent :pt1cable:
---
Oui donc là il faudrait déjà que tu vois dans ta config sur gpugrid pour avoir ta réponse.
Bon j'ai repris les calculs gpugrid avec boinc 6.3.17, y'a un truc bizarre
Déjà boinc switch entre 2 et 3 calculs en même temps sur un dual core :heink: , je sais pas pourquoi m'enfin bon, autre truc encore plus bizarre, quand y'a 2 calculs qui tournent (1 gpu + 1 cpu) l'utilisation du cpu par gpugrid monte à 40 - 45% soit presque la totalité d'un core, par contre quand ça passe à 3 calculs ( 1 gpu + 2 cpu) l'utilisation de gpugrid chute à 10 - 15% [etonne.gif]
C'est chelou, par contre le gpu travaille plus lorsque c'est 1 gpu + 1 cpu, la température du gpu grimpe de 4° par rapport à 1 gpu + 2 cpu :boxing:
Résultats demain pour la durée de l'unité, avec l'ancienne appli je mettais +/- 17 - 18h, on verra si ça change quelques choses ici :dance2:
boinc 6.3.10 marche très bien ... il faut pas tout casser ! bande de bêta-testeurs fous !
perso, je suis toujours en 6.3.10 sous Vista32 et en mode "4+1"... pas de ralentissement en 2D (sauf pour les vidéos) alors j'y suis, j'y reste :love:
Ben il n'y a pas 36 000 solutions, soit tu continues et tu perds 40% jusqu'à ce que ce soit réglé, soit tu arrêtes
Sinon xp32 plus lent ça ne sera à prioris jamais réglé, il te faudra juste une carte graphique plus puissante
perso, je suis toujours en 6.3.10 sous Vista32 et en mode "4+1"... pas de ralentissement en 2D (sauf pour les vidéos) alors j'y suis, j'y reste :love:
same pb avec la dernière version...
qqun peut m'expliquer, je capte toujours pas.
Version being tested 6.3.19
et elle apporte quoi ? :d
:lol: :lol: Heyoka
Doit y avoir 30 personnes qui crunchent dessus à tout casser non ? :D
(je compte pas les ps3)
Fréquence du chipset 490 MHz *------------------> 738MHz apres overclock
Fréquence mémoire vidéo 400 MHz *----------------> 507MHz apres overclock
Fréquence des processeurs de flux 900 MHz *----->1674MHz apres overclock
Nombre de pipelines 16
je tourne sous linux debian testing 64 bit (les photos ont ete prise sur un ordi windows car nibitor ne marche pas sous linux)
voila a votre avis qu'en pensez vous.
j'ai du"bricolé" manuellement le 1,38V pour le gpu car d'origine le voltage n'apparait pas dans lebios
Je suis hélas sous Ubuntu 8.04 et Cuda n'est pas encore sorti pour cette version, ils annoncent pour la fin de l'année...
Je suis hélas sous Ubuntu 8.04 et Cuda n'est pas encore sorti pour cette version, ils annoncent pour la fin de l'année...
Est-ce que le processeur qui pousse la carte est très important ?
Exemple obtient on significativement mieux avec un Penryn C2D/C2Q qu'avec un A64 X2/opteron par exemple ?
Je me demande le gain entre Win32 et Vista64 ou Linux 64...
voila a votre avis qu'en pensez vous.
gpugrid fonctionne sans problème en linux 64 sous Ubuntu 8.04 (c'est d'ailleurs là dessus que j'ai commencé quand il n'y avait pas de client windows) :whistle:
après quand tu parles de Cuda, c'est bien du pilote vidéo nvidia compatible Cuda (de mémoire à partir de la version 177.73 à la 177.84) ?
autre chose, j'ai un truc bizarre avec une unité, normalement je les finis en 9h et là elle dure depuis 26h, elle indique 25% effectué et temps restant 24h, je crois que c'est pas normal
(la dead line est au 30/10 j'ai encore le temps mais quand même !)
Je vois pas de quoi tu parles, CUDA c'est intégré au pilote, ubuntu n'a rien à voir là dedans, tu dois te tromper ou confondre certaine chose :jap:
non
entre win et linux oui, entre win32 et win64 non
:hello:
28/10/2008 22:58:10||Memory: 2.00 GB physical, 3.87 GB virtual
28/10/2008 22:58:10||Disk: 148.92 GB total, 127.19 GB free
28/10/2008 22:58:10||Local time is UTC +1 hours
28/10/2008 22:58:10||Not using a proxy
28/10/2008 22:58:14||CUDA devices found
28/10/2008 22:58:14||Coprocessor: GeForce 9800 GTX/9800 GTX+ (1)
la carte maman qui n'a qu'un port pciE x1
• 1 slot PCI Express x16 (compatible Bus PCI Express, spécification v1.0a)
Premier résultat.....meme résultat avec le meme OS, une 8800 GT à 710/1780/1015, meme driver mais PCIE 16 de P35 (donc V1 ou v2, je ne sais plus; v1 il me semble).
Un peu décevant
9800 GTX+ 745/1100/1848
Drivers 180.43
Win Xp32
Durée 12 H :(
Alors y'a quand même quelque chose qui me limite, soit le cpu, soit l'os soit la carte maman qui n'a qu'un port pciE x1
Premier résultat.....
Un peu décevant
9800 GTX+ 745/1100/1848
Drivers 180.43
Win Xp32
Durée 12 H :(
Alors y'a quand même quelque chose qui me limite, soit le cpu, soit l'os soit la carte maman qui n'a qu'un port pciE x1
Je crois que tout est dit :lol: , j'avais déjà testé à l'époque une 9600GT @ 4x dans les jeux, c'était pas ça, alors une 9800GTX+ @1x [:nono] , d'ailleur ça existe ça? :pt1cable:
@jascooby: j'avais fais un petit tuto pour installer les drivers nvidia manuellement sur ubuntu, regarde sur le topic linux sur ce forum ou alors sur le topic des RR sur HFR, tu devrais le retrouver facilement je pense :hello:
Envy ça sert à rien, les drivers sont bien trop ancien
edit: http://forum.boinc.fr/boinc/Les-mini-teams/linux-topic-sujet_5_89.htm#t19314
La manip sous Linux n'est hélas pas expliquée :(
mer 29 oct 2008 13:32:21 CET||Processor: 2 AuthenticAMD Dual Core AMD Opteron(tm) Processor 180 [Family 15 Model 35 Stepping 2]
mer 29 oct 2008 13:32:21 CET||Processor features: fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush mmx fxsr sse sse2 ht syscall nx mmxext fxsr_opt lm 3dnowext 3dnow pni lahf_lm cmp_legacy
mer 29 oct 2008 13:32:21 CET||OS: Linux: 2.6.22-15-generic
mer 29 oct 2008 13:32:21 CET||Memory: 1.97 GB physical, 972.68 MB virtual
mer 29 oct 2008 13:32:21 CET||Disk: 14.79 GB total, 11.80 GB free
mer 29 oct 2008 13:32:21 CET||Local time is UTC +1 hours
mer 29 oct 2008 13:32:21 CET||Not using a proxy
mer 29 oct 2008 13:32:21 CET||No CUDA devices found
mer 29 oct 2008 13:32:21 CET||No coprocessors
mer 29 oct 2008 13:32:21 CET||No general preferences found - using BOINC defaults
Si, j'avais installé via apt-get.
J'ai pas très bien compris comment virer l'ancienne version, mais dès que je rebascule sous Ubuntu je tenterai. Merci !
version 6.3.19 installée chez moi... 4 wus en cours (en Running, high priority) + 1 wu GPUGrid
Sur le site de GPUgrid, il conseille l'installation de la dernière version 6.3.19
Après avoir virer l'ancienne version de BOINC, si je relance manuellement le truc, ma carte est toujours pas détectée.
J'ai besoin d'aide.
Im totaly a noobish :-(
Est ce que tu as l'écran de démarrage nvidia lorsque ton pc se lance? (avant l'ouverture de la session)
@Le Profanateur: bien sûr :)
?
tu dois avoir le menu nvidia qui apparait dans le menu applications si c'est bien installé
le mieux c'est de nous coller les premieres lignes de l'onglet messages de ton boinc 6.3.xx
voici le mien :Citer28/10/2008 22:58:10||Memory: 2.00 GB physical, 3.87 GB virtual
28/10/2008 22:58:10||Disk: 148.92 GB total, 127.19 GB free
28/10/2008 22:58:10||Local time is UTC +1 hours
28/10/2008 22:58:10||Not using a proxy
28/10/2008 22:58:14||CUDA devices found
28/10/2008 22:58:14||Coprocessor: GeForce 9800 GTX/9800 GTX+ (1)
les 2 dernières lignes sont significatives
Après avoir virer l'ancienne version de BOINC, si je relance manuellement le truc, ma carte est toujours pas détectée.
J'ai besoin d'aide.
Im totaly a noobish :-(
après reboot, j'ai cliqué sur boinc_6.3.19_i686-pc-linux-gnu.sh , il s'est executé dans un terminal, puis j'ai cliqué sur Run_manager.
La le manager s'est ouvert me proposant de me rattacher à un projet.
Bon en tous cas, c'est kif kif Win32 et Vista64 ! Je mets entre 12h30 et 13h30 avec ma 9800 GT légèrement O/C
Faudrait presque un Dossier avec un BOINC vierge de tout projet, tu cliques et c'est partiiiiiii
après reboot, j'ai cliqué sur boinc_6.3.19_i686-pc-linux-gnu.sh , il s'est executé dans un terminal, puis j'ai cliqué sur Run_manager.
La le manager s'est ouvert me proposant de me rattacher à un projet.
Bha tu as pas suivit mon tuto?
Si mais même, ça reste complexe surtout pour installer les drivers en sortant de la console :(
Pourtant il n'y a rien à faire et gdm stop c'est juste l'arrêt d'un service :pt1cable:
D'après un témoignage sur le forum de GPUGrid, la nouvelle version ne serait que 7% moins rapide que la version qui utilisait un cœur de processeur.
Donc c'est tout bénef, cette nouvelle version.
Je suis passé de 43000 sec à 53000. ça rallonge quand même beaucoup :/
Pareil de 35000 à 40000 environ c'est bien loin des 7%
le changement d'appli se fait tout seul ?
car ici je tourne toujours à 40% gpu, et 30/25 pour les 2 ufluids..; :(
et je tourne toujours dans les 40000 sec.
Non, ici on parle du changement de version BOINC 6.3.17 vers 6.3.19
30/10/2008 20:41:23|GPUGRID|You used the wrong URL for this project
30/10/2008 20:41:23|GPUGRID|The correct URL is http://www.gpugrid.net/
Bizarre, ma 8600m se met en mode 3d quand je BOINC (même si je fais pas de projet GPU)
j'ai un message dans le boinc manager sur ma machine qui semble indiquer que l'URL du projet GPUgrid va prochainement changer:Citer30/10/2008 20:41:23|GPUGRID|You used the wrong URL for this project
30/10/2008 20:41:23|GPUGRID|The correct URL is http://www.gpugrid.net/
comme j'utilise BAM, je n'ai pas la main dessus...
le plus efficace c'est toujours de dédier un coeur cpu pour nourrir le gpu ?
Sous Linux ?
Ah non sous windows :sweat:
Economie d'energie?
C'est vraiment bizarre. Suis sous Ubuntu 64b tant bien que mal :o
J'ai uniquement GPUgrid qui tourne, me suis pas rattaché à aucun autre projet pour voir la durée des UT, et tout cela me permet de constater que l'utilisation du cpu est vraiment impressionante avec des pics à 100% sur les deux cores. Ca descend jamais sous les 50%
Z'avec une théorie ?
La dernière version existe également en Win64 ?
:ouch: :pt1cable: J'ai donné le lien juste au dessu de ton poste, tu dois pas aller chez l'ophtalmo ces temps ci? :whistle: :p :D
Ah sorry je croyais que c'était que la Win32 que tu avais donné :jap:
Vous arrivez à télécharger des wu ?
J'ai mon quadri-gpu qui est à sec :(
Par contre, mon mono-gpu calcule 2 wu simultanément :(
Quelqu'un a til un test entre une 9800 gtx+ et une 9800 gtx ?
Est ce qu'on sait à quel moment va sortir la GTX 270 ?
Vous arrivez à télécharger des wu ?
J'ai mon quadri-gpu qui est à sec :(
Par contre, mon mono-gpu calcule 2 wu simultanément :(
11/02/08 14:09:36|GPUGRID|Sending scheduler request: Requested by user. Requesting 0 seconds of work, reporting 0 completed tasks
Pourquoi faire? ce sont des cartes identiques sauf la fréquence gpu qui est presque identique, y'a même pas 5% de différence niveau perfs
Quelqu'un a til un test entre une 9800 gtx+ et une 9800 gtx ? Est ce qu'on sait à quel moment va sortir la GTX 270 ?
Par avance merci.
Non je veux dire, il se met pas en économie d'energie? sous linux y'a pas mal de soucis avec ça + boinc, boinc étant en priorité super basse, même si le cpu tourne à 100% le cpu reste en économie d'energie
Sinon y'a le nouveau boinc qui est sorti, il semble bien mieu au point
http://boinc.berkeley.edu/dl/boinc_6.3.21_windows_intelx86.exe
http://boinc.berkeley.edu/dl/boinc_6.3.21_windows_x86_64.exe
alipse 12h30 c'est avec un core Cpu ou pas ?
Un ptit Core I7 + GTX 270 svp père Noël ! :love: :lol:
Pourquoi ce limiter à une GTX270 dans ta demande ?
Toutes les mobo pour 7I (je préfère dire 7I, ça fait plus calcul partagé :lol: ) ont 3 slot PCI-E ;)
toi voila ta prochaine carte mère pour core 7i :
Pourquoi ce limiter à une GTX270 dans ta demande ?
Toutes les mobo pour 7I (je préfère dire 7I, ça fait plus calcul partagé :lol: ) ont 3 slot PCI-E ;)
03/11/2008 09:20:44|GPUGRID|Message from server: No work sent
03/11/2008 09:20:44|GPUGRID|Message from server: Full-atom molecular dynamics for Cell processor is not available for your type of computer.
03/11/2008 09:20:44|GPUGRID|Message from server: Full-atom molecular dynamics on Cell processor is not available for your type of computer.
depuis hier :Citer03/11/2008 09:20:44|GPUGRID|Message from server: No work sent
03/11/2008 09:20:44|GPUGRID|Message from server: Full-atom molecular dynamics for Cell processor is not available for your type of computer.
03/11/2008 09:20:44|GPUGRID|Message from server: Full-atom molecular dynamics on Cell processor is not available for your type of computer.
j'ai fais 2 essais :
dell D630 avec nvidia quadro 135M (compatible cuda)
- install du pilote nividia_cuda sur linux64 (debian etch avec kernel 2.6.18-686-amd64)
./nvidia-installer: Aucun fichier ou repertoire de ce type :(
Pentium D960 avec 8600 GT 256Mo (compatible cuda)
- install du pilote nvidia_cuda sur XP64, install de boinc64 6.3.6
onglet message au lancement de boinc manager :
Library doesn't have cudaGetDeviceCount()
No coprocessors
rien de bon pour l'instant :(
je viens de tester une quadro NVS 290 sur un E4500@2.2GHz sous XP, il faut oublier direct, estimation de 166h ça fait grosso-modo du 8cores maxi :cry:
je laisse quand même tourner au cas ou ça accélère avec le temps, je n'ai fait une estimation que sur 20min (0,201%), c'est peu
en tout cas, c'est pas mieux qu'une 8400GS à vue de nez....
Baaa c'est vraiment tres lent .... ça donne l'impréssion de ramé quoi ..
la carte : Quadro NVS 290 ...
je sais pas ce qu'elle a dans le ventre ... :/
j'ai que des quadro :'( et les seul compatible cuda sont les plus petite :'(
les plus grosse (Fx4500) sont pas compatible :'(
sniff
apres c'est de l'ATI et Brooks + est tj pas implémenté :'(
même souci, j'ai abandonné pour les quadro
du coup je n'ai que 2 9800GTX sur gpugrid en tout avec XP64 et boinc 6.3.10
au fait, suis-je toujours le seul a devoir rebooter mes machines tous les 3-4 jours ?Citer9/6/2008 4:36:44 PM|PS3GRID|Output file wm25047-GPUTEST3-5-10-acemd_0_1 for task wm25047-GPUTEST3-5-10-acemd_0 absent
9/6/2008 4:36:44 PM|PS3GRID|Output file wm25047-GPUTEST3-5-10-acemd_0_2 for task wm25047-GPUTEST3-5-10-acemd_0 absent
9/6/2008 4:36:44 PM|PS3GRID|Output file wm25047-GPUTEST3-5-10-acemd_0_3 for task wm25047-GPUTEST3-5-10-acemd_0 absent
au bout d'un moment
Yop,
Pas utilisé de "truc"...
ça a juste pris 20 minutes avant de se lancer...
j'ai vu ta machine sur le topic de photos sur hfr.
tu comptes mettre un waterblock sur la 260 ou pas ?
en ce qui me concerne la carte est maintenant l'élément bruyant du pc...
mais le confort du silence ... coûte cher :o
Incorrect function. (0x1) - exit code 1 (0x1)
# Using CUDA device 0
# Device 0: "GeForce 9800 GX2"
# Clock rate: 1512000 kilohertz
# Number of multiprocessors: 16
# Number of cores: 128
# Device 1: "GeForce 9800 GX2"
# Clock rate: 1512000 kilohertz
# Number of multiprocessors: 16
# Number of cores: 128
MDIO ERROR: cannot open file "restart.coor"
Cuda error: Kernel [RandomGPU] failed in file 'MersenneTwister.cu' in line 31 : unspecified launch failure.
même problème, avec XP32, sauf que les UT plantent à 95%...
Comme ThierryH, voilà 2 jours que mes unités partent en erreur de calcul...
Wait and See ! :cry:
C'est bon, ça fonctionne.
et ça fait plaisir, je mets 4 fois moins de temps par wu.
Je me demande meme si je vais finalement remettre la 8800 gt :gratgrat:
Par contre toujours le pb du cache : 2 wus de cache qui se finissent en moins de 3h30, c'est short :/
et des que le cache est fini, ça demande 0 second de travail. tout ça car ufluid bosse lui aussi.
J'ai trouvé que la parade de stoppé ufluid, et de le relancer (super vu qu'il ya pas de checkpoint) pour que GPU demande du taff.
voici les messages d'erreurs sur mes WU6.3.19
Fonction incorrecte. (0x1) - exit code 1 (0x1)
# Using CUDA device 0
Cuda error in file 'deviceQuery.cu' in line 59 : out of memory.
C'est grave Docteur? :ange:
Ah bon ! pourquoi :??:
premiers résultats de la 9600 GSO ... je suis un peu déçu ... :(
Salut,
Tout simplement au niveau électrique ça donne bcp plus de conso...
Cela donne beaucoup plus de points également, et je ne pense pas que tu soit perdant niveau rapport points/watts :p
dommage que t'es juste en tag [AF] :cry:
EDLS t'appréciais bien comme membre, tu reviens stp? (je ne force pas)
Merci, c'est sympa, mais pour l'instant je préfère être sans mini-team :jap:
bon je vais quand meme essayer cette semaine une autre CG la 9800GX2 je sais pas trop si ça va donner qqch???...
Là c'est sur, ça va faire mal ! mais niveau conso, c'est plutôt 9800GX2+ (gravure 55nm)
12h :o te faut une 9800GTX pour ça lolOu alors une 8800 GT 256 Mo à moins de 100€ (shaders OC de 1500 à 1750 mhz)
Je n'ai pas de jeux qui tournent en parallèle.
J'ai redémarré la machine, et c'est reparti comme au printemps.
Merci aux docteurs thierryH , Spown, et Laxou.
:jap: :jap: :jap:
bon je vais quand meme essayer cette semaine une autre CG la 9800GX2 je sais pas trop si ça va donner qqch???...
Tiens d'ailleurs, qqun a calculé la différence de consommation pour le GPU entre l'idle et full ?
56000 s par wu et par gpu :jap:
Ok merci ThierryH pr l'info! bon je vais faire le test avec une 9800GX2 et après avec les 2 9800GX2 quand j'aurai les deux et après je tournerai avec 4CG pour l'instant sur GPUGRID. Vivement qu'il y ai d'autres projets compatibles CUDA/Boinc... Affaire à suivre!
[Hildor] c'est clair que la 9800GX2 consomme bcp lol qu'une 9800GT. Et d'ailleurs je pense que la 9800GX2 consomme pas mal!
Tiens d'ailleurs, qqun a calculé la différence de consommation pour le GPU entre l'idle et full ?
c'est sûr que ufluid, ce n'est peut-être pas le meilleur projet pour aller avec gpugrid :pt1cable:
Comme ThierryH, voilà 2 jours que mes unités partent en erreur de calcul...
Wait and See ! :cry:
La machine de guerre qu'il va nous faire :pt1cable:
en lisant le 1er post, je me disais qu'il y aurait une info bien utile : celle concernant l'alimentation.
Cruncher une CG exige d'avoir une alim taillée en conséquence pour encaisser le surcroit de conso. Donc, si quelqu'un s'ennuie et peut se coller à un tableau avec les infos utiles :whistle:
Je vois qu'il y a encore une bonne ambiance, ici. :non:
ben ça va je pense faire 1000 de RAC non bon juste 2000 MDR :lol:
je viens d'avoir deux wus qui se sont terminées en erreur au bout de 8 et 9 heures de calcul :pfff: ! C'est la premiere fois que ça m'arrive ! Quelqu'un sait pourquoi en fonction du message d'erreur :
http://www.ps3grid.net/result.php?resultid=119600
http://www.ps3grid.net/result.php?resultid=118191
Ma carte graphique est OC, mais je n'avais encore jamais eu de problème.
Edit : désormais toutes mes wus de Gpugrid partent en erreur au bout de quelques secondes.... :??:
Un peu inquiétant ça...
Ma 9600 GSO reste autour de 50°C pour le moment (mais c'est bruyant)
Je vais éviter les grosses températures en H24...
savoir combien ça te surcoûte financièrement (et écologiquement) de calculer avec ton GPU.
Autant avec ton CPU ta surconsommation n'est pas excessive (quoique de moins en moins vrai comparé à ce qu'on avait auparavant), mais est-ce vrai aussi pour le GPU ? Je ne crois pas que ça consomme énormément quand ça branle rien ces bêtes là, mais je voulais savoir si qqun c'était amusé à faire la mesure.
Je confirme... elle est morte ! Par contre j'avais peut être un peu trop poussé l'OC : les shaders de 1500 à 1750 Mhz, et pour le GPU et la mémoire ça devait être à +10%
Coté température cétait en général à 77 °... je suis pas sûr que ce soit un problème de température.
Mon ventilo tournait seulement à 30%. Je l'avais limité volontairement pour éviter qu'il soit trop bruyant, et en pensant que 77° c'était pas un problème !
Et pourtant 77° c'est pas un problème, j'en ai jamais eu en tout cas :D.
Ca m'étonne que ta CG ce soit cramer, mauvaise puce je pense :(
je viens d'avoir deux wus qui se sont terminées en erreur au bout de 8 et 9 heures de calcul :pfff: ! C'est la premiere fois que ça m'arrive ! Quelqu'un sait pourquoi en fonction du message d'erreur :
http://www.ps3grid.net/result.php?resultid=119600
http://www.ps3grid.net/result.php?resultid=118191
Ma carte graphique est OC, mais je n'avais encore jamais eu de problème.
Edit : désormais toutes mes wus de Gpugrid partent en erreur au bout de quelques secondes.... :??:
C'est peut-être plus l'étage d'alim qui a souffert, pas tellement la puce en elle même, qui comme le dit misterimpact, sont prévues pour tourner assez haut en températures...
quoi, 77 Farenheit ??? ça fait 25 °C donc stune blague :pt1cable:
Pour éviter ce problème il suffit de rebooter tous les jours :jap:
Il semble qu'il y ait un problème avec le driver cuda. Une fois dépassé un certain nombre de calculs, ça par en vrille et la seule solution est le reboot. Donc, autant rebooter préventivement. Surtout qu'une fois que tout votre quota journalier de wu est parti en erreur (il ne faut que quelques minutes), vous êtes bon pour attendre le lendemain avant d'en ravoir :(
Ca m'a fait un truc bizarre hier !
J'ai rallié seti et installé les optis, en plus de me faire planter la WU Gpugrid en cours, toutes les WU Seti ont disparues ! et si je regarde sur le site de Seti, c'est marqué cacul en cours... :pt1cable:
\o/
moi content : 3232 points par jour avec une carte à 50 euros.
(et 50 W supplémentaires)
J'ai enlevé le ventilo stock et placé 2 noiseblocker S1 (8 cm) qui font très peu de bruit et maintiennent le GPU aux environs de 50°C.
\o/
moi content : 3232 points par jour avec une carte à 50 euros.
(et 50 W supplémentaires)
J'ai enlevé le ventilo stock et placé 2 noiseblocker S1 (8 cm) qui font très peu de bruit et maintiennent le GPU aux environs de 50°C.
Change Log:
Reverted the manager back to the 6.2 version of the manager.
---
The need to get a CUDA enabled BOINC client has caused us to revert back to the 6.2 version of the BOINC Manager for the 6.4 release. Obviously a few minor tweaks will show up in the 6.4 manager such as the ability to see what processors a particular task is using. Plus the new way of handling startup and shutdown of both the manager and core client.
Just so everyone is on the same page, the bar for fixing manager bugs is pretty high right now, if we can we will ship this release. What I mean by this is if you find a bug and we can reproduce this bug on the 6.2 client, it isn’t a showstopper. Basically if the 6.2 manager was in good enough shape to release, this manager ought to be in good enough shape to release. Be sure to send an email for all bugs you find, just in case it is something that really does need to be fixed, I don’t know what it might be at the moment, but better to be safe than sorry.
All the changes you have been helping us with will make their appearance again in the 6.5 clients.
----- Rom
Yes ;)
Mais il ne faut pas un core complet ;)
Quelle est ton estimation de gain en consacrant 1 core à ton GPU ?
Actuellement, j'ai 1 core occupé à 15 - 20 %
Si je décide de me passer de 80% de ce core cpu, il faut que le gain GPU soit plus important que la baisse de point cpu.
Si tu vois ce que je veux dire :D
Je viens juste de me rendre compte que j'ai le même problème que toi Hildor.
je mets 15 h à calculer les WU, pourtant jamais plus 1 par jour depuis bientot 2 semaines.
En regardant de plus près, elle semble "sous alimentée" malgré 15 / 20% d'un core CPU.
1ere étape : je passe sa priorité à 1000 (au lieu de 100 pour le reste des projets)
si pas de changement :
2eme étape : je limite Rosetta à 3 cores seulement. Il en restera donc 1 qui sera libre pour GPUgrid.
...
Mais bon, c'est vraiment pas pratique cette histoire parce que ça ne va pas s'appliquer seulement sur cette machine mais sur toutes mes machines sur Rosetta.
Des progrès à faire, BOINC !
Je viens juste de me rendre compte que j'ai le même problème que toi Hildor.
je mets 15 h à calculer les WU, pourtant jamais plus 1 par jour depuis bientot 2 semaines.
En regardant de plus près, elle semble "sous alimentée" malgré 15 / 20% d'un core CPU.
1ere étape : je passe sa priorité à 1000 (au lieu de 100 pour le reste des projets)
si pas de changement :
2eme étape : je limite Rosetta à 3 cores seulement. Il en restera donc 1 qui sera libre pour GPUgrid.
...
Mais bon, c'est vraiment pas pratique cette histoire parce que ça ne va pas s'appliquer seulement sur cette machine mais sur toutes mes machines sur Rosetta.
Des progrès à faire, BOINC !
et moi que dalle ? :( :cry: :lol:
Sur les nouveaux boinc manager, c'est un % qui est indiqué ! Tu veux dire qu'on met 75% sur un quad ?j'avais dis que je mettais 99% :o
Merci :jap:
Excuse moi RDLF, ta réponse et celle de Spown étaient très claires, je chariais juste supersnoopy :jap: :lol:
Une fois que le raid sera terminé je mettrais mes 2 quad à 75% :jap:
j'avais dis que je mettais 99% :o
et il arrondi au nombre de cores inférieur ;) n'importe quoi entre 75 et 99% et un "désactive" un core d'un quad. avec 99% ça marche sur n'importe quelle machine du simple monocore au V8 et même plus !
il était temps que j'aille me coucher, au réveil, ton message me paraissait beaucoup plus clair, je n'avais pas saisi l'ironie ;)
21/11/2008 21:22:10|GPUGRID|Message from server: No work sent
21/11/2008 21:22:10|GPUGRID|Message from server: Full-atom molecular dynamics is not available for your type of computer.
21/11/2008 21:22:10|GPUGRID|Message from server: Full-atom molecular dynamics for Cell processor is not available for your type of computer.
21/11/2008 21:22:10|GPUGRID|Message from server: Full-atom molecular dynamics on Cell processor is not available for your type of computer.
tu n'as pas besoin de mettre 3 cores max dans les préférences des projets
laisse sur 4 cores et change le nombre de cores directement sur le manager de la machine (avancé, préférence, utilisation du processeur)
Apres une réinstall de windows j'ai droit à ça :Citer21/11/2008 21:22:10|GPUGRID|Message from server: No work sent
21/11/2008 21:22:10|GPUGRID|Message from server: Full-atom molecular dynamics is not available for your type of computer.
21/11/2008 21:22:10|GPUGRID|Message from server: Full-atom molecular dynamics for Cell processor is not available for your type of computer.
21/11/2008 21:22:10|GPUGRID|Message from server: Full-atom molecular dynamics on Cell processor is not available for your type of computer.
pilotes nvida les meme qu'avant avec le phys x activé.
à part les disques dur rien a changé. :o
GTX 280 Ultra Boinc Special Edition100 Euros maxi! :o
Shader 2500mhz
GPU/RAM @ 300mhz
:D
Et si on "downclock" seulement la fréquence du GPU et de la RAM, sans toucher à la fréquence des shaders.... ça modifie la vitesse de calcul ? D'après Zeuz, il semblait que seule la fréquence des shaders ait une influence sur la vitesse de calcul.
J'aurais bien fait des essais... mais j'ai plus de carte graphique compatible ! :whistle:
J'utilise RivaTuner, c'est le logiciel que m'a préconisé Zeuz, entre autre (que l'on ne voit malheureusement plus beaucoup sur ce forum :sweat: )
J'avais fait quelques tests avec ma 8800GT :
787/1944/900 -> 10h45 soit un petit gain supplémentaire de 21 min en OC le GPU de 185 Mhz (J'avais redescendue la fréquence des Shaders, un peu instable quand même)
Il n'y a qu'un onglet qui t'interresse :D
Celui la : [url]http://img380.imageshack.us/img380/9423/backpx9.jpg (http://imageshack.us)[/URL]
[url]http://img380.imageshack.us/img380/backpx9.jpg/1/w514.png (http://g.imageshack.us/img380/backpx9.jpg/1/)[/URL]
Tu la vmoddé pour atteindre cette fréquence? :ouch:
Par ce moi je monte maxi à 700 au niveau du core et pour pourtant j'ai changé le rad, mais passé 700 je ne suis pas stable [:pousse mousse]
avec ma 8600GT je met presque 3 jours pour 1 wu...Avec ma 8800GT overclockée, je faisais 2 wus par 24 hrs...
avec ma 8600GT je met presque 3 jours pour 1 wu...
Salut,
une GTX 260 sur win XP 32, combien de points par jour ?
merci
Quand tu penses, qu'on dépense nos sous, pour des points virtuels.
On est vraiment fêlés :o
Mais on aide la science ;)
D'accord, merci à vous... :jap:
J'hésite en fait.
Le rapport "points / euros dépensés à l'achat" est plutôt favorable aux 8800 GTS 512 ou 9800 GTX(+) qu'aux GTX260 (v1)
6464 / 100 = 65 pts/€ pour une 9800
11000 / 190 = 58 pts/€ pour une 260
Les 9800+ font les wus en combien d'heure ?
Merci.
09/12/2008 00:36:43|GPUGRID|Message from server: No work sent
09/12/2008 00:36:43|GPUGRID|Message from server: Full-atom molecular dynamics on Cell processor is not available for your type of computer.
09/12/2008 00:36:43|GPUGRID|Message from server: Full-atom molecular dynamics for Cell processor is not available for your type of computer.
09/12/2008 00:36:43|GPUGRID|Message from server: Full-atom molecular dynamics is not available for your type of computer.
:hello:
@laxou, utilises tu XP ? si oui, quel pilote as tu installé ?
Pour le moment je n'arrive à rien :o
Hmm je crois qu'on peut cruncher sur les ati maintenant :
http://www.pcinpact.com/actu/news/47824-radeon-hd-stream-cal-812-catalyst.htm
ATI a sont propre langage de calcul qui est utilisé depuis longtemps sur folding
malheureusement ce n'est pas encore à l'ordre du jour pour boinc qui n'est compatible qu'avec CUDA (C) Nvidia
Merci RLDF :jap:
Et je crois que ce n'est pas possible de faire du folding et du boinc en meme temps non ? :D
Lisez donc ça les gens ^^ :
2008-12-10: SETI@Home Beta
We've released a new SETI@home app that runs on NVIDIA GPUs. Please run it if possible; you'll need to install a new driver. Instructions are here. If you encounter problems, please post on the SETI@home Enhanced message board.
Je suis pressé d'avoir une gtx295 :p
en test sur ma machine perso :jap:
Je ne le vois pas tu as l'adresse du projet ?
Et le GPUgrid te donnait combien ThierryH ?
Ah OK.
C'est lié aux 9800 ou ... rien à voir ?
Je demande car j'offre à mon frangin une carte ( à déterminer encore ) dont la seule utilité sera le crunch
Donc autant éviter ces petits soucis si on a des pistes...
Avec une 8800 GTS j'ai le même problème de "out of memory", avec comme OS Windows 64.
Ma question est donc est-ce lié à l'OS ?
200 p/h/gpu :jap:
Sinon, même problème que sous GPUGrid: au bout d'une dizaine de wu, "out of memory" et toutes les wu partent au tas :(
Sur GPUGrid, un petit reboot quotidien et on en parlait plus, mais sur seti, avec des wu de 14 mn, ce n'est plus la même histoire. Surtout quand on a 3 gpu dans la machine :(
Pas moyen de poster ce problème sur le forum de seti/beta car je n'ai pas encore assez de points pour cela :(
Tout est en pending. J'ai 0 point :D
Avec une 8800 GTS j'ai le même problème de "out of memory", avec comme OS Windows 64.
Ma question est donc est-ce lié à l'OS ?
j'ai une 8800 GTS et Vista64... aucun problème de ce genre chez moi et je ne redémarre que très rarement ma machine.
119.77 sec. -> 13.89 points pour une unité Seti@Home Beta avec ma 8800GTS stock.
en face, le gars avait un sacré bourrin pour faire presque 3 000 sec. :lol:
http://setiweb.ssl.berkeley.edu/beta/workunit.php?wuid=1442917
sauf erreur de ma part, là ce sont tes CPUs qui calculent... tu n'es pas sur Seti@Home beta
http://portail.jmarc.org/partage/cuda.jpg
dans quel onglet / menu ??
Pour info :
Boinc : 6.4.5
Edit : j'ai rien dit, les drivers cuda n'ont pas été installé correctement :??: Peut être un soucis avec l'installe simultanée de powerstrip ?
Je les remet, mais y'a eu un zizi dans le potage :??:
Wait and see :jap:
Halorache, il suffit de mettre dans :
Avancé -> Préférence -> utilisation du processeur -> Pour les systèmes multiprocesseur utiliser au plus 99% des processeurs
- ça marche nickel
En ce moment j'ai également des soucis d'approvisionnement sur GPU-grid.
c'est peut-être momentanné ?
Toujours pas de graphique pour Seti version GPU et GpuGrid, je retourne à Folding + Tsc.
Arf, bah je viens de découvrire en allant sur mon PC dans les stats de gpugrid que j'ai reçu 4 unités :sol:
J'ai installer la toutes dernières version du Boincmanager se matin peut être que cela à un rapport ?
Maintenant je vais surveiller mon 2ème pc pour voir si il m'en donne, j'installerais la nouvelle version dessus aussi ce soir.
Oui, et vivement la GTX 295.
http://www.clubic.com/actualite-243678-gtx-295-geforce-gtx-260-coeurs.html
Un Gpu pour le calcul et l'autre pour le fun.
[:yada44:2]
Mes 4 unités son finit sur mon quad, et j'ai rien reçu de nouveaux :( et pour mon dual cor, il est aussi à sec et ne reçoit pas d'unité. Ce matin avant de partir j'ai essayer de mettre à jour, de redémarrer, de relancer les test de puissance. Rien, aucune unité :(
je suis le seul chez boinc 6.4.5 patauge avec son cache ?
je suis le seul chez boinc 6.4.5 patauge avec son cache ?
:hello:
Pas, essaie de suspendre tes autres projets et de faire une MAJ de GPUgrid !
Rajoute du Seti@béta :hello: pour boucher les trous :D
Halorache et Elgrande71 avez-vous essayé Boinc en 6.4.1?
Sinon quelques nouvelles du matos à venir...
http://www.matbe.com/actualites/55451/nvidia-geforce-gtx-295-285/
:bounce: :ouch: :pt1cable:
Pour les points j'attends de finir la première WU, ce qui est annoncé par le graphique m'inspire pas confiance ^^
Sinon je peux préciser Geforce 570M = Entre une 8600 GT et une 8600GTS.
Que j'ai overcloker de 475/700 @ 550/900
December 18, 2008
A version of SETI@home that runs on NVIDIA graphics boards using their CUDA computing engine has been released. The CUDA version runs up to 10X faster than the CPU version. NVIDIA has put out a press release about the SETI@home CUDA client and about GPU Grid. See directions for getting started.
20/12/2008 11:34:46||Starting BOINC client version 6.4.5 for windows_x86_64
20/12/2008 11:34:46||log flags: task, file_xfer, sched_ops
20/12/2008 11:34:46||Libraries: libcurl/7.19.0 OpenSSL/0.9.8i zlib/1.2.3
20/12/2008 11:34:46||Data directory: C:\ProgramData\BOINC
20/12/2008 11:34:46||Running under account Jean-Marc
20/12/2008 11:34:46||Processor: 4 AuthenticAMD Dual Core AMD Opteron(tm) Processor 275 [AMD64 Family 15 Model 33 Stepping 2]
20/12/2008 11:34:46||Processor features: fpu tsc pae nx sse sse2 pni
20/12/2008 11:34:46||OS: Microsoft Windows Vista: Ultimate x64 Editon, Service Pack 1, (06.00.6001.00)
20/12/2008 11:34:46||Memory: 3.00 GB physical, 6.22 GB virtual
20/12/2008 11:34:46||Disk: 58.59 GB total, 22.24 GB free
20/12/2008 11:34:46||Local time is UTC +1 hours
20/12/2008 11:34:46||Not using a proxy
20/12/2008 11:34:46||CUDA devices found
20/12/2008 11:34:46||Coprocessor: GeForce 8800 GTS 512 (1)
20/12/2008 11:34:46|ABC@home|URL: http://abcathome.com/; Computer ID: 65012; location: home; project prefs: default
20/12/2008 11:34:46|SETI@home Beta Test|URL: http://setiweb.ssl.berkeley.edu/beta/; Computer ID: 36655; location: (none); project prefs: default
20/12/2008 11:34:46|GPUGRID|URL: http://www.gpugrid.net/; Computer ID: 16311; location: (none); project prefs: default
20/12/2008 11:34:46|PrimeGrid|URL: http://www.primegrid.com/; Computer ID: 89258; location: (none); project prefs: default
20/12/2008 11:34:46||General prefs: from http://bam.boincstats.com/ (last modified 16-Dec-2008 11:58:11)
20/12/2008 11:34:46||Host location: none
20/12/2008 11:34:46||General prefs: using your defaults
20/12/2008 11:34:46||Preferences limit memory usage when active to 3070.75MB
20/12/2008 11:34:46||Preferences limit memory usage when idle to 3070.75MB
20/12/2008 11:34:46||Preferences limit disk usage to 10.00GB
20/12/2008 11:34:46|PrimeGrid|Restarting task psp_sr2sieve_15178918_0 using psp_sr2sieve version 111
20/12/2008 11:34:46|PrimeGrid|Restarting task psp_sr2sieve_15178919_0 using psp_sr2sieve version 111
20/12/2008 11:34:46|SETI@home Beta Test|Restarting task 03no08aa.11005.5798.3.11.79_0 using setiathome_enhanced version 605
20/12/2008 11:34:46|PrimeGrid|Restarting task psp_sr2sieve_15178773_0 using psp_sr2sieve version 111
20/12/2008 11:37:08|SETI@home Beta Test|Sending scheduler request: Requested by user. Requesting 0 seconds of work, reporting 4 completed tasks
20/12/2008 11:37:13|SETI@home Beta Test|Scheduler request completed: got 0 new tasks
20/12/2008 11:37:18|PrimeGrid|Sending scheduler request: Requested by user. Requesting 0 seconds of work, reporting 34 completed tasks
20/12/2008 11:37:33|PrimeGrid|Scheduler request completed: got 0 new tasks
20/12/2008 11:37:43|GPUGRID|Sending scheduler request: Requested by user. Requesting 103628 seconds of work, reporting 1 completed tasks
20/12/2008 11:37:48|GPUGRID|Scheduler request completed: got 0 new tasks
20/12/2008 11:37:48|GPUGRID|Message from server: No work sent
20/12/2008 11:37:48|GPUGRID|Message from server: Full-atom molecular dynamics on Cell processor is not available for your type of computer.
20/12/2008 11:37:48|GPUGRID|Message from server: Full-atom molecular dynamics for Cell processor is not available for your type of computer.
Huu?!Citer20/12/2008 11:34:46||Starting BOINC client version 6.4.5 for windows_x86_64
20/12/2008 11:34:46||log flags: task, file_xfer, sched_ops
20/12/2008 11:34:46||Libraries: libcurl/7.19.0 OpenSSL/0.9.8i zlib/1.2.3
20/12/2008 11:34:46||Data directory: C:\ProgramData\BOINC
20/12/2008 11:34:46||Running under account Jean-Marc
20/12/2008 11:34:46||Processor: 4 AuthenticAMD Dual Core AMD Opteron(tm) Processor 275 [AMD64 Family 15 Model 33 Stepping 2]
20/12/2008 11:34:46||Processor features: fpu tsc pae nx sse sse2 pni
20/12/2008 11:34:46||OS: Microsoft Windows Vista: Ultimate x64 Editon, Service Pack 1, (06.00.6001.00)
20/12/2008 11:34:46||Memory: 3.00 GB physical, 6.22 GB virtual
20/12/2008 11:34:46||Disk: 58.59 GB total, 22.24 GB free
20/12/2008 11:34:46||Local time is UTC +1 hours
20/12/2008 11:34:46||Not using a proxy
20/12/2008 11:34:46||CUDA devices found
20/12/2008 11:34:46||Coprocessor: GeForce 8800 GTS 512 (1)
20/12/2008 11:34:46|ABC@home|URL: http://abcathome.com/; Computer ID: 65012; location: home; project prefs: default
20/12/2008 11:34:46|SETI@home Beta Test|URL: http://setiweb.ssl.berkeley.edu/beta/; Computer ID: 36655; location: (none); project prefs: default
20/12/2008 11:34:46|GPUGRID|URL: http://www.gpugrid.net/; Computer ID: 16311; location: (none); project prefs: default
20/12/2008 11:34:46|PrimeGrid|URL: http://www.primegrid.com/; Computer ID: 89258; location: (none); project prefs: default
20/12/2008 11:34:46||General prefs: from http://bam.boincstats.com/ (last modified 16-Dec-2008 11:58:11)
20/12/2008 11:34:46||Host location: none
20/12/2008 11:34:46||General prefs: using your defaults
20/12/2008 11:34:46||Preferences limit memory usage when active to 3070.75MB
20/12/2008 11:34:46||Preferences limit memory usage when idle to 3070.75MB
20/12/2008 11:34:46||Preferences limit disk usage to 10.00GB
20/12/2008 11:34:46|PrimeGrid|Restarting task psp_sr2sieve_15178918_0 using psp_sr2sieve version 111
20/12/2008 11:34:46|PrimeGrid|Restarting task psp_sr2sieve_15178919_0 using psp_sr2sieve version 111
20/12/2008 11:34:46|SETI@home Beta Test|Restarting task 03no08aa.11005.5798.3.11.79_0 using setiathome_enhanced version 605
20/12/2008 11:34:46|PrimeGrid|Restarting task psp_sr2sieve_15178773_0 using psp_sr2sieve version 111
20/12/2008 11:37:08|SETI@home Beta Test|Sending scheduler request: Requested by user. Requesting 0 seconds of work, reporting 4 completed tasks
20/12/2008 11:37:13|SETI@home Beta Test|Scheduler request completed: got 0 new tasks
20/12/2008 11:37:18|PrimeGrid|Sending scheduler request: Requested by user. Requesting 0 seconds of work, reporting 34 completed tasks
20/12/2008 11:37:33|PrimeGrid|Scheduler request completed: got 0 new tasks
20/12/2008 11:37:43|GPUGRID|Sending scheduler request: Requested by user. Requesting 103628 seconds of work, reporting 1 completed tasks
20/12/2008 11:37:48|GPUGRID|Scheduler request completed: got 0 new tasks
20/12/2008 11:37:48|GPUGRID|Message from server: No work sent
20/12/2008 11:37:48|GPUGRID|Message from server: Full-atom molecular dynamics on Cell processor is not available for your type of computer.
20/12/2008 11:37:48|GPUGRID|Message from server: Full-atom molecular dynamics for Cell processor is not available for your type of computer.
Question con, mais est ce que seti utilise CUDA V2 ? parce que sinon, et sous réserve d'utiliser les bons drivers, on pourrait utiliser les cartes compatibles uniquement en CUDA 1.0 non ?
Il ne faut pas oublier que la version cuda de seti est maintenant sur le projet officiel ;)
nVidia annonce un 3ème projet sur cuda: http://www.nvidia.fr/object/io_1229579668743.html
:bounce:
Je suis pas sûr de comprendre ce que tu veux dire par là.... [:yada44:4] le projet officiel de quoi ? cuda ?
En ce qui me concerne je suis en 6.4.5 et je ne vois pas de différence sur seti. Comment on voit que seti utilise bien la carte graphique. J'ai testé GPU grid et seti@home beta. Pour ce dernier projet mes wus étaient toutes en erreur.
vue que SETI et bientot Einstein arrive sur GPU, les UT sont les meme que CPU ? :??: car dans ce cas cela pourrais etre un bench sympa entre une 8800, un P4 et un Ci7 :D !!!
:hello:
Jm@rc :
essaie de mettre GPUgrid en "pas de nouveau de travail" puis fais une mise a jour !
ensuite tu repasses en "autoriser du nouveau travail" et refais une mise a jour !
ça pourrait solutionner ton pb et peut etre même celui de Pas93
Même avec les derniers drivers "stables" nVidia (180.48), plantage après un petite vingtaine de wu, soit 2000 secondes avec 3 GPU et les wu à 15 points de seti. Je me vois très mal rebooter ma machine toutes les demi-heures. Je vais donc abandonner seti temps que ce bug ne sera pas réglé :(
Mon problème semble regler depuis la version 6.5.0 :bounce: :bounce: :hello:
Il n'y a pas de 6.5.0 sous linux :/
[ ] boinc_6.5.0_i686-pc-linux-gnu.sh 20-Dec-2008 10:11 4.1M
[ ] boinc_6.5.0_i686-pc-linux-gnu_debug.sh 20-Dec-2008 10:10 12M
[ ] boinc_6.5.0_macOSX_SymbolTables.zip 17-Dec-2008 15:40 5.5M
[ ] boinc_6.5.0_macOSX_universal.zip 17-Dec-2008 15:41 5.9M
[ ] boinc_6.5.0_universal-apple-darwin.zip 17-Dec-2008 15:41 1.1M
[ ] boinc_6.5.0_windows_intelx86.exe 18-Dec-2008 09:25 6.6M
[ ] boinc_6.5.0_windows_x86_64.exe 18-Dec-2008 09:26 7.3M
:bounce:
comment cette appli est-elle installée ?
il faut vidanger les vielles UT de gpu-grid genre 6.4.20 pour que les nouvelles soient au nouveau format ?
:jap:
Oui , juste dommage que la nouvelle appli windows 6.56 fassent des erreurs sous XP64 a priori :/
Pour ceux qui tournent sous win64:
Les drivers beta 180.84 de cuda semblent résoudre les problèmes de "out of memory" après plusieurs wu et aussi permettent à boinc 6.5.0 de détecter les devices cuda.
:jap:
les credits des wu gpugrid sont passés à 1,887.97
:(
les credits des wu gpugrid sont passés à 1,887.97
:(
:non: La version CUDA de Seti est maintenant sur le projet Seti classique
mer 24 déc 2008 17:22:09 CET|SETI@home|Message from server: Your app_info.xml file doesn't have a version of Astropulse.
Releases for MacOS X and Linux are planned in the near future.
Les bugs il y en toujours, c'est comme les baisses de prix, et les progrès de l'électronique.
Et on peut attendre eternellement la prochaine génération.
@+
*_*
[:yada44:2]
On prends les deux.
:lol:
http://cgi.ebay.fr/Colliers-de-serrage-ideal-pour-body-reborn_W0QQitemZ260338072649QQcmdZViewItemQQptZFR_YO_Jeux_PoupeesBeaute?hash=item260338072649&_trksid=p3286.c0.m14&_trkparms=66%3A2%7C65%3A1%7C39%3A1%7C240%3A1318
@+
*_*
Je viens de tester. C'est quoi cette méthode de bourrin :o
31/12/2008 10:32:19|GPUGRID|Message from server: Full-atom molecular dynamics for Cell processor is not available for your type of computer.
31/12/2008 10:32:19|GPUGRID|Message from server: Full-atom molecular dynamics on Cell processor is not available for your type of computer.
Non, les premieres sont en 65, et les nouvelles en 55.
Mais sur les 55, le système de refroidissement à subi une trop forte réduction, résultat les nouvelles 55 chauffent davantage que les 65...
Pas de regret pour moi.
:fou:
Des problèmes avec les drivers 181.20 sous XP64
je suis revenu sous 180.84
:hello:
Au fait, petite question :
Je viens de passer en boinc 6.4.5. Du coup, je n'ai plus 4 CPU + 1 GPU, mais 3CPU + 1 GPU. Avant l'upgrade (mais pourquoi j'ai fait ca :cry: :cry: ), je tournais à 4+1 (4 ABC + 1 GPUGrid).
Si je downgrade, ca va le faire ? :jap:
Le core i7 sur Boinc, 8 calculs avec le processeur + 1 avec la carte graphique.
@+
*_*
http://forum.boinc.fr/mesimages/118/Boinc 8 coeurs.jpg
[:yada44:2] Papa noël.
Au quai.
http://forum.boinc.fr/mesimages/118/Boinc Zarck.jpg
Je suis bon ? :hello:
[:yada44:2]
Zack tu boinc en solo ?
http://forum.boinc.fr/mesimages/118/Boinc.jpg
C'est bon ?
Quelle distribution Linux, il faut installer ?
[:yada44:2]
Il y a un projet sous Boinc pour GPU qui affichent la Wu en cours de calcul ?
Merci pour toutes ces réponses. [:yada44:2]
Je vais essayer Windows Seven 64 bits.
http://technet.microsoft.com/en-gb/evalcenter/dd353205.aspx#
Et après Linux.
@+
*_*
Moi j'ai un problème sous windows 7 en 32 bits : les unités boinc ne démarrent pas (boinc 6.5.0) ! Il est indiqué "calcul en cours" mais l'avancement reste à 0%, et la charge CPU à 0 !
Edit : le problème se pose avec WCG, et a priori pas avec les autres projets.
"Mais est ce que toutes celle qui ont 216 cores sont gravées en 55nm ????"
Non, les premieres sont en 65, et les nouvelles en 55.
Mais sur les 55, le système de refroidissement à subi une trop forte réduction, résultat les nouvelles 55 chauffent davantage que les 65...
Pas de regret pour moi.
Et je fais tourner uniquement les projets médicaux qui affichent graphiquement le travail en cours, et rien ne tourne avec le GPU pour l'instant. Donc mon nouvel Core i7 m'apporte davantage que la carte graphique. Le core i7 calcule 8 wus en même temps le bougre.
Donc j'attends désormais un 16 cores avec Hyperthread, et c'est par pour demain.
Maintenant je vais m'occuper de changer de Mac, un G4 de l'an 2000...
@+
*_*
j'ai eu les deux versions de cette carte,dans la version 55n quasiment toute la chaleur se degage dans la tour malgré l'extraction arriere...,elle consomme beaucoup plus que la version 65n...
Et moi le 16 coeurs HT.
:hello:
Les GTX295 fonctionnent correctement, et même plus que correctement :whistle: , sur seti :)
http://setiathome.berkeley.edu/show_host_detail.php?hostid=4728651
Le matos de rêve, qu'il à :ouch:
Thierry,
Tu peux nous dire combien tu fais de points sur seti avec une GTX295 ? J'ai un peu de mal à croire que je ne me suis pas trompé en faisant le calcul...
Et également combien elle consomme en full !
plus de 700 WUs en file d'attente ? :ouch:
Est ce qu'il y a une version "seti@home pour Cuda" sous Linux maintenant ?
perso j'ai stoppé seti@home car je plantais régulièrement les drivers de la carte graphique :(
je suis sous Vista64 + boinc 6.4.5 + Nvidia 178.13
Avec nibitor peut-être ?
http://www.softpedia.com/get/Tweak/Video-Tweak/NVIDIA-BIOS-Editor.shtml
Avec Rivatuner on peut également forcer les paramètres au démarrage sans pour celà toucher au bios de la carte.
:jap:
Tous les softs du type Rivatuner imposent d'avoir un écran sur la machine pour tourner. Avec mes crunch boxes, sans écran, ni clavier, ni souris, ça ne marche pas :(
Sinon, je viens effectivement de trouver un topic sur HFR avec la description de la manip avec Nibitor et le flashage du bios. Reste à trouver quelque chose pour booter un DOS avant le lancement de Windows.
Se qui est shiant c'est qu'il faut le refaire à chaque démarrage.
Et en se connectant avec un TSE, y'a pas moyen de régler Rivatuner ?
J'aurais juste une question les gens, savez-vous si GPU Grid fonctionne bien sur les systèmes multi GPU, si les unités sont bien approvisionnées sans pertes de temps ou erreurs ? Je pose la question car je reçois bientôt une GTX 295, donc carte bi-GPU...
Merci d'avance ! :jap:
Thierry : pour démarrer sous dos j'avais récupéré sur smpfr une image iso bootable avec dos dessus, ca marchait bien !il y avait une partition cachée avec le dos et une 2e partoch sur le cd avec ce que tu veux dessus. pratique quand tu n'as plus de lecteur de disquettes !
J'ai déjà fait tourner des 9800GX2 (2 GPU sur la même carte) sur GPUGrid. Le seul problème, c'est que boinc se base sur le nombre de CPU pour calculer les quotas. Il te faut donc une machine qui ait au moins autant de coeurs CPU que de GPU :jap:
J'ai mis une machine avec 2 GTX 295 sur seti et je suis à la limite du quota (100 wu/j/cpu) alors que j'ai 8 coeurs sur le CPU.
:jap:
Merci de ta réponse. Si tout marche c'est cool. Quand au CPU je le savais mais c'est bon c'est un quad (QX).
Quand à ton 8 Cores toi, c'est quoi ? Un i7 quad hyperthreadé ? Deux Xéons quad ... ? Tu fais tourner un projet sur le CPU aussi en plus ?
Et si je peux me permettre une question histoire de rêver, tu sors combien de points par jour avec cette machine ? :jap:
Bonjour !
@Pas
Comme le dit pitheque plus haut tu peux régler Riva de façon automatique !
Dans l'onglet Main où il est inscrit ForceWare detected juste à sa droite tu as Customize et encore à sa droite un petit carré
tu clique dessus ensuite tu clique sur le petit logo avec la carte graphique et dans la fenêtre qui s'ouvre tu as l'onglet overclocking !
Et bien il te suffit de cocher la case Apply Overclocking at windows startup ! et le tour et jouer ! :)
Plus besoin de t'occuper à refaire l'overclock au démarrage ! et tu peux faire la même chose pour le ventilo !
Voilou @+
Sur Milkyway, c'est du 15 000 points par jour et sur seti je pense que ça va allègrement dépasser les 25 000 points par jour. Il faut attendre que le pending se stabilise pour en savoir plus.
:jap:
Tu fais combien d'unités Seti/Gpu en simultané avec tes deux GTX295 ? Quand je regarde tes stats je ne comprends vraiment pas....
ex : 63.94 pts en 116.27 secondes.... Si on fait un prorata sur 24 heures ça donne plus de 47000 pts ! si on multiplie par le nombre de carte, ou par le nombre de GPU ça donne des chiffres hallucinants ! :pt1cable:
Bonjour ! [:nico8313:1]
@Pas
Ah oui ! j'avais pas compris ! deux cartes graphiques bien sur ! oui effectivement ! là c'est plus chi** pour RivaTuner !
et pour activer la deuxième cartes sans être obligé d'avoir un deuxième écran il y à la méthode des résistances 75 ohms !
http://www.overclock.net/overclock-net-folding-home-team/384733-30-second-dummy-plug.html
:jap:
J'espère qu'il saura gérer le calcul de mes unités avec la GTX295, parce qu'avec mon ancienne carte mono-Gpu il était incapable de mettre GPUGrid en priorité absolue, malgré des essais répétés de réglages ou de redémarrages, résultat quand il y avait plusieurs unités d'autres trucs il calculait GPUGrid que de temps en temps (rarement), c'est pourquoi je faisais que du Climate sur les trois coeurs restants du CPU pour être sûr que le coeur GPU était libre... :-/
C'est justement le moyen que j'utilise quand je veux aller modifier quelque chose sur mes crunch boxes: Rivatuner est complètement dans les choux :(
Oui, je suis déjà comme ça, mais seulement comme le dit ThierryH, quand tu as 2 cartes graphique dans le même pc, et que une seul carte est relié à un moniteurs, avec Rivaturner tu ne peux pas oc ta 2èmes cartes, et même en cochant l'option "apply overclocking at windows startup !" la carte graphique ne s'overclocke pas, et tu ne peux même pas controler le ventilo. Le seul moyen, est d'avoir un moniteur de brancher sur ta 2ème carte graphique, au démarrage de la session windows.
De plus sous Vista 64, j'ai moi même le bug avec cette option, il m'arrive en redémarrant mon pc, que mes cartes ne soit pas overclocker, alors que l'option "apply overclocking at windows startup !" soit cocher, et règler avec l'OC.
Mais comme je disais à ThierryH, en faite il faut avoir besoin de relier en connectique à un écran par carte graphique présente sur tes crunchbox au démarrage de la session windows, et tu pourras overclocker et configuré normalement chacune de tes cartes graphiques. Après une fois que le démarrage de la session à été faite, tu peux redébranché des moniteurs. Et il faudra renouvelé l'opération à chaque redémarrage?
Je m incruste un peu mais comme j ai rencontré le même probleme avec TSE sur mes machines tournant sous Cuda , je suis passé en session VNC et depuis ca marche bien .
Normalement, pour utiliser au mieux ton GPU, il te suffit de paramétrer dans boinc (6.6.0 ou quelques versions antérieur)
Avancé->préférences->utilisation du processeur->On multiprocesseur systems, use at most "75 à 99"% of the processors (pour un quad core)
De cette manière ton GPU utilisera un core complet de façon permanente, et les 3 autres cores pour n'importe qu'elle autres projets.
C'est comme cela que ton GPU est le mieux exploité.
Euh , j ai pas eu de souci pour regler la vitesse de mes ventilos sur mes Bi-gtx 260 et ce sans ecran mais rien qu avec une session VNC....
A part mon ancien problème j'aurais une autre question au sujet des quotas d'unités.
Comme CPU j'ai un Quad Core, et je vais avoir une GTX295 donc une carte dual GPU. Le problème c'est que la personne à qui je devais vendre mon ancienne GTX280 ne donne plus de nouvelles, je risque donc de l'avoir quelques temps sur les bras... Si je la fais tourner sous GPUGrid en même temps que la 295, est-ce que je ne risque pas de dépasser mon quotas d'unités et d'avoir des temps morts ? :-/
Bonnes nouvelles Thierry. J'aimerais bien qu'ils le fassent pour GPU Grid aussi.
Tu penses que Seti fonctionnera correctement d'ici vendredi/samedi ? C'est là que j'aurais la nouvelle bête. :jap:
Salut les gens ^^
Je vais recevoir ma gtx 285 la vous pensez que je ferais combien de points par jour sur seti@home ??
ThierryH --> Pour me préparer un peu à l'aménagement final de ma machine, est-ce que tu peux juste me donner quelques détails et conseils de ton paramétrage dans les projets et/ou sous Boinc pour que tout roule à merveille ? Juste histoire de pouvoir faire ça plus vite. Je t'en suis gré d'avance. :jap:
Thierry tu peux nous mettre une photo de ta machine de tueur, on doit difficilement y passer un doigt dedans avec 2 GTX295 :D
Remarque pratique pour bidouiller dedans c'est tout ouvert ;)
ERROR: mdioload.cu, line 146: Unable to read binvelfile
et cave/garage powa aussi Thierry ;)
Sur Gpugrid, j'ai ma 2èmes carte graphique, ma GTX 260 a 192 shaders qui calcul plus :(
A chaque fois qu'elle prend une unité elle se termine en erreur de calcul.
Dans le rapport de calcul, il est écrit :CiterERROR: mdioload.cu, line 146: Unable to read binvelfile
Et ceci arrive depuis le nouveaux client le 6.61
Cela arrive à d'autre personne ?
Elle est fiable la version 6.6.2 de Boinc quelqu'un l'a testée ?
Mais c'est pour quand une version linux ?
:cry:
corran horn à écrit.
Mais c'est pour quand une version linux ?
Il commence à "licencier" chez Microsoft.
Sa devrait plus tardé. :lol:
Il commence à "licencier" chez Microsoft.
Sa devrait plus tardé. :lol:
en 6.6.2 par contre j'ai des wus à gogo sur setibéta, même trop, j'ai cliqué sur "Pas de nouveau travail"
Salut les gens ^^ Je voudrais savoir ces résultats sont ils correct avec une gtx285 pour GPUGRID ?
CPU time (sec) : 13,691.52 Granted credit : 2,478.99 et
CPU time (sec) : 14,100.28 Granted credit : 2,478.99
Alors c'est bien ou pas ?
Ah oui et j'ai un problème aussi avec seti@home qui fonctionne aussi sur le gpu il me dit que la durée de calcul d'une unité met 69.51 secondes dans le tasks for user alors que dans Boinc il met 259 secondes pour calculer l'unité vous savez pourquoi ?
corran horn à écrit.
Mais c'est pour quand une version linux ?
Il commence à "licencier" chez Microsoft.
Sa devrait plus tardé. :lol:
Moi ca marche niquel Vista 64 avec les 181.22 ^^
Ouai ThierryH j'ai un Q6600 à 3,2ghz :)
Je voulais passer au core i7 mais j'ai plus de sous :( lol
ha ouais, grande nouvelle !!
:hello:
Je passe simplement pour dire qu'avec l'appli 6.08 de SETI, ma GeForce 8800 GTS 320 Mo (Compute Capability 1.0 -dixit Cuda-z) marche maintenant !!!
J'ai reçu cette nuit toute une flopée de Wu 6.08(Cuda) à grignoter !!! :bounce:
:hello:
Je passe simplement pour dire qu'avec l'appli 6.08 de SETI, ma GeForce 8800 GTS 320 Mo (Compute Capability 1.0 -dixit Cuda-z) marche maintenant !!!
J'ai reçu cette nuit toute une flopée de Wu 6.08(Cuda) à grignoter !!! :bounce:
No cuda device found :(
T'as mis quoi comme versions nVidia et boinc ?
:jap:
Alors :
Nvidia version de pilote 181.20
Boinc : 6.4.5
nVidia 181.22
Boinc 6.4.5
Vista64
=> no CUDA device found
C'est quoi ton OS ?
:jap:
Oups ! pardon... je donne les infos au compte-goutte !!!
CPU type GenuineIntel
Intel(R) Core(TM)2 Quad CPU Q6600 @ 2.40GHz [x86 Family 6 Model 15 Stepping 11]
Number of CPUs 4
Coprocessors [CUDA|GeForce 8800 GTS|1|320MB]
Operating System Microsoft Windows Vista
Home Premium x86 Editon, Service Pack 1, (06.00.6001.00)
Oups ! pardon... je donne les infos au compte-goutte !!!
CPU type GenuineIntel
Intel(R) Core(TM)2 Quad CPU Q6600 @ 2.40GHz [x86 Family 6 Model 15 Stepping 11]
Number of CPUs 4
Coprocessors [CUDA|GeForce 8800 GTS|1|320MB]
Operating System Microsoft Windows Vista
Home Premium x86 Editon, Service Pack 1, (06.00.6001.00)
Friend of mine has an 8800GTS 320 that he got at least 6 months ago and I verified with Everest that it really is a G92. Just pointing out that we don't actually have a solid/approximate date of when they switched from G80 to G92.
Super Nico !! (Tu vas encore grimper dans le classement !)
Oui tout à fait ! :)
Et ma note d'électricité aussi va bien grimper ! :(
Mais bon qu'est ce que je ferais pas pour la science ! :)
Une question:
Une GeForce 6200/6200TC est compatible?
Et un shipset GeForce 6100 nForce 430 ?
Oui tout à fait ! :)
Et ma note d'électricité aussi va bien grimper ! :(
Mais bon qu'est ce que je ferais pas pour la science ! :)
Une question:
Une GeForce 6200/6200TC est compatible?
Et un shipset GeForce 6100 nForce 430 ?
felicitation nico,si tu continue tu vas nous fabriquer une boite a meuh :pt1cable:
j'ai arreté seti@home,j'ai des miliers de points en pending,je vais attendre que ce stock s'ecoule :jap:
J'avais plus de 200 000 points en pending ce matin. Il y en a un quart qui vient être crédité. Les champions du top computer risquent d'avoir un réveil difficile, même ceux qui ont des machines à 48 cores :D
J'avais plus de 200 000 points en pending ce matin. Il y en a un quart qui vient être crédité. Les champions du top computer risquent d'avoir un réveil difficile, même ceux qui ont des machines à 48 cores :D
J'ai arreté seti@home,j'ai des miliers de points en pending,je vais attendre que ce stock s'ecoule :jap:
Je trouve ca normal !
Le cpu en fait peu par jour comparé au GPU. Donc tu auras un RAC bien plus grand.
C'est plutot lui qui peut dire ca..Il est crédité autant qu'un GPU, alors qu'il met bien plus de temps ^^
Enfin bon. Je pense que les points sont normaux. Au pire c'est que le début, ca changera peut etre. Mais du 125pts/h pour un CG c'est plutot pas mal !
Euh non !!!!
Comme le dit Pousse Mousse ses cartes ne sont pas compatible !
Les cartes que tu présentes sont des Geforce 6 ! Cuda et implanté à partir des Geforce 8 ! :jap:
Donc comme je le disais les Geforce 8800GTS 320/640 peuvent maintenant faire du seti@home ainsi que toutes les 8800GTX et 8800ULTRA !
Ses cartes ne peuvent pas faire du GPUGRID du fait qu'elles ne peuvent pas faire tourner cuda 1.1 2.0 et 2.1
Mais pour seti c'est tous bon ! :)
ZeuZ explique bien tous le reste en pages 1 :jap:
Salut les gens ! J'ai reçu ma nouvelle GTX295... Mais il n'y a qu'une unité qui calcule en permanence. Savez-vous comment lui faire faire deux unités GPUGrid à la fois pour que les deux cœurs soit utilisés ? Merci ! :jap:
Je crois qu'il y a une petite erreur de compréhension.
Je parle uniquement du mélange des notions CUDA 1.1, 2.0 et 2.1
Les compute capability (appelé aussi révision CUDA) 1.0, 1.1 et 1.3 (aucune carte en 1.2 n'existe) sont des fonctions hardware, intégrées à la carte.
Les SDK (kits de développement) 1.1, 2.0, 2.1 (et bientôt 2.2, courant de ce trimestre ci) sont des fonctions software. Le SDK 2.0 a entrainé une incompatibilité théorique avec les cartes qui n'avaient pas des compute capability 1.1 ou supérieur.
Pour donner un parallèle, c'est comme des applications de projet X qui sont incompatibles avec les versions 5.xx de boinc.
Donc, la version 6.08 (si je me trompe pas) doit passer outre l'impossibilité des cartes 1.0 de prendre en charge les fonctions atomiques (vu que c'est la seule différence entre les révisions 1.0 et 1.1).
Dans la même veine, il se pourrait que dans le futur certains projets aient besoin de calculs en virgule flottante double précision. à ce moment là, seules les cartes en compute capability 1.3 et + seront compatibles (théoriquement.
Voilà, j'espère avoir été relativement clair. Vu que je parle avec quelqu'un sur msn en même temps, je suis peut être pas aussi clair que voulu. Aussi bien c'est moi qui ait mal compris la phrase..... :whistle:
ça y est les amis ça maaaaaaaarche !!!!!!! :bounce: :bounce:
Ressortez tous vos 8800GTS 320/640 du placard !!!!!!!!!! J'ai pas pu résister je l'ai installer maintenant ! :D
Je fais du seti et du GPUGRID en même temps avec une GTX260 et une 8800GTS640 !
Bon ! c'est un petit test sous win XP 32bits avec boinc 6.4.5 je vais dans la semaine faire un test sous Linux Ubnutu 64bits 8.10 !
le GPUGRID est envoyer uniquement vers la GTX ?
comment se fait l'allocation vers une carte ou vers une autre
avec seulement une GTS GPUGRID refuse de me donner des calculs et le seti est hs ;( :cry:
dommage
Bonsoir ! [:nico8313:1]
Il me semble que ton modèle de GTX à un SLI interne je pense qu'il doit falloir le désactiver ![:jwhy]
http://www.matbe.com/images/biblio/divers/000000081060.jpg
Salut les gens ! J'ai reçu ma nouvelle GTX295... Mais il n'y a qu'une unité qui calcule en permanence. Savez-vous comment lui faire faire deux unités GPUGrid à la fois pour que les deux cœurs soit utilisés ? Merci ! :jap:
Salut les gens ! J'ai reçu ma nouvelle GTX295... Mais il n'y a qu'une unité qui calcule en permanence. Savez-vous comment lui faire faire deux unités GPUGrid à la fois pour que les deux cœurs soit utilisés ? Merci ! :jap:
EDIT: Oui seti et HS en ce moment ! C'est la faute de ThierryH qui nous pique tout le boulot ! :lol:
Ouaip je m'en doutais, cela dit je ne vois pas trop où faire ça avec cette carte... J'ai cru avoir trouvé un moment dans les pilotes mais ça a un peu bugué et est revenu aux valeurs par défaut... Ça m'embêterait que ça soit ça...
Il faut que tu branche un moniteur sur ta 2ème carte graphique. sinon, boinc ne vérra que un GPU. ( pensez aussi a activer ce moniteur avec l'option étendre se moniteur à se bureaux. ) c'est se que je doit faire avec mes 2 cartes graphique bien distincte. Mais la comme c'est 2 carte collé...
Sinon, tu devrait trouver se qu'il te faut dans le controle panel de nvidia pour le SLI
Pareil dès que je gagne au loto (enfin dès que je commence à jouer et gagner) je ne serais plus dernier :)
mdr mais tu te moque on dirait , dis tout de suite qu'elle trouvera jamais
comme j'ai une 9800gx2 je devrais avoir 2 calcul gpu en meme temps et j'ai qu'un... comment configurer pour en avoir deux?
pour les wu seti il faut aller les pécher manuellement;préparez vos cannes à pèche et du café car le poisson ne mord que de 23h00 à 1h00 et de 6h30 a 8h00 :sweat: :sweat:
j'ai l'equivalent de 10 jours de cache,je suis tranquille pour 6 à 7 jours;allez je rentre au port :)
edit:
j'ai croisé Thierry h sur le retour,il y vas carrement à la dynamite pour recuperer les wu..(le coquin)
Il me semble que cette question a été posée sur la page précédente, et répondue un peu au dessus.
peut etre pensent ils qu'en mettant moins de temps à terminer une wu nous somme largement avantagé pour faire plus de crédit...cela expliquerais ceci...
enfin si c'est ca je trouve cela un peu vache de leur part
oui...
par contre niveau credit c'est un peu n'importe quoi,regardez:
http://forum.boinc.fr/mesimages/3187/Capture.png4..png
ca c'est ma gtx 260 contre un Q6600 (quad core a 2,4ghz),je calcule plus vite et pourtant nous sommes crédité pareil.
http://setiathome.berkeley.edu/workunit.php?wuid=402881369
Moi je ne trouve pas ça normal du tout, c'est clair que normalement on devrait être crédité beaucoup mieux qu'un cpu ( en plus j'ai une gtx285 donc ça poutre quand même assez bien ) donc moi au final je me rabat sur GPUGRID qui attribue un nombre de crédit conséquent et mérité même si je préférerais contribuer à Seti@home avec mon GPU
[:nico8313:1]
En principe il ne devrait pas y avoir de problème pour mettre des cartes Nvidia sur un système Cross Fire si le SLI n'est pas activé
(puisque pas compatible) .
Mais je me posais justement la question de savoir si le SLI interne de la GTX295 ne posait pas un problème avec se type de carte mère ?
les systèmes de tout nos PC sont tellement différent que c'est pas facile à dire !
Peut-être que dans le Bios il faut désactiver l'option Cross Fire à moins que par défaut l'option ne le soit déjà !
Et surtout bien vérifier du côté de l'alimentation ! Une alimention de qualité y joue beaucoup ! et surtout avec des bêtes comme tu possède mieux vaut bien être armé car elles pompent pas mal de jus !
[:jwhy]
Je comprends pas bien votre histoire de crossfire, ca veux dire que je peux mettre deux gtx285 sur mon Asus Maximus Formula SE X38 qui normalement n'est pas compatible SLI ??
Mais on peux tout de même faire fonctionner les deux dans Boinc ?
:??:
Dans Boinc quel réglage doit-on activer pour avoir 2 cores qui alimentent deux cartes?
Avancé > Préférences > Usa at most xx% of the processors
:sweat:
2009-01-30: GPUGRID - New GPU applications
New applications for Windows and Linux released. CPU usage is now close to zero, so that you can keep crunching other CPU projects as before while also using the GPUs in your machine.
C'est bien ça ! :)
Depuis que on est en 6.62 j'ai pas mal de wus en erreur :cry: :cry:
effectivement pareil pour moi concernant la version 6.6.2 de Boinc comme c'est une pre release il faudrait voir si la 6.4.5 ne serait pas plus à même de répondre à nos besoins????
j'ai pu encore faire le plein de wu cuda sur seti...
http://forum.boinc.fr/mesimages/3187/Capture-3.png1..png
169Mo ce qui correspond à environ 454WU;le soucis c'est que le serveur continue de m'en envoyer,je ne suis pas en priorité haute sur seti mais j'ai du mal a croire que mar carte vas reussir a bouffer tout ca :sweat: :sweat:
edit:
j'en suis à + de 600.. :sweat: :sweat:
ven 30 jan 2009 19:14:13 CET|SETI@home|Sending scheduler request: To fetch work. Requesting 446242 seconds of work, reporting 0 completed tasks
ven 30 jan 2009 19:14:14 CET|SETI@home|Finished download of 21dc08ab.28500.4980.14.8.186
ven 30 jan 2009 19:14:18 CET|SETI@home|Scheduler request completed: got 0 new tasks
ven 30 jan 2009 19:14:18 CET|SETI@home|Message from server: No work sent
ven 30 jan 2009 19:14:18 CET|SETI@home|Message from server: No work is available for SETI@home Enhanced
ven 30 jan 2009 19:14:18 CET|SETI@home|Message from server: (reached daily quota of 700 results)
ven 30 jan 2009 19:14:18 CET|SETI@home|Message from server: (Project has no jobs available)
Citerven 30 jan 2009 19:14:13 CET|SETI@home|Sending scheduler request: To fetch work. Requesting 446242 seconds of work, reporting 0 completed tasks
ven 30 jan 2009 19:14:14 CET|SETI@home|Finished download of 21dc08ab.28500.4980.14.8.186
ven 30 jan 2009 19:14:18 CET|SETI@home|Scheduler request completed: got 0 new tasks
ven 30 jan 2009 19:14:18 CET|SETI@home|Message from server: No work sent
ven 30 jan 2009 19:14:18 CET|SETI@home|Message from server: No work is available for SETI@home Enhanced
ven 30 jan 2009 19:14:18 CET|SETI@home|Message from server: (reached daily quota of 700 results)
ven 30 jan 2009 19:14:18 CET|SETI@home|Message from server: (Project has no jobs available)
bilan:
700 wu téléchargés,après calcul;juste de quoi tenir 4 jours... :sweat:
ven 30 jan 2009 19:18:47 CET|SETI@home|Computation for task 20dc08ab.3978.23385.9.8.14_0 finished
ven 30 jan 2009 19:18:47 CET|SETI@home|Starting 20dc08ab.3978.23385.9.8.10_0
ven 30 jan 2009 19:18:47 CET|SETI@home|Starting task 20dc08ab.3978.23385.9.8.10_0 using setiathome_enhanced version 608
ven 30 jan 2009 19:18:49 CET|SETI@home|Started upload of 20dc08ab.3978.23385.9.8.14_0_0
ven 30 jan 2009 19:19:03 CET|SETI@home|Finished upload of 20dc08ab.3978.23385.9.8.14_0_0
ven 30 jan 2009 19:27:40 CET|SETI@home|Computation for task 20dc08ab.3978.23385.9.8.10_0 finished
ven 30 jan 2009 19:27:40 CET|SETI@home|Starting 21dc08ab.11148.9070.4.8.60_0
ven 30 jan 2009 19:27:40 CET|SETI@home|Starting task 21dc08ab.11148.9070.4.8.60_0 using setiathome_enhanced version 608
ven 30 jan 2009 19:27:42 CET|SETI@home|Started upload of 20dc08ab.3978.23385.9.8.10_0_0
ven 30 jan 2009 19:27:45 CET|SETI@home|Finished upload of 20dc08ab.3978.23385.9.8.10_0_0
ven 30 jan 2009 19:36:34 CET|SETI@home|Computation for task 21dc08ab.11148.9070.4.8.60_0 finished
ven 30 jan 2009 19:36:34 CET|SETI@home|Starting 21dc08aa.3503.23794.4.8.0_1
ven 30 jan 2009 19:36:34 CET|SETI@home|Starting task 21dc08aa.3503.23794.4.8.0_1 using setiathome_enhanced version 608
ven 30 jan 2009 19:36:36 CET|SETI@home|Started upload of 21dc08ab.11148.9070.4.8.60_0_0
ven 30 jan 2009 19:36:41 CET|SETI@home|Finished upload of 21dc08ab.11148.9070.4.8.60_0_0
ven 30 jan 2009 19:37:23 CET|SETI@home|Computation for task 21dc08aa.3503.23794.4.8.0_1 finished
ven 30 jan 2009 19:37:23 CET|SETI@home|Starting 20dc08ab.3978.23385.9.8.16_0
ven 30 jan 2009 19:37:23 CET|SETI@home|Starting task 20dc08ab.3978.23385.9.8.16_0 using setiathome_enhanced version 608
ven 30 jan 2009 19:37:25 CET|SETI@home|Started upload of 21dc08aa.3503.23794.4.8.0_1_0
ven 30 jan 2009 19:37:32 CET|SETI@home|Finished upload of 21dc08aa.3503.23794.4.8.0_1_0
j'ai pu encore faire le plein de wu cuda sur seti...
http://forum.boinc.fr/mesimages/3187/Capture-3.png1..png
169Mo ce qui correspond à environ 454WU;le soucis c'est que le serveur continue de m'en envoyer,je ne suis pas en priorité haute sur seti mais j'ai du mal a croire que mar carte vas reussir a bouffer tout ca :sweat: :sweat:
edit:
j'en suis à + de 600.. :sweat: :sweat:
Wouooooo ! :ouch:
ça va être bon pour moi çà avec mes deux GPU ! :D
ThierryH surtout ne lis pas ce message ! :lol:
:hello:
Ils vont me donner envie de faire du séti ( cuda) avec tous sa. [:frederic]
Ce matin, seti n'a pas voulu me donner plus de wu sur ma machine à base de 295 car elle avait atteint son quota de 2800 wu par jour :D
thierryh. :hello:
À l'i7 + deux gtx
En kit le i7-920 plus une carte mère asus + trois ddr3 triple chanel (j'avais prévu de la corsaire) c'est 700 euros(sans disque alime boitier et sans os bien sur)
Plus 2 x 500 euros et des poussières la 295 gtx) . :cry:
dit, par curiosité, l'alimentation fait combien de watt? :ouch:
Effectivement ! je fais des unités 6.62 avec boinc 6.4.5 et il n'y à pas d'erreur sur une GTX260 avec W$ XP 32bits !
J'ai mis une 1000 W Corsair :jap:
La machine complète m'a coûtée 2000€.
Tu crois ?
http://setiathome.berkeley.edu/top_hosts.php
:whistle:
les troisième sur la liste:
GenuineIntel
Genuine Intel(R) CPU @ 2.66GHz [Intel64 Family 6 Model 29 Stepping 1]
(48 processors)
:pt1cable:
ça existe vraiment ça pour une machine personnelle????
Flo a écrit :
les troisième sur la liste:
GenuineIntel
Genuine Intel(R) CPU @ 2.66GHz [Intel64 Family 6 Model 29 Stepping 1]
(48 processors)
:pt1cable:
ça existe vraiment ça pour une machine personnelle????
Dans tous les cas, cette machine doit être très loin des 2000€ :D
Faut au moins ca pour jouer à tuxkart :lol:
le troisième sur la liste:
GenuineIntel
Genuine Intel(R) CPU @ 2.66GHz [Intel64 Family 6 Model 29 Stepping 1]
(48 processors)
:pt1cable:
ça existe vraiment ça pour une machine personnelle????
J'ai laissé les ventillos à la programmation d'origine et ça régule de manière à toujours avoir une température de 80°c :jap:
:??: =>ma GTX295 (Asus) veut pas collaborer avec ma GTX260 (Gigabyte)
ne peut on pas mettre deux cartes graphiques différentes sur une même carte mère ?
Pour ce pb, ça te fait quoi exactement ? Ça s'exprime comment ? Parce que chez moi totalement impossible de mettre ma "petite" gtx280 avec ma gtx295 aussi... :??:
contexte :
XP 32
GTX295 PCI express 16, avec écran
GTX260 PCI express 8, sans rien
carte mère Gigabyte EP45T extreme, bios v.F5d
alim : 1200w (Antec p192 -)
alors que fonctionne correctement avec 2 x GTX260
symptomes :
au démarrage, bios : OK
WP32 démarre avec la "bande de défillement" : OK
écran bleu qui vient après : non, donc on aboutit à un écran noir, (mais je sais plus si XP est ok derriere cet écran noir ou bien planté)
Et pour toi ?
contexte :
XP 32
GTX295 PCI express 16, avec écran
GTX260 PCI express 8, sans rien
carte mère Gigabyte EP45T extreme, bios v.F5d
alim : 1200w (Antec p192 -)
alors que fonctionne correctement avec 2 x GTX260
symptomes :
au démarrage, bios : OK
WP32 démarre avec la "bande de défillement" : OK
écran bleu qui vient après : non, donc on aboutit à un écran noir, (mais je sais plus si XP est ok derriere cet écran noir ou bien planté)
Et pour toi ?
Boot en mode sans échec. Désinstalle les drivers des CV. Boot en mode normal. Réinstalle les drivers nVidia, ne pas laisser Windows s'en occuper tout seul.
:jap:
Désolé pour le flood, mais je préfère refaire comme diycalculator pour plus de clarté :
....
Écran noir qui vient après et qui dure plus longtemps que d'habitude, 20 secondes au lieux de 2 ou 3, puis fameux écran bleu parlant d'une boucle infinie des pilotes m'obligeant à rebooter par Reset.
....
:p
oui : c'est exactement ce résultat malgré les conseils de ThierryH. Y ce passe des truc curieux : (même contexte post précédent)
1-d'abord, faut bien s'assurer que sous XP sans echec, XP voit tes deux cartes (via panneau config etc...) moi déjà la GTX260 est restée introuvable jusqu'à ce que je découvre un mauvais contact au niveau PCI express... :pt1cable:
2-ensuite au niveau des drivers nvidia :
--version 177 livré GTX260: carte 260 OK
--version 180 livré GTX295: carte 295 OK mais pas la 260
--version 181 site Nvidia : carte 295 OK et 260 OK mais pas stable longtemps après avoir neutralisé le mode SLI, écran noir comme ci dessus, faut tout réintaller :fou:
3- j'ai même réussi à faire l'écran noir avec seulement la GTX295, avec une version driver 181, en reboutant juste après avoir neutralisé le mode SLI via le panneau de config Nvidia ... et c'est reproductible.Ce point me parait être le plus important, et à mon avis c'est ça qui coince. :whistle:
Ha, mon XP 32 est un pack3 mais la mise à jour remonte à 1 ou 2mois
Non j'ai aucun ralentissement, j'ai une gtx285 ^^ Merci de m'avoir éclairer :)
Où ça ?
:o
Salut ! Je voulais savoir si GPUGRID est compatible avec un ordi portable? J'ai une nvidia 9500M GS, à-priori suffisament puissante, mais comme c'est sur un portable...
J'ai un peu de mal à saisir l'objet du programme.tu parles de Cuda-Z?
Dites moi, quelle est la puissance en Gflops fournis par une gtx285 ?
Nux est il vraiment irreprochable sur ce plan ?
:??: gros plantage ce WE (cf post plus haut) avec boinc 6.4.5/1x GTX295/XP/181.xx => retour au drivers d'origine asus (v180.xx)
:fou: toutes mes wu GPUGRID sont retournées avec erreur de calcul avec GTX295/XP/180.xx depuis 2 jours, mais...
:lol: toutes ok (90%) sous seti, donc... (dommage pour le pending)
Nux est il vraiment irreprochable sur ce plan ?
Sortie de la version 6.6.5 ^^
Ou ca ?
Ici ! http://boinc.berkeley.edu/dl/?C=M;O=D
Bonjour les cudateur,
Je vouvrai savoir si le calcul par gpu est possible sur des cartes ATI? avec l'ATIstream.
Merci
Qu'est-ce que ça donne concrètement niveau performances et qualité des calculs cette version particulière de milky sous ATI ?
J'ai cru comprendre que ça mettait environ 9 secondes par unité... c'est crédité de quelle manière avec des unités pareillement expédiées ?
virtualbox je ne sais pas mais vmware le fait ;)
vivement une appli optimisée pour les GPU nvidia ! mais ne nous plaignons pas, pour une fois que ATI est servi est premier, bravo
le dossier sous Vista est là :
Poste de Travail, C:, ProgramData, Boinc
reprenez moi si j'ai raconté une bêtise, j'ai fait ça de tête...
Modifie ton fichier comme ci-dessous :
http://www.kirikoo.net/images/7AFMeteore31-20090212-130406.jpg
faut juste changer le 14 et le 16 par 17
tu l'ouvres avec le bloc note, tu fais les 2 modifs, tu le sauvegardes, tu copies les 2 fichiers (app_info.xml modifié + astronomy_0.16_SSE.exe) dans ton dossier du projet Milky, puis tu relances Boinc
avant toute manip il faut fermer Boinc, lol
même manip à faire pour SSE2, SSE3, SSSE3, SSE4.1
ne pas toucher aux autres fichiers présents dans le dossier du projet Milky
gaulois952 j'ai modifier le fichier app_info.xml comme toi mais le fichier
astronomy_0.17_SSSE3.exe tu le trouve ou , car dans le SSSE3.zip il n'y a que le fichier astronomy_0.16_SSSE3.exe.
et dans le repertoire milkyway.cs.rpi.edu_milkyway il faut virer milkyway_0.17_windows_intelx86.exe ou pas ??
Il faudrait connaitre la liste des cartes compatible....
J'ai bien peur que la mienne ne tourne pas (HD3650)
Alors on s'évade du HS pour parler de l'optimisation GPU de SETI@home, quelqu'un à réussis à la faire marcher ? Car moi quand j'essaie de l'activer une fois revenu dans Boinc toutes mes unités disparaissent et ca me fais completement beugué Boinc
http://lunatics.kwsn.net/gpu-crunching/modified-seti-mb-cuda-opt-ap-package-for-full-gpu-utilize.0.html
j'ai remis l'opti pour seti cuda et pour l'instant ça marche, je vois pas trop de gain de perfs... avec ma 8600GT lol
je teste l'appli MB_6.08a_mod_VLAR_fix_CUDA
quelle différence avec l'appli MB_6.08_mod_VLAR_kill_CUDA ?
:hello: Hubert,
hum pas trop d'idée concernant ton problème, tu n'es pas à 0% niveau priorité pour Gpugrid?
Hey les gens moi j ai un problème avec GPUGRID, il y a une unité qui a été calculée mais qui n'a pas été créditée car sois disant il y a cela : Redundant result Cancelled by server
Task ID 298077
Name ek18101-SMD05_1-0-1-SH2_0
Workunit 222832
Created 11 Feb 2009 14:47:02 UTC
Sent 11 Feb 2009 15:23:03 UTC
Received 11 Feb 2009 20:51:08 UTC
Server state Over
Outcome Redundant result
Client state Cancelled by server
Exit status -221 (0xffffffffffffff23)
Computer ID 23976
Report deadline 15 Feb 2009 15:23:03 UTC
CPU time 0
stderr out6.6.5
Validate state Not necessary
Claimed credit 0
Granted credit 0
application version 6.62
Je comprends pas :(
Client state Cancelled by server
Les gars vos unités sont indiquées "CPU time 0" donc vous n'avez rien calculé l'UT a été renvoyé au projet direct sans être calculée car le projet a détecté que le résultat avait déjà été rendu ;)
Pousse Mousse a raison, c'est marqué noir sur blanc ;)CiterClient state Cancelled by server
Cuda 2.1, c'est pas à installer.... :o
C'est un truc qui sert uniquement aux développeurs.
c'est pas aujourd'hui que je pourrais mettre en route ma boite a meuh...on m'as preté une alim de 1000 watt qui a litteralement "explosé"(condensateurs) à753 watt de charge.. :fou: :fou:
j'abandonne je vais continuer a tourner sur mon vieux coucou en attendant d'acheter une autre alim :fou: :fou: :fou:
je vous epargne les photos pas eu le courage de demonter l'alim...
Tu t'occupes pas du tout du sdk ni du "toolkit". tu n'as besoin que des drivers nvidia pour la carte graphique, je sais pas où on en est, 181.22 je crois, et la dernière version de boinc.
ok tibi euh... je reprends j'installe quoi :
- CUDA driver: NVIDIA Driver for Microsoft Windows Vista with CUDA Support (181.20).
- CUDA toolkit: CUDA Toolkit version 2.1 for Windows Vista (Release Notes)
- CUDA SDK: CUDA SDK 2.1 for Windows Vista
moi je voulais installer cuda driver le 1er est-ce faux?
ou ceux ci mais ils sont plus vieux les drivers :
CUDA 2.0 :
- CUDA driver: NVIDIA Driver for Microsoft Windows Vista with CUDA Support (178.08). Includes driver support for 8 series and higher GPUs. Download
- CUDA toolkit: CUDA Toolkit version 2.0 for Windows Vista Download
- CUDA SDK: CUDA SDK version 2.0 for Windows Vista
c'est pas aujourd'hui que je pourrais mettre en route ma boite a meuh...on m'as preté une alim de 1000 watt qui a litteralement "explosé"(condensateurs) à753 watt de charge.. :fou: :fou:
j'abandonne je vais continuer a tourner sur mon vieux coucou en attendant d'acheter une autre alim :fou: :fou: :fou:
je vous epargne les photos pas eu le courage de demonter l'alim...
Mais tu as quoi sur la config pour atteindre déjà 753 watts?
V8 + GTX?
Ah oui et j'ai un autre problème, j'ai voulu me mettre à linux, mais impossible d'installer la nouvelle version de boinc ==> boinc_6.6.4_x86_64-pc-linux-gnu.sh
Car je n'ai aucune idée de comment installé un fichier .sh :(
Je suis vraiment un noob :sweat:
Pour un fichier .sh, il te suffit de procéder de la manière suivante:
ouvrir un terminal et se rendre dans le répertoire où figure le fichier .sh puis le lancer par la commande, sh boinc_6.6.4_x86_64-pc-linux-gnu.sh
Après un répertoire BOINC est créé, il suffit de s'y rendre et de lancer le client par run_client puis run_manager pour gérer les projets. ;)
donc bientot milky tournera sur nvidia, j'espère pouvoir l'utiliser avec ma 8600gt...
exact ! :o
au boulot il y a plusieurs tours low profile qui crunchent que sur le cpu et donc...
Tu t'occupes pas du tout du sdk ni du "toolkit". tu n'as besoin que des drivers nvidia pour la carte graphique, je sais pas où on en est, 181.22 je crois, et la dernière version de boinc.
Faut pas se fier à ce qui est écrit sur cette page : http://www.nvidia.com/object/cuda_get.html
C'est uniquement pour les développeurs d'applications cuda.
Je sens qu'il va falloir faire un récapitulatif...
Tiens c'est ça la derniere version des drivers Nvidia : http://www.nvidia.fr/object/winvista_x86_182.05_beta_fr.html
Je t'ai mis le liens pour windows vista 32 bit mais si tu veux chercher précisément pour ta carte va sur ce lien :
http://www.nvidia.fr/Download/Find.aspx?lang=fr
+1 Hubert tu n'as pas a te compliquer la vie il te suffit de récupérer les derniers drivers Nvidia pour ton OS et c'est tout (Version de BOINC adéquate évidement).
Les p'tits gars qui ont développé une appli opti de Milkyway sur GPU ATI sont en train de plancher sur une version cuda :bounce:
Comme les calculs doivent obligatoirement se faire en double précision, seules les cartes GTX2xx seront concernées. De plus, ces cartes sont beaucoup plus lentes que les ATI pour ce genre de calcul. Ils pensent que le temps de calcul devrait tourner aux alentours de 25s pour les nVidia contre 9s pour les ATI.
:jap:
J'y comprends strictement rien, ca fais une heure que j'essaie de faire ce que tu me dire j'arrive à rien... Bref je laisse tomber linux c'est dommage... Et tu as vu ou qu'il y avait une application optimisée de prevu pour Milkyway@home avec cuda ThierryH ? Au fait si tu veux ya l'oprimisation SSE4.2 pour les core i7 qui vient d arriver ( car je crois que t en a un ^^ ) => http://www.3rd.in/zslip/milkyway/windows19/SSE4.2.zip
Et ce sera plus avantageux au niveau des crédits d'utiliser l'application optimisée cuda de milkyway ou de rester avec GPUGRID ?
2009-02-16: MilkyWay@home - Project News: Credit Change
I've updated the credit rates, WUs should be generating around 12 credit each for the new searches. I've also lifted the credit limit. This is a pretty big change so there's probably going to be a bit more tweaking to be done, but I'm going to see how this goes for awhile.
Donc pour moi ça fais environ 13824 points par jour pour 12 points/unités :)
existe t il des cartes compatibles GPU-Crunch en "low profile" ?
le low profil c'est juste le faible encombrement de la carte vidéo, pour les petites tours ou pour en mettre plein côte à côte...
Sortie de la version 6.6.9 de Boinc !
http://boinc.berkeley.edu/dl/?C=M;O=D
Lol aucun problème avec cette version allez y les yeux fermés ;)
EDIT : J'ai atteins le million de crédits ça y est ^^ !
EDIT 2 : Sortie de la version 6.6.10 de Boinc ! http://boinc.berkeley.edu/dl/?C=M;O=D
J'ai deux pc, dont un très vieux amd qui fournis un petit millier de points par jour lol, voici la config du pc qui crunch 20000 points par jours :
Q6600@3,3ghz
GTX 285@ 700/1330/1610
Asus Maximus Formula
6 Go ddr2
Et ma future config que j'aurais début mai ^^ :
Core i7 920
Gigabyte GA-EX58-Extreme
Patriot LL Viper Tri-channel DDR3-1600 CL8 3Go (3x1Go)
SLI GT212
Corsair 550W CMPSU-550VX
Antec Twelve Hundred
Qu'est ce que je ferais pas pour la science :)
Allez prochain objectif les 2 millions !
J'ai enfin décidé de mettre à jour mon boinc avec la version 6.6.10 et tout ce que je gagne c'est qu'il ne fait plus qu'une unité à la fois sur ma gtx295, la seconde est en attente, même en mettant 99% ou même 99,99% de l'utilisation CPU, (je fais du milky version opti 0.19 sur trois coeurs à côté), alors que ça marchait bien avec la bonne vielle 6.3.10 beta :-/ Ça refonctionne apparemment normalement en repassant à la bonne vielle 6.3.10... Voilà pourquoi je flippe tout le temps de changer de version.
Une idée d'où vient le problème les gens ? :??:
Edit : en 6.3.10, une unité GPU Grid semble un poil plus lente que l'autre alors qu'elle commence pile en même temps (infime mais permanent), c'est peut être parce qu'il manque une infime puissance sur le core dédié pour que ça lance les deux à la fois sur la nouvelle 6.6.10 qui doit regarder ça plus précisément et la mettre en pause... Je note aussi que le retard se resserre nettement en passant de 99.00% du processeur à 99.80% par exemple... Mon imagination ou c'est effectivement logique ?
:hello: Hubert !
Ce sont les points de sauvegarde des unités en cours, toutes les 2 minutes apparemment..
Si tu stoppes Boinc les calculs reprendront à partir de ces points de sauvegarde, ça évite de recommencer à zéro.
Salut les gens ^^
J'ai voulu m'essayer à SETI@home mais voici le message qu'il m'affiche !
Une idée ??
23/02/2009 07:55:51 SETI@home Message from server: No work sent
23/02/2009 07:55:51 SETI@home Message from server: No work is available for SETI@home Enhanced
23/02/2009 07:55:51 SETI@home Message from server: (reached daily quota of 9 results)
23/02/2009 07:55:51 SETI@home Message from server: (Project has no jobs available)
Moi je suis sous seti@home-cuda et j'ai une wu qui a déjà plus de 24h de calcul (avancement = 0,004%) et il me resterai 50h. Bizarre ça fait bcp de calcul pour le gpu non? Je me trompe peut être ...
En tout cas je vais passer à une ancienne version boinc afin d'avoir mes deux gpu qui tournent en meme temps.
- Les wu à problème ont été repérées et l'appli a été corrigée. Mais un problème subsiste: l'appli gpu est extrêmement lente sur ces wu, au point qu'un bon cpu avec la bonne appli optimisée se rapproche des temps gpu. Il existe une application gpu optimisée qui déclare une erreur de calcul dès qu'il repère que la wu qu'il doit calculer fait partie des wu à problème.
ah ok je comprend mieux en fait ca ne viens pas du boinc mais de leur serveur....
...vu que je n'aime pas cruncher pour la gloire...l'appli seti-gpu est partie directement dans la corbeille en attendant des jours meilleurs
bonsoir thierry,tu disais plus haut que l'application seti cuda avais eté corrigée...tu parlais de l'appli windows pour seti cuda ou bien l'appli linux
:)
ça me semble une bonne explication
:hello: les gens :)
Vous recevez des wu's GPUGRID ces temps ci ? Rien à me mettre sous la dent ces derniers jours :/
Salut j'en ai toujours 2-3 en plus de ceux qui sont en cours de calcul.
Sortie de la version 6.4.6 de Boinc !
Bizarre car la derniere version etait la 6.6.10
EDIT : La version 6.4.6 me fait foiré mes projets au lieu d'avoi mes 4 unités Milkyway@home+ 1 unité GPUGRID je me retrouve avec 3 unités Milkyway@home et 1 GPUGRID et le logiciel est uniquement en anglais !
Et d'ailleurs sortie de la version 6.6.11 ce matin même !
Curieux, il me met (de mémoire, je ne suis pas chez moi)
not work sent : your processeur (cell) is not supported (en gros, hein)
no work sent : won't finish in time (en gros, hein)
Alors qu'il n'y a que milky qui tourne (milky version CPU, bien sur)
Je met les messages exact ce soir :jap:
J'ai vu qu'il y avait un client distributed.net pour CUDA pour le projet OGR-27. Le verra-t-on bientôt sur Boinc?
Voila ce que j'ai trouvé :
http://www.distributed.net/download/prerelease.php
Quelqu'un a deja fait tourner une 8500GT ? Ca tourne comment ?
Pour le moment on ne pas comparer Nvidia et ATI car pas de projets commun avec les deux ;)
C'est bien ce que je pense, mais comme un ami peut me donner la sienne, si ca crunch un peu (enfin si ca vaut la peine) c'est pas mal.
Sinon entre une 9500GT et une 8800GTS c'est quoi le mieux ?
et la 9600GT en est ou ?
Tu pense que ça devrait arriver quand l'application optimisée pour nvidia de Milkyway@home ThierryH ?
Pour info avec une HD4850, en une douzaine d'heure, il est théoriquement possible de marquer dans les 35.000 points.
Est-il possible de faire tourner GPUGrid avec une 8800 GT, et Milkyway avec une carte ATI en même temps ?
Cette question de Laurent02 m'intéresse également, et surement d'autres.
Alors quelqu'un a t-il déjà essayé d'installer deux carte graphiques nVidia et ATI sur une même carte mère ?
Vu que la 4870 fait deja 80 000 voir plus en l'OC....la x2 doit faire 2 fois plus non ?
Curieux, il me met (de mémoire, je ne suis pas chez moi)
not work sent : your processeur (cell) is not supported (en gros, hein)
no work sent : won't finish in time (en gros, hein)
Alors qu'il ny' a que milky qui tourne (milky version CPU, bien sur)
Je met les messages exact ce soir :jap:
Je voudrais savoir, une HD4870X2 fournit combien de points par unités avec l'application optimisée de Milkyway@home ?
:hello:
Je compte me prendre une ati hd 4870 .
Es que linux 64 est compatible, pour le calcule gpu avec ati?
Quelques tit's questions : savez-vous si pour Milkyway GPU le fait que l'on soit en 32 ou en 64bits a une influence ?
Un CPU quad core est-il suffisant pour faire du milky sur du Dual, voir du quad GPU ? (une voire deux 4850 X2 par exemple)
Et vous avez des chiffres ?
Tu as raison j'ai confondu avec GPUGRID. Sur seti il n'y a pas d'appli linux :/
1+1 =2 !!!
Mais d'après des études récentes 2+2 =4 donc ça promet !!!!
:o
pour être sérieux en dessous de 9800/8800 GT faut oublier tellement c'est de la merde :D
:hello:
Je vient d'installer la hd4870. :bounce:
Je suis sous vista64. :D
Le problème ,c'est que je c'est pas comment faire pour utilisé la puissance du gpu avec milkyway. [:al@on:2]
Je c'est pas ce que j'ai installé comme version de catalyse? :sweat:
:hello:
Je vient d'installer la hd4870. :bounce:
Je suis sous vista64. :D
Le problème ,c'est que je c'est pas comment faire pour utilisé la puissance du gpu avec milkyway. [:al@on:2]
Je c'est pas ce que j'ai installé comme version de catalyse? :sweat:
Et ................. si, perdu. ;)
Voir http://lunatics.kwsn.net/linux/seti-mb-cuda-for-linux.0.html .
Ca fonctionne chez toi ? J'ai essayé ça déconne mais j'ai sans doute raté un truc. Il y a un tuto sur le topic de la team linux ?
Des gens ont essayé de faire tourner les petites Gforce sur Seti ? Genre 8400, 8500, 8600 ? Ca donne quoi ? Niveau points ?
Chez moi, ça fonctionne à condition de ne pas utiliser une version de boinc au dessus ou égale à une 6.6.x.
C'est tout. ;)
Pour plus d'info suivre les liens suivants : http://linux.boinc-af.org/component/option,com_fireboard/Itemid,51/catid,9/func,view/id,1935/#1935 , http://linux.boinc-af.org/component/option,com_fireboard/Itemid,51/catid,10/func,view/id,1786/limit,10/limitstart,0/ .
et double post ... la question tu l'a déjà sur le topic milky
duplique pas ...
Je fait tourner ca sur une 8500 GT, faut que je regarde combien ca rapporte. C'est pas énorme, mais c'est toujours ca. Quand je n'aurais plus besoin de chauffage, je couperai ;)
:hello:
Il y aurai, quelle qu'un qui pourrai m'expliquer un truc d'ordre technique? :whistle:
Pour quoi avec ma carte hd 4870 je calcul 8 ut mylkyway simultanément. :heink:
Alors que physiquement, j'ai qu'un quad plus un gpu.
Pour quoi ils applique pas cette technologie aux processeur. :bounce:
Bon je viens s'installer seti GPu sous linux.
Par contre du coup mon pc ne fait plus que du seti GPU et plus du tout de seti CPU. Quelqu'un aurait une possibilité de contourner le problème ? En attendant je vais installer un autre projet mais à terme ce n'est pas ce que je souhaite ;)
Tu veux dire en puissance ?
ton bonheur est ici :
http://www.extreme.outervision.com/psucalculatorlite.jsp
Personnellement, chez moi, c'est soit du Seasonic soit du Corsair.
Encore une question ^^
Dans le catalyst control center, c'est indiqué que la CG (4780x2) tourne a 52% parfois monte descend etc... Bref, je me demande pourquoi ce n'est pas à 100% et quand il regarde son control, c'est plus souvent proche de 50% que de 100%
une idée ?
J'ai chercher avec google mais pas trouver , on peut les prendre ou les drivers 8.12 mercihttp://support.amd.com/fr/gpudownload/Pages/index.aspx
Driver 8.12, ou 9.1 sinon 9.2 mais faut modifier le nom de certains fichiers.
Tu télécharges l'application et tu la colles dans ton dossier /project/milkyway....
avec l'appli 0.9d (SSE2 pour Q6600) j'ai Windows Vista 32 qui me met l'application va fermer!!!
Bon j'ai bien choisi appli GPU...
Modifier le nom de certains fichiers càd?
Note on Catalyst 9.2:
[...]
Ton BOINC ne doit pas etre en service, sous vista !
0.19e: 12th Mar 2009
- new scheduling system with dynamic granularity of GPU tasks for a better responding system
- new command line option (f) to tune the granularity of the GPU tasks
- extended diagnostic output to stderr.txt like GPU time (visible under task details)
allez je suis langue de pute :) c'est la 0.19f qui sera en sdk 1.4 + ati 9.3
Petite annonce sympathique !
2009-03-18: The Lattice Project - GPU Testing
Soon, hopefully this week, we'll be sending out a bunch of GARLI workunits to the entire population -- meaning, each host should get one copy of each workunit, whether you have a GPU or not. This is meant to be a sort of benchmarking, and also a test of the GPU version of GARLI. Details to follow...
Dites, vous faites tourner quoi comme projet à coté de Milky, chez moi la cohabitation ne se fait pas très bien...
Certains ont essayé les catalyst 9.3 ?
Le lien pour y DL : http://game.amd.com/us-en/drivers_catalyst.aspx
C'est dommage, un carte graphique ati + un core i7 920 ca fais 16 unités en meme temps !
Je ne comprends pas, pourquoi devrais je mettre seulement 5 ut en même temps alors qu'avec 8 ca tourne très bien ?
gaulois952 a écrit :
Je ne comprends pas, pourquoi devrais je mettre seulement 5 ut en même temps alors qu'avec 8 ca tourne très bien ?
Dites, vous faites tourner quoi comme projet à coté de Milky, chez moi la cohabitation ne se fait pas très bien...SHA-1, Spinhenge pas de prob
PS : je suis passé à Boinc 6.6.17 aussi en même temps.Je viens de m'y mettre aussi et il semble bien que cela regle le probleme (malgre ce que j'avais pu lire sur la 6.6 qui aux dernieres nouvelles ne serait pas compatible GPU...)
Je ne comprends pas, pourquoi devrais je mettre seulement 5 ut en même temps alors qu'avec 8 ca tourne très bien ?
Bonjour à tous,
edit : non rien, c'est juste un peu galère à installer tout ça.
ça va tellement vite que je n'ai plus d'unités milky à cruncher
Salut ^^
Je voudrais savoir un truc, je revends ma gtx285 la ( elle est sur ebay d'ailleurs pour les interessés lol ) et je souhaiterais m'acheter une hd4870 mais je prends la 512 ou la 1go ? Laquelle est la mieux pour Milkyway ? Et pour ne pas avoir de soucis par rapport aux pilotes je pourrais installer lesquels ( sachant que je suis sous windows seven 64 bit )
Et donc derniere question comment fait on pour mettre 5 unités en meme temps au lieu de 8 ? :) --> modif fichier app...xml?
Et combien je pourrais avoir de crédit par jour au maximum avec un ptit overclocking ? --> ya pas bcp de crédit je trouve mdr donc à voir car ça ne tourne pas en continue
Salut ^^
Je voudrais savoir un truc, je revends ma gtx285 la ( elle est sur ebay d'ailleurs pour les interessés lol ) et je souhaiterais m'acheter une hd4870 mais je prends la 512 ou la 1go ? Laquelle est la mieux pour Milkyway ? Et pour ne pas avoir de soucis par rapport aux pilotes je pourrais installer lesquels ( sachant que je suis sous windows seven 64 bit )
Et donc derniere question comment fait on pour mettre 5 unités en meme temps au lieu de 8 ? :)
Et combien je pourrais avoir de crédit par jour au maximum avec un ptit overclocking ?
En même temps acheter un CG c'est quand même pour faire plus de points qu'un CPU, alors c'est quand même rageant d'avoir une CG qui coute 2 fois plus cher, pour faire 5 fois moins de points...
Vous faites ce que vous voulez.
Je fais ce que je veux.
Arretez de me dire ce que je dois faire, d'autant plus que tous ceux qui disent que boinc, on le fait pas pour les points ont tous des ATI.
C'est l'hopital qui se moque de la charité.
Manquerai plus qu'on doive se justifier des choix d'achat de matos tiens!
Personnellement j'aimerais rajouter une deuxième carte graphique en plus de ma 8800 GT, mais je me tâte encore !
car on ne peut être que nVidia ou ATI, et pour l'instant les carte ATI on un meilleur rapport Puissance/Prix car la gamme GTX est très chère encore.
On ne sait pas comment vont évoluer les projets sur Boinc !
On ne sait pas comment vont évoluer les gammes des cartes graphiques !
Et je ne voudrais pas revendre au rabais ma 8800GT super bien refroidie par radiateur Thermalright (j'aime pas le bruit épouvantable des cartes graphiques en charge).
Dilemmes !
Arrete de cruncher pour les points et pense un peu a la science :o
pour la peine je vais acheter une autre CG ati :o
... se permet un gars qui crunche sur les projets qui rapportent le + (Milky, ABC, yoyo, Primegrid)
Tu RAC pas a 75% sur MW en ce moment Ivan ? Pour la science uniquement ? Bien sur. :)
En fait, je ne compte pas ajouter une autre CG ati dans une autre machine, du moins tant que je ne pourrais pas facilement faire cohabiter un autre projet sur le CPU.
J'ajouterais bien une ati dans le PC qui en possède déjà une, mais là encore la dispo des UTs actuellement pose problème. Du coup je vais p'tet m'abstenir...
Tu vois que je suis a fond pour la science :p
je te suggère d'attendre les 4750 ... puissance proche de la 4850 mais ... gravée en 40 nm !!! :p
http://www.guru3d.com/article/radeon-hd-4750-rv740-review-preview-test/
pour la peine je vais acheter une autre CG ati :o
:whistle: Ben sur MW, j'ai que les Ati vu qu'elles peuvent rien faire d'autres :D ABC j'en fait plus, j'essais de me sevrer :D Yoyo tu trouves que ca rapporte bcq??? a 40pts/h pour 4GHz :sweat: Et j'ai 75% de mon parc sur yoyo et 25% prime pour atteindre mes objectifs perso.
Tu vois que je suis a fond pour la science :p
Bah ouais mais j'ai pas bcq de place a gagner dans l'AF donc je me repose :o
T'es pas bien place sur Leiden uh uh
Mince si tu fais ça tu va me griller !!! Du coup je vais devoir en prendre une aussi !!! :o
oui mais j'ai dit que non, en fait :o
je n'ai pas de cartes ATI et je ne crunch pas sur milky, mes choix passent avant les points :)
Server and Application Updates
March 25, 2009
Sorry for the recent lack of communication, but we've been working on quite a few things behind the scenes here.
First, my new laptop just came in the mail, so I'll be able to seriously start working on a CUDA version of the milkyway application. We'll be developing this for OS X, Linux and Windows.
Second, we're going to be doing a few server-side changes to how things are run, which should significantly help with workunit reporting and work availability. We'll be splitting MilkyWay@Home into two separate applications/backends, Milkyway regular and Milkyway GPU. This will allow us to keep current workunit sizes for non-GPU applications, while farming a lot more work out to the GPUs (so they need to contact the server less frequently). We'll be doing different optimization methods on the regular Milkway and the GPU Milkyway so they'll both be doing equally valid research. In the next day or two I'll be posting the code that the application will be using for the GPU version. After testing to make sure that it's working correctly we'll swap to only awarding credit to the GPU applications for GPU milkyway (that way our servers wont be as bogged down, which will mean better work availability). Also, before a credit firestorm erupts again, we have no plans to award less credit/work to the GPU applications, so you don't need to worry about that.
Arrete de cruncher pour les points et pense un peu a la science :o
... se permet un gars qui crunche sur les projets qui rapportent le + (Milky, ABC, yoyo, Primegrid)
Tu RAC pas a 75% sur MW en ce moment Ivan ? Pour la science uniquement ? Bien sur. :)
Les wu gpu seront 300 à 1000 fois plus longues qu'actuellement.
bonjour jai un gros probleme jessaye de me mettre a cuda j'ai telecharger la version 2.1 sur le site de nvidia et quand je met gpugrid les unités se telecharge sans probleme mais le calcul dure 2 seconde et me met 100% et ainsi de suite! comment faire et pour me mettre a seti comment je fais? merci
Il va y avoir du changement sur Milkyway :bounce:CiterServer and Application Updates
March 25, 2009
Sorry for the recent lack of communication, but we've been working on quite a few things behind the scenes here.
First, my new laptop just came in the mail, so I'll be able to seriously start working on a CUDA version of the milkyway application. We'll be developing this for OS X, Linux and Windows.
Second, we're going to be doing a few server-side changes to how things are run, which should significantly help with workunit reporting and work availability. We'll be splitting MilkyWay@Home into two separate applications/backends, Milkyway regular and Milkyway GPU. This will allow us to keep current workunit sizes for non-GPU applications, while farming a lot more work out to the GPUs (so they need to contact the server less frequently). We'll be doing different optimization methods on the regular Milkway and the GPU Milkyway so they'll both be doing equally valid research. In the next day or two I'll be posting the code that the application will be using for the GPU version. After testing to make sure that it's working correctly we'll swap to only awarding credit to the GPU applications for GPU milkyway (that way our servers wont be as bogged down, which will mean better work availability). Also, before a credit firestorm erupts again, we have no plans to award less credit/work to the GPU applications, so you don't need to worry about that.
Travis a reçu le matos qui va lui permettre de développer une application CUDA. Il va aussi créer un nouveau sous-projet qui sera le même mais pour le GPU avec des wu beaucoup plus longues :jap:
Donc, on va avoir une application pour les cartes nVidia et surtout, on pourra faire cruncher les cpu et les gpu en même temps. Éventuellement, si l'on veut cruncher sur un autre projet avec les cpu, ce sera moins problématique.
:jap:
Edit: en fait, l'application gpu sera totalement différentes. Elle effectuera tout un tas de calculs supplémentaires par rapport à l'application cpu, ce qui permettra d'affiner les calculs là où il y a besoin. Les wu gpu seront 300 à 1000 fois plus longues qu'actuellement.
Travis à parlé de comment seront distribués les crédits pour le GPU et le CPU ? Si ca sera toujours aussi avantageux qu'actuellement ?
Je recois ma HD4870 demain, je voudrais savoir l'optimisation pour Milkyway@home 0.19e fonctionne-t-elle avec les drivers 9.3 d'ATI ? Etant sous Windows 7 64bit je devrais juste modifier ces fichiers la :
aticalrt64.dll en amdcalrt64.dll
aticalcl64.dll en amdcalcl64.dll
aticaldd64.dll en amdcaldd64.dll
Je n'aurais que ca a faire ?
Si tu as les dieux, oui ca marchera !
Oui mais ce serait bien de donner les liens si ils veulent qu'on s'y mette mdr
Ah bah ca promet alors, car pas mal de monde ayant des cartes Nvidia attendait cette optimisation !
Et les unités une par une ca ne va pas plus vite que trois par trois ou deux par deux ?
si quelqu'un pouvais confirmer ou infirmer... :sweat:
Et les unités une par une ca ne va pas plus vite que trois par trois ou deux par deux ?
Ah la la le serveur est out depuis hier c'est tout pleins de crédits qui partent en fumé ^^
courage, un 2ième projet boinc a prévu de faire tourner les cartes ATI :bounce: :bounce:
XTC_zeuz > lol c'est marrant ce que tu dis, mais c'est exactement ce dont j'ai rêvé cette nuit : que j'étais en train de calculer sur le CPU, et je voyais en rêve mon utilisation GPU en berne donc j'en déduisais que ça ne marchais plus ...
lol je ne suis pas autant obsédé par Boinc, c'est juste qu'en ce moment je suis un peu plus crevé que la normale je suppose, c'est pas la première fois que je "réfléchis en rêvant", mais sur Boinc c'est une première :) d'habitude c'est sur le boulot que j'ai des éclairs de génie nocturnes (à défaut d'en avoir dans la journée ^^).
Moui c'est bien possible, j'ai tellement bidouillé dans tous les sens pour essayer d'obtenir des unités MW, que j'ai sûrement fait 2-3 boulettes de ce genre dans le tas ...
Enfin tout est revenu à la normale : c'est-à-dire que j'ai une unité GPU par heure quoi :)
Au moins, boinc te fait décrocher du boulot. C'est pas si mal finalement :lol:
sauf que dé fois gpugrid se met en route et pas de pourcentage qui arrivent du coup jannule
Une 8600GTS à 130 Euros c'est chère en effet ! c'est le prix des nouvelles GTS250 qui sont des 9800GTX+ qui doit bien être 3x plus puissante que la tienne :sweat:
J'ai une question, la HD4890 est elle compatible avec l'application optimisée de Milkyway@home ?
et gpugrid calcul 4 secondes et me met 100% et un autre calcul gpugrid fait tourner le temps mais pas de %davancement ... j'suis triste
[HS]
moi je me pose la question concernant Celtar... pas de niouzes depuis novembre décembre.
[/HS]
du coup ça justifie ou pas les 130 euros acheté en janvier 2009?
quand je me reli pas c'est tres chiant a lire pour vous lol
oui jai ecrit un gros tas de mot sorry
jme demande pourquoi sur http://fr.boincstats.com/ on peut etre dans une equipe pour l'ensemble des projets(il ya donc un classement avec tous mes points reunis( perso jsui 1000 eme dans l'alliance francophone) c'est boinc global et aussi pour chaque projet , donc on peut donner tous son credit a l'alliance francophone en boinc global tous en etant a chaque projet dans lequipe americaine!!??(seti climate enstein rosetta etc...)
non je pense que le site prend en priorité l'équipe où tu apparais le plus parmi tous les projets auxquels tu participes.
j'ai plu de probleme merci , merci guepi
il m'avait traité de fils de pute car je porte le meme prenom que lui et que
ça le degoute je ne me laisse pas faire meme si lui et moi avons dit
des choses pas tres evolués ( tout a commencer quand il ma cherché plus haut regardé)
ZeuZ a dit qu'on pouvait pourrir son topic :ange:
[:jump400:2]Moi je suis revenu à GPUGrid... Je n'ai jamais réussi à avoir la moindre wu de Seti pour ma carte graphique
Pour tous ceux qui ont une carte nvidia n'oubliez pas le RAID Seti qui est en cours ;)
http://forum.boinc.fr/boinc/LAllianceFrancophone/Fights/printemps-2009-raid-sujet_371_1.htm
Faut être patient en fait moi aussi j'ai vraiment eu du mal a en avoir au début du coup j'avais mis GPUGrid en priorité 1 et 200 pour SETI et depuis j'ai le pleins de wu SETI j'en ai plus de 500 ;)
Vous pouvez dénicher les derniers drivers nvidia exotique ou non sur http://laptopvideo2go.com/. Contrairement au nom du site c'est surtout des drivers pour carte desktop mais le site propose un fichier .inf pour accepter les cartes mobiles. :)
Bon alors, pour répondre à Samuel qui veut se prendre une meilleur CG.
Enfaite, Milkyway est un projet généreux en terme de point, donc ca explique une partie de ces points de malade. Ensuite les ATI sont excélent en calcul double précision. Les nvidia, sont plus lente pour ce type de calcul. Donc l'avantage est définitivement aux ATI sur le projet Milkyway et en terme de points donc.
Par contre sous folding ca tourne... mais c'est pas boinc snif
Avez vous des souci avec Gpugrid ? le site est down pour moi et je peux retourner les Wu.
Hi,
happy Easter. In perfect timing, it seems that we had a power cut and the server is down.
I am not sure if we can bring it up before Tuesday morning. We will be probably change the deadlines so people will be able to get credits.
gdf
--
Dr. Gianni De Fabritiis,
Research Group of biomedical Informatics (GRIB-IMIM),
Universitat Pompeu Fabra, Barcelona Biomedical Research Park (PRBB)
ce n'est pas seulement en terme de puissance de carte en double ou simple précision, il faut avouer que milkyway crédite plus que généreusement alors que gpugrid a été revu à la baisse
aujourd'hui, le choix va clairement sur une ati 4870 mais demain ?
milkyway pourrait être amené à diviser par 10 les crédits ATI pour les GPU quand ils sortiront soit le cuda, soit l'openCL histoire de rééquilibrer
sur folding par exemple, l'écart n'est pas si grand entre une 4870 et une gtx280
:hello:
questions techniques concernant l'achat d'une carte mère.
1° peut-on utiliser 2 CG en même temps pour Gpucrunch (je pense à milkyway)?
2° y-a-til besoin de mettre en place un pont Crossfire, ou les 2 cartes peuvent calculer comme 2 coprocesseurs indépendants ?
3° a-t-on besoin de 2 ports PCIexpress 16X, ou (1 en 16x) et (1 en 8x ou autre) sont-ils suffisants ?
merci :jap:
:hello:
questions techniques concernant l'achat d'une carte mère.
1° peut-on utiliser 2 CG en même temps pour Gpucrunch (je pense à milkyway)?
2° y-a-til besoin de mettre en place un pont Crossfire, ou les 2 cartes peuvent calculer comme 2 coprocesseurs indépendants ?
3° a-t-on besoin de 2 ports PCIexpress 16X, ou (1 en 16x) et (1 en 8x ou autre) sont-ils suffisants ?
merci :jap:
Avez vous des souci avec Gpugrid ? le site est down pour moi et je peux pas retourner les Wu.
Je suis en train de cruncher des unités Seti / Cuda en 1h environ au lieu des 8 à 15 minutes habituelles. Les unités commencent par 19fe09ae.31056.xxxxx
Puis-je avoir votre avis?
17/04/2009 20:30:57 CUDA device: GeForce GTX 260 (driver version 18250, CUDA version 1.3, 896MB, est. 108GFLOPS)Et je vois tres bien la 8800 GT sur Rivatuner (température ect...) et dans les pilotes Nvidia.
18/04/2009 21:25:12 CUDA devices: GeForce GTX 260 (driver version 18250, CUDA version 1.3, 896MB, est. 108GFLOPS), GeForce 8800 GT (driver version 18250, CUDA version 1.1, 512MB, est. 60GFLOPS)
oui, c'est normal que les seti mettent du temps (surtout les cuda, c'est l'appli de base non optimisée
Il y a un nouveau système de point sur gpugrid, quand on renvoie l'unité calculé dans les 1.5 jours après la réception on a un bonus de +60% du crédit normal de la wu et +20% pour les wu retourné en deux jours.
plus d'info ici http://www.gpugrid.net/forum_thread.php?id=776.
Je viens d'en renvoyer une en moins de 24h et j'ai eu un bonus de 25%, vous en savez plus sur ces bonus ?
oui, normal. si ça pouvait être pareil avec MilkyWay ... :sarcastic:
Entre 300 et 1000 fois selon les dires des admins, ça pourrai donc faire 2 - 7h par unité
Il y a eu du changement les WU sont mieux crédités d'origine (on passe de 3098 max à 3946 max) mais le bonus n'est pas de 60%, mais de 25% si on retourne la WU dans les deux jours. ce qui donne 4933 points par wu avec le bonus.
ici : http://lunatics.kwsn.net/12-gpu-crunching/v10-of-modified-seti-mb-cuda-opt-ap-package-for-full-multi-gpucpu-use.0.htmlPour ma config, voir mon profil.
Par exemple.
Sinon c'est quoi ta config ? CG ? et les instructions de ton proc ? SSE3, SSSE3 ? et tu es sur windows 32b ?
Boinc 6.6.24 sous GPUGRID ne me reconnait qu'une carte....idem.
Je capte toujours pas. et pour dl les liens en tout petit, faut avoir un compte sur leur site, chose que je n'ai pas)
Bon, ben pas grave, mes cg resteront au froid tant que GPU grid sera pas revenu :/
Bon même apres retrait de la 8800, + reboot + reboot avec la 8800, j'ai toujours mon pb...
Et ce message :Citer17/04/2009 20:30:57 CUDA device: GeForce GTX 260 (driver version 18250, CUDA version 1.3, 896MB, est. 108GFLOPS)Et je vois tres bien la 8800 GT sur Rivatuner (température ect...) et dans les pilotes Nvidia.
J'y comprend plus rien.
Edit la version de boinc 6.6.23 est buggé avec cuda chez moi, le calcul reste en attente, même en désactivant tous les autres projets.
omg, apres un redémarrage lambda, que vois je ?
2 wus qui bossent, combien de temps ça va durer....
Et le pire c'est que j'ai rien touché...Citer18/04/2009 21:25:12 CUDA devices: GeForce GTX 260 (driver version 18250, CUDA version 1.3, 896MB, est. 108GFLOPS), GeForce 8800 GT (driver version 18250, CUDA version 1.1, 512MB, est. 60GFLOPS)alors qu'avant j'avais pas la 8800 d'indiqué...
25/04/2009 23:36:24 CUDA device: GeForce GTX 260 (driver version 18250, compute capability 1.3, 896MB, est. 108GFLOPS)
25/04/2009 23:36:24 Version change (6.6.20 -> 6.6.24)
28/04/2009 19:04:43 CUDA device: GeForce 8800 GT (driver version 18568, compute capability 1.1, 512MB, est. 70GFLOPS)
28/04/2009 19:04:43 CUDA device (not used): GeForce 8800 GT (driver version 18568, compute capability 1.1, 512MB, est. 70GFLOPS)
il faut des pilotes 1.78 minimum, regarde si c'est dispo sur le site de dell
ce qui est étrange, c'est que de série, ils ne fournissent pas de 9500 mais une 9300GE dans cette catégorie
http://support.euro.dell.com/support/downloads/driverslist.aspx?c=fr&l=fr&s=gen&ServiceTag=&SystemID=PLX_PNT_740&os=WW1&osl=fr&catid=&impid=
depuis quand il y a des wu qui donnent 10K chez gpugrid ?Depuis qu'il y a des bonus (x2,5) pour ceux qui les rendent en moins de 24 heures
cf: http://www.gpugrid.net/result.php?resultid=661309
non c'est plutot x1.25, il y a quelque énorme WU comme ça qui sont envoyé, j'ai pas encore eu la chance d'en avoir mais sur une 8800 gt le calcul prend plus de 34h et le fichier à renvoyer pèse 50 Mo :eek:Non c'est bien x2,5 indiqué par GDF le 19 avril dans le lien que j'ai indiqué.
:pt1cable: joli ! pour moins de 1000 s de calcul en plus ! :love:
Non c'est bien x2,5 indiqué par GDF le 19 avril dans le lien que j'ai indiqué.Je confirme le bonus est de x1,25 http://www.gpugrid.net/forum_thread.php?id=776&nowrap=true#8547 GDF en parle et regarde dans tes WU dans "claimed credit" tu as le crédit normalement donné et dans "granted crédit"si tu renvois dans les deux jours tu as x1.25 par rapport au claimed credit.
J'ai aussi eu des grosses UT, calculées avec une GF9500GT en + de 24h, et qui font de 28,85 à 52 Mo à uploader. Malheureusement c'est derrière 2 proxies au boulot qui les bloquent depuis une semaine. J'ai passé le délai maintenant. :priz2tet: Les recopier sur clef usb n'a pas fonctionné. Dommage qu'on ne puisse pas les remonter "à la main" par ftp ou autre... Je bascule sur Seti pour que la carte ne se tourne pas les pouces...
reste à savoir en combien de temps un appli ATI sera utilisable sur le projet.
Hé ho pas si vite, il suffit que je finisse la peinture, changer les prises de courant, les interrupteurs, finir le plancher, monter une cuisine, refaire la salle de bain, nettoyer la maison et ... je peux tout rebrancher sereinement ^^
Accessoirement je peux me procurer ceci (http://www.pcinpact.com/actu/news/50921-gigabyte-4650-agp-radeon.htm) en espérant que la 4650 peut calculer en double précision ET qu'elle tournera sur un vieux PC qui prend la poussière.
:D
Hé ho pas si vite, il suffit que je finisse la peinture, changer les prises de courant, les interrupteurs, finir le plancher, monter une cuisine, refaire la salle de bain, nettoyer la maison et ... je peux tout rebrancher sereinement ^^
Accessoirement je peux me procurer ceci (http://www.pcinpact.com/actu/news/50921-gigabyte-4650-agp-radeon.htm) en espérant que la 4650 peut calculer en double précision ET qu'elle tournera sur un vieux PC qui prend la poussière.
:D
en espérant que la 4650 peut calculer en double précision
Bonsoir.
Mercredi?(demain) c'est sur sur pour milkyway gpu, je vais passé ma gtx dessus pour voir. :cavachier:
zut,j'ai perdu le lien milkyway gpu. :priz2tet:
Au fait,qui a essayer boinc 6.6.28 :desole:
Question de noob, c'est quoi le calcul en double précision?
Démarrage de Milkyway_GPU ce mercredi :)
Ressortez vos nVidia des placards :D
Attention, l'application sera très certainement limitées aux cartes GTX260/280 et assimilées :jap:
Belle machine sous Seti :Il doit faire chaud chez lui :D
http://setiathome.berkeley.edu/show_host_detail.php?hostid=4788195
4 GTX295
Difficile de faire mieux je crois...
Oui et.......je vous raconte pas le prix d'un tel accessoire. Déjà que 4 gtx295 ca douille, j'ose à peine imaginer le prix d ela catrte mère alors avec plus de 4 ports pci express...... :siflotte:
Salut,alors, marche ou marche pas milkyway gpu. :cry:Pour l'instant j'ai l'impression qu'on peut créer des comptes mais que le serveur ne donne pas de wu ;)
milkyway gpu c'est pas pour ati!!??Non, mais le code va être rendu public. L'équipe de Planet3D Now! qui a écrit l'optimisation ATI actuelle a promis de l'adapter très rapidement aux cartes ATI :)
Salut, petite question concernant l'utilisation de 2 cartes graphiques.Attention, tu parles de Crossfire, donc d'ATI. Boinc n'est pas compatible avec ATI et ne détecte donc aucune carte. De plus, pour ce qui est de la partie calcul avec plusieurs cartes, ATI accuse un très grand retard sur nVidia. J'ai essayé de monter plusieurs cartes 4850X2 dans la même machine: pas moyen de faire quoi que ce soit. Une seule carte est prise en compte et ça plante carrément si le Crossfire est déactivé. La seule solution est de mettre une carte par machine. Pour les bi-gpu, ils calculent seulement à 60% de leur puissance nominale, soit à peine plus vite que les carte mono-cpu.
je vais peut être pouvoir placer une seconde CG :
faut-il, ou pas, les placer en mode Crossfire ?
y'a t il un paramétrage particulier à faire ou Boinc détecte il automatiquement la seconde carte comme un second coprocesseur ?
si CF --> boinc peut il quand meme utiliser les 2 cartes ?
si pas de CF --> on peu jouer avec la 1ere carte et laisser l'autre dans son coin ?
merci !
Finalement c'est peut-être mieux pour toi : après une période de disette il n'est pas recommandé de faire une indigestion :D :D :D :D :D:lol:
Trop gourmand tu es :)
qu'est ce qui est pété ?
Dommage, je cherche un autre projet que GPU Grid qui ne m'envoie depuis 2 semaines que des UT pourries qui bloquent, bouclent ou ne démarrent pas :(il y a seti@home et seti@home beta
les bigpu nvidia on sais ce que ca vaut: pas grand chose (pareil chez ati) et vu le tarif en ce moment vaut mieux s'orienter sur deux cartes graphiques separée comme dit zeuz..moins cher et ca rapporte plus de point. ce n'est que mon avis personnelD'accord avec toi koubi en plus, on se casse moins la tête au niveau de la configuration et de la reconnaissance sous Boinc avec Linux.
Moi j'attends une GTX 275 pour cette semaine !
C'est vrai que la GTX 260 à baissé depuis, mais attention vérifie bien qu'elle à 216SP
Question de celui qui n'a plus tout suivi: c'est quoi la "meilleure" carte perf/prix en Cuda pour le moment ?
On dirait que les GT260 ont un meilleur rapport puissance/prix que les GT275 (et je ne parle pas des 285-295).
Vos avis ?
Merci :jap:
J'ai fait un relevé sur ldlc.fr et matériel.net, la GTS 250 (ex 9800 GTX+) a le meilleur rapport puissance/prix (470 Gflops/ 160 euros chez ldlc) toutes cartes graphiques nVIDIA GF8/9 confondues.
A ce que j'ai compris, dans la semaine, donc dimanche soir, il est toujours dans les temps :DJe pense qu'il n'y a toujours rien. Annoncer un projet si tot avant son commencement c'est rageant :cavachier:
Je branche mon moniteur sur la GTX275 et ma télévision sur la 8800GT !ha ouai :/
et j'active les deux affichages, le petit inconvénient, c'est que je peux perdre le pointeur de souris, qui va ce loger
sur la télé, même si elle est éteinte :/
sinon j'utilise les derniers drivers 185.85
Je branche mon moniteur sur la GTX275 et ma télévision sur la 8800GT !
Je n'ai plus ça sous la main, mais google est ton ami. Pour ma part, j'ai utilisé les adaptateurs DVI-VGA livrés avec les cartes et j'ai tout simplement plugué 3 résistances de 75 Ohms (après avoir simplement recourbé une des pattes et réduit le tout à la bonne longueur avec une pince coupante) entre les pins 1 et 6, 2 et 7 ainsi que 3 et 8 de la prise VGA.
sauf que juste avec un adaptateur dvi-vga ca suffit .... :electric:
pas besoin de passer tous les signaux couleurs à la masse correspondante
Bon j'ai une 4850 qui marche bien sous mw.
(Q9300, xp32, catalyst 8.12, appli 0.19f)
Alors j'ai tenté... :cavapobienmwa:Si les pilotes ont été réinstallés, voir même, il faut les réinstaller, alors ne pas oublier les DLL.
Bon j'ai une 4850 qui marche bien sous mw.
(Q9300, xp32, catalyst 8.12, appli 0.19f)
là, je tente d'en brancher une seconde, sans activation du crossfire.
toutes mes unités partent en erreur :
14/06/2009 16:45:01 Milkyway@home Output file ps_sgr_214F_2s_2_478221_1244990610_0_0 for task ps_sgr_214F_2s_2_478221_1244990610_0 absent
dans quelle direction dois-je chercher ?
Faut il modifier le app_info.xml lorsqu'on installe 2 cartes ?
<avg_ncpus>0.1</avg_ncpus>
<max_ncpus>1</max_ncpus>
merci de votre aide les amis ;)
Si les pilotes ont été réinstallés, voir même, il faut les réinstaller, alors ne pas oublier les DLL.
Les droits pas de souci, sinon je n'aurai pas posé la question.
Aucune idée de ce qu'elle peut sortir... Boinc m'estime sa puissance à 5GFLOPS contre 60 pour ma 8800GT. M'enfin j'ai des doutes sur ces valeurs tout de même.
http://divers.boinc-af.org/ZeuZ/tableaugpugrid.htmlReluquez le travail de Zeuz, la première page de ce fil répond à pas mal de réponses.
Vous croyez qu'un Crossfire de 4870x2 serait reconnu par boinc avec les optis et tout bien sûr ( genre 8 ut en même temps )
Oki, Les estimations de Boinc en terme de performances sont donc correctes.
Les valeurs de boinc sont fantaisistes, une 8800GT fait 6 fois plus que ce qu'il t'annonce
Ya Laurent de notre Team qui s'est fait un CF de 4830 et ca marche impec maintenant.
J'ai déjà vu ce tableau, mais pas de trace de la Quadro FX570 dedans. C'est pour cela que je posais la question, au cas ou quelqu'un serait utilisateur de ce GPU :Dj'utilise 4 machines possédant des quadro FX570
Dudumomo c'est un crossfire de dumo, c'est pour cela qu'il repond 2 fois plus vite:biglol: :cdmalad:
Running (0,04 CPU)
?
Si c'est léquivalent d'une 8400 gs, laisse tomber. J'en ai une , ca fonctionne, mais tu ne terminera jamais à temps une unité, même en h24 sur gpugrid (testé et approuvé).
Ca vaut peut-être le coup de tester sur seti, et éventuellement sur aqua, mais là tu devra tester je ne peux te fournir un quelconque retour.
un adaptateur dvi-vga sans rien ca marche .... ca fait 50x qu'on le dittu es aller chez tout le monde pour vérifier si ça marchait ?
ca marche chez tout le monde donc pourquoi se faire chier avec des résistances à la con :desole:
personne a essayé à les souder sur la CG directement ? :hyperbon:
je m'attends a tout :electric:
tu as essayé un autre adaptateur :hyperbon:La manip douteuse, c'est d'utiliser un adaptateur dvi/vga tellement merdique qu'il met en charge la sortie vga, même si aucun écran est branché ;)
proposer des manips douteuses comme ca ... un mec le voit le refais et crame sa CG
tout le monde est content
pareil les HD4830 saphire on déjà un connecteur VGA embarqué du coup toujours actif :hyperbon:
Bonjour,
J'ai reçu une nouvelle machine i7 940 sous Vista64 avec un quad-SLI de 2 GTX 295, mais je n'arrive pas à faire cruncher la seconde carte.
Windows, GPU-Z, le panneau de config nVidia voient bien 4 cartes (SLI désactivé).
Par contre, pour ce qui concerne Boinc :
- avec 1 écran branché, seule 1 carte est active (leds verte et bleue), l'autre inactive (led verte seulement), boinc voit 2 GPU et crunche fort (stable avec o/c shaders de 1242 d'origine à 1517 Mz)
- avec 2 écrans branchés, les 2 cartes sont actives (leds verte et bleue), boinc voit 3 GPU au lieu de 4 et j'ai des plantages pilotes avec UT en erreur toutes les 15 s, même sans o/c.
J'ai essayé avec différentes versions de boinc, de pilotes. Mais là, je commence sérieusement à manquer d'imagination.
J'apprécierai un coup de main de ceux qui parviennent au miracle !
Merci d'avance.
Je pense que tu as mal désactivé le SLI. C'est dans la boite d'outils nVidia qu'il faut le faire au niveau de la page de gestion des multi-écrans. Je ne me rappelle plus très bien, et je suis au boulot, mais je pense qu'il faut sélectionner le mode multi-gpu/multi-écrans. En fait, il ne faut surtout pas prendre l'option mono-écran.
:jap:
Bonjour Thierry,
Sur mon autre machine, j'ai une 9800gx2 avec laquelle, après avoir un peu ramé, j'ai appris à désactiver un SLI.
Mais c'était effectivement à vérifier en premier.
A toute fin utile, je précise que ma CM est une Asus P6T Deluxe V2 (donc avec chipset Intel X58) avec 6 Go de DDR3.
J'utilise les drivers 181.20. Ceux-là sont sûr. Il ont déjà fait quelques millions de points sans broncher. Du coup, je n'ai pas tenté d'en installer de plus récents. J'ai aussi du X58 sur deux conf: l'une avec deux GTX295 et l'autre avec trois 9800GX2. Tout cela fonctionne très bien sous XPpro64.
Je n'ai qu'un seul écran pour la maintenance et je fais le reste par prise de contrôle à depuis la machine du salon qui est connectée à un plasma de 50" ;)
On m'avait annoncé un rapport de puissance supérieur à 10 entre les deux cartes, manifestement ce n'est pas le cas...
proposer des manips douteuses comme ca ... un mec le voit le refais et crame sa CG
tout le monde est content
Et sans ça marchait pas? :??:
La manip n'est pas douteuse, ou alors faut jamais avoir manipé.
Voici MON dummyplug à moi :
La preuve qu'il n'y a même pas besoin de soudures, juste besoin d'insérer 3 pôv résistances.
coût total : 0.32€
durée de la manip : 1 minute
(http://img301.imageshack.us/img301/6094/dummyplug.th.jpg) (http://img301.imageshack.us/i/dummyplug.jpg/)
Et ça marche !
la 2eme carte est ACTIVE ! :love:
Je tiens à remercier ThierryH pour l'idée et pour l'aide. :jap: :jap::jap:
ouaip faut penser à le remercier:??:
pour une fois que c'est pas une info tiède :giligili:
C'est pas très propre comme montage. En plus, ça risque de se terminer en faux contacts, voir court-circuits ;)
Le mieux est de plier une seule patte sur 180°. Ensuite ajuster la taille des deux pattes à la pince coupante pour qu'elles entre juste dans les trous :jap:
Sinon les gars, une 8600GT ca vaut la peine de calculer ?si tu utilises le pc en même temps que tu crunches, oublie la 8600GT, l'affichage descend à 2 images/secondes
Les ut seti durent longtemps ? Gros à DL ?
Pour GPUGrid (une 8600GT va t'elle finir l'ut à temps ?) et est ce lourd à dl ?
Idem pour Aqua.
PS, je suis en 56k la. Donc j'ai pas envie que ca me prenne une plombe à dl et a up.
Et je maintient, preuve à l'appuiMa 8800GT met environ 18 heures pour calculer chaque unité, et actuellement ma FX570 est à 47% pour 18 heures et 20 minutes de calcul. LEs estims de Boinc sont bidon ça je sais, je ne m'y fie jamais.
(http://www.xbitlabs.com/images/video/firegl-quadrofx/gpu-fx570.png)(http://www.syndrome-oc.net/img/articles/vvikoovsjetway8800gt/GPU-Z_8800_GT_512Mo.jpg)
FX570: 16*920/500 = 29.44 gflops
8800GT: 112*1500/500 = 336 gflops
Après faut voir si c'est l'estimation de boinc ou si c'est calculé par toi, boinc est bien souvent à coté de la plaque dans les estimations du temps restant, tout du moin pour les premières wu
si tu utilises le pc en même temps que tu crunches, oublie la 8600GT, l'affichage descend à 2 images/secondes
coté upload, 56k c'est trop peu pour gpugrid
les unités sont beaucoup plus légères et la deadline plus tard sur seti@home
tu peux aussi tenter aqua, ça paye bien mais c'est un projet non recommandé :)
Alors soit elle a chopé une unité ultracourte (alors que la 8800GT chope toujours des unités de même importance), soit il y a un souci avec ma 8800GT...
Ben moi, je viens d'améliorer ma vitesse sur GpuGrid. :pt1cable:Si tu O/C, fait très attention car GPUgrid n'aime pas trop!
En activant ma 2ème GTX 295 en branchant dessus un vrai moniteur, j'ai mis 30s à planter 6 UT, soit un temps de traitement réduit de 7h à 5s ! :electric:
Le cavalier en armure Asus est joli et la carte est lourde. Comme presse-papiers, ça serait original.
Bon, c'était la séquence pétage de plombs. Faut rester zen :priz2tet:
Plus sérieusement pour Dudumomo, GpuGrid est un projet passionnant (SIDA notamment) mais contraigant :
- DL de 10 à 15 Mo
- Traitement longs et intensifs : ça chauffe beaucoup (en live pour moi : 7h à 74°C sur ma GTX295 et 14h à 82°C sur ma 9800GX2 avec ventilos respectivement à 70% et 100%) et si ça chauffe trop, erreur de calcul.
- UL de 10 à 50 Mo (>1h en ADSL 512)
Si tu O/C, fait très attention car GPUgrid n'aime pas trop!
Tu peux overclocker, mais loin de ce que la carte est capable de produire en jeux!
Mais c'est quoi comme erreur dans les WUs sur le site de GPUgrid?
Ça me parait bizarre ces erreurs à chaque fois!
Essaye sur d'autres projets pour voir si problème se répète à chaque fois, ce qui indiquerait peut-être un problème de la carte.
W7 = W vista donc même combat :jap:
W7 = W vista donc même combat :jap:En général si, mais en cas de redémarrage intempestif (coupure d'énergie, mise à jour...) la machine se retrouve sur l'écran d'ouverture de sessions, et en mode application Boinc ne fonctionne pas à ce moment là.
Ton soucis c'est que tu n'ouvres pas de session sous W7?
Bon c'est bien ce que je pensais.
Je vais voir ce que je vais en faire de cette CG ! Dommage que c'est pas du VGA...snif.
Mais c'est quoi comme erreur dans les WUs sur le site de GPUgrid?
Ça me parait bizarre ces erreurs à chaque fois!
Essaye sur d'autres projets pour voir si problème se répète à chaque fois, ce qui indiquerait peut-être un problème de la carte.
:jap: On verra donc quand ton unité sera terminéeEffectivement, il y a des unités plus courtes que d'autres. Les deux premières que la FX570 a récupéré ont été finies en seulement 40 heures, laissant penser que par rapport à celles récupérées par la 8800GT qui se font en 20 heures il n'y avait qu'un rapport 2 sur les durées de calcul.
Mais ce matin, j'ai découvert en effet une unité à seulement 30% après 48 heures de calcul, impossible à finir dans les temps.
Les chiffres ne mentent jamais :DAnéfé... :D
La news de ouf, ça fait des mois et des mois que c'est prévu et qu'on en parle :gno:
La news de ouf, ça fait des mois et des mois que c'est prévu et qu'on en parle :gno:Je n'ai pas souvenir d'en avoir entendu parlé!
Je n'ai pas souvenir d'en avoir entendu parlé!
Mais vu qu'OpenCL arrive bientôt :/
:hello:
Soit j'ai lu trop vite l'article, soit je n'ai pas vu écris OpenCL! :eek:
Sinon, c'est sur que rien de neuf, mais il ne faut rien attendre avec 9 mois environ.
:hello:
Il n'y a pastropde problèmes de compatibilité?!
salut,
voilà j'utilise moi aussi mon GPU, (8600 GT 256 Mo ), bon le problème c'est que GPU Grid ça la met clairement à genoux la pauvre, (50 HEURES de calcul par traitements :gno: ) j'suis très loin même des 15 heures du tableau comparatif .. je ne comprends pas trop pourquoi une telle différence chez moi mais bon ...
Du coup pour 50h je récupère environ 4000 points, j'trouve que ça fait pas cher payé surtout comparé à certains.
Y a t'il d'autre projet que gpugrid qui me permettrait d'exploiter au mieux ma CG , sans me taper des morceau de 50 heures (parce que la ça fait vraiment trop).
Salut
Le tableau n'est plus à jour depuis bien longtemps, de plus les cartes qui s'y trouvent sont largement plus performante que la tienne, la plus petite (la 9600GT) est 3 fois plus performante que ta 8600GT :miam:
Sinon il y'a Aqua et Seti qui sont capable d'utiliser ta carte :gniak:
ps : y a pas moyen de feinter Boinc en lui disant par exemple de ne prendre que les traitements Cuda sur Seti ?si bien sur, dans les préférence du projet dans ton compte sur le site de seti tu décoche cpu :)
Faut savoir si elle est bien activé et ne pas mettre le SLI.
Bonne question, je me suis empressé d'aller tester.en fait, tout dépend du gpu, sur une gtx280, on ne verra pratiquement pas de ralentissements, sur une 9600GT ou 8600 ça sera nettement perceptible
Donc en calculant uniquement sur GPU sur Seti, en me laissant les deux core de l'amd de libre. La lecture vidéo de format Dvd-rip , divx est niquel !!
ça doit à peine utiliser 15% du proc !
J'ai testé plusieurs minutes sur plusieurs types de format mais pas du HD (bha bien grave ça ..).
Du coup j'ai testé avec les deux core occupés par du geneticlife et le GPU sur SETI lui aussi (pour voir), bha la encore , aucun problème la lecture de la vidéo est impeccable, aucun soucis ni dans la vidéo ni dans le son. Etonné :)
ça rame légerement sur le net et sur windows (surtout lorsque je saisis), mais le décodage son/vidéo est au poil lui c'est dingue ...
mais le décodage son/vidéo est au poil lui c'est dingue ...Sachant que boinc utilise justement le temps cpu non utilisé ça me semble tout à fait normal.
...
l'affichage rame aussi un peu sur mon v8 avec une 4850 quand je crunch les unités milky 3 par 3
finalement, je préfère mettre les calculs en pause quand j'utilise la machine, dans les préférences du boinc manager, je décoche "use gpu while computer is in use"
C'est bizarre qu'elle est pas reconnu ta CG Coran... ya un truc à faire pour lancer la detection ?Justement c'est la question que je me pose. Windows voit ma carte. Je vois ma carte sous GPU Z. Je peux regarder les température & co mais boinc ignore celle ci :/
Windows voit ma carte. Je vois ma carte sous GPU Z. Je peux regarder les température & co mais boinc ignore celle ci :/
Quelle idée aussi
Si vous leur mentez, en faisant croire que BOINC + barre choco c'est un écran LCD tout neuf.
Va falloir :cavachier: les fabricants de carte graphique, ca peut plus continuer comme ça de nous berner.
C'est comme le vendeur d'un hyper qui me raconte que un 4 cores + 2 cartes graphiques, ca permet d'avoir un core qui calcule pour excel, un qui .. pour word et un pour le compte en banque, un pour ....
J'ai demandé si il y avait un cpu pour corriger les erreurs de l'utilisateur, et si la 2ème carte graphique permettait au SAV de nous voir en direct pour pouvoir nous aider + rapidemeent.
HA HA HA :pt1cable:
Salut Corran,
J'ai dû écrire à peu près la même chose que toi un peu plus haut sur ce topic. J'ai "activé" ma seconde carte en branchant un second moniteur dessus et en rebootant :chuidac:.
Edit : AMHA, le problème vient du fait que, le SLI étant désactivé, Vista ne voit pas de raison "d'allumer" 2 voire 4 cartes graphiques pour un seul moniteur.
Mais du coup je dois garder ce deuxième écran pour activer la carte à chaque que je relance le pc ?
J'ai testé ça n'a rien changé ;)
J'ai testé ça n'a rien changé ;)
citation pebkad ton truc....
EDIT tibidao : ça te dérangerait de garder un minimum de politesse ? :o
Mais du coup je dois garder ce deuxième écran pour activer la carte à chaque que je relance le pc ?
Par contre, j'ai lu sur plusieurs forum que des gars ont grillé leur CG, voire leur Carte Mère, :electric: parce que leur alim était au max de ses capacités et que les fluctuations de puissance qu'elle envoyait aux composants étaient très mauvaises pour eux. :(
En même temps beaucoup de boulet achètent des alims de 600w à 19€ alors bon faut pas s'étonner non plus :gno:Evidemment, il faut oublier les alims noname/Heden/Advance, qui sont incapables de fournir plus de la moitié de ce qui est inscrit sur l'étiquette sans flamber :siflotte:
Evidemment, il faut oublier les alims noname/Heden/Advance, qui sont incapables de fournir plus de la moitié de ce qui est inscrit sur l'étiquette sans flamber :siflotte:
Se contenter de blocs de marque (OCZ, Corsair, Thermaltake, Enermax...), et ne pas chercher à économiser 50€ sur ce composant, qui est le plus important d'une config.
08/07/2009 12:15:52 CUDA device: GeForce 8800M GTX (driver version 18520, compute capability 1.1, 512MB, est. 43GFLOPS)43 c'est pas normal, hein ?
j'ai un Dell XPS M1730 avec T9300 (2,5 GHz) et SLI de 8800M GTX. D'après ce que j'ai pu lire et trouver, une 8800M GTX fait environ 360 GFLOPS (voire même 518)
Sans oublier seasonic et cooler master ...
Mais +1 une alim de marque un poil plus grosse que la conso de la config et ça roule pendant des milliers d'heurs
j'ai un Dell XPS M1730 avec T9300 (2,5 GHz) et SLI de 8800M GTX. D'après ce que j'ai pu lire et trouver, une 8800M GTX fait environ 360 GFLOPS (voire même 518)
soit 240 pour BOINC
Ca doit être assez clair là non? :o
Donc c'est bien 360GFLOPS
Ça c'est clair comme réponses ! Merci tout le monde :jap:
Donc c'est bien 360GFLOPS (j'avais dit dans mon premier message "voire même 518" mais j'avais précisé par la suite que le 518,43 n'était que pour les desktop...)
Donc (et je plagie tibidao) tout le monde a raison en fait :)
Je ne m'inquiète donc pas des estimations à la noix de BOINC (43 GFLOPS)
Pour ce qui est du SLI, je n'avais pas répondu à nabz37... Je suis bien sous Vista Ultimate 32bits SP1 (oui le SP2 est sorti mais comme je vais réinstaller sous peu...) et mon écran externe est bien branché et sur on dès l'allumage du bouzin. De plus, je suis bien en bureau étendu... Je n'ai jamais pigé pourquoi BOINC me fait ce coup-là, surtout depuis la 6.6.23 qui supporte le multi-GPU :priz2tet:
Merci quand même de m'aider ;)
Rohhh... et moi qui pensait que c'était une affaire... Le coup du "Extreme" m'a plu ^^.
Bon ba... la prochaine j'en prend une Corsair !
on est sur un forum boincDonc une 8800M GTX fait 240 (les 360 on s'en tamponne :D )
Elle sont pas mal, c'est pas du heden non plus zeuz :o c'est pas le top certe mais ça c'est pas mal.
Donc une 8800M GTX fait 240 (les 360 on s'en tamponne :D )
('scuse d'être boulet, hein :lol: )
Pour ce qui est du SLI, je n'avais pas répondu à nabz37... Je suis bien sous Vista Ultimate 32bits SP1 (oui le SP2 est sorti mais comme je vais réinstaller sous peu...) et mon écran externe est bien branché et sur on dès l'allumage du bouzin. De plus, je suis bien en bureau étendu... Je n'ai jamais pigé pourquoi BOINC me fait ce coup-là, surtout depuis la 6.6.23 qui supporte le multi-GPU :priz2tet:
Merci quand même de m'aider ;)
Va dire à un modo qu'il en a une petite et que sa femme te l'a confirmé, tu vas voir :gniak:
:lol: :lol: :cetaboir: :frenchy: :giligili:
:hello:pourquoi ne pas faire un wiki ? ce serait parfaitement adapté non ?
Je plains le membre qui cherche comment utiliser son GPU pour cruncher :pompiste:
Je suis précisément dans ce cas et ce n'est malheureusement pas ce topic qui m'y aide (pratiquement 150 pages à lire...). Bien entendu, il y a la solution de poser directement la question pour avoir des réponses. Mais j'imagine la lassitude de ceux qui répondent en permanence aux mêmes questions basiques :/
Bref, il me semble qu'il serait TRES profitable que les 1ers posts du topic puissent répondre au moins à l'essentiel.
Déjà, mon petit cas perso :
Sur ubuntu (9.04 32 bits), les drivers Nvidia propriétaires installés par le système sont en version 180.44 : nickel pour cruncher
Par contre, la version de Boinc des dépôts est la 6.2.18 : là, c'est pas suffisant. Il faut prendre la 6.45 du site de Berkeley et le GPU (en l'occurence une GTX 275) sera détecté (à condition que le fichier libcudart.so soit bien présent dans le dossier var/lib/boinc-client
Une fois que ça c'est fait, on peut passer à la suite.
Et la suite, ça sera donc ma petite question à moi :
je souhaite cruncher du Seti avec mon GPU : mais je ne veux pas que le CPU soit sur ce projet (disons qu'il reste sur ABC pour l'exemple). Que dois-je faire pour que ça marche comme ça ? Est-ce possible ?
Merci d'avance :jap:
et oui plus besoin d'opti gpu depuis les dernier BM
OK, mais comme cet abruti de Boinc réclame 0 seconds de boulot pour le GPU, je risque d'attendre encore un bon moment :oas tu bien la ligne au départ comme quoi il detecte ta carte nvidia ?
C'est dingue ça :o
J'ai suspendu ABC, je force Seti à communiquer et j'ai ça :
jeu. 09 juil. 2009 19:33:25 CEST|SETI@home|Message from server: No work sent
jeu. 09 juil. 2009 19:33:25 CEST|SETI@home|Message from server: No work is available for Astropulse v5
jeu. 09 juil. 2009 19:33:25 CEST|SETI@home|Message from server: CPU jobs are available, but your preferences are set to not accept them
Comment je fais pour que mon GPU se mette enfin à bosser ?
09/07/2009 08:02:18 Starting BOINC client version 6.6.20 for windows_x86_64
09/07/2009 08:02:18 log flags: task, file_xfer, sched_ops, checkpoint_debug
09/07/2009 08:02:18 Libraries: libcurl/7.19.4 OpenSSL/0.9.8j zlib/1.2.3
09/07/2009 08:02:18 Running as a daemon
09/07/2009 08:02:18 Data directory: C:\Documents and Settings\All Users.WINDOWS\Application Data\BOINC
09/07/2009 08:02:18 Running under account boinc_master
09/07/2009 08:02:19 Processor: 2 GenuineIntel Intel(R) Core(TM)2 CPU 6700 @ 2.66GHz [EM64T Family 6 Model 15 Stepping 6]
09/07/2009 08:02:19 Processor features: fpu tsc pae nx sse sse2
09/07/2009 08:02:19 OS: Microsoft Windows XP: Professional x64 Editon, Service Pack 2, (05.02.3790.00)
09/07/2009 08:02:19 Memory: 2.00 GB physical, 3.87 GB virtual
09/07/2009 08:02:19 Disk: 29.29 GB total, 8.27 GB free
09/07/2009 08:02:19 Local time is UTC +2 hours
09/07/2009 08:02:19 CUDA device: GeForce 9800 GTX/9800 GTX+ (driver version 18120, CUDA version 1.1, 512MB, est. 77GFLOPS)
Bon, j'ai une théorie sur "le SLI qui ne fait tourner qu'un CUDA"... :gno:
En regardant de plus près, vous autres, utilisateurs de PC desktop, vous utilisez un deuxième écran ou un "plug" sur la deuxième CG pour l'activer, ce qui fait que vous pouvez avoir deux WU CUDA :sun:.
Moi, c'est pas pareil : j'ai bien un SLI, mais mes deux puces G92 sont sur la même carte avec donc une seule sortie DVI (c'est en gros une 9800 GX2)... :cpopossib:
Donc brancher un écran externe n'allume pas forcément la deuxième puce (qui d'après les températures tourne pareil que la première - SLI ou pas) :/
Je me trompe ou c'est plausible ? (ou c'est pas assez clair ?)
Pour avoir démonter le PC, c'est certain, les deux 8800M sont réunies sur une carte avec tout de doublé : puces, alim, ventilos, circuits etc. mais avec une seule prise pci-e et une seule sortie DVI.Sur le modèle Clevo que j'ai, je peux mettre 2 cartes, et donc faire du SLI. Et il s'agit de 2 cartes distinctes, avec chacune un port PCI-E dédié.
(Edit) Voici ce que ça donne : http://www.tcmagazine.com/images/news/Hardware/Nvidia_GeForce_8800M_GTX_SLI_01.JPG (http://www.tcmagazine.com/images/news/Hardware/Nvidia_GeForce_8800M_GTX_SLI_01.JPG) (edit)
Je ne comprends pas le "c'est bien 2 cartes séparées (je n'ai pas pris l'option...)" > l'option qui permet quoi :??: C'est quoi ta config' à toi ?
Pour avoir démonter le PC, c'est certain, les deux 8800M sont réunies sur une carte avec tout de doublé : puces, alim, ventilos, circuits etc. mais avec une seule prise pci-e et une seule sortie DVI.
(Edit) Voici ce que ça donne : http://www.tcmagazine.com/images/news/Hardware/Nvidia_GeForce_8800M_GTX_SLI_01.JPG (http://www.tcmagazine.com/images/news/Hardware/Nvidia_GeForce_8800M_GTX_SLI_01.JPG) (edit)
C'est chez ATI qu'il faut brancher autant d'écran qu'il y a de GPU. Chez nVidia, un seul écran suffit. Par contre, il faut absolument désactiver le SLI.
C'est chez ATI qu'il faut brancher autant d'écran qu'il y a de GPU. Chez nVidia, un seul écran suffit. Par contre, il faut absolument désactiver le SLI.
:jap:
Tu peux créer ton fichier cc_config.xml avec le Bloc-notes et l'enregistrer dans c:\ProgramData\Boinc.Bien essayé mais hélas toujours un seul GPU reconnu :/
Sous seven je suis obligé de brancher un deuxième écran. Mais j'ai peut être raté un truc.
Je viens de faire un test. J'ai branché le même écran sur les deux cartes. Windows pense que j'ai un bi écran mais sinon ça fonctionne correctement. Je vais essayer de voir pour désactiver le deuxième écran et voir si la seconde carte continue de fonctionner ;)
Le problème est que la fenêtre n'apparait pas à l'écran (il y a un processus boincmgr dans le moniteur système)
quand tu le lance en ligne de commande
il te rend la main ?
genre ./boincmgr
Ah oui ! au fait ! Tu tourne avec quels pilotes Nvidia ??
Pour Ubuntu les meilleurs (pour l'instant) sont les 180.44 et 180.60 ! :jap:
Par contre, impossible d'avoir du Seti GPU :/
Tu es obligé de mettre CPU ! car seti réclame un coeur de processeur :jap: (du moins sur Linux )pas sous windows en tout cas, je n'ai coché que gpu sur des machines et ça fonctionne
Genre le processus apparait dans la liste du moniteur système, mais la fenêtre reste introuvable.si tu as une autre machine sur ton lan avec un manager qui fonctionne, tu peux essayer de prendre le controle du boinc de ton ubuntu
Idem avec ./run_manager
C'est quoi les wus GPU de Seti parmi les 3 projets ?seti_enhanced
C'est quoi les wus GPU de Seti parmi les 3 projets ?
Non, mais maintenant c'est le cas : tout est décoché comme sur ton screen :jap:
OK, comment je désinstalle le truc ?
Esnuite, je suppose que j'ai juste à lancer le .sh que j'ai DL de Berkeley ? Faut aussi lancer le binstall.sh ?
OK, donc reboot de la meule histoire d'être sûr :D
J'ai fait comme le tuto l'indique.
J'ai ma fenêtre Boinc (yeah !) sauf que la traduction est à chier et que c'est juste illisible.
Heureusement que j'ai trouvé à tâtons comment le passer en anglais :sweat:
Bon, opération on recommence à s'attacher aux projets pour voir ...
bon, ça marche pas :o
je veux m'attacher à un projet et rien ne se passe. On dirait que le core boinc ne tourne pas
Donc, tant qu'à faire, je souhaite savoir quelle est la manip à faire pour que Boinc soit automatiquement lancé au démarrage ?
edit : j'ai juste double cliqué sur run_manager et j'ai fait "lancer" (ie pas dans un terminal)
Mais c'est pas possible :priz2tet:as tu bien décoché CPU dans les préf de seti ?
Cet abruti de Boinc vient de me charger des wus Seti pour CPU et pas une seule pour le GPU :rhaa:
Je ne VEUX PAS de wus CPU sur Seti, UNIQUEMENT GPU : c'est possible ou c'est contre la religion de Berkeley ?
Message fusionné: 15 July 2009 à 18:50
Bon, sinon, alternative si Berkeley exige du crunch CPU pour avoir du GPU :
Quels autres projets sont possibles sur GPU Nvidia ?
A part GPUGrid et Aqua ?
A part GPUGrid et Aqua ?
Folding@home :lol: !!!!!!
Sinon tu peux voir ici les projets qui on l'air à jour !
http://www.myboinc.com/scores/proj_infos.php
On va attendre alors...
je veux que boinc soit automatiquement lancé au démarrage de ma meule.
euh ... les gensje ne connaissais pas, merci du tuyaux!
sous linux il existe pour le crontab le @reboot qui lance l'appli à chaque boot :jap:
Les prochaines ATI vont envoyer du gros ! :miam:
Ah ouais tu m'étonnes :electric: reste à voir si milkyway sera compatible avec :gno:
Bonjour, je voulais savoir si on pouvait cruncher avec une ATI HD 3670 ?
est-ce possible sous milkyway ?
Sinon y'a t'il d'autres projets où je pourrai m'en servir ?
Oui enfin attention à ton lien, DX11 3 fois plus rapide que DX10.1 ne veut strictement pas dire que la carte sera 3 fois plus performante qu'une 4870 ou que sais-je :gniak: même si on peut s'attendre à des bonnes perfs, j'avais calculé d'après les infos qui circulent qu'une 5870 tournerai à 1.5Tflop soit seulement 20% de plus qu'une 4870 mais bon c'était basé sur des rumeurs
Pourquoi ne seraient-elles pas compatible? les cartes haut de gamme tourne en double précision depuis 2 générations, pourquoi en serait-il autrement avec ces modèles ci? :??:
Non tu ne peux pas cruncher avec une 3670 sur milkyway, par contre sur http://boinc.thesonntags.com/collatz/ normalement ça passe mais faut attendre de nouvelles unités
Alors, je prétend pas du tout m'y connaitre, je précise.Je pensé la même chose, mais vu que comme toi je n'était pas sûr... En AGP c'était plus simple, on pouvais régler la fenêtre comme on voulait.
Juste, je me suis posé une question, j'ai cherché sur le net et je lance une idée :
- problème d'aperture size à régler dans le bios ?
Recherche d'origine : mémoire allouée à la carte graphique. Si c'est trop nul, je sors..... :ptintumafepeur:
Alors, je prétend pas du tout m'y connaitre, je précise.
Juste, je me suis posé une question, j'ai cherché sur le net et je lance une idée :
- problème d'aperture size à régler dans le bios ?
Recherche d'origine : mémoire allouée à la carte graphique. Si c'est trop nul, je sors..... :ptintumafepeur:
Aqua + Milkyway... Mais quel est son secret !
Client Boinc modifié de Crunch3r ?
Sous vista 32 bits j'utilise les 185.85 je n'ai eu qu'une erreur le jour du changement de driver et depuis ça roule pas de souci
1328904044 489352203 9 Aug 2009 6:56:19 UTC 9 Aug 2009 7:07:27 UTC Error while computing 88.30 16.91 ---
1328904036 489352197 9 Aug 2009 6:56:19 UTC 9 Aug 2009 7:02:01 UTC Error while computing 75.35 20.66 ---
1328904020 489352135 9 Aug 2009 6:56:19 UTC 9 Aug 2009 7:03:28 UTC Error while computing 39.08 3.91
Je comprends pas moi :( je copie les fichiers boinc.dll et boinc.exe, j'ouvre il me dit tout ca :
09/08/2009 00:25:37||Missing start tag in cc_config.xml
09/08/2009 00:25:37||Starting BOINC client version 6.5.0 for windows_x86_64
09/08/2009 00:25:37||log flags: task, file_xfer, sched_ops
09/08/2009 00:25:37||Libraries: libcurl/7.19.4 OpenSSL/0.9.8j zlib/1.2.3
09/08/2009 00:25:37||Data directory: C:\ProgramData\BOINC
09/08/2009 00:25:37||Running under account Anthony
09/08/2009 00:25:37|Milkyway@home|Found app_info.xml; using anonymous platform
09/08/2009 00:25:37||Processor: 8 GenuineIntel Intel(R) Core(TM) i7 CPU 920 @ 2.67GHz [Intel64 Family 6 Model 26 Stepping 4]
09/08/2009 00:25:37||Processor features: fpu tsc pae nx sse sse2 pni
09/08/2009 00:25:37||OS: Microsoft Windows 7: x64 Editon, (06.01.7600.00)
09/08/2009 00:25:37||Memory: 6.00 GB physical, 11.99 GB virtual
09/08/2009 00:25:37||Disk: 2.00 TB total, 1.69 TB free
09/08/2009 00:25:37||Local time is UTC +2 hours
09/08/2009 00:25:37||Not using a proxy
09/08/2009 00:25:37||No CUDA devices found
09/08/2009 00:25:37||CAL device: ATI GPU RV770
Mais dans la liste des tâches il n'y a pas marquer "en cours (0,01 cpu, 1 Cal)" comme chez toi pour milky, chez moi c est marquer "en cours, priorité haute (0,10 cpu)"
Pourquoi ca me fait ca ? :(
<app_info>
<app>
<name>milkyway</name>
</app>
<file_info>
<name>astronomy_0.19_ATI_x64f.exe</name>
<executable/>
</file_info>
<file_info>
<name>brook.dll</name>
<executable/>
</file_info>
<app_version>
<app_name>milkyway</app_name>
<version_num>19</version_num>
<plan_class>cal</plan_class>
<avg_ncpus>0.010000</avg_ncpus>
<max_ncpus>0.010000</max_ncpus>
<coproc>
<type>CAL</type>
<count>1</count>
</coproc>
<file_ref>
<file_name>astronomy_0.19_ATI_x64f.exe</file_name>
<main_program/>
</file_ref>
<file_ref>
<file_name>brook.dll</file_name>
</file_ref>
</app_version>
</app_info>
ThierryH j'ai un problème, regarde ce que ca me dit maintenant milkyway après avoir fait les modifications du app_info.xml de cruncher :T'es sûr que l'application Milky optimisée pour ATI est correctement installée ? Tu ne l'aurais pas fait sauter en installant la vieille version de Boinc ?
09/08/2009 15:38:02|Milkyway@home|Requesting new tasks
09/08/2009 15:38:07|Milkyway@home|Scheduler request completed: got 7 new tasks
09/08/2009 15:38:07|Milkyway@home|[error] No app version for result: windows_x86_64 19
09/08/2009 15:38:07|Milkyway@home|[error] No app version for result: windows_x86_64 19
09/08/2009 15:38:07|Milkyway@home|[error] No app version for result: windows_x86_64 19
09/08/2009 15:38:07|Milkyway@home|[error] No app version for result: windows_x86_64 19
09/08/2009 15:38:07|Milkyway@home|[error] No app version for result: windows_x86_64 19
09/08/2009 15:38:07|Milkyway@home|[error] No app version for result: windows_x86_64 19
09/08/2009 15:38:07|Milkyway@home|[error] No app version for result: windows_x86_64 19
Ca me fait ca je ne reçois aucune unité :(
Et je voudrais savoir je le place ou le <cmdline>n3</cmdline> pour faire tourner 3 ut en meme temps dans le app_info.xml ?
Ahhhhhhhhhh :D j'avais pas vu ca comme ca lol désolé :):lol:
T'as une machine avec 6 gpu ? Un crossfire de trois HD4870x2 ?Il ne faut pas utiliser le CrossFire, ni le SLI d'ailleurs, ça merdouille et ça calcul moins vite que s'il y avait qu'un seul gpu. Ma machine 6 gpu est faite à l'aide de 3 9800GX2. Ma machine la plus puissante est faite autour de 2 GTX295.
:lol:
J'ai même une machine avec 6 gpu ;)
Collatz Conjecture et Seti ! :jap:Pour séti, j'ai déjà essayé à plusieures reprises mais je n'ai jamais réussi à chopper la moindre wu pour GPU.
ça serait bien aussi qu'ils nous fassent linux + ati d'ici mars (fin de w7 évaluation) ... :siflotte:
Pour Riva tuner, j'avais le même problème, je l'avais résolue avec ça : http://www.centrale3d.com/?RivaTuner-2-24-et-Nvidia-185-85:jap:
oui ! entre 140-150pts !Exact ! ça me fera près de 8000 pts/jr.... c'est correct pour une 8800GT ! :)
Pour les projets pour cuda, il y a aussi Einstein@Home (Linux et Windows) mais leur exécutable n'est pas au point sous Linux ( http://einstein.phys.uwm.edu/forum_thread.php?id=7540 ) . Pour Windows, voici le lien ( http://einstein.phys.uwm.edu/forum_thread.php?id=7539 ) . ;)Merci pour l'info ! Je me suis inscrit sur le projet, mais a priori il n'y a pas la possibilité de sélectionner uniquement les unités GPU.... Et j'ai reçu uniquement des unitées CPU que j'ai renvoyé...
Bon, j'reviens poser la même question qu'il y a quelques temps mais je ne suis pas trop l'actualité GPU : est-il possible de limiter le %age d'utilisation GPU par BOINC ? Car je suis sur un ordi portable, donc j'ai peur que ça chauffe trop après. Merci !non
non, rien de particulier !
A part de bien cocher dans les options des projets que tu veux du travail pour le GPU
Depuis que cette 9500gt tourne, j'ai de gros ralentissements, je dois mette boinc en veille pour faire autre chose, surfer, écouter ma musique etc!malheureusement, c'est la carte qui n'est pas assez puissante pour faire de la gestion de fenetre et du calcul GPU
Y a des réglages à faire?
Je suis en 6.6.36
J'ai une GTX 260, et sur seti j'ai le même problème, donc c'est pas forcément dû à la puissance de la carte. j'ai juste pris l'habitude de suspendre seti quand je me sers de l'ordi, ce qui n'est pas optimal.... :cpopossib:
Dans les préférence du BoincManager, il y a maintenant la possibilité de couper le calcul gpu lors de l'utilisation de la machine.
C'est quelle case qu'il faut décocher? C'est en anglais!Use GPU while computer is in use :jap:
Ok, here is the update.
It works, at least so far. I now have my 4 CPUs crunching on SETI, my one Nvidia GPU crunching on seti/GPUgrid, and the single ATI 4870 working on MW.
I am running XP 32bit as my os with the latest windows updates and Boinc 6.6.20.
Things to note:
1. When I plugged in the ATI card since the free PCIe slot I had was lower on the bus it became the default video for the bios / boot. If I want to change that I would just have to swap the ATI position with the Nvidia.
2. Windows however still used my nvida card as the primary OS card. I did have to connect a second monitor (or a second input on the same monitor) to the ATI card and extend my desktop to it under windows to get the OS to load the driver. You would need to do extend the desktop as well even if you used a dummy VGA connector.
3. For MW I am using the catalyst 8.12 drivers as I was having issues with the 9.1 driver which were causing the WUs to error out after a while. I am also using the .19e version of the MW GPU app from zslip.com
I will update here if any thing changes or becomes unstable over time.
A tester aussi ;)
http://www.starwars-holonet.com/blog_boinc/2009/08/boinc-6-10-0-support-des-gpu-ati/
http://boinc.berkeley.edu/download_all.php
Message fusionné: 30 August 2009 à 11:07
Pour mon probleme de xorg sous linux. Alors depuis quelques jours je suis retourné sous linux pour calculer avec mes cartes graphiques. Sous seven je retrouve souvent mon pc rebooté. Windows seven reboote seul.
Sous linux GPU grid passe bien mais c'est seti qui m'interesse le plus sauf que au bout d'un certain temps xorg utilise un cpu complet et l'affichage est lent.
Après quelques jours d'utilisation j'ai à nouveau le même problème. J'ai longtemps pensé que c'était un fichier log de xorg. En réalité c'est peut être un fichier log boinc. En effet, lorsque le pc est devenu lent au niveau interface graphique j'ai réinitialisé seti et il est reparti tout seul. L'affichage est à nouveau correct. Je vais essayer de trouver quel est le fichier log qui me déglingue l'ordi sous linux.
Cette théorie du fichier log boinc expliquerait assez bien pourquoi sous GPU grid le pc tourne parfaitement et sous seti ça déconne pas mal. En effet, avec ma gtx 260+ et la 8600 gts je fais une unité toutes les 6-7 minutes. Si boinc log des données c'est nettement plus qu'avec GPU grid.
Ce problème n'est pas visible sous windows. C'est pourquoi j'avais d'abord pensé à un souci purement xorg.
A suivre.
<cc_config>
<options>
<report_results_immediately>1</report_results_immediately>
</options>
</cc_config>
C'est le champ report_results_immediately.
Le fichier doit au moins contenir
A+
le fichier en question s'appelle cc_config.xml. Il doit être placé dans C:\ProgramData\BOINC (par défaut) et s'il n'existe pas, tu peux le créer :jap:
Le seul problème c'est que j'ai meme pas les dll dans mon dossier system32... V_va mon avis tu dois résoudre le problème de détection de ta carte avant tout (carte compatible VGA)
EDIT: après désinstall de tous les drivers vidéos, puis réinstall du Catalyst 9.9, la carte n'est pas reconnue comme HD 4330, mais comme carte VGA standard.
Etat du périphérique: Ce périphérique ne peut pas démarrer. (Code 10)
Et toujours pas de dll...
De puis la sortie de Boinc 6.10.4, j'arrive à calculer avec ma 4850 sans bug depuis ce matin, avec les fréquences d'origines.
J'ai doubler mon total depuis ce matin :)
J'ai toujours se problème d'unités qui ne se terminent pas au profit des nouvelles UT téléchargés automatiquement toutes les 60 sec.Quelle version de Boinc Manager?
Quelqu'un a une solution, comme l'endroit où augmenter la requête automatique ?
Quelle version de Boinc Manager?
:hello:
version 6.10.4install la 6.10.3
ben la version SSE3 c'est pour le CPU :D:+1:
install la 6.10.3:+1:
elle fonctionne beaucoup mieux ;)
ben la version SSE3 c'est pour le CPU :D
:+1: :+1:
:hello:
cette version reconnait enfin les cartes ATI :)
plus de problème pour gérer un projet CPU et GPU,
mais il faut essuyer les plâtres car encore en développement ;)
la 6.10.4 pose des problèmes
installe la 6.10.3 et tu pourras faire tourner CPU et GPU :)
Il faut un autre projet sur tu veux utiliser le CPU.
:hello:
Il faut un autre projet sur tu veux utiliser le CPU.bien vu jim, j'avais pas pensé à cette éventualité :lol:
:hello:
connect about every 0.1 days
additionnal work buffer 2.0 days
22/09/2009 11:52:23 Enigma@Home Message from server: (reached daily quota of 300 tasks)
donne nous :J'ai BOINC 6.10.6
ta version de Boinc,
ta version des drivers catalyst
le message d'erreur que tu as ?
J'ai BOINC 6.10.6
Les pilotes sont en version 8,633 et c'est apparemment les derniers pilote pour ma carte graphique
23/09/2009 23:26:24 Milkyway@home Starting task de_s222_3s_random_2p_03r_22_121166_1253741320_0 using milkyway version 20
23/09/2009 23:26:25 Milkyway@home Computation for task de_s222_3s_random_2p_03r_22_121166_1253741320_0 finished
23/09/2009 23:26:25 Milkyway@home Output file de_s222_3s_random_2p_03r_22_121166_1253741320_0_0 for task de_s222_3s_random_2p_03r_22_121166_1253741320_0 absent
non j'ai dit que je n'avais pas touché au fichiersNON malheureux, il ne faut jamais renommer ces fichiers, il faut COPIER
donc il faut renommer les fichiers atical.dll en amdcal.dll
ok je vais essayer
NON malheureux, il ne faut jamais renommer ces fichiers, il faut COPIERtoutafé :jap:
il a besoin des atical*.dll et des amdcal*.dll
Dans une perspective d'achat, j'aimerai bien connaitre la puissance des cartes Nvidia type GTX sous BOINC afin de comparer avec leur prix.Voilà un comparatif en fonction de la même unité calculée de type IBUCH_r : voici les différents temps de calcul
Vous pouvez me donner vos scores avec vos versions de cartes... :sun:
Donc l'idéal serait de connaitre :
GTX 260 216sp ----= 140€
GTX 275 ----= 180€
GTX 280 ----= 200€
GTX 285 ----= 265€
GTX 295 ----= 360€
Si on pouvait partir sur la base de GPUGrid ca serait surement plus simple non ?
Merci les gars !
http://forum.boinc-af.org/index.php/topic,2287.msg190843.html#msg190843
Voilà un comparatif en fonction de la même unité calculée de type IBUCH_r : voici les différents temps de calcul
GTX260 (216 sp) 6h47
GTX275 5h48
GTX285 5h24
J'espère que cela te sera utile. ;)
Je viens d'installer ces nouveaux drivers (191.03 béta) pour ma 8800GT, et j'ai quelques problèmes à l'affichage....
Bonjour, je recherche la formule permettant à partir des caractéristiques (shaders, fréquences...) des cartes nVidia (8800 GT en l'occurence) de calculer la puissance brute théorique, en GFLOPS.
C'est pour comparer une 8800GT 256 Mo que je viens d'acheter avec la 8800GT 512 Mo que je possède déjà.
Merci :D
PS : rien trouvé avec le moteur de recherche du forum ni sur le site.
Et comme bientôt OpenCL arrive, cela ne sert à rien :coffeetime:
EDIT : Vu le développement du calcul GPU et les soucis de pilotes nVidia et ATI aussi j'ai l'impression, il pourrait être utile d'ouvrir 2 topics dédiés dans la FAQ technique ;).
Et comme bientôt OpenCL arrive, cela ne sert à rien :coffeetime:
bonjouren fait, il suffit d'installer des pilotes nvidia (http://www.nvidia.fr/object/thankyou_fr.html?url=/compute/cuda/2_3/drivers/cudadriver_2.3_winxp_32_190.38_general.exe) récent pour ta carte graphique
je possède une carte graphique geforce G 102M et n'arrive pas à installer cuda
comment faire??
merci :D :D
Cela vous paraît-il normal que celle de gauche, fonctionnant 18h/24 produise plus de points que celle de droite (24h/24) sur un même projet? (GPUGrid en l'occurence)De prime abord, ce qui me parait normal c'est que les 2 cartes, bien que semblables en apparence, ne produisent pas sensiblement les memes RAC :
Je vais faire un essai avec Collatz Conjecture sur les deux cartes pour voir ce que ça donne.Je serais tres etonne que celle de droite ne repasse pas devant :)
Salut, j'ai un souci pour faire tourner ma 4770 avec Milkyway.
le symptôme : VPU recovery après quelques secondes de crunch.
ma config : boinc 6.10.13, CCC 9.9 (les 8.12 ne connaissent pas ma carte)
j'ai copié/renommé les 3 dll atical*
j'ai installé l'application optimisée 0.20b Win32-SSE2
j'ai aussi testé sans plus de succès la Win32-SSE2 amd
de l'aide serait très appréciée :o :jap:
voici ce que j'ai testé : install des pilotes 9.8 sans le CCC
résultat : ça crunche, mais dès que je fais autre chose (genre ouvrir une fenêtre) : PAF ! VPU recovery
je laisse tourner une nuitée pour voir, mais ça craint :/
C'est directement lié à la fréquence de la mémoire, pourtant considérée comme sans influence ou presque sur les performances CUDA.
Bonjour à tous,
J'avoue directement ne pas avoir lu toutes les pages du topic, donc mea culpa si la question a déjà été posée :)
Je possède un iMac C2D avec une ATI RADEON HD2600 Pro.
Je pensais jusqu'à présent que le GPU c'était définitivement NON pour cette carte graphique. Or je me suis rendu compte aujourd'hui (grâce à RLDF) qu'il est possible de faire du GPU sur Collatz avec cette CG.
Seul problème il faut être sous windows ou linux.
Je viens de tester sous linux via une machine virtuelle, mais, comme je m'y attendais, BOINC ne détecte pas de GPU valable.
En fait ma question est simple : y a-t-il à l'heure actuelle moyen de cruncher GPU avec ATI RADEON HD2600 Pro sous Mac OS X OU via une machine virtuelle ?
Merci d'avance :)
Hâte de pouvoir cruncher GPU :)
Oki merci :'(
Je ne suis pas vraiment l'actualité GPU de près, donc je compte sur toi pour me prévenir qd ce sera possible McRoger :)
Attention sur GPUGrid tu as un bonus si tu calcules la wu rapidement donc en fonction de ton cache de l'époque ça peut aussi jouer ;)3 jours sur toutes mes machines.
Je ne me rappelle plus, mais il faut les rendre avant 24 ou 48h pour avoir un bonus de crédit !Le problème c'est qu'avec seulement 24h la CG va passer la moitié de son temps à glander, faute de serveur en service en face.
:electric: Chaincrash en série, BSOD en cascade, ça chauffe trop. :electric:(http://s17.rimg.info/5aee9d387e168b2d960c4da13b16df64.gif)
:hello:
Comme je recherche en ce moment une solution de refroidissement pour mon GPU,
je compte suivre le conseil de supersnoopy, le HR 03 me semble pas mal, même si un poil cher,
mais restait le problème du ventilateur.
Lequel choisir ? Pression statique ou flux d'air max ? :??:
Je suis alors tombé sur ce site et je voulais vous le faire partager.
http://pagesperso-orange.fr/mgiaco/electron/ventil/ventil.htm
Désolé si je suis un peu HS mais ça peut intéresser certains
Bon crunch :hyperbon:
... alors demain si j'ai le courage, au plus tard vendredi car pas de taff.
Bonjour :kookoo:,
Je me demandais si avec l'arrivée de boinc 6.10 certains ont tenté de mettre sur même machine une carte nVidia et une carte ATI ? Ca donne quoi ?
Merci par avance pour vos réponses :jap:.
@Nabz : à moins d'avoir trafiqué le Boinc et surtout le système d'exploitation, je vois mal comment un système peut gérer 2 cartes requérant chacune 2 drivers différents.pas besoin de trafiquer boinc et windows 7 est prévu pour fonctionner avec des drivers nvidia et ati ;)
C'est plutôt au niveau des projets que ce n'est pas simple.Effectivement, je n'ai pas pensé à cet aspect pour le serveur : quelle appli envoyer s'il y a une carte ATI et une carte nVidia compatibles :??: ?
au moins une personne chez susa a fait cruncher une machine avec une nvidia sur gpugrid et une ati sur milkyway
2 GTX 295. C'est quoi ta carte et ton alim ?
Je viens de voir que j'ai une wu seti qui devrait être calculée en environ 3 heures sur la GTX 260+. Ca devrait faire un max de points ou sinon :cavachier:
Après reboot du pc la wu a mis quelques minutes à se terminer et demande 150 pts comme d'hab :electric: :cpopossib:ça paye pas seti, faut aller sur collatz :lol:
Gros bug :/
10-Nov-2009 02:04:08 [---] Starting BOINC client version 6.10.17 for x86_64-pc-linux-gnu
10-Nov-2009 02:04:08 [---] log flags: file_xfer, sched_ops, task
10-Nov-2009 02:04:08 [---] Libraries: libcurl/7.18.0 OpenSSL/0.9.8g zlib/1.2.3.3 c-ares/1.5.1
10-Nov-2009 02:04:08 [---] Data directory: /home/arnaudschoofs/Bureau/BOINC
10-Nov-2009 02:04:08 [---] Processor: 2 GenuineIntel Intel(R) Core(TM)2 Duo CPU T7700 @ 2.40GHz [Family 6 Model 15 Stepping 10]
10-Nov-2009 02:04:08 [---] Processor: 4.00 MB cache
10-Nov-2009 02:04:08 [---] Processor features: fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx lm constant_tsc arch_perfmon pebs bts rep_good pni dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm lahf_lm t
10-Nov-2009 02:04:08 [---] OS: Linux: 2.6.31-14-generic
10-Nov-2009 02:04:08 [---] Memory: 3.85 GB physical, 999.99 MB virtual
10-Nov-2009 02:04:08 [---] Disk: 13.87 GB total, 9.38 GB free
10-Nov-2009 02:04:08 [---] Local time is UTC +1 hours
SIGSEGV: segmentation violation
Stack trace (15 frames):
./boinc(boinc_catch_signal+0x43)[0x45d4c3]
/lib/libpthread.so.0[0x7f53fe664190]
/usr/lib/libaticaldd.so[0x7f53fc60584a]
/usr/lib/libaticaldd.so[0x7f53fc6056c5]
/usr/lib/libaticaldd.so[0x7f53fc602197]
/usr/lib/libaticaldd.so[0x7f53fc5f9b35]
/usr/lib/libaticaldd.so[0x7f53fc52e183]
/usr/lib/libaticaldd.so[0x7f53fc6422ea]
/usr/lib/libaticaldd.so[0x7f53fc63be9f]
/usr/lib/libaticaldd.so[0x7f53fc64b115]
./boinc[0x458e7b]
./boinc[0x415435]
./boinc[0x441a8a]
/lib/libc.so.6(__libc_start_main+0xfd)[0x7f53fdb59abd]
./boinc(__gxx_personality_v0+0x1e1)[0x4062f9]
Exiting...
Autrement dit, j'ai une SEGMENTATION violation au moment où les pilotes ATI sont chargés et boinc refuse donc de démarrer.mar 10 nov 2009 16:39:57 CET ATI GPU 0: ATI Radeon HD 2600 (RV630) (CAL version 1.4.427, 256MB, 144 GFLOPS peak)
Miam miam miam :DSuper steiner, bienvenue au club. :sun:
En plus j'ai forcé mes CPU à 2,4GHz constamment sous linux (sinon en mode on demand il les exploite pas à fond il me semble).
CPU je monte à max 80° et GPU je suis à 42° : tout va bien :)
Vais laisser tourner en H24 today on verra bien ce que ça donne :p
Miam miam miam :D
En plus j'ai forcé mes CPU à 2,4GHz constamment sous linux (sinon en mode on demand il les exploite pas à fond il me semble).
CPU je monte à max 80° et GPU je suis à 42° : tout va bien :)
Vais laisser tourner en H24 today on verra bien ce que ça donne :p
Pour les réglages, toujours privilégier le BIOS à une solution logicielle. Si le Bios ne permet pas de régler ce genre de choses (souvent le cas sur des machines préconstruites), alors une solution logicielle s'impose.
Mac je connais pas du tout.
Pour mon portable j'ai utilisé un logiciel, le BIOS étant à chier ; pour toutes les autres machines j'ai tout réglé dans le BIOS.
Je ne sais pas ce que donne une 8500 GT mais je fais tourner en deuxième carte une 8600 GTS sur seti et elle me fait une unité toutes les 1h30. Ca fait un rac équivalent à un dual core 2.33 Ghz (à la louche). Donc bon ok en carte graphique c'est de la merde mais ça permet de pas :??: booster correctement une prod à peu de frais en recyclant une carte qui était retournée dans un carton.
Euh...on est passé à coté là ou pas ?Le problème d'astro pulse c'est que je n'ai jamais réussi à avoir une seule unité ;)
Une opti Seti hybride ATI/CPU est sorti il y a 2 semaines pour les Astropulses.
Une partie du calcul est réalisé par le GPU et l'autre par le CPU.
http://lunatics.kwsn.net/index.php?op=News;id=3
Voila quelques agréables suggestions de développement pour de futures versions que tu devrais envoyer (http://boinc.berkeley.edu/dev/)de ce pas à Berkeley :)Je suis anglophobe :(
Bonjour à tous,
j'ai vu que MilkyWay@Home est en train de se relancer et je voudrais tester mon HD5870 sur le projet MilkyWay.
Le problème, c'est que je ne sais pas trop comment faire. J'ai trouvé un petit tuto mais j'ai des problèmes pour les applications optimisées.
Cette page là fourni dans les forums du projet : http://www.brilliantsite.com/milkyway/ (http://www.brilliantsite.com/milkyway/) Je ne sais pas quelle version GPU choisir entre la Win32 et la Win32-SSE2.
Merci d'avance pour vos réponses.
Petit souci avec les drivers XP32 191.00 pour une FX570. Dès que CUDA démarre, le processus explorer.exe se met à saturer le CPU. Ensuite, même si je stoppe l'unité le processus continue de ramer comme une daube. Obligé de rebooter la machine.Up.
J'ai remplacé par les 190.38, je verrai demain ce que ça va donner...
Message fusionné: 20 October 2009 à 10:06
Bon, et bien maintenant impossible même en ayant remis les drivers 186.00 originels. Dès que CUDA est utilisé, explorer.exe charge le CPU comme un goret.
J'ai essayé plusieurs fois de désinstaller puis de réinstaller les pilotes graphiques (même en mode sans échec), sans succès. CUDA est dorénavant inutilisable sur ma FX 570 :cry: (enfin si, mais du coup c'est le CPU qui crunche plus grand chose, trop
Je suis sous XP32 SP3, et j'ai remis les drivers 191.07 pour la FX570.
J'en viens à me demander si ce n'est pas le dernier lot de mises à jour de Windows (faites en même temps que la mise à jour des pilotes) qui en est la cause. :(
Thierry peut-on savoir quelle est cette bête. :jap:
"Vieux" et "i7" dans la même phrase :lol:
C'est mon vielle i7 auquel j'ai retiré ses 3 9800GX2 (si elles intéresse quelqu'un => mp) pour mettre 2 HD5970 à la place :jap:
tu dois même gagner légèrement en terme de conso électrique avec ce changement.
Bien... Je suis obligé d'allumer le chauffage maintenant :lol:
GPUGrid est un bon projet.
Pps : pendant que j'y suis... comment on fait pour modifier les % qu'on aloue à chaque projet ?
(ex : si 5 projets, de base c'est 20 chacuns).
quelqu'un pourrait-il me créer un fichier app_info pour que Collatz ne fonctionne qu'avec l'appli nvidia 2.03 pour ma 8600GT ? je ne souhaite pas cruncher dessus avec mon Ati (désolé)Tu peux le trouver sur le forum de Collatz.... :siflotte:
<app_info>
<app>
<name>collatz</name>
<user_friendly_name>collatz</user_friendly_name>
</app>
<file_info>
<name>collatz_2.03_windows_x86_64__cuda23.exe</name>
<executable/>
</file_info>
<file_info>
<name>cudart_CUDA23.dll</name>
</file_info>
<file_info>
<name>cutil32.dll</name>
</file_info>
<app_version>
<app_name>collatz</app_name>
<version_num>203</version_num>
<platform>windows_x86_64</platform>
<avg_ncpus>0.05</avg_ncpus>
<max_ncpus>1</max_ncpus>
<flops>1.0e11</flops>
<plan_class>cuda23</plan_class>
<file_ref>
<file_name>collatz_2.03_windows_x86_64__cuda23.exe</file_name>
<main_program/>
</file_ref>
<file_ref>
<file_name>cutil32.dll</file_name>
<open_name>cutil32.dll</open_name>
</file_ref>
<file_ref>
<file_name>cudart_CUDA23.dll</file_name>
<open_name>cudart.dll</open_name>
<copy_file/>
</file_ref>
<coproc>
<type>CUDA</type>
<count>1.000000</count>
</coproc>
</app_version>
</app_info>
petite info, j'ai rajouté les logos d'ATI et nVidia dans le listing des projets sur les stats bzh pour mettre en avant les projets compatibles cuda ou ati.
petite info, j'ai rajouté les logos d'ATI et nVidia dans le listing des projets sur les stats bzh pour mettre en avant les projets compatibles cuda ou ati.Nice!
Merci ^^Oui freehal merde pas mal en ce moment, c'est un projet jeune géré par un gars de 16 ans alors faut le laisser pédaler un peu !
Par contre j'ai un ptit problème avec FreeHal, je suis sur d'avoir envoyé 2 résultats, aucun crédit filé, j'en ai chopé un avant qu'il soit envoyé et ça mettait erreur de clacul... :/
(Et j'utilise la version 6.10.18 de Boinc, en 64 bits)
petite info, j'ai rajouté les logos d'ATI et nVidia dans le listing des projets sur les stats bzh pour mettre en avant les projets compatibles cuda ou ati.
Peut être qu'un gentil membre aurait l'amabilité de sortir la sienne et de regarder à quoi correspond ce composant?? Non? :cavapabiendantateute: :sarcastic: :chuidac:Encore faut-il posséder la même :)
moi 37 minutes avec une 8600GT pour 23,61 points, avec mes 4 cpus je mets 14 minutes, mdrL'appli est loin d'être optimisée!
L'appli est loin d'être optimisée!
Ta remarque sur le forum de PrimeGrid n'est pas constructive du tout :priz2tet:
:rhaa:
With my 8600GT a wu takes 34 minutes to be finished, with my cpus Q9450@3,6Ghz 4 wus take 14 minutes to be finished !Si tu lis les messages précédent, tu auras la réponse!
What is my problem ? My graphic card is not enough powerful ?
c'est une remarque comme une autre, je ne comprend pas ta remarque par contre...Tu comprendras si tu lis :coffeetime:
Si c'est une XFX, tu peux faire jouer la garantie directement sur le site XFX.
Par contre sache que la carte a intérêt à avoir été achetée chez un "authorized dealer".
lol bon c'est embettant.. xD
Il m'a dit qu'un composant manquait a cet endroit xD
Enfin bon, je vais voir ca avec lui.
Un composant C 967 sur un GPU de la gamme GT200 reste identique de par sa nomenclature.
Bon...j'ai testé la carte sous ubuntu et elle est reconnu par le systeme mais pas par Nvidia.Quand j'ai eu ce problème, la carte est partie en SAV.... :/
J'ai installé Windows Seven pour vérifier, et c'est la même chose. Reconnu dans les propriétés systèmes, mais pas par Nvidia
Dans les propriétés systèmes, ca m'indique un petit point d'exclamation avec comme status : "windows has stopped this device because it has reported problems"
C'est dommage, il reconnait bien une GTX285.
Pas possible de s'en servir ?
Elle est sur le second port de ma CM, SLI desactivé, (La premiere carte est une 7300GS).
Merci de votre aide (Si on peut faire quelques choses)
Avec une 8800GTS 320mo, est-ce que je peux prétendre faire du GPUGrid ? Sachant que je fais tourner Collatz parfaitement.Non désolé, GPUGrid est dispo à partir d'une 8800GTS512(chip G92 compute capibilities 1.1).
en meme teps a part milky et collatz les crédit sur GPU son pas géniaux !Pourris gâtés ces gamins, même plus le sens des proportions... vivement la famine !
par contre i have one question :
sous collatz (qui ne fonctionne pas bien du tout chez moi a chaque nouvelle ut l'autre plante bref...) j'ai :
collatz_2.03_windows_x86_64__cuda23
donc l'api cuda en 64b
mais c'est le seul projet avec une api cuda en 64 milky gpugrid on x86 eux
en développement le 64b chez ces derniers ou..pas ? :??:
il y a un gain pour les projets mathématique sur les cpu est-ce de même pour les GPU ?
J'ai eu des crash et des blocages à répétition (à fréquence usine) sur ma 5870 avec le pilote livré avec la carte.
J'en ai eu encore, mais moins souvent, avec le 9.10 et plus aucun depuis que je suis passé au 9.11, même o/c @900 MHz.
Il a les 9.12 peut être que ça vient de là, une de ses carte est a 85° l'autre a 70° même pas ...
non on dirait juste que l'un a le ventilateur coller a l'autre carte graphique.... :priz2tet:
je sais qu'on est pas sur un forum d'aide informatique m'enfin quand même...
Depuis... que les cartes graphiques existent? :lol:
Bien entendu qu'il est possible de faire cohabiter plusieurs cartes graphiques de constructeurs différents. :jap:
Niveau pilote, il suffit d'installer le pilote respectif de chacune des cartes. :)
mdr ca fait pas si longtemps que ca
c'était quasiment impossible les deux drivers ne pouvaient pas se charger ensemble ....
ou alors tu avais des drivers spéciaux :hyperbon: faut arrêter de dire des bétises :/
dire que c'est compatible maintenant car les drivers ont évolués les os aussi ok
mais depuis que les cg existent ... lol quoi
J'ai déjà fait cohabiter une ATI avec une 3DFx... donc non ce n'est pas nouveau.
mdr ca fait pas si longtemps que ca
c'était quasiment impossible les deux drivers ne pouvaient pas se charger ensemble ....
ou alors tu avais des drivers spéciaux :hyperbon: faut arrêter de dire des bétises :/
dire que c'est compatible maintenant car les drivers ont évolués les os aussi ok
mais depuis que les cg existent ... lol quoi
Oui enfin au niveau de boinc il fait comment pour gérer les cartes graphiques ATi et NVIDIA au niveau des projets ?Boinc détectent les 2 cartes, et fait une demande pour de l'ATI ou du Nvidia sur chaque projet!
:jap:
Avant que je me décide de changer (ou ajouter....) de CG, vous pouvez me confirmer que qu'il n'y a que deux projets qui fonctionnent avec une carte ATI (collatz et milky ?)
Avant que je me décide de changer (ou ajouter....) de CG, vous pouvez me confirmer que qu'il n'y a que deux projets qui fonctionnent avec une carte ATI (collatz et milky ?)
Et puis si ce n'est pas urgentissime il y a open cl qui devrait permettre de calculer avec les deux types de cartes ;)C'est vrai, mais j'envisage de passer de la 8800GT à la 5870.... C'est pas tout à fait la même chose :D
J'ai recu la HD5850 ... Mais j'ai pas eu le coeur de me départir de la 4850 ...
Donc pour l'instant les deux sont branchées, mais seule la 5850 est active.
Cette semaine je tenterai donc, rien que pour vous :D, la 5850 et une 4850+dummyVGA dans la meme machine, bien entendu sans crossfire :)
A priori, il n'y a pas de raison que ca ne marche pas ... Verdict dans les jours qui viennent quand j'aurai eu le temps de passer dans mon mag d'elec pour trouver les résistances pour faire le dummyVGA ... :)
11/01/2010 7:20:42 PM Starting BOINC client version 6.10.24 for windows_x86_64
11/01/2010 7:20:42 PM log flags: file_xfer, sched_ops, task
11/01/2010 7:20:42 PM Libraries: libcurl/7.19.7 OpenSSL/0.9.8l zlib/1.2.3
11/01/2010 7:20:42 PM Data directory: C:\ProgramData\BOINC
11/01/2010 7:20:42 PM Running under account Ben
11/01/2010 7:20:42 PM Processor: 8 GenuineIntel Intel(R) Core(TM) i7 CPU 920 @ 2.67GHz [Intel64 Family 6 Model 26 Stepping 4]
11/01/2010 7:20:42 PM Processor: 256.00 KB cache
11/01/2010 7:20:42 PM Processor features: fpu tsc pae nx sse sse2 pni
11/01/2010 7:20:42 PM OS: Microsoft Windows 7: Ultimate x64 Edition, (06.01.7100.00)
11/01/2010 7:20:42 PM Memory: 6.00 GB physical, 12.00 GB virtual
11/01/2010 7:20:42 PM Disk: 244.14 GB total, 140.32 GB free
11/01/2010 7:20:42 PM Local time is UTC -5 hours
11/01/2010 7:20:42 PM ATI GPU 0: ATI Radeon HD5800 series (Cypress) (CAL version 1.4.515, 1024MB, 2088 GFLOPS peak)
11/01/2010 7:20:42 PM ATI GPU 1: ATI Radeon HD 4700/4800 (RV740/RV770) (CAL version 1.4.515, 512MB, 1000 GFLOPS peak)
Bon ... ca a l'air de marcher ... :D
8800GT, qui marchait bien jusqu'à la semaine dernière.
Une idée sur mon soucis ?
Que ca soit sur Collaz ou sur GPUGRID, tous mes résultats GPU partent en sucette au bout de quelques secondes, et sont en computer error (ou un truc équivalent) dans mes résultats.
Pourtant, ma carte graphique à l'air de bien marcher, je ne trouve aucun artefacts sur Atitool au bout de 15 minutes.
8800GT, qui marchait bien jusqu'à la semaine dernière.
Une idée pour debugger le tout ? :jap:
<core_client_version>6.10.18</core_client_version>
<![CDATA[
<message>
Fonction incorrecte. (0x1) - exit code 1 (0x1)
</message>
<stderr_txt>
Running Collatz Conjecture (3x+1) CUDA GPU application v2.01
based on version 1.2 by Gipsel
instructed by BOINC client to use device 1
Reading input file ... done.
Checking 206158430208 numbers starting with 2362170842911737620840
unspecified driver error
called boinc_finish
</stderr_txt>
]]>
Une idée sur mon soucis ?
Que ca soit sur Collaz ou sur GPUGRID, tous mes résultats GPU partent en sucette au bout de quelques secondes, et sont en computer error (ou un truc équivalent) dans mes résultats.
Pourtant, ma carte graphique à l'air de bien marcher, je ne trouve aucun artefacts sur Atitool au bout de 15 minutes.
8800GT, qui marchait bien jusqu'à la semaine dernière.
Une idée pour debugger le tout ? :jap:
J'ai deux cartes graphique, une 8800GT, et une 8500 GT, qui est plus là pour la forme qu'autre chose. J'ai installé les derniers drivers nvidia dispo, ca vient peut être de là :/
Il y a une ou deux cartes Graphique ?
Collatz en compte deux (device0 et device1). C'est normal ?
J'ai deux cartes graphique, une 8800GT, et une 8500 GT, qui est plus là pour la forme qu'autre chose. J'ai installé les derniers drivers nvidia dispo, ca vient peut être de là :/
Demain, j'enlève la deuxième, on verra bien ce que ca donne.
Je pensais pas qu'en upgradant les drivers ca pourrait mettre le bronx :o
:jap:
Sinon, personne n'a d'idée pour ce souci de limitation d'ut?Du nouveau avec mon souci
C'est que 150 ut pour une 8800GT et une HD5770 ça fait pas beaucoup de cache :(
Depuis que cette 9500gt tourne, j'ai de gros ralentissements, je dois mette boinc en veille pour faire autre chose, surfer, écouter ma musique etc!
Y a des réglages à faire?
Je suis en 6.6.36
Une idée sur mon soucis ?Bon, je pensais mon pb résolu en enlevant la 8500GT, mais en fait, pas plus que ca :
Que ca soit sur Collaz ou sur GPUGRID, tous mes résultats GPU partent en sucette au bout de quelques secondes, et sont en computer error (ou un truc équivalent) dans mes résultats.
Pourtant, ma carte graphique à l'air de bien marcher, je ne trouve aucun artefacts sur Atitool au bout de 15 minutes.
8800GT, qui marchait bien jusqu'à la semaine dernière.
Une idée pour debugger le tout ? :jap:
1759288 1106855 19 Jan 2010 23:08:15 UTC 20 Jan 2010 10:01:40 UTC Error while computing 2,999.81 276.95 3,977.21 --- Full-atom molecular dynamics v6.71 (cuda23)
1757859 1105834 19 Jan 2010 12:03:56 UTC 20 Jan 2010 9:11:28 UTC Error while computing 36,147.27 3,074.28 3,977.21 --- Full-atom molecular dynamics v6.71 (cuda23)
1754074 1103367 18 Jan 2010 15:17:10 UTC 19 Jan 2010 23:08:15 UTC Error while computing 39,959.30 4,171.25 3,539.96 --- Full-atom molecular dynamics v6.71 (cuda23)
1752104 1102143 17 Jan 2010 18:26:36 UTC 19 Jan 2010 12:03:56 UTC Completed and validated 74,801.02 5,219.97 4,531.91 6,118.08 Full-atom molecular dynamics v6.71 (cuda23)
1750277 1100818 17 Jan 2010 4:36:29 UTC 18 Jan 2010 15:17:08 UTC Completed and validated 74,897.97 5,171.04 4,531.91 6,118.08 Full-atom molecular dynamics v6.71 (cuda23)
1746320 1098170 16 Jan 2010 10:57:17 UTC 17 Jan 2010 18:26:36 UTC Error while computing 49,782.33 4,936.79 3,977.21 --- Full-atom molecular dynamics v6.71 (cuda23)
:kookoo: Le kingNon, elle n'est pas overclockée, du coup, j'imagine qu'elle ne chauffe pas trop.
Est-ce que tu overclock ta carte ?? ne chauffe t-elle pas trop ???
Je viens d'essayer le pilote 195.62 avec XP32 et j'ai des unités qui partent en erreur les premières secondes (GTX260)
Le pilote à planté plusieurs fois ainsi que l'application ! j'ai donc désinstallé le pilote intégralement et tout réinstallé au propre ! apparemment ça à l'air de fonctionner pour le moment.
Ca dépend des projets et des cartes. Certains ne se ressentent pas du tout, d'autres font ramer l'affichage.
Dans tous les cas, il vaut mieux mettre en pause les projets pendant les jeux, car là la différence se sent nettement.
si tu veux faire masse point c'est ATI qu'il te faut. genre 80000 par jour minimum sur collatz ou milky
si tu veux soutenir du projet bio, c'est gpu-grid et il te faut du Nvidia
ralentissement : oui, ça se sent légèrement, moi ça ne me dérange pas pour bosser (le refresh des fenêtres est lègèrement plus lent) mais pour ce qui est du PC des collègues je reste ultra-prudent pour que ça reste jouable à long terme.
mais avec une 4870 ça devrait être imperceptible...
du moment que tu peu connecter ta carte en pci express (alim et carte mère) ca fait aucune différence.
Sinon le calcul GPU est dépendant de la perf CPU ?
Hum si j'en crois la fiche technique HP, l'alim fait 460W. Ca risque pas d'etre un peu juste ?
Sinon le calcul GPU est dépendant de la perf CPU ? Parceque sinon je peux aussi foutre la carte sur mon ancien PC perso que j'ai ramené au taf juste pour Boinc, lui a une alim de course, mais un vieux Athlon X2 3800+ et 1 Go de ram (l'avantage c'est que lui ne fait RIEN d'autre, donc si l'affichage rame c'est pas grave)
oui je me doutais que c'était à cause du circuit cooling.
Et pour cause, j'en ai un depuis fin 2006 et à chaque changement de matos, c'est la galère....
une sur chaque, ça paraît pas mal ! ;)
Ouep faut que je vois ca
Je pense prendre du neuf pour la garantie
Je me demande si je vais pas essayer de garder la NVS 285 dans l'ordi si c'est possible, pour l'affichage. Apparement plus de probleme de rallentissement dans le cas ou la CG qui calcule n'affiche pas (c'est ce que je lisais vers les pages 150 du thread)
Ok je pars sur du 7 64.
Reste a attendre la carte
Sinon j'ai un peu cherché mais rien trouvé
Sur un autre PC, j'ai découvert une 3800.
Il a calculé hier sans probleme (milkyway@home 0.21 (ati13ati)) grosso merdo de 19h a 20h30 (11 ut), puis n'en a plus calculé, alors qu'il lui en reste 11 autres en "queue"
Pk ? C'est l'histoire du partage des ressources avec les autres projets ? Le fait qu'il tourne sur un GPU ca le compte quand meme en partage avec les autres qui tournent sur CPU ?
T'es à calculer en permanence ou selon les préférences?
Pour ma part j'ai pas eu de soucis avec les deux CG (une nVidia 8800GT et une AMD HD5770), elles fonctionnent parfaitement bien ensemble. Donc passer de l'une à l'autre ne devrait pas poser problème.
Pour le projet milkyway (AMD only je crois), il faut une carte double précision. La 5770 n'en est pas une par exemple, ce que je regrette un peu.
toutes ces cartes ATI ne font que de la simple précision --> collatz project uniquement( sauf HD3850 et HD 3870 qui sont double précision )
....
....toutafé :jap:
pour faire du milkyway, le meilleur rapport crédits/consommation c'est la 4770
Bah en principe c'est un détail qu'ils ne fournissent pas.
Double précision : 3850/3870/3870x2/4770/4830/4850/4870/4890/4870x2/5830/5850/5870/5970.
Simple précision : tout le reste et chez Nvidia aussi en attendant la sortie des GTX470 et GTX480.
Les GTX 200 de chez NVidia ne feraient pas du double précision aussi par hasard ?
toutes ces cartes ATI ne font que de la simple précision --> collatz project uniquement
pour faire du milkyway, le meilleur rapport crédits/consommation c'est la 4770
Ok merci pour le lien très instructif....
Donc pour résumer ATI est très créditeur sur peu de projets avec les carte double précision (la CG HD4770 semble être en 128bits donc simple précision ??? )
et NVIDIA moins rémunérateur (environ 10Kpoints/jour ??) mais sur 5 projets...
Arf....je suis perdu je n'ai pas envie que de calculer sur Milky !!
GTX275 c'est en double précision également !
Je n'avais aucune différence entre mes deux 8800GT (autre que celle liée à la différence de fréquence des shaders), l'une étant alors sur un 1.0 l'autre sur un 2.0.
Donc manifestement : aucune incidence.
J'ai oublié au passage de préciser que dans mon ordi, j'avais deux 8800GT, l'une sur le fameux port PCI-E x16 2.0 en question, la seconde sur un port PCI-E x4 2.0 (connecteur x16 câblé en x4). L'autre sur port x16 1.0 est dans le serveur.
Les trois cartes offraient les mêmes performances, au rapport de fréquence près.
Donc la vitesse du port n'influe aucunement, puisque l'une était sur un port x16 2.0 @ 16 Go/s, la seconde sur un port x4 2.0 @ 4 Go/s et enfin la troisième disposait d'une interface x16 1.0 @ 8 Go/s.
Cool c'est bon à savoir...je pense maintenant prendre une GT260... :gniak:
Merci tout le monde....
Use CPU
(enforced by 6.10+ clients)
Salut
Il faut utiliser les options des ordinateurs et les mettre dans work ou home et modifier ses deux emplacements soit en gpu soit en cpu
Ok merci :jap:J'ai répondu à la question posée :D
Probleme si je fais ca mes autres PC qui eux n'ont pas de GPU ne pourront plus non plus utilisé leur CPU
Enfin a la limite c'est pas bien grave mais dommage qu'y ait pas de reglage par PC
ça arrive quand on upgrade ou downgrade au lieu de désinstaller/réinstaller
il faut aussi une version de boinc 6.10.* (la .18 est pal mal) mais pas en mode service
éviter d'installer le CCC si possible
ensuite logiquement, ça roule :)
Ouais non c'est bien vu j'y avais pas pensé ;)
Bon par contre j'ai un probleme. Je viens de recevoir ma 4870
je la branche
je rajoute collatz et milky
Milky est hs pour le moment, mais Collatz me telecharger des UT. Mais au bout d'1s elles passent toutes en erreur de calcul :cry:
Le message que j'ai dans boinc "output file for <ut> absent"
Ouep bien vu ;)
Merci
Pour ceux que ça intéresse, on commence à trouver des infos sur le net sur les caractéristiques :hyperbon: et les prix :electric: des nVidia Tesla C2050 et C2070 Fermi qui succèdent aux C1060.
Oui, depuis la version 6.6, le manager Boinc a 2 schedulers distincts pour CPU et GPU.
Par contre il faut prendre en compte le nombre limité d'UT qu'envoient certains projets et régler la réserve de travail en conséquence, sinon on obtient pas le résultat souhaité.
:hello:
Elle se calcule comment la puissance brute en double précision à partir du nombre de shaders et de leur fréquence?Le nombre de shaders et leur fréquence permettent effectivement de calculer la puissance brute, valable en simple précision : nbre x fréquence x 2 en MFlops.
tu peux m'en dire plus sur la 2eme phrase ?
Si tu veux 50% de projet A et 50% de projet B
Que le projet B ne t'autorise que 10 ut de 1 heure en cache
Que tu as réglé ton cache à 4 jours
> Boinc va charger 10 heures de B (les 10ut) et va remplir les 86 heures manquantes avec A, faute d'arriver à stocker 2 jours de B.
Pour arriver à avoir 50% de chaque, il faut alors régler le cache à 2x le max possible du projet B (20 heures ici).
Le nombre de shaders et leur fréquence permettent effectivement de calculer la puissance brute, valable en simple précision : nbre x fréquence x 2 en MFlops.:jap:
En double précison, je ne sais pas si on peut calculer le "rendement" correspondant :??:.
On sait par contre qu'il est environ de 8% sur les nVidia génération actuelle, de 20% chez Ati, et qu'il devrait donc approcher les 50% sur les nVidia nouvelle génération.
Les chiffres que j'ai donnés proviennent des spécifications techniques AMD et nVidia.
:hello:
EDIT
GRILLED :D.
Le 50% sur les nvidia nouvelle generation c'est donc un chiffre sorti du chapeau :D
Up.
J'ai progressé dans la découverte de l'origine du problème, elle est la suivante :
Dès que le processus lié à CUDA (l'application scientifique donc) démarre, le sous-processus (ça se nomme comme ça?) de explorer.exe nommé shlwapi.dll situé dans C:\Windows\System32 se met à bouffer toutes les ressources de l'un des cores de la machine, c'est ce qui provoque ces gros ralentissements.
Si je met en pause le projet ça ne résoud pas le souci, mais lorsque je kill l'application CUDA, alors tout redevient instantanément normal.
Manifestement ça n'est pas lié aux pilotes graphiques. D'ailleurs les 191.66 whql n'y ont rien changé.
(http://www.tbirdtheyuri.fr/images/forums/info/shlwapi.png)
Si quelqu'un a une idée de pourquoi cette bibliothèque se met à bouffer du CPU quand CUDA tourne... Et éventuellement la solution pour y remédier, je suis preneur :D
Combien de RAC elle envoie?
C'est sur que lorsque tu vois qu'un quad Xéon 2 Ghz fait 4000 de rac sur seti c'est injouable :o
Je comprends pourquoi je perds tant de places sur le classement général boinc alors que j'en gagne régulièrement sur seti :D
A peu près entre 80 et 90 000 quand le projet tourne bien !80 a 90000 pts plutot tu veux dire non ?
Héééé Doum !!!
Tu viens de mettre une deuxième HD 4870 là !!! j'ai pas rêvé ??
:cpopossib: J' suis mort !!! :cpopossib:
EDIT: en plus overclocké à 993 Mhz pour la première ! et 900 la deuxième :eek: :desole:
Hein quoi ou ca ?
Je multiplie pas les 4870 comme Jesus multiplie les pains lol
Je pense qu'il faut jouer avec le poids et le nombre de jour de cache.
Placer un fort poids sur le projet prioritaire tout en limitant drastiquement le cache pour éviter que le second remplisse celui-ci.
Avec les toutes dernières versions de boinc, ils ont pas rajouté la notion de projets de secours en mettant un poids de 0 sur le projet qui assure le secours ????Tu as raison Jip, je crois que cela a été mis en place dans la version 6.10.32 (projet de secours).
Et je crois que c'est pour ça que le poids de 0 sur BAM a pris aussi un autre sens : http://fr.boincstats.com/forum/forum_thread.php?id=5201
I thought it was supposed to be 6.10.32, but it might not have made it in. If that is the case, then it would be in 6.10.34 (6.10.33 is a MAC only build).
On dirait que BAM a déjà été mis à jour
-L'allocation de ressource maximale est de 10000. Toute valeur superieure sera reduite a 10000.
-When the resource share is set to 0 the project will only be asked for work if there is an idle CPU and there is no work from other attached projects.
J'ai mis collatz à 0 et laissé milyway à 1000 pour tester
On dirait que BAM a déjà été mis à jour
-L'allocation de ressource maximale est de 10000. Toute valeur superieure sera reduite a 10000.
-When the resource share is set to 0 the project will only be asked for work if there is an idle CPU and there is no work from other attached projects.
...
On dirait que BAM a déjà été mis à jour
-L'allocation de ressource maximale est de 10000. Toute valeur superieure sera reduite a 10000.
-When the resource share is set to 0 the project will only be asked for work if there is an idle CPU and there is no work from other attached projects.
J'ai mis collatz à 0 et laissé milyway à 1000 pour tester
Et je crois que c'est pour ça que le poids de 0 sur BAM a pris aussi un autre sens : http://fr.boincstats.com/forum/forum_thread.php?id=5201 (http://fr.boincstats.com/forum/forum_thread.php?id=5201)
Oui mais peut être qu'au niveau mise à jour des données en base lorsque tu places 0 c'est remplacé par une valeur cohérente ;)
J'avais pas pensé a cette possibilitéJe viens de tester sur milkyway. Si tu places 0 le chiffre repasse à 100 ;)
Bon ben on attends :D
J'ai mis collatz à 0 et laissé milkyway à 1000 pour tester
Peluche comment tu fais sur les fichiers Boinc (je n'utilise pas BAM) ?
Je veux faire tourner ensemble une 4870 et une 3870, :cry: j'ai fait un test j'ai récupéré un écran noir puis plus rien. Y a t-il uns astuce ?
j'ai testé avec aqua, sue les pref du projet on ne peut pas mettre 0
j'ai mis 0 sur BAM mais je n'ai vu aucune amélioration :
- j'ai mis ibercivis en principal (priorité 1000) et aqua en secondaire (priorité 0)
aqua a quand même pris de nouvelles UT quand les anciennes se sont finie et ibercivis n'était pas en rupture
T'as reussi ?
Pour ceux que ça intéresse, on commence à voir sur le net des HD5830 aux alentours de 230 €.
Avec 1120 SP à 800 Mhz, elle semble orientée gamers :jm@rc:.
Pour le crunch :hyperbon:, les 1440 SP à 725 Mhz de la HD5850, pour 30 € de plus, me semblent préférables.
:hello:
ça ! (http://hardwaregames.xooit.fr/t2738-Une-HD5970-chez-sapphire-tres-extreme.htm#p18560) par contre c'est pas à éviter :love:Rapport perfs/prix bien trop élevé pour le moment.
Rapport perfs/prix bien trop élevé pour le moment.
Ouais mais rapport : je me la pète/prix, imbattable :lol:
Alerte pilotes 196.75 GeForce!
Certains utilisateurs sembleraient avoir connu des problèmes liés à la vitesse du ventilateur de leur GPU depuis l’installation des pilotes WHQL version 196.75 sur NVIDIA.fr. Tant que nous n’avons pas identifié et résolu la cause de ce problème, nous leur recommandons de conserver la version actuelle de leurs pilotes, ou bien de revenir à la version 196.21. Les pilotes version 196.75 ont été temporairement supprimés de NVIDIA.fr.
Afin d'éviter à certain un coup de chaleur, je relaie ce message lu en page d'accueil de nVidia.
bizarre car j'ai ce pilote est pas de coup de chaleur...D'un autre coté le "certains utilisateurs sembleraient" ca veut bien dire ce que ca veut dire :D
Boinceurs, Boinceuses,
Jveux installer une GT260 sur mon 2eme port pci express uniquement pour cruncher. :hyperbon:
Jpeux laisser mon ATI x1550 pour l'utiliser en tant que CG video courante?
Cela pose t il un problème? :rhaa:
merki
....................pour 200 crédits /jours environ :love:
Au taf j'ai une NVIDIA Quadro FX 580 (511MB) sur mon poste... quelqu'un peut me dire si ça le fait avec cette CG.
@ tristesire... chez PrimeGrid le sous-projet AP26 Search n'est plus compatible CUDA. :??:
Bon ba je retente ma chance :) Une GT 220, elle peu fonctionner avec quel projet ? Y a t il un moyen de dire que la carte ne fonctionne seulement quand on utilise pas le pc ? Et y a t il des risque que la carte chauffe de trop quand elle tourne à 100% ?
A priori seti@home version cuda fonctionne sous linux en 32 bits ;)
Baah...
21-Mar-2010 16:25:02 [SETI@home] Sending scheduler request: Project initialization.
21-Mar-2010 16:25:02 [SETI@home] Requesting new tasks for CPU and GPU
21-Mar-2010 16:25:07 [SETI@home] Scheduler request completed: got 0 new tasks
21-Mar-2010 16:25:07 [SETI@home] Message from server: No work sent
21-Mar-2010 16:25:07 [SETI@home] Message from server: No work is available for Astropulse v5
Pareil pour Aqua :
21-Mar-2010 18:51:31 [AQUA@home] Sending scheduler request: To fetch work.
21-Mar-2010 18:51:31 [AQUA@home] Requesting new tasks for GPU
21-Mar-2010 18:51:36 [AQUA@home] Scheduler request completed: got 0 new tasks
21-Mar-2010 18:51:36 [AQUA@home] Message from server: No work sent
Concernant Aqua, il me semble qu'ils avaient développé une appli GPU, puis laissé tombé à cause du peu de gains apportés. Donc, il y a une appli GPU, mais plus de travail.Exact.
Bon qui sera le premier à tester sous boinc la GTX 480 et la GTX 470 :D
Bon qui sera le premier à tester sous boinc la GTX 480 et la GTX 470 :D
par rapport à ma gtx 260 qu'est ce quelles apportent ?
Et les rapports entre GTX 480 et HD5870, ça donne quoi?
Tiens comme c'est original, faire mieux en DP alors qu'elle fait moitié moins bien en SP :pt1cable:
La 5870 se trouve à 410€, et la GTX480 se paye 580€...
Au final, d'un point de vue performances/prix, AMD reste encore une fois devant le caméléon... avec une carte sortie depuis un bon moment déjà.
Et dire qu'ils avait dit qu'il mettaient le l'accent sur le computing, la bonne blague, en plus elle consomme autant que la bi gpu d'ati...
Est ce que l alim ne sera pas faible.
Si c'est possible puisque je l'ai déja fait avec 1X4870 et 1X4850 . Mais pas en crossFire
PS: Et meme de les O/C pour chacunes d'entre elle
Pour ma part je fais tourner une HD5770 avec une 8800GT dans mon i7. Ca fonctionne bien.
Je vais remplacer la 8800GT par une HD5850 qui devrait arriver à la fin du mois, je suppose que ça va donc fonctionner. Si une ATI peut cotoyer une nVidia, il n'y a pas de raison pour que deux ATI différentes puissent fonctionner ensemble.
Evidemment, pas question de faire du Crossfire ou du SLI avec des cartes de modèle différent.
En simple précision, la 5870 est 2,1 fois plus puissante que la 480.
En double précision, la 480 est 1,2 fois plus puissante que la 5870.
:hello:
En simple précision, la 5870 est 2,1 fois plus puissante que la 480.
En double précision, la 480 est 1,2 fois plus puissante que la 5870.
:hello:
évidemment que pour le jeu ou plus globalement pour gérer de l'affichage avec 2 cartes, il faut un minimum de compatibilitéSauf que BOINC n'a jamais détecté ma 8800GT avec ma 295... :cry:
mais pour BOINC, OSEF, on peut mixer du nvidia/ati, du radeon2400 et du 5870, du 9800GT et du GTX295, bref du moment que c'est détecté par windows et par boinc c'est bon :)
Oui mais ce sont deux catres 48xxNon aucun souci.
Je me demande si ca peut jouer?
C'est du nvivia et une ati et t'as pas eu de probleme de conflit de pilote?
Non aucun souci.suffit de pas installer le pilotes de la carte secondaire (celui de Windows permet de pas faire de vague avec la carte principale)
Dsl mais c'est fou le nombre de connerie débité sur ce forum dès qui s'agit de matos, en soft je dit pas vous êtes super balèse mais là :pt1cable: .Et moi je dis que j'ai actuellement dans ma machine une HD5770 et une 8800GT, et que c'est fonctionnel :
il faut des carte de la même série (le même premier chiffre) donc Une 4870 ne peut pas aller avec une 5870, et oui une 4870 peut être avec une 4850 mais les perf de la 70 seront amputé au niveau de la 50 mais ça fonctionne correctement. Par contre une 5870 peut aller avec une nvidia pour le calcul PhisiX en JEU
edit
La meilleur alim du moment (dans cette gamme de puissance) la corsair HX 850. On la trouve pour 130€ environ. :jap:
suffit de pas installer le pilotes de la carte secondaire (celui de Windows permet de pas faire de vague avec la carte principale)Bien sûr que si j'ai installé les pilotes des deux cartes.
La meilleur alim du moment (dans cette gamme de puissance) la corsair HX 850. On la trouve pour 130€ environ. :jap:tu fait de la promo pour mon alim =D
Pas de double précision pour la GTX480.
Seul les Tesla l'on ;)
:??: :??: :??:
Alors là tu m'étonne, pas de double précision pour la GTX480 alors que la série GTX260, 275, 280, 295 possède la double précision !
:??: :??: :??:
Alors là tu m'étonne, pas de double précision pour la GTX480 alors que la série GTX260, 275, 280, 295 possède la double précision !
les GTX2 n'on jamais eu de double précision....
Ou alors a un niveau tout a fait nulissime :jap:
les gtx 2xx sont équipées de double précision. Le résultat est bien en deçà des ATI certes, mais elles peuvent participer à Milkyway grâce à cela.
D'après cet article http://www.clubic.com/article-332014-4-nvidia-geforce-gtx-480-directx-11-nvidia.html la gtx480 ne sera pas équipée de double précision (où alors j'ai compris le contraire).
La notion de projet de secours dont on avait parlé il y a quelques pages ne fonctionne pas ?
Je suis en 6.1.43 la
J'ai tenté de mettre 0 dans Bam sur Collatz, mais il s'est mis à 100 et m'a téléchargé 40 wu
Bridage matériel en ce qui concerne les GTX4** et je doute fortement que les GTX2** possède la double précision...
Arrêtez doc d'affirmer des choses alors qu'elles sont fausses, ou au moins, mettez du "je pense que..." devant.
GF100 (GTX4xx) : La seule chose qui est sûre, c'est qu'il s'agit d'un bridage logiciel et non matériel (à quand le hack ? ;) )
la série GTX2xx est en double précision
:cpopossib:
On voit mieux comme ça, non?
Je viens de passer un moment à recueillir des infos sur la GTX4xx. Il s'avère qu'elle est bridée au quart de sa puissance potentielle en ce qui concerne les applications CUDA. C'est ce que j'ai déduit de diverses interventions de personnes de chez nVIDIA sur le forum CUDA de nVIDIA."la performance en double précision à 1/8 de celle en simple précision, alors que pour les Quadro, ce rapport sera de seulement 1/2."
:(
A mon avis, il s'agit d'un enterrement 1ère classe de CUDA en ce qui concerne le calcul partagé. J'espère que nVIDIA va rectifier le tir...
Si le bridage est dans le bios, c'est que c'est bien un bridage logiciel ;)J'appel ça matériel quand ça touche au bios alors forcément si on utilise pas les même terme :gno:
Le bios est une suite d'instructions écrite dans le langage du GPU. C'est donc un logiciel au même titre que CUDA ou Windows.Nous ne parlons pas la meme langue :blbl:
Couper des bloques de calcul en double précision sur le GPU, là ça serait une modification matérielle.
je sais, j'avais la 5770 (sous dnetc) et j'ai rajouté la 3850, voyant que dnetc s'en servait pas j'ai rajouté milky (qui se plaint de ne trouver que la 5770)
Dèja ta 5770 ne calcul pas sous milky, alors que la 3850 oui (bizar mais c'est comme ça) et sous collazt ?
Que te dit le catalyst control center ?Oui sa serait bien parce que je m'aprete a remette ma GTX295 avec une HD4830... alors s'il n'y en qu'une qui fonctionne je vous préviens, je boude ! :cry:
moi dans ces cas là (j'ai un cross de 4770 et un de 5770 sous collatz), j'ai une carte qui est vue comme "disabled adapter"
j'ai du donc indiquer à windows que j'utilisais un deuxième moniteur, afin que la seconde carte soit activée, et donc vue par boinc.
il y a peut être une méthode moins archaïque...
Que te dit le catalyst control center ?en effet elle est disabled Oo
moi dans ces cas là (j'ai un cross de 4770 et un de 5770 sous collatz), j'ai une carte qui est vue comme "disabled adapter"
j'ai du donc indiquer à windows que j'utilisais un deuxième moniteur, afin que la seconde carte soit activée, et donc vue par boinc.
il y a peut être une méthode moins archaïque...
chris, faut que t'y mettes un vieil écran dessus, moi ma 8600gt est reliée à ma télé sans m'en servir pour autant...Ah ouais sa c'est pas mais pas mais pas cool du tout ! :cry:
la 5770 ne calcul pas sous milky ? pour quel raison ? :eek:
la 5770 ne calcul pas sous milky ? pour quel raison ? :eek:
J'ai eu le même problème avec ma GTX295 + 8800GT....
Donne ta version de boinc déjà et peut etre que quelqu'un saura nous aider :D
<cc_config>
<options>
<ncpus>4</ncpus>
<use_all_gpus>1</use_all_gpus>
<report_results_immediately>1</report_results_immediately>
</options>
</cc_config>
Et tu as pensé à dire d'utiliser toutes les cartes graphiques avec un fichier de configuration de ce type ? Car même une 8800 Gt peut calculer sur seti ;)Non je crains pas d'avoir fait sa vu que je ne sais pas du tout comment un fichier de configuration fonctionne sous BOINC ni meme où le mettre comment l'appeler toussa alors...
<use_all_gpus>
If 1, use all GPUs (otherwise only the most capable ones are used). New in 6.6.25
:gne:
La bible de l'utilisateur boinc ;)
http://boinc.berkeley.edu/wiki/Client_configuration
Eh bin c'est pas tout publique x) :lol:j'ai envie de dire que le crunch avec 2 gpu, c'est pas tout public non plus :siflotte:
en effet elle est disabled Oo
je vais faire comme toi :)
merci ;)
ps : elle se rebelle, ça se rend compte que j'ai pas d'ecran...
j'ai envie de dire que le crunch avec 2 gpu, c'est pas tout public non plus :siflotte:
tata janine, elle saura pas faire, il faut des connaissances, prises de compétences, des notions sur les interactions entre OS, pilotes et applications, savoir diagnostiquer précisément chaque souci avec des traces, logs, tests
une fois la bête domptée, ça fonctionne au poil :gniak:
pour revenir à nos moutons, pour l'activation d'une seconde carte sans utiliser d'écran, il est possible de fabriquer un dummy plug
(http://homepage.ntlworld.com/zath.ras/pic/dummy-2.jpg)
(http://soerennielsen.dk/mod/VGAdummy/1_lille.jpg)
pour ce qui est de la commande <use_all_gpus>1</use_all_gpus>,
êtes vous certain que Boinc peut activer une carte que ATI (ou le système d'exploit) déclare comme "disabled" ?
:jap:
Installe des pilotes pour tes cartes graphique, visiblement un pilotes n'est pas stable
pour ce qui est de la commande <use_all_gpus>1</use_all_gpus>,
êtes vous certain que Boinc peut activer une carte que ATI (ou le système d'exploit) déclare comme "disabled" ?
:jap:
chris,
le VPU recovery que tu as c'est généralement une incompatibilité subtile entre :
la version des drivers
la version de Boinc
ton OS
je te suggère donc, si les derniers drivers ne fonctionnent pas, d'essayer une version un peu plus ancienne.
j'ai dû faire cela le weekend dernier pour que boinc 6.10.43 puisse utiliser une 8800 GTS 512.
Il a fallu installer des "vieux" drivers.
Pour ceux qui seraient tentés d'utiliser plusieurs cartes par PC, ce n'est pas une solution que je recommanderai, bien que je le fasse personnellement.
c'est beaucoup moins facile qu'avec une seule carte.
Collatz Conjecture Message from server: ATI Catalyst 9.1+ needed to use GPU
Ou sinon tu branches les deux cartes sur le même écran. Chez moi ça a fonctionné ;)
Tu as dit d'utiliser tous les gpus dans le fichier de config ? C'est sur quel projet ?
Il y a ça dans le topic, :
"Tu peux créer ton fichier cc_config.xml avec le Bloc-notes et l'enregistrer dans c:\ProgramData\Boinc.
<cc_config>
<options>
<use_all_gpus>1</use_all_gpus>
</options>
</cc_config>"
Sinon pour prendre en compte le fichier de configuration il suffit de le demander au client dans son menu. C'est Avancé/lire le fichier de configuration.C'est ce que j'avais fait mais oui bah non :D ça n'avais pas marché
Tu t'achète une HD5970 :frenchy:
Le SLI j'ai jamais testé, je saurai pas dire comment obliger Boinc à les utiliser. :(
C'est ce que j'avais fait mais oui bah non :D ça n'avais pas marché
Il s'avère que j'ai 4 taches qui sont en cours, mais la tepérature des 8800 ne monte pas d'1 degré...
les taches sont aussi deux fois plus longue, finalement c'est la 295 qui calcul le tout sous la forme de 4 taches....
Je fais quoi maintenant ? -_-
Je crois qu'il ne faut pas activer le sli pour que les cartes calculs sous boincOui mais non :cry:
Donc rebranche tes deux 8800 sans sli et ça devrait calculer ;)
Oui mais non :cry:
J'ai essayer apres et bah non toujours rien... la carte est détéctée, il y a bien 4 calcul en meme temps (pour 4 gpu) mais les deux carte ne calculent pas et fond calculer uniquement la 295
Consommation electrique qui ne bouge que de 15W par rapport a la GTX295 en calcul, durée double de toutes les taches 26 minutes au lieu de 13 :jap:Il y a aussi GPU-Z permet d'avoir des infos précises sur les cartes, entre autres le niveau de charge des GPUs.
Bonjour,
Quelles nouvelles pour les Linux 32bit ?
ATI ou NVIDIA de préférence pour SETI ? :)
pour les ut gpu sur seti, il faut mettre les optimisations adéquates.
ATI ou NVIDIA de préférence pour SETI ? :)
ok et lesquelles s'il te plait ? merci
j'ai crée un fichier xml suivant dans boinc :
<cc_config>
<options>
<use_all_gpus> 1 </> use_all_gpus
</ Options>
</> Cc_config
Je pense que tu es sous linux. Non ? Car sous windows ça se fait tout seul ;)
Enfin si tu as une carte Nvidia.
ok et lesquelles s'il te plait ? merci
j'ai crée un fichier xml suivant dans boinc :
<cc_config>
<options>
<use_all_gpus> 1 </> use_all_gpus
</ Options>
</> Cc_config
S@H
http://lunatics.kwsn.net/index.php?module=Downloads;catd=40 (http://lunatics.kwsn.net/index.php?module=Downloads;catd=40)
S@H beta
http://setiweb.ssl.berkeley.edu/beta/apps.php (http://setiweb.ssl.berkeley.edu/beta/apps.php)
WUs rares à avoir!
<use_all_gpus> 1 </> use_all_gpus
<use_all_gpus> 1 </use_all_gpus>
c'est pas pour ATI ton premier lien ? car moi c'est nvidia...
Récupères ça : http://lunatics.kwsn.net/index.php?module=Downloads;sa=dlview;id=247 (http://lunatics.kwsn.net/index.php?module=Downloads;sa=dlview;id=247)
A executer pour qu'il place les bonnes versions au bon endroit. Il faut cocher les bons paramètres ;)
5 min par ut. Tu as quoi comme carte ?
Pour milky way je passe mon tour. je suis seti maniac :hap:
Boris tu te detache du projet miky puis tu te reattache et hop plein de wu milky qui arrive a+
ça permet au manager de virer tout ce qui concerne le projet que tu quittes et de repartir sur des bases saines qd tu t'y rattaches.
GTX 260
edit : ok peut être trouver pour milkyway mais tjrs pas d'uts GPU...
...
Edit ok cela fonctionne... merci, même pas 5 min par ut
...
Moi aussi j'ai une gtx 260 mais ça tourne en 25 minutes :gno:
.....Suspending computation - CPU usage is too high
Collatz Conjecture Task collatz_1266776455_155301_1 exited with zero status but no 'finished' file
Collatz Conjecture If this happens repeatedly you may need to reset the project.
That message is coming from BAM. Starting from 6.10.35, a new option was added that suspends all CPU based WUs if its non-BOINC CPU use goes above a set percentage. The default setting is 25 (which means if non-BOINC use goes above 25%, CPU WUs are suspended by BOINC). The message above indicates its gone above that set value, and therefore suspends the WU.
In projects where there is no checkpointing, it will therefore go back to zero on resumption, and start again. Less far back with those with some checkpointing. Therefor its possible to get the "never ending WU", always being set back to the start.
The change from 6.10.35 and above has caught people by the thousand, and is a cause of a lot of angst, however bare in mind they are Alpha status releases for internal testing use only, not Full Production use. The facility is a good idea for slower PCs being hit by domestic non-BOINC tasks, however BOINC backs off well anyway, so seems a little mute to have it, and the default setting of 25 is way too low.
Go to preferences - processor useage - while processor useage is less than .... - and change the setting to zero. That gives unrestricted use to BOINC of the CPU (which was its state prior to the change). If you find BOINC does hog too much, nip back in and change it to (say) 95 - whatever - just restrict a little not the effective 75% reduction of the default value. Using "keep in memory while suspended" will help alieviate the problem, but not stop it totally - the setting needs changing
It also needs noting for whenever BOINC is re-installed with 6.10.35 or above in the future, as it may well reset to 25, especially if the prior BOINC installation had been de-installed first before changing.
Bit long sorry, but its a bit wordy wordy to put in context whats going on.
Regards
Zy
Moi aussi j'ai une gtx 260 mais ça tourne en 25 minutes :gno:
Non la mémoire embarquée ne genre rien du tout ;)
il y a une petite aération qui ce trouve en haut et au milieu de la plaque qui cache tout çà mais ce serait du bricolage, si je pouvais laisser ouvert et ne par craindre la poussière....
mais pour un bon bricoleur
il y a une petite aération qui ce trouve en haut et au milieu de la plaque qui cache tout çà mais ce serait du bricolage, si je pouvais laisser ouvert et ne par craindre la poussière....
Ma ca doit etre bruyant non ? et si on renverse son café :??: pour ca j'ai toujours hésité à prendre ce modele :cavapobienmwa: De plus je vos mal y rentrer une 5870 :/
Des photos d'un sheleton d'un de chez nous http://www.hardwaregames.fr/t2680-Mon-Skeleton-Antec.htm (http://www.hardwaregames.fr/t2680-Mon-Skeleton-Antec.htm)
Ma ca doit etre bruyant non ? et si on renverse son café :??: pour ca j'ai toujours hésité à prendre ce modele :cavapobienmwa: De plus je vos mal y rentrer une 5870 :/
Innovant ! mais un peu encombrant et bruyant je pense, j'ai préféré un boitier plus standard de la même marque le P183.
Maintenant je craquerai certainement pour celui-là :love:
http://www.silverstonetek.com/raven/products/index.php?model=RV02&area=fr
ou celui-là : http://www.silverstonetek.com/products/p_contents.php?pno=FT02&area=fr
Des photos d'un sheleton d'un de chez nous http://www.hardwaregames.fr/t2680-Mon-Skeleton-Antec.htmIl n'est pas avare de ventillos. Moi, c'est minimum syndical, voir moins : les deux fournis avec le boitier et ceux intégrés aux CG. Le cpu est refroidi par un rad passif (http://www.silverstonetek.com/products/p_contents.php?pno=NT06-E&area=usa) dans le flux du ventillo de 250 qui recouvre le tout.
Mettre les cartes additionnelles à la verticale, ça aussi c'est une très bonne idée :love:
bonjour,
en gpu tu as çà :
GPUGRID
MILKYWAY
SETI@home
EINSTEIN
COLLATZ
AQUA
LATTICE
DNTC@home
Pour Ati 5770 :??:
Me semble qu'avec cette carte tu es limité à dnect et collatz, à confirmer.
tu peux faire du DNETC
http://dnetc.net/ (http://dnetc.net/)
il faudrait que les devs pensent à toutes les cartes pas évident... je suis content que la mienne puis taffer sur tout le projet !
il faudrait que les devs pensent à toutes les cartes pas évident... je suis content que la mienne puis taffer sur tout le projet !
tu as quoi comme cpu ?
avec gpu-z j'ai çà (voir images)
pour le refroidissement regarde ma config dans ma signature.
Vais-je devoir réinstallé le précédent ?surement si ça vient de là
03/06/2010 05:23:37 Starting BOINC client version 6.10.36 for windows_intelx86
03/06/2010 05:23:37 log flags: file_xfer, sched_ops, task
03/06/2010 05:23:37 Libraries: libcurl/7.19.7 OpenSSL/0.9.8l zlib/1.2.3
03/06/2010 05:23:37 Running as a daemon
03/06/2010 05:23:37 Data directory: F:\Documents and Settings\All Users\Application Data\BOINC
03/06/2010 05:23:37 Running under account boinc_master
03/06/2010 05:23:37 Processor: 2 GenuineIntel Intel(R) Core(TM)2 Duo CPU E6550 @ 2.33GHz [Family 6 Model 15 Stepping 11]
03/06/2010 05:23:37 Processor: 4.00 MB cache
03/06/2010 05:23:37 Processor features: fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss htt tm pni ssse3 cx16 nx lm vmx smx tm2 pbe
03/06/2010 05:23:37 OS: Microsoft Windows XP: Professional x86 Edition, Service Pack 3, (05.01.2600.00)
03/06/2010 05:23:37 Memory: 1021.89 MB physical, 2.40 GB virtual
03/06/2010 05:23:37 Disk: 1021.00 MB total, 929.00 MB free
03/06/2010 05:23:37 Local time is UTC +2 hours
03/06/2010 05:23:40 NVIDIA GPU 0: Quadro FX 570 (driver version 19759, CUDA version 3000, compute capability 1.1, 256MB, 29 GFLOPS peak)
La carte graphique peut calculer seule, sans l'aide du CPU ?
J'ai comme projet d'acheter une carte graphique pour crunsher.
J'ai actuellement un Pentium 4 3.2Ghz HT et 2giga de RAM, ma Geforce 8400GS est obsolète.
J'ai une alim 460Watts pour vous donner une idée.
Je cherche donc une carte graphique entre 0 est 200€ avec un bon rendement.
Nvidia de préférence (je suis sous Linux) avec CUDA et + de 512Mb de Mémoire dédiée.
(je ne peux pas utiliser ma 8400Gs sous Einstein par exemple car il faut minimum 450Mb de ram dédiée, alors que la mienne n'en a que 256Mb. Au passage vous connaissez des projets qui tourne sur une 8400Gs avec 256 de ram, mais bon vu la puissance qu'elle développe...)
Si je mets une carte performante, mon vieux CPU ne va pas la brider pour BOINC ? (ou plutôt, calcule t'elle sans l'aide du CPU ?)
Merci, car je suis perdu dans tous ces types de cartes disponibles.
:kookoo:
moi j'ai une alim de 320 W est ce que la carte ci dessous peut aller dans mon pc ?
http://www.rueducommerce.fr/Composants/Cartes-Graphiques/Cartes-Graphiques-nVidia/NVIDIA-RDC/3011775-Carte-Graphique-Geforce-GTX470-1280-Mo-GDDR5-PCI-Express-2-0.htm
Et est-elle valable ?
http://www.rueducommerce.fr/Composants/Alimentations/Alimentations-de-500-a-650-Watts/FORTRON/3014227-Alimentation-Blue-Storm-500-Watts-85-Bronze.htm (http://www.rueducommerce.fr/Composants/Alimentations/Alimentations-de-500-a-650-Watts/FORTRON/3014227-Alimentation-Blue-Storm-500-Watts-85-Bronze.htm)
:capello:
mouaip... dans ce cas, une 5770 ça envoie du gros aussi mais attention cette carte ne fait que des calculs en simple précision.
(sur Collatz, ça donne autour de 70000 pts/jours)
sinon, pour une conso électrique équivalente à la 5770 (soit 100 / 110 W max) tu as la 4850, plus ancienne, un peu moins cadencée mais double précision.
pour ces deux dernières cartes, on en trouve d'occasion. (5770 : un poil plus que 100€ ; 4850 : autour de 60 €)
tu penses que c'est suffisant pour une gtx 470 ou 480 ?
Pour BOINC, il vaut mieux la 4770 double précision ou 5770 simple précision ?
non, tu ne vas pas le regretter, sapphire c'est bien.
:sun:
là avec boinc et ma gtx 260 je suis à 108 W...
avec quoi tu mesures tes W ? car même en arrêtant ma gpu sous boinc je reste à 108 W... ???
j'ai pas de pince, je pensée qu'un logiciel suffisait pour mesure : gpu-z... :desole:
je vois que tu es à fond pour ATI...
Je suis en effet proATI, je sais pas, mais objectivement quand je vois une carte qui comsome 300W pour fournir la même puissance qu'une autre carte comsomant 2x moins, je cherche pas plus loin... désolé
je vais y penser, mais certains projet ne sont pas avec les cartes aTI com gpucrid
assez d'accord.
overclockman, t'es en pause crunch ? :o
Je la reçois le 29. :gno:
cela existe encore seti beta ?
le premier test me parait plus exact.
le second me parait délirant : le rendement de 50% c'est pas généreux du tout, ça voudrait dire que l'alim dissipe 200W, c'est absurde, tu imagines la température des composants de l'alim ?
pi bon, un P4 + une 5770 ça fait 200W, le reste autour, on est à 250 à la louche donc voilà...
si j'étais à ta place, je garderai mon alim noname, et j'achèterai ceci : un wattmètre.
(http://t2.gstatic.com/images?q=tbn:12uiXdRHLRiNaM:http://number.soez.be/public/Divers/.wattmetre_m.jpg)
c'est pas cher, et ça peut servir pour autre chose que pour les PC ;)
donc tu mesures la conso de ta bécane, et tu prends une alim de marque que si ta advance est ras-la gueule ou si elle ventile comme une folle.
A peu prêt la même chose qu'une 5970 ;)
(http://wd.ch-img.com/1156091-nvidia-geforce-gtx-480-consommation-gpu-3d.jpg)
Mais je reçois des WU pour le CPU (SSE), comment je fais pour ne plus en recevoir, c'est pas la peine de faire calculer le CPU, il est pas assez performant.
Merci
Mais je reçois des WU pour le CPU (SSE), comment je fais pour ne plus en recevoir, c'est pas la peine de faire calculer le CPU, il est pas assez performant.
Merci
Attention, là c'est la consommation total de la configuration !
pourquoi alors sur les sites comme rue du commerce ils disent 225 W de sortie max ? ou une alim de 550 W minimum... ?!
si c'est 451, il me faut au moins une alim de 700 W avec le reste de ma config....
Je pense que c'ets la consommation totale avec toute la configuration. Pas seulement de la carte graphique sur le graphique.Exact ;)
si c'est vrai une alim de 550-600 avec ma config me suffit....650W si tu veut o/c ;)
650W si tu veut o/c ;)
celle-ci m'a l'air déjà bien : http://www.rueducommerce.fr/Composants/Alimentations/Alimentations-de-500-a-650-Watts/FORTRON/442595-Alimentation-Green-Power-600-Watts.htmsens le no-name bien que la marque fut connus
550 W même en corsair pour placer une gtx 480 ça me semble juste. Non :??:Oui :gno:
550 W même en corsair pour placer une gtx 480 ça me semble juste. Non :??:
Peut être en plaçant ta 480 sur une carte mini itx avec un atom :DNon, sur un I7 ça passe mais vraiment très très juste trop juste a mon goût mais je préfère ça qu'une ADVANCE 1000W :o
sur rue du commerce ils disent 550 W minimum, mais en prenant une 620 W...
Bonne référence! :siflotte:c'est pas faux :lol:
http://www.rueducommerce.fr/Composants/Alimentations/Alimentations-Gaming-de-650-a-800-Watts/SEASONIC/3003064-Alimentation-Full-modulaire-Seasonic-80-Gold-650W.htm
une vraie alim se paie au juste prix, comme les enceintes de la chaine hifi.
une recommandée par PC hardware pour une config I860 + ATI 5870
donc la version 750W pour la fermi 480
sinon voici une autre idée
http://www.hardware.fr/articles/730-20/comparatif-12-alimentations-500-550w-modulaires.html
mais pas avec une 480
si l'o/c n'est pas la priorité.
????si tu compte pas O/C comme un malade
Mon Pentium 4 il monte à 3.7Ghz sans toucher à la tension mais je le laisse stock. Il est obsolète pour BOINC.
...
J'ai désinstallé l'ancien, reboot, réinstallé le nouveau, reboot. J'étais bloqué en 640*480 en 4bits. Je ne pouvais mettre plus.Pas la peine de désinstaller l'ancien ;)
J'ai remis l'ancien et nickel. Bon je touche à rien ça fonctionne très bien comme ça. :D
je crois que je vais ouvrir un topic pour ne parle que de gpu mais qui n'est pas en rapport avec boinc... ?!
je crois que je vais ouvrir un topic pour ne parle que de gpu mais qui n'est pas en rapport avec boinc... ?!Ce serais bien la première fois que tu demande l'autorisation d'ouvrir un topic Môssieur Question Man :blbl:
Bizarre, lorsque la carte calcule à 860/1200Mhz, si je lance FireFox (lorsque boinc est actif seulement) celle-ci s'underclock à 400/900Mhz ou un truc comme ça. :gno::dingue:
Heureusement que je voulais remplacer FireFox, ça ne le fait plus avec Google Chrome.
:siflotte:
Problème réglé...
Ce serais bien la première fois que tu demande l'autorisation d'ouvrir un topic Môssieur Question Man :blbl:Intérêt ?
Quand j'installe le nouveau de façon "normale" en lançant le .exe.
Je clique sur Installer et.... rien...
Donc j'ai bidouillé en allant dans les Périphériques, et en cliquant sur Mettre à jour le Pilote, et en cherchant le dossier moi même dans Driver_Inf.
Il a mis à jour les .dll, etc... et quand j'ai reboot, ça a fait l'erreur ci-dessus. :??:
J'ai Windows XP Pro x86.
J'essayerais avec Seven x64 quand j'aurais le temps.
Juste comme ça, on peut crunsher sous Linux avec une ATI ? avec une Nvidia je pense (les pilotes Nvidia proprio sous Linux sont pas mal !) mais ceux d'ATI... donc je me pose la question là.
Quelqu'un a une Vapor-X HD5770 ici ?Moi j'ai une vapor-x 5870 mais sous Linux.
Moi j'ai une vapor-x 5870 mais sous Linux.
J'ai d'ailleurs mis des infos sur le forum de la MT Linux concernant mes tests sur les projets Collatz et DNETC. ;)
Il est surtout prévu un tuto sur boinclinux je crois .... :siflotte: :DPeut être. :blbl:
un petit lien stp (besoin d'être inscrit ou pas ?)Voici le petit lien qui va bien http://linux.boinc-af.net/ . ;)
Collatz, 700 par WU tous les 11minutes, mais souvent en rade.
Vive DNETC.
mouais pas facile d'avoir un rapport du coup, merci quand même OpenkissJe vois que l'on demande des chiffres alors les voici.
j'vais bien voir si Elgrande71 a des chiffres plus précis
Non non, c'est bon ^^
Je voulais juste comparer ma 5770 à la 5850/5870.
Ok, j'ai compris en disuctant avec un technicien que la 5870 me donnerait une trentaine de milles unités par jour de plus avec une 5870.
Suite à la demande d'openkiss pour la différence entre sa carte 5770 et une 5850 et 5870.
Je lui ai donné mes statistiques de production avec une 5850 sur Dnet, collatz et milkyway.
Pas la suite, j'ai mentionné qu'un technicien m'indiquait que si je passais d'une 5850 à 5870 d'ATI je pourrais obtenir environ 30,000 unités de plus en production par jour.
Après à chacun de faire son choix. :D
donc j'attends noël et je vérais entre une 5830 et une 460 ! ;)pourquoi t'embeter !! prend les deux :D
pourquoi t'embeter !! prend les deux :D
elle reste sous les 60°C sous boinc....
(http://img.lbzh.fr/images/20100723101943.jpg)
sous dnetc : 66°c max
pour moi 5870 powercolor avec ventilo standard réglé en fixe à 60% : 72° max sous dnetc ... mais avec un boitier HAF932 ...
malheureusement, elle n'est pas encore double précision enfin pas sûr (merci de confirmer), donc peut être au revoir milkyway....
Elle est double précision ! mais elle est limitée par Nvidia
Je pense que c'est pour ne pas concurrencer les modèles TESLA ! encore un joli coup de marketing Nvidia :cavachier:
Peut-être aussi pour limiter sa consommation ?
Mais je suis pas certain !
alors cela vient des uts milky ?
elle est pas assez double précision alors ? :rhaa: :rhaa: :rhaa:
Non, elle n'est pas double précision, encore une fois seule les Tesla le sont, c'est d'ailleurs ce qui les différencies des GTX400 "classiques".
alors pourquoi, les uts milkyway fonctionnent avec une gtx 260 et pas 470 ?
pour ceux que cela intéresse :
DNETC : env 15min (66°C max)
Collatz : env 12min (moins de 60°C)
Gpucrid : 3h35 env. (moins de 60°C)
Milkyway : pour l'instant cela part en erreur
Seti : uts Fermi : bientôt et cuda 6.08 : de moins de 1min à 1h15 (moins de 60°C).
Einstein : bientôt...
Aqua : bientôt...
T'es sûr pour Collatz ? Je mets 11 à 12minutes.
Je suis sur Seti@home beta. Je reçois pas d'UTs. Pourtant dans projets sur BZH, je vois un logo ATI.
sur ma GPU est HS apparemment j'ai dus remettre ma gtx 260...
je n'avais plus d'images et elle fessait bip....
pour ceux que cela intéresse :
DNETC : env 15min (66°C max)
Collatz : env 12min (moins de 60°C)
Gpucrid : 3h35 env. (moins de 60°C)
Milkyway : pour l'instant cela part en erreur
Seti : uts Fermi : bientôt et cuda 6.08 : de moins de 1min à 1h15 (moins de 60°C).
Einstein : bientôt...
Aqua : bientôt...
pour ceux que cela intéresse :
DNETC : env 15min (66°C max)
Collatz : env 12min (moins de 60°C)
Gpucrid : 3h35 env. (moins de 60°C)
Milkyway : pour l'instant cela part en erreur
Seti : uts Fermi : une dizaine de mn et cuda 6.08 : de moins de 1min à 1h15 (moins de 60°C).
Einstein : bientôt...
Aqua : bientôt...
Tu veux faire un max de points, prends une ATI car elles sont mieux créditaient par rapport à Nvidia à cause d'une double précision...(c'est un scandale...)
Voilà ! je n'arrive plus à retrouver où on parler de mettre une ATI et une NVidia dans le même PC.
Je viens de rajouter en plus de ma GTX275 une HD5870.
Je me pose une question: comment j'installe les pilotes ATI sans que cela foute le merdier avec les pilotes NVidia
en sachant que pour l'instant mon écran est branché sur ma GTX275 ?
Oui, mais j'ai mis un "2" à la place de "1"
<use_all_gpus>0|1</use_all_gpus> If 1, use all GPUs (otherwise only the most capable ones are used).
Je suis loin d'etre un expert en la matiere , mais Meteor qui fait tourner une nvidia et une ati avait mis dans un post qu'il avait reussi a ce que windows ou boic detecte la 2eme carte en la reliant a la tele.
ca vaut ce que ca vaut si ca peut vous aider.
:hello:
J'ai essayé d'inversé mes écran
c'est à dire que j'ai mis mon écran principale sur la 5870 et ma télé sur la GTX275
Existe-t-il un tuto complet pour l'utilisation GPU ?ça bouge tout le temps, il y en avait un mais plus du tout à jour
ça bouge tout le temps, il y en avait un mais plus du tout à jour
et avec l'arrivée prochaine d'OpenCL sur les projets boinc, ça va encore être complètement différent
si j'ai bien suivi, la version 6.11.xx est compatible OpenCL...
en gros il faut juste installer des version récentes de pilotes, un boinc 6.10 ou plus, un projet cpu et ça tourne
le plus simple est de tester avec collatz, il fonctionne avec quasiment toutes les cartes graphiques qui crunchent (nvidia et ati)
tu peux approfondir pour l'opencl... merci ?!http://fr.wikipedia.org/wiki/OpenCL (http://fr.wikipedia.org/wiki/OpenCL)
tu peux approfondir pour l'opencl... merci ?!
http://fr.wikipedia.org/wiki/OpenCL (http://fr.wikipedia.org/wiki/OpenCL)
OpenCL c'est simplement la version libre opposé à Cuda c'est tout :spamafote:
Donc les programmateurs peuvent apprendre par eux même ! Alors que Cuda il faut suivre les directives imposées de Nvidia !
EDIT:
Du fait aussi que OpenCL est libre ont peut programmer sur toutes les cartes !
Le seul projet que je connaisse qui à déjà une appli open_cl c'est aqua, mais je n’ai jamais rien reçu...Il y a aussi PrimeGrid http://www.primegrid.com/forum_thread.php?id=2683 .
ok, mais e ne parlais que des applis qui ne sont pas en test...
Y'en a qui savent si le fait qu'un projet soit juste "open-cl" impliquerait que ça marche sous tout OS ?non, il faut une version openCL par OS comme les applis cpu, cuda ou ati
(sous entendu discret, sur Mac OS X qui est compatible open CL dans sa dernière version)
ou alors alors il restera toujours le fait qu'une appli soit "typée OS" ?
Microsoft Windows (XP or Later) running on an Intel x86-compatible CPU 0.04 (cuda_opencl)
Microsoft Windows running on an AMD x86_64 or Intel EM64T CPU 0.04 (cuda_opencl)
Linux running on an Intel x86-compatible CPU 0.04 (cuda_opencl)
Linux running on an AMD x86_64 or Intel EM64T 0.04 (cuda_opencl)
Mac OS 10.4 or later running on Intel 0.04 (cuda_opencl)
Mac OS 10.5+ running on an Intel 64-bit CPU 0.04 (cuda_opencl)
une carte ATI 3850 (dc pas le top du top du top) fait du 26 000 points par jour sur milkyway!!
ca fait quel RAC ? et ca chauffe comment une 4850 ? :siflotte:
mais sinon TOI... :D... pour l'IGP tu sais pas ? :gniak:
On va être plus modeste alors !
Deux HD 4850 :desole:
:lol:
Je dis comme Snoopy:
Collatz
ou primegrid sur le projet PPS sieve.
:miam:
Une petite question pour ceux qui suivent un peu plus que moi à ce sujet.
J'ai ma GTX 260 qui se tourne un peu les pouces en ce moment. Je vous fait le topo se ma situation :
- milkyway, c'est mon premier projet en terme de points, donc j'ai pas trop envie de continuer dessus.
- GPUGrid, ça marche plus avec ma carte depuis un bail maintenant (problème avec certaines GTX260 jamais résolu).
- seti, ça me saoule de devoir attendre, choper, calculer ,attendre, puis attendre.... :o
- einstein me bouffe un CPU, c'est pas tip top.
Donc, et j'arrive enfin à ma question :D
Qu'est ce que vous me conseillez comme projet GPU stable ?
Sachant que je ne suis pas fana de bidouilles exotiques à faire, et que j'ai pas pour objectif de faire LE projet du moment qui rapporte x millions de points par jour de calcul.
Merci à ceux qui pourront me renseigner (je sais, ça fait un peu le post "mâchez moi le travail", mais du travail j'en ai ailleurs justement :p ).
les nouvelles HD6xxx arrivent, mais elles ne sont plus double précision... :/
quelle impact cela peut t'il avoir sur BOINC, et sur les projets (ont-ils tendance a plus partir vers de la double précision ou de s'en éloigner ? )
:jap:
Collatz est stable et sur mon ATI, c'est celui qui chauffe le moins (comparé à Milkyway et DNETC :o) mais c'est aussi celui qui rapporte le moins en pts me semble t-il
Mais si il y'en aura ... sauf que ces cartes auraient du s'appeler 6700 et non 6800 ... elles tiennent plus des 5700 que des 5800 :/
Pour ceux que ca intéresse, un petit topo sur les nouvelles cartes (orienté FAH, mais l'analyse pourra aussi s'appliquer aux projets BOINC) : http://fr.fah-addict.net/news/news-0-397+nouvelles-amd-radeon-6800-toujours-pas-le-saint-graal-du-plieur.php
Et sinon, OpenCL est enfin dispo dans les Catalyst (http://fr.fah-addict.net/news/news-0-398+les-catalyst-10-10-sont-la-support-d-opencl-enfin-inclu.php)!
Ce ne sont pas les remplacantes des HD58k :gno: mais des HD57k :jap:
Salut , y a moyen de calculer un truc avec une petite radeon 5450 sous ubuntu 64 ? :jap:
Je cherche à suspendre les application Boinc GPU lorsque certains programmes sont lancés (genre la le player video vu que Milky fait sauter l'image) car Boinc ne reconnait pas que l'ordinateur est en cours d'utilisation et continue a cruncher avec le GPU.
elles auraient donc dû se nommer : 67xx
le marketing chercherait-il à embrouiller les clients .......... ??
Yes, the level of stability is still not sufficient for the use in GPUGRID.
We waiting for the SDK2.3 and in the meanwhile optimizing the software.
Notre futur?
http://www.presence-pc.com/actualite/Echelon-41475/
:eek: :ange:
mais avant il faut qu'AREVA finissent la mise au point de la centrale nucléaire de jardinJe vois bien un concept mini-centrale intégrée dans un nain de jardin.
grosse galère, je n'arrive plus du tout à lui faire détecter l'ati, même avec les drivers 9.12, 9.5 ou 8.12 !
edit : désinstallation du driver + installation du driver (du vieux au tout dernier) + désinstallation de boinc + réinstallation de boinc = toujours pareil, carte ati non détectée, depuis 11h ce matin je galère
Est-ce que ça vaut le coup de tout formater, je suis même pas sûr que ça fonctionne, pour info les jeux tournent nickel avec le 10.11 ! c'est juste boinc qui ne veut pas de ma CV
WCG :chuidac:
Il faut que les 2 cartes soient branchées sur moniteur ou TV au boot.
J'ai réussi à le faire une fois mais c'était cet été et la température est montée en flèche dans le boitier alors j'ai laissé tombé...
Et que les ATI servent à quelque chose ... même s'il reste encore à trouver un projet où on peut les utiliser qui soit réellement utile (parce que casser des clés ou chercher des nombres premiers, ca révolutionne pas notre vie).
j'ai trouvé : clic droit sur le bureau, puis Résolution d'écran, Détecter, là il me trouve 4 "écrans", je valide et boinc me détecte les 2 cartes vidéo !!!!Tu vois j'te l'avais bien dit que c'etait ca !! :marcp:
j'ai trouvé : clic droit sur le bureau, puis Résolution d'écran, Détecter, là il me trouve 4 "écrans", je valide et boinc me détecte les 2 cartes vidéo !!!!
j'ai trouvé : clic droit sur le bureau, puis Résolution d'écran, Détecter, là il me trouve 4 "écrans", je valide et boinc me détecte les 2 cartes vidéo !!!!
Bon test opencl primegrid effectué sur ubuntu 10.10.
ça tourne. le package facilite bien les chose pour l'install des runtime opencl du sdk 2.3.
les détails là : http://libristes-forum.boinc-af.org/index.php/topic,2325.msg12773.html#msg12773
donc une appli de plus pour cruncher gpu ati sous linux.
par contre je ne sais pas où en est GPUGrid au niveau de son appli opencl (ils attendaient la sorti du sdk 2.3. donc ça ne devrait pas tarder ... ).
Bon, ma 6950 devrait arriver lundi ... :sun:
Normalement, les sujets uniques sont sensés regrouper toutes les infos dans le premier message... Parce que ce n'est pas faisable de se taper des centaines de pages pour chercher une info qui n'existe peut-être pas. Ce serait donc pas mal de mettre ce sujet à jour, non ? Parce que là c'est vieux, obsolète, uniquement pour ceux qui suivent le projet depuis le début, on ne trouve aucune info, etc. Il manque tous les projets actuels, toutes les possibilités de calcul sur ATI, etc.
Qui se dévoue ? :)
Oh, je ne prétends pas qu'il faudrait que ce sujet soit up to date, mais glisser un mot des projets qui tournent sur GPU et signaler ceux qui tournent sur nvidia ou ati serait un premier pas, non ?Et ca ce n'est pas suffisant?
Bravo bon petit résumé des projets GPU... Mais tu as oublié : Séti !
Et ca ce n'est pas suffisant?
http://statsbzh.boinc-af.org/statut_projets.php (http://statsbzh.boinc-af.org/statut_projets.php) :jap:
édit: tu aurais du me vendre ta 5870... tu aurai gagner du temps (pas d'argent c'est sur :D... mais du temps c'est déjà bien ! :lol: )
Désolé, de sauté du coq à l'âne, mais j'ai enfin réussi à faire marcher ma HD5870 et ma GTX275 ensemble sous BOINC
Désolé, de sauté du coq à l'âne
:kookoo:
Bien ! tu va pouvoir augmenter ton RAC ! Cool ! :) :jap:
Ma 6950 est arrivée :sun:
et je n'ai ni le budget ni l'envi de prendre une Nvidia ! :p
Genre récupérer ma 5770 à pas cher ;)
mais elle est silencieuse ? a quelle point elle se fait entendre en crunch ? :jap:
Milky openCL sur Nvidia ça marche pas trop mal.:hello:
320 pts/l'ut:kookoo:
combien pour une ATI ?
je suis content que sur primegrid on vous mettent la pâté avec nos nvidias pour une fois ...
ouai, mais nan au fait... car j'ai déjà vue TOtow sur d'autre forum, je voulais rien dire ici, mais il fait des drôle de chose avec ces GC !
il les fait chauffer pour faire des pliages... du coup elles sont super usées !!! :eek:
... enfin si tu a un lien ou tu l'as mise en vente je peux au moins être intéressé par le prix ! :D
mais elle est silencieuse ? a quelle point elle se fait entendre en crunch ? :jap:
ok merci beaucoup pour ces réponses ! je vais tester ces projets.
pour la chaleur, je fais assez attention et je nettoie souvent mon PC :D
tant que ça dépasse pas trop les 90°C, c'est bon :p
c'est quand ça dépasse les 100°C que les BSOD arrivent ! lol
vous êtes vachement violent les gens !!!
vous êtes agressifs quand même !
jme suis mis sur aqua qui fait aussi sur calcul sur CG, mais j'ai l'impression qu'il me donne que des WUs pour CPU (qui utilisent 2 cores pour 1 WU d'ailleurs, première fois que je vois ça :p). comment savoir s'il me donne des WU pour CG ?il n'y a pas d'unités GPU sur aqua depuis quelques temps
Yo à tous!
Sur Win, il faut absolument installer les drivers Catalyst pour utiliser une ATI????
Ou bien est-ce que le fait que Boinc manager reconnaisse la carte suffit???
Thx
Plus personne ne fait de seti en GPU sur ce forum ? :o
Est ce que quelqu'un pourrait me donner une fourchette de temps sur les unités seti calculées en GPU avec les dernières cartes NVIDIA ?Voici une wu calculée par une GTX 580 et une GTX 285.
Je pense entre autre à la 560 TI.
:jap:
Plus personne ne fait de seti en GPU sur ce forum ? :o
Est ce que quelqu'un a essayé la version ATI open CL de lunatics ?
http://lunatics.kwsn.net/15-optimized-applications-release-news/ati-opencl-multibeam-6-10-r177-for-windows-os.msg35381.html;topicseen#msg35381
Je n'ai pas de carte ATI.
Merci :jap:
Le mieux c'est la GTX 470 !
D'ailleurs celle-ci me fait baver !!! je crois bien que je vais la prendre :D :D :D :D
Si j'achète la 470, je revends la PS3. Elle doit autant envoyer dans BOINC que dans les jeux :love:
Et oui voila la différence !!! tes ventilos sont à 41 % !! le mien à 80 % !!!! :desole: :desole:
il faut dire aussi que j'ai 2 ventilos sur la porte latérale aussi....
et tu as aussi 2 ventilos sur la porte ? alors là ta carte à peut être un soucis de pâtes...
C'est chiant d'être étudiant, car j'ai trop de truc à faire là... je dois mettre une Cibi dans la voiture :love:
Me faut un job d'été.
T'es d'où ? :lol:
EDIT : on me conseille une Cibi Harry ou johnny avec une antenne de 1.5m (la ML145).
:siflotte:
Je savais pas qu'ils avaient mis les gpu dans les CB... :D
Si c'est le cas, je prends quelle marque ?
Chez ATI, je prenais du Sapphire :miam:
Pas mal la HD 5850 :siflotte:
• As of SDK 2.7, AMD CAL is no longer supported.
• As of SDK 2.7, Windows XP is no longer supported.
...
• You must install Catalyst 11.12 graphics drivers prior to installation of SDK 2.6. Vital
components of the AMD OpenCL solution are now contained within the drivers.
le driver 295.51 me donner aussi des erreurs de calculs alors je suis revenu au précédent .... et plus de soucis
Merci pour l'info Guillermo... ouser serait bien de la mettre dans le 1er post, dans la FAQ par exemple. :jap::jap: fait
:hello: Salut toTOW
Oui j'ai déjà eu ce bug mais pas que sur ces pilotes là :/
L'écran s’éteint et impossible de le rallumer :cpopossib: :electric: :cass_tet:
Moi j'ai pas ce bug pourtant j'ai le dernier driver nvidia...
... pas de DIstrGen non plus...
Moi, j'ai une GTX560Ti, elle marche bien sauf sur Einstein ou elle m'envoie toutes ces UTs en 'en attente de validation', c'est a dire 'jamais validée' de manière incompréhensible alors que l'UT dure le temps qu'il faut et que je ne vois rien de spécial dans le fichier renvoyé à Einstein.Si ca peut te rassurer, j'ai une des mes deux 9800 GTX+ qui a exactement le même problème :/
Pas de pb pour mes 2 nv 580 gtx + 1 ati 6970 dans la même boitier...
ATTENTION : architecture des nv 6xx moins rapide que les 5xx
(http://img.lbzh.fr/images/hellod.gif) alipse, en ce qui concerne les CG je ne te serai d'aucun conseil :spamafote:... je suis juste content de pouvoir te relire ici. :D:kookoo:
J'ai peut-être aussi vite fait d'attendre une gtx 590 si mon futur le permet.
Par rapport à un ordi qui crunche avec tous ses cores (par exemple mon iMac i7 fait dans les 180 W en permanence, en CPU only), quel surplus de conso représente un GPU qui crunche en permanence aussi ?
Je pense que le HD 6950 fait plus de boulot qu'une HD 7850.
Si on regarde le nombres d'unités de calcul sur les deux il y en a d'avantage sur la HD 6950 .
Après c'est sur que pour la conso c'est la HD 7850 qui l'emporte.
Ben dans mon cas avec mon tarif heures pleins / heures creuses de base ça fait moins : 0,68 par W sur 365 jours. Beaucoup moins même. Ou alors tu inclues abonnement et taxes ?C'est fortement simplifié pour éviter les calculs fastidieux ... et au final, c'est pas si faux que ca :)
Ben dans mon cas avec mon tarif heures pleins / heures creuses de base ça fait moins : 0,68 par W sur 365 jours. Beaucoup moins même. Ou alors tu inclues abonnement et taxes ?
Enfin il faut pas oublier non plus que même si je crunche pas du tout (et même si jamais j'avais pas d'ordi... ARG :gno:) j'aurais quand même un abonnement EDF, sinon ma famille verrait ça d'un mauvais oeil je pense - et à la limite, moi aussi :gni:oui c'est vrai... sans cruncher tu payes encore et toujours l’abonnement EDF... je le ressortirais celle-là pour motiver des futurs recrues !!! lol
Donc je parle du coût marginal du cruncher fou :gnu:
Il va falloir que je trouve le plan de la carte mère que je n'ai pas... les driver aussi (la machine a été montée par un assembleur à la retraite depuis et dont le successeur à coulé la boite)... j'ai pas trouvé la carte graphique à proprement parler dans le bios, juste un commutateur CGI / PCIe... j'ai encore pas mal de recherche à faire en gros.
... je vais passer un coup de ccleaner pour nettoyer les merdes qui auraient pu rester.
Le pourcentage de prise en compte des cpu par les gpu est marqué dans Boinc quand tu crunches sur un projet.Mais il est parfois faux ou complètement surréaliste ... :(
Si tu penses que c'est insuffisant, tu peux essayer avec la valeur de ton choix en la plaçant dans fichier app_config.xml.Sympa :)
Ca marche depuis Boinc 7.0.40. :)
27-Sep-2013 20:40:55 [---] Starting BOINC client version 7.0.27 for i686-pc-linux-gnu
27-Sep-2013 20:40:55 [---] log flags: file_xfer, sched_ops, task
27-Sep-2013 20:40:55 [---] Libraries: libcurl/7.26.0 OpenSSL/1.0.1e zlib/1.2.7 libidn/1.25 libssh2/1.4.2 librtmp/2.3
27-Sep-2013 20:40:55 [---] Data directory: /var/lib/boinc-client
27-Sep-2013 20:40:55 [---] Processor: 2 GenuineIntel Intel(R) Core(TM)2 Duo CPU E6850 @ 3.00GHz [Family 6 Model 15 Stepping 11]
27-Sep-2013 20:40:55 [---] Processor: 4.00 MB cache
27-Sep-2013 20:40:55 [---] Processor features: fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe nx lm constant_tsc arch_perfmon pebs bts aperfmperf pni dtes64 monitor
ds_cpl vmx smx est tm2 ssse3 cx16 xtpr pdcm lahf_lm dtherm tpr_shadow vnmi flexpriority
27-Sep-2013 20:40:55 [---] OS: Linux: 3.2.0-4-686-pae
27-Sep-2013 20:40:55 [---] Memory: 1.98 GB physical, 1.91 GB virtual
27-Sep-2013 20:40:55 [---] Disk: 2.75 GB total, 2.20 GB free
27-Sep-2013 20:40:55 [---] Local time is UTC +2 hours
27-Sep-2013 20:40:55 [---] NVIDIA GPU 0: GeForce GT 520 (driver version unknown, CUDA version 5.0, compute capability 2.1, 1023MB, 1010MB available, 156 GFLOPS peak)
27-Sep-2013 20:40:55 [---] OpenCL: NVIDIA GPU 0: GeForce GT 520 (driver version 304.88, device version OpenCL 1.1 CUDA, 1023MB, 1010MB available)
27-Sep-2013 20:40:55 [---] Config: report completed tasks immediately
27-Sep-2013 20:40:55 [---] Config: use all coprocessors
27-Sep-2013 20:40:55 [---] Config: GUI RPC allowed from:
27-Sep-2013 20:40:55 [---] A new version of BOINC is available. <a href=http://boinc.berkeley.edu/download.php>Download it.</a>
27-Sep-2013 20:40:55 [WUProp@Home] URL http://wuprop.boinc-af.org/; Computer ID 59194; resource share 100
27-Sep-2013 20:40:55 [SETI@home] URL http://setiathome.berkeley.edu/; Computer ID 7104756; resource share 100
27-Sep-2013 20:40:55 [DistrRTgen] URL http://boinc.freerainbowtables.com/distrrtgen/; Computer ID 78847; resource share 100
27-Sep-2013 20:40:55 [---] General prefs: from http://bam.boincstats.com/ (last modified 07-Feb-2013 10:35:51)
27-Sep-2013 20:40:55 [---] Host location: none
27-Sep-2013 20:40:55 [---] General prefs: using your defaults
27-Sep-2013 20:40:55 [---] Reading preferences override file
27-Sep-2013 20:40:55 [---] Preferences:
27-Sep-2013 20:40:55 [---] max memory usage when active: 1012.75MB
27-Sep-2013 20:40:55 [---] max memory usage when idle: 1822.95MB
27-Sep-2013 20:40:55 [---] max disk usage: 1.37GB
27-Sep-2013 20:40:55 [---] don't compute while active
27-Sep-2013 20:40:55 [---] don't use GPU while active
27-Sep-2013 20:40:55 [---] suspend work if non-BOINC CPU load exceeds 25 %
27-Sep-2013 20:40:55 [---] (to change preferences, visit the web site of an attached project, or select Preferences in the Manager)
27-Sep-2013 20:40:55 [---] Not using a proxy
Initialization completed
Et connaissez vous d'autres Bi GPU ? est ce mieux un Bi ou single GPU ?
Non, faut modifier le fichier cc_config.xml avec la ligne :
<options>
<use_all_gpus>1</use_all_gpus>
</options>
Tu peux tester si ça fonctionne avec CFX activé, sinon la solution dummy plug devrait marcher.
Tu peux tester si ça fonctionne avec CFX activé, sinon la solution dummy plug devrait marcher.
Ceci dit, Windows 10 apporte peut-être de nouveaux pièges.
@Baleine Tueuse => T'as essayé de mettre des pilotes non officiels ?
Perso toutes mes machines tournent avec les 15.4 bêta sans soucis.
J'ai posté dans le topic PCI-E (ça me semblait plus approprié) , c'est résolu après connexion des 2 nappes crossfire :)
Edit:
=============Modif du matin ==============
Bon nj'ai rajoute ce matin les 2 nappes crossfire, et la 2nde carte est passee en PCI-E 3.0 x16 @ 2.0 x4 et surtout avec les bonnes frequences ! (925GPU/1250MEM)
Et tout ca tourne sur une Antex Neo ECO 400W
Bon
http://powersupplycalculator.net/ me trouve 431W consomme et recommende 600W
http://www.extreme.outervision.com/PSUEngine trouve 393Wet recommende 443W
Donc va qd meme falloir penser a changer d'alim si je ne veut pas tuer celle la
Nouveau DRIVER ATI disponible aujourd'hui
La version 15.11 qu'AMD/ATI nomme "Crimson Edition".
Est-ce que vous l'avez installé et est-ce que cela passe bien avec le projet Collatz?
Milkyway@Home 1.02 MilkyWay@Home (opencl_amd_ati) de_80_DR8_Rev_8_5_00004_1446686708_11000614_1 00:00:44 (00:00:02) 4,74 100,000 - 07/12/2015 16:35:17 0,05C + 0,5ATI Prêt à valider vmserver2
Milkyway@Home 1.02 MilkyWay@Home (opencl_amd_ati) de_80_DR8_Rev_8_5_00004_1446686708_11004407_0 00:00:55 (00:00:02) 3,70 100,000 - 07/12/2015 16:35:17 0,05C + 0,5ATI Prêt à valider vmserver2
Milkyway@Home 1.02 MilkyWay@Home (opencl_amd_ati) de_80_DR8_Rev_8_5_00004_1446686708_10982017_1 00:00:58 (00:00:02) 3,49 100,000 - 07/12/2015 16:35:17 0,05C + 0,5ATI Prêt à valider vmserver2
Milkyway@Home 1.02 MilkyWay@Home (opencl_amd_ati) de_80_DR8_Rev_8_5_00004_1446686708_10979335_2 00:00:43 (00:00:02) 4,80 100,000 - 07/12/2015 16:35:17 0,05C + 0,5ATI Prêt à valider vmserver2
Il faudrait peut-être que je mette à jour les drivers, mais j'ai pas envie de tout casser tout de suite :)
Ce qui correspond à ce que j'ai sur la R9-280X avec 2 ut à la fois :)
PCI Express version | Line code | Transfer rate | Bandwidth Per lane | BandwidthIn a ×16 (16-lane) slot |
1.0 | 8b/10b | 2.5 GT/s | 2 Gbit/s (250 MB/s) | 32 Gbit/s (4 GB/s) |
2.0 | 8b/10b | 5 GT/s | 4 Gbit/s (500 MB/s) | 64 Gbit/s (8 GB/s) |
3.0 | 128b/130b | 8 GT/s | 7.877 Gbit/s (984.6 MB/s) | 126.032 Gbit/s (15.754 GB/s) |
4.0 | 128b/130b | 16 GT/s | 15.754 Gbit/s (1969.2 MB/s) | 252.064 Gbit/s (31.508 GB/s) |
merci zOU
Attention danger,
http://www.comptoir-hardware.com/actus/cartes-graphiques/30296-les-pilotes-radeon-crimson-bloquent-la-ventilation-des-cartes-de-certains-utilisateurs.html
http://www.ginjfo.com/actualites/composants/cartes-graphiques/radeon-software-crimson-attention-aux-problemes-de-refroidissement-20151130
:cavachier:
bah mes radeons sont en watercooling :p
Oui, tout va bien, elles font juste un peu de vapeur et un bruit de cocotte minute...
:lol:
Correctif dispo,en version beta
http://www.comptoir-hardware.com/actus/software-pilotes/30308-la-mise-a-jour-crimson-est-arrivee.html
:poingordi:
La nouvelle version du driver 15.12 d'ATI/AMD est maintenant disponible! La version "Crimson Edition"!
http://support.amd.com/en-us/download (http://support.amd.com/en-us/download)
Salut (et bienvenue).
Purge tes projets GPU ("Recommencer le projet").
Bienvenue à toi :kookoo:
si le problème persistes après la purge des projets, il faut vérifier dans le BIOS que la carte-mère ne garde pas actifs les 2 GPU (celui de l'Intel et ta GTX970).
Pour aller plus loin, il faudrait que tu nous fasses une capture d'écran des tâches en cours et du début du journal d'événements.
:hello:
Est-ce que le fait de recommencer le projet ne va pas effacer tout les calculs ?
Vérifie dans le bios que le gpu intel ne s'est pas désactivé quand tu as mis la nvidia. :hello:Oui ça doit être ça.
Personnellement j'arrive à faire tourner les deux en même temps, nvidia + intel.
Vérifie dans le bios que le gpu intel ne s'est pas désactivé quand tu as mis la nvidia. :hello:
Personnellement j'arrive à faire tourner les deux en même temps, nvidia + intel.
Vérifie dans le bios que le gpu intel ne s'est pas désactivé quand tu as mis la nvidia. :hello:Oui ça doit être ça.
Personnellement j'arrive à faire tourner les deux en même temps, nvidia + intel.
Apres il faut aussi dire BOINC d'utiliser tous les GPU et pas que le plus puissant (comportement par défaut)
<use_all_gpus>1</use_all_gpus>
<cc_config>
<options>
<use_all_gpus>1</use_all_gpus>
</options>
</cc_config>
Regarde bien la charge avec GPU-Z.Avec primegrid, je ne me souviens pas de la charge. Par contre ça se confirme : 2000 secondes avec une 750 Ti (33 minutes), et 1480 secondes avec mon ancienne 560 Ti.
Et tente une app_config comme dit plus haut.
C'est beau le chinois, une bien belle langue :lol:Je ne comprends pas le chinois, mais j'ai cru comprendre que j'aurai dû garder ma 560 Ti !
C'est beau le chinois, une bien belle langue :lol:Je ne comprends pas le chinois, mais j'ai cru comprendre que j'aurai dû garder ma 560 Ti !
<!--
This is a minimal configuration file cc_config.xml of the BOINC core client.
For a complete list of all available options and logging flags and their
meaning see: https://boinc.berkeley.edu/wiki/client_configuration
-->
<cc_config>
<options>
...
<exclude_gpu>
<url>https://boinc.thesonntags.com/collatz/</url>
<device_num>0</device_num>
<type>NVIDIA</type>
</exclude_gpu>
</options>
</cc_config>
<ignore_nvidia_dev>0</ignore_nvidia_dev>
Je n'ai pas testé cette dernière solution. <use_all_gpus>0</use_all_gpus>
If <non_gpu/> is specified, the coprocessor is not treated as a GPU; i.e. "Suspend GPU" does not affect it. This mechanism has two purposes: to provide fine-grained control of the coprocessors recognized by BOINC (NVIDIA, AMD, and Intel GPUs), and to let you use coprocessors not :recognized by BOINC. Requires a client restart.
23/12/2016 17:42:30 | | INTEL GPU info taken from cc_config.xml
23/12/2016 17:42:30 | | App version needs OpenCL but GPU doesn't support it
23/12/2016 17:42:30 | Einstein@Home | Application uses missing intel_gpu GPU
23/12/2016 17:42:30 | Einstein@Home | Missing coprocessor for task p2030.20160213.G185.93-01.61.C.b1s0g0.00000_3119_1
23/12/2016 17:42:30 | Einstein@Home | Missing coprocessor for task p2030.20160213.G185.93-01.61.C.b1s0g0.00000_1121_0
Je vais poser la question sur le forum d'Einstein@home qui est pas mal vivant pour voir si je trouve un de ces bidouilleurs qui savent tout. :siflotte:Ça parait une bonne idée, mais je subodore une limitation de boinc par rapport à ta demande
Merci Gael :gloiraseti:
Pfff j'arrive pas a faire cruncher ma R9 290, 2 mois que j'essaye en vain... :priz2tet:
:hello:
Nota bene...
il a oublié les : ... :D
làUtilise GPUZ plutôt, l'outil de Windows est tout sauf fiable pour l'utilisation GPU ...
(http://pimg.imagesia.com/fichiers/1fk/impecran3_imagesia-com_1fku8_small.jpg) (http://imagesia.com/impecran3_1fku8)
Ha oui en effet, je viens d'installer GPU-Z, j'ai 95% d'utilisation en moyenne. Je savais que les outils windows était pourris mais à ce point ! surtout sur win 10.làUtilise GPUZ plutôt, l'outil de Windows est tout sauf fiable pour l'utilisation GPU ...
(http://pimg.imagesia.com/fichiers/1fk/impecran3_imagesia-com_1fku8_small.jpg) (http://imagesia.com/impecran3_1fku8)
Pour comparer la durée des ut avec ta CG tu as le projet de seb qui est très efficace : http://wuprop.boinc-af.org/results/gpu.pyça correspond pas mal.
:kookoo:
Les "coeurs" du GPU qui sont montrés sur le gestionnaire des tâches ne correspondent pas à ce qu'on fait effectivement ^^
Par contre en cliquant sur "Copy", "3D" etc on peut choisir ce qu'on veut afficher. Sur ma 970 c'est bien l'onglet "Compute" qui affiche l'utilisation de Boinc
Et le projet de Seb il est INDISPENSABLE que tu le rattaches à ta(toutes tes) machine(s) !
C'est du nci (très peu de cpu consommé, lance une tâche en plus de celles correspondant à tes cores) et c'est bon pour toute la communauté :)
bonjour Overclockman
c'est de ce projet la dont il s'agit : http://wuprop.boinc-af.org/ (http://wuprop.boinc-af.org/)
Nope :o
On fait comment déjà ?
(btw je ne retrouve plus l'ASIC quality dans GPU-Z, c'est pas visible pour les GPU bas de gamme ?)
Edith : Ah oui, faut lui dire de n'utiliser que xx% des cœurs dispo :o
Franchement je vois pas ce qu'il y a de plus simple que le paramètre "utiliser au plus X% des processeurs" pour libérer un core (ou un thread selon le cas), il suffit de faire une règle de 3 (https://fr.wikipedia.org/wiki/R%C3%A8gle_de_trois) en fonction de ton nombre de cores/threads pour trouver le % requis :)
Franchement je vois pas ce qu'il y a de plus simple que le paramètre "utiliser au plus X% des processeurs" pour libérer un core (ou un thread selon le cas), il suffit de faire une règle de 3 (https://fr.wikipedia.org/wiki/R%C3%A8gle_de_trois) en fonction de ton nombre de cores/threads pour trouver le % requis :)
Sur mon pc (x4) que je mettes 75, 50 ou 25% j'ai toujours 4 uts en même temps. Mais je viens de penser que je n'ai jamais "killer" les uts en cours pour voir.
Yo.Non, un GPU n'a pas de scheduler comme un CPU, c'est donc du tout ou rien ...
Un moyen de limiter l'usage GPU à par exemple 90% ? J'ai des projets qui tapent à 99-100%, du coup PC inutilisable pendant le crunch.
C'est moi ou les drivers Nvidia 397.31 ont vire l'OpenCL ? (GTX980/GTX980Ti)Installés par Windows ou depuis l'installeur téléchargé chez NV ?
PrimeGrid: Do not use Nvidia driver 397.31
It has come to my attention that Nvidia recently released a new video driver that is causing widespread problems. 397.31 seems to cause the GPU to become inaccessible to both CUDA and OpenCL programs after a while, and can only be reset by rebooting the computer. It's likely this affects all BOINC projects and not just PrimeGrid. Indeed, it probably affects all GPU programs, even those that don't run under BOINC. There's a newer, hotfix driver 397.55 which seems to correct the problem. I strongly recommend either upgrading to 397.55 or rolling back to a driver earlier than 397.31.
C'est moi ou les drivers Nvidia 397.31 ont vire l'OpenCL ? (GTX980/GTX980Ti)Installés par Windows ou depuis l'installeur téléchargé chez NV ?
Dans le deuxième cas, RAS.
C'est moi ou les drivers Nvidia 397.31 ont vire l'OpenCL ? (GTX980/GTX980Ti)
OpenCL error Unknown OpenCL error (999) during call: clCreateContext
[...]
When I run exactly same program with admin right there is no error. Only difference I found is dll call : with user right C:\Windows\System32\nvptxJitCompiler.dll'. is loaded when line is executed. exception is thrown at next line.
May be it's only driver problem opencv 3.3-dev win 10 version 1703 GTX970 (driver 22.21.13.8569)
OpenCL error Unknown OpenCL error (999) during call: clCreateContext
[...]
back to driver 21.21.13.7653 and opencl is OK
Mais j'ai peur de renvoyer des résultats faux aux projets.
:pleure:
Tout dépend de l'érreur de calcul et du quorum ...Mais j'ai peur de renvoyer des résultats faux aux projets.
:pleure:
Rassurez-moi :
Si notre matériel déconne et que nos calculs sont faux : ils s'en aperçoivent et classent nos tâches en "Erreur de calcul" ou "inconclusive", n'est-ce pas ?
Bon même avec -105 MHz, soit 900 MHz en boost, c'est pareil. Paix à son âme :hooga:
Tout dépend de l'érreur de calcul et du quorum ...
Si le quorum est supérieur à 1 alors toute différence entre deux résultats donnera une validation inconclusive, sauf si l'erreur est faible et dans la tolérance de la validation. Si le quorum est de 1 et que l'erreur de calcul n'est que numérique (erreur d'arrondi par exemple) alors on peut arriver à des erreurs non détectées et des résultats faux et inexploitables ...
<exclude_gpu>
<url>http://moowrap.net/</url>
<device_num>1</device_num>]
<type>NVIDIA</type>
<app>dnetc</app>
</exclude_gpu>
Dites est-ce que vous savez si Boinc travaille en simple précision (FP32) ou en double précision (FP64)?Pour les projets GPU, seuls certains utilisent FP64. Outre Milkyway, Primegrid Genefer 21 et 22 l'utilisent pleinement. Asteroids et Einstein l'utilisent en partie. Sur le CPU, je ne sais pas, mais c'est moins critique que sur les GPU, puisque le rapport FP32/FP64 est de 2 pour les CPU, alors qu'il peut descendre à 1/32 pour les GPU.
26/10/2018 17:02:40 | | CUDA: NVIDIA GPU 0: GeForce RTX 2080 (driver version 416.34, CUDA version 10.0, compute capability 7.5, 4096MB, 3553MB available, 21903 GFLOPS peak)
26/10/2018 17:02:40 | | OpenCL: NVIDIA GPU 0: GeForce RTX 2080 (driver version 416.34, device version OpenCL 1.2 CUDA, 8192MB, 3553MB available, 21903 GFLOPS peak)
Citer26/10/2018 17:02:40 | | CUDA: NVIDIA GPU 0: GeForce RTX 2080 (driver version 416.34, CUDA version 10.0, compute capability 7.5, 4096MB, 3553MB available, 21903 GFLOPS peak)
26/10/2018 17:02:40 | | OpenCL: NVIDIA GPU 0: GeForce RTX 2080 (driver version 416.34, device version OpenCL 1.2 CUDA, 8192MB, 3553MB available, 21903 GFLOPS peak)
https://milkyway.cs.rpi.edu/milkyway/show_host_detail.php?hostid=778872
Bein Milkyway et Seti :pCiter26/10/2018 17:02:40 | | CUDA: NVIDIA GPU 0: GeForce RTX 2080 (driver version 416.34, CUDA version 10.0, compute capability 7.5, 4096MB, 3553MB available, 21903 GFLOPS peak)
26/10/2018 17:02:40 | | OpenCL: NVIDIA GPU 0: GeForce RTX 2080 (driver version 416.34, device version OpenCL 1.2 CUDA, 8192MB, 3553MB available, 21903 GFLOPS peak)
https://milkyway.cs.rpi.edu/milkyway/show_host_detail.php?hostid=778872
T'as déjà tenté quel projet avec ?
<app_config>
<app>
<name>pps_sr2sieve</name>
<max_concurrent>2</max_concurrent>
<gpu_versions>
<gpu_usage>0.5</gpu_usage>
<cpu_usage>0.25</cpu_usage>
</gpu_versions>
</app><app>
<name>genefer</name>
<max_concurrent>2</max_concurrent>
<gpu_versions>
<gpu_usage>0.5</gpu_usage>
<cpu_usage>0.25</cpu_usage>
</gpu_versions>
</app><app>
<name>genefer_wr</name>
<max_concurrent>2</max_concurrent>
<gpu_versions>
<gpu_usage>0.5</gpu_usage>
<cpu_usage>0.25</cpu_usage>
</gpu_versions>
</app>
</app_config>
C'est le problème des applications CUDA, faut recompiler quand une nouvelle architecture arrive ...Bein Milkyway et Seti :pCiter26/10/2018 17:02:40 | | CUDA: NVIDIA GPU 0: GeForce RTX 2080 (driver version 416.34, CUDA version 10.0, compute capability 7.5, 4096MB, 3553MB available, 21903 GFLOPS peak)
26/10/2018 17:02:40 | | OpenCL: NVIDIA GPU 0: GeForce RTX 2080 (driver version 416.34, device version OpenCL 1.2 CUDA, 8192MB, 3553MB available, 21903 GFLOPS peak)
https://milkyway.cs.rpi.edu/milkyway/show_host_detail.php?hostid=778872
T'as déjà tenté quel projet avec ?
GPUGrid ne supporte pas encore les RTX ....
https://www.gpugrid.net/forum_thread.php?id=4819&nowrap=true#50290
Sur Amicable, elles tournent + de 4 x plus vite que mes 1080 !
Réglage "Kernel size for NVIDIA GPUs" sur 20 cause qu'autrement ça chauffe trôôôô
:hello: :jap: :kookoo:
"@Dilandau" :??:
La dernière fois que Dilandau a posté c'était en septembre 2017 !!
Pilote 416.81 (via GForce Experience) et même, aujourd'hui, pilote 416.94 !
Apparemment il y a deux types de Gpus RTX, version A et non A, avec OC ou non, ce qui change la puissance calculée,
https://www.tomshardware.fr/articles/nvidia-flash-rtx-bios-impossible,1-68710.html
:coffeetime:
Avec ma GTX 1070, le pilote 416.94 (que je viens d'installer) [et même avec le 416.81] fonctionne très bien avec la dernière version de BOINC !Pilote 416.81 (via GForce Experience) et même, aujourd'hui, pilote 416.94 !Sinon, le pilote 416.94 ne marche pas avec BOINC : "Pas de processeur graphique".
Le pilote 416.81 n'est pas compatible avec ma version de BOINC.
C'est simple: si ta carte est overclockée d'usine par le constructeur, c'est une version A. Si elle tourne aux fréquences par défaut préconisées par NV, alors c'est une Non A.Apparemment il y a deux types de Gpus RTX, version A et non A, avec OC ou non, ce qui change la puissance calculée,
https://www.tomshardware.fr/articles/nvidia-flash-rtx-bios-impossible,1-68710.html
:coffeetime:
Je ne parviens pas à voir quelle version j'ai !
Mais mes fréquences indiquent 1650 MHz et je consomme 250-260 W !
En espérant que j'ai la version A...
Oui, mais je le vois comment si elle est overclockée par le constructeur ?Tu lances GPUZ, tu regardes les valeurs GPU Clock et Boost (sur la même ligne) dans l'onglet Graphics Card et tu compare avec les valeurs Base core clock et Boost core clock de cette page : https://en.wikipedia.org/wiki/List_of_Nvidia_graphics_processing_units
Merci pour les retours d'expérience.https://moowrap.net/show_host_detail.php?hostid=1066184 :hyperbon: :hyperbon: :hyperbon: :hyperbon:
Il parait qu'on a besoin de puissance sur MooWrapper... :siflotte:
Tu en fais tourner combien en // ?Merci pour les retours d'expérience.https://moowrap.net/show_host_detail.php?hostid=1066184 :hyperbon: :hyperbon: :hyperbon: :hyperbon:
Il parait qu'on a besoin de puissance sur MooWrapper... :siflotte:
dnetc_r72_1542303394_3_192_0 70589048 1066808 15 Nov 2018, 17:37:17 UTC 15 Nov 2018, 17:47:29 UTC Terminé et validé 594.23 582.23 1,536.00 Distributed.net Client v1.03 (cuda31)
windows_intelx86
Tu en fais tourner combien en // ?
https://moowrap.net/show_host_detail.php?hostid=1066184 :hyperbon: :hyperbon: :hyperbon: :hyperbon:
dnetc_r72_1542303394_3_192_0 70589048 1066808 15 Nov 2018, 17:37:17 UTC 15 Nov 2018, 17:47:29 UTC Terminé et validé 594.23 582.23 1,536.00 Distributed.net Client v1.03 (cuda31)[/quote]
windows_intelx86
dnetc_r72_1542263923_13_823_0 70579628 15 Nov 2018, 6:39:22 UTC 15 Nov 2018, 13:52:11 UTC Terminé et validé 1,923.58 1,837.34 6,584.00 Distributed.net Client v1.03 (cuda31)
windows_intelx86
dnetc_r72_1542263921_13_823_0 70579626 15 Nov 2018, 6:39:22 UTC 15 Nov 2018, 13:26:17 UTC Terminé et validé 1,915.23 1,833.77 6,584.00 Distributed.net Client v1.03 (cuda31)
windows_intelx86
dnetc_r72_1542263885_13_814_0 70579592 15 Nov 2018, 6:38:35 UTC 15 Nov 2018, 7:11:47 UTC Terminé et validé 1,922.38 1,840.09 6,512.00 Distributed.net Client v1.03 (cuda31)
windows_intelx86
dnetc_r72_1542262505_13_823_0 70578724 15 Nov 2018, 6:39:18 UTC 15 Nov 2018, 10:50:28 UTC Terminé et validé 1,920.73 1,838.56 6,584.00 Distributed.net Client v1.03 (cuda31)
windows_intelx86
dnetc_r72_1542262503_13_823_0 70578722 15 Nov 2018, 6:39:18 UTC 15 Nov 2018, 10:18:26 UTC Terminé et validé 1,918.28 1,833.31 6,584.00 Distributed.net Client v1.03 (cuda31)
windows_intelx86
dnetc_r72_1542262501_13_823_0 70578720 15 Nov 2018, 6:39:18 UTC 15 Nov 2018, 10:23:22 UTC Terminé et validé 1,907.72 1,825.30 6,584.00 Distributed.net Client v1.03 (cuda31)
windows_intelx86
dnetc_r72_1542262497_13_823_0 70578716 15 Nov 2018, 6:39:17 UTC 15 Nov 2018, 9:51:34 UTC Terminé et validé 1,902.46 1,815.45 6,584.00 Distributed.net Client v1.03 (cuda31)
windows_intelx86
dnetc_r72_1542262495_12_768_0 70578714 15 Nov 2018, 6:39:17 UTC 15 Nov 2018, 9:46:25 UTC Terminé et validé 1,792.27 1,714.98 6,144.00 Distributed.net Client v1.03 (cuda31)
windows_intelx86
dnetc_r72_1542262493_13_823_0 70578712 15 Nov 2018, 6:39:14 UTC 15 Nov 2018, 7:43:51 UTC Terminé et validé 1,913.22 1,830.78 6,584.00 Distributed.net Client v1.03 (cuda31)
windows_intelx86
dnetc_r72_1542262491_12_768_0 70578710 15 Nov 2018, 6:39:17 UTC 15 Nov 2018, 9:19:50 UTC Terminé et validé 1,780.79 1,705.89 6,144.00 Distributed.net Client v1.03 (cuda31)
windows_intelx86
dnetc_r72_1542262482_12_768_0 70578702 15 Nov 2018, 6:39:16 UTC 15 Nov 2018, 8:44:38 UTC Terminé et validé 1,742.61 1,678.88 6,144.00 Distributed.net Client v1.03 (cuda31)
windows_intelx86
dnetc_r72_1542261351_13_823_1 70578104 15 Nov 2018, 6:39:14 UTC 15 Nov 2018, 7:12:32 UTC Terminé et validé 1,885.47 1,807.36 6,584.00 Distributed.net Client v1.03 (cuda31)
windows_intelx86
dnetc_r72_1542260323_13_823_0 70577553 15 Nov 2018, 6:39:16 UTC 15 Nov 2018, 8:50:09 UTC Terminé et validé 2,044.57 1,856.88 6,584.00 Distributed.net Client v1.03 (cuda31)
windows_intelx86
dnetc_r72_1542260320_13_823_0 70577551 15 Nov 2018, 6:39:16 UTC 15 Nov 2018, 9:16:35 UTC Terminé et validé 1,914.36 1,831.14 6,584.00 Distributed.net Client v1.03 (cuda31)
windows_intelx86
dnetc_r72_1542260318_13_823_0 70577549 15 Nov 2018, 6:39:15 UTC 15 Nov 2018, 8:16:13 UTC Terminé et validé 1,904.67 1,822.16 6,584.00 Distributed.net Client v1.03 (cuda31)
windows_intelx86
dnetc_r72_1542260316_13_823_0 70577547 15 Nov 2018, 6:39:15 UTC 15 Nov 2018, 8:15:34 UTC Terminé et validé 1,909.82 1,827.50 6,584.00 Distributed.net Client v1.03 (cuda31)
windows_intelx86
dnetc_r72_1542260312_12_768_0 70577543 15 Nov 2018, 6:39:21 UTC 15 Nov 2018, 12:54:19 UTC Terminé et validé 1,790.43 1,712.38 6,144.00 Distributed.net Client v1.03 (cuda31)
windows_intelx86
dnetc_r72_1542260304_12_768_0 70577535 15 Nov 2018, 6:39:21 UTC 15 Nov 2018, 13:20:06 UTC Terminé et validé 1,791.80 1,713.06 6,144.00 Distributed.net Client v1.03 (cuda31)
windows_intelx86
dnetc_r72_1542260302_12_768_0 70577533 15 Nov 2018, 6:39:20 UTC 15 Nov 2018, 12:20:13 UTC Terminé et validé 1,789.95 1,714.28 6,144.00 Distributed.net Client v1.03 (cuda31)
windows_intelx86
dnetc_r72_1542260279_15_768_0 70577511 15 Nov 2018, 6:39:20 UTC 15 Nov 2018, 11:54:46 UTC Terminé et validé 1,792.41 1,706.42 6,144.00 Distributed.net Client v1.03 (cuda31)
windows_intelx86
Oui, mais je le vois comment si elle est overclockée par le constructeur ?Tu lances GPUZ, tu regardes les valeurs GPU Clock et Boost (sur la même ligne) dans l'onglet Graphics Card et tu compare avec les valeurs Base core clock et Boost core clock de cette page : https://en.wikipedia.org/wiki/List_of_Nvidia_graphics_processing_units
Si les valeurs sont égales, c'est une carte de référence (GPU non A), si tes valeurs sont supérieures c'est overclocké d’usine et donc probablement un GPU A.
LHC@home: Notice from BOINC
Your current settings do not allow tasks from this project. Pour réparer ceci, vous pouvezmodifier les préférences de projet sur le site web du projet.
01/12/2018 15:51:50
Bonsoir,LHC@Home et RNA World non pas d'application GPU. :kookoo:
Habitant en Grèce, pour l'hiver je remets en marche les projets GPU de Boinc (oui, ça va faire un chauffage d’appoint, c'est très mal isolé par ici…).
Ceci étant, je ne comprends pas ce qui cloche, j'ai plusieurs projets GPU : MilkyWay@Home, LHC@Home et RNA World ; mais aucun n'obtient de tâches. Cela fonctionne par contre parfaitement pour les projets CPU : Rosetta@home et World Community Grid.
J'ai même ce type de notification :CiterLHC@home: Notice from BOINC
Your current settings do not allow tasks from this project. Pour réparer ceci, vous pouvezmodifier les préférences de projet sur le site web du projet.
01/12/2018 15:51:50
Et je ne comprends vraiment pas pourquoi. Votre aide est plus que bienvenue !
J'ai un processeur AMD Ryzen 7 2700X (si ça a son importance) et surtout une carte graphique AMD R9 390.
Voici le paramétrage de BOINC :
(http://image.noelshack.com/fichiers/2018/48/6/1543689103-calcul.jpg)
(http://image.noelshack.com/fichiers/2018/48/6/1543689104-stockage.jpg)
Le paramétrage de MilkyWay@Home (par exemple) :
(http://image.noelshack.com/fichiers/2018/48/6/1543689105-milkyway-home.jpg)
Si vous pouvez m'indiquer où j'ai foiré, je vous en remercie par avance :).
Bon week-end.
01/12/2018 22:47:52 | Milkyway@Home | Your current settings do not allow tasks from this project. Pour réparer ceci, vous pouvezmodifier les préférences de projet sur le site web du projet.
01/12/2018 23:09:07 | Einstein@Home | Your current settings do not allow tasks from this project. Pour réparer ceci, vous pouvezmodifier les préférences de projet sur le site web du projet.
Calculer en permanenceLes préférences étant probablement ce que j'ai sur les images.
Calculer selon les préférences
Suspendre
----------------------------------------
Activité réseau toujours disponible
Activité réseau selon les préférences
Activité réseau suspendue
Dans le journal des évènements, j'ai ça :Quelles sont les lignes juste au-dessus ? "Milkyway@Home | Requesting new tasks for GPU and CPU" ?Citer01/12/2018 22:47:52 | Milkyway@Home | Your current settings do not allow tasks from this project. Pour réparer ceci, vous pouvezmodifier les préférences de projet sur le site web du projet.
Dans le journal des évènements, j'ai ça :Quelles sont les lignes juste au-dessus ? "Milkyway@Home | Requesting new tasks for GPU and CPU" ?Citer01/12/2018 22:47:52 | Milkyway@Home | Your current settings do not allow tasks from this project. Pour réparer ceci, vous pouvezmodifier les préférences de projet sur le site web du projet.
01/12/2018 23:09:06 | Einstein@Home | Sending scheduler request: Requested by user.
01/12/2018 23:09:06 | Einstein@Home | Not requesting tasks: don't need (job cache full)
01/12/2018 23:09:07 | Einstein@Home | Scheduler request completed
01/12/2018 23:09:07 | Einstein@Home | Your current settings do not allow tasks from this project. Pour réparer ceci, vous pouvezmodifier les préférences de projet sur le site web du projet.
01/12/2018 23:09:13 | Milkyway@Home | Sending scheduler request: Requested by user.
01/12/2018 23:09:13 | Milkyway@Home | Not requesting tasks: don't need (job cache full)
01/12/2018 23:09:14 | Milkyway@Home | Scheduler request completed
01/12/2018 23:09:14 | Milkyway@Home | Your current settings do not allow tasks from this project. Pour réparer ceci, vous pouvezmodifier les préférences de projet sur le site web du projet.
02/12/2018 10:51:35 | | Starting BOINC client version 7.14.2 for windows_x86_64
02/12/2018 10:51:35 | | log flags: file_xfer, sched_ops, task
02/12/2018 10:51:35 | | Libraries: libcurl/7.47.1 OpenSSL/1.0.2g zlib/1.2.8
02/12/2018 10:51:35 | | Running as a daemon (GPU computing disabled)
02/12/2018 10:51:35 | | Data directory: F:\BOINC
02/12/2018 10:51:35 | | Running under account boinc_master
02/12/2018 10:51:35 | | No usable GPUs found
02/12/2018 10:51:36 | | Host name: Tisoon-PC
02/12/2018 10:51:36 | | Processor: 16 AuthenticAMD AMD Ryzen 7 2700X Eight-Core Processor [Family 23 Model 8 Stepping 2]
02/12/2018 10:51:36 | | Processor features: fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush mmx fxsr sse sse2 htt pni ssse3 fma cx16 sse4_1 sse4_2 movebe popcnt aes f16c rdrandsyscall nx lm avx avx2 svm sse4a osvw skinit wdt tce topx page1gb rdtscp fsgsbase bmi1 smep
02/12/2018 10:51:36 | | OS: Microsoft Windows 10: Core x64 Edition, (10.00.17134.00)
02/12/2018 10:51:36 | | Memory: 15.95 GB physical, 22.40 GB virtual
02/12/2018 10:51:36 | | Disk: 333.32 GB total, 188.18 GB free
02/12/2018 10:51:36 | | Local time is UTC +2 hours
02/12/2018 10:51:36 | | No WSL found.
02/12/2018 10:51:36 | | VirtualBox version: 5.2.8
02/12/2018 10:51:36 | Einstein@Home | URL http://einstein.phys.uwm.edu/; Computer ID 12749107; resource share 100
02/12/2018 10:51:36 | Milkyway@Home | URL http://milkyway.cs.rpi.edu/milkyway/; Computer ID 789385; resource share 100
02/12/2018 10:51:36 | Milkyway@Home | Your current settings do not allow tasks from this project. Pour réparer ceci, vous pouvezmodifier les préférences de projet sur le site web du projet.
02/12/2018 10:51:36 | Rosetta@home | URL http://boinc.bakerlab.org/rosetta/; Computer ID 3517133; resource share 100
02/12/2018 10:51:36 | World Community Grid | URL http://www.worldcommunitygrid.org/; Computer ID 5048545; resource share 100
02/12/2018 10:51:36 | | General prefs: from http://www.rnaworld.de/rnaworld/ (last modified 19-Nov-2018 19:06:48)
02/12/2018 10:51:36 | | Host location: none
02/12/2018 10:51:36 | | General prefs: using your defaults
02/12/2018 10:51:36 | | Reading preferences override file
02/12/2018 10:51:36 | | Preferences:
02/12/2018 10:51:36 | | max memory usage when active: 8164.74 MB
02/12/2018 10:51:36 | | max memory usage when idle: 14696.53 MB
02/12/2018 10:51:36 | | max disk usage: 185.40 GB
02/12/2018 10:51:36 | | don't use GPU while active
02/12/2018 10:51:36 | | suspend work if non-BOINC CPU load exceeds 25%
02/12/2018 10:51:36 | | (to change preferences, visit a project web site or select Preferences in the Manager)
02/12/2018 10:51:36 | | Setting up project and slot directories
02/12/2018 10:51:36 | | Checking active tasks
[…]
02/12/2018 10:51:36 | | Setting up GUI RPC socket
02/12/2018 10:51:36 | | Checking presence of 383 project files
[…]
De rien, une R9 390 de plus pour l'AF, c'est toujours bon à prendre !!! :DMembre de l'AF depuis 2009 même si clairement pas des plus actifs :).
N'oublies pas de te rattacher à l'AF pour tes différents projets.
En fait, j'ai deux NVidia dans ma bécane et je voudrais que le projet NumberFileds n'en utilise qu'une seule et qu'il me laisse l'autre libre pour autre chose 100% du temps...
<exclude_gpu>
<url>https://numberfields.asu.edu/NumberFields/</url>
<device_num>1</device_num>
</exclude_gpu>
Numberfields n'utilisera que le device 0 et le device 1 pourra être utilisé par un autre projet GPU !
<options>
<exclude_gpu>
<url>https://numberfields.asu.edu/NumberFields/</url>
<device_num>1</device_num>
</exclude_gpu>
</options>
Je me suis bien mis dans le "options" et j'ai redémarré le BM !Bonjour,
Cela ne marche pas...
:??:
<cc_config>
<options>
<exclude_gpu>
<url>https://numberfields.asu.edu/NumberFields/</url>
<device_num>1</device_num>
</exclude_gpu>
</options>
</cc_config>
J'ai relancé boinc sur le client et là ça fonctionne nickel.
sam. 22 févr. 2020 12:53:15 CET | yoyo@home | Sending scheduler request: To report completed tasks.
sam. 22 févr. 2020 12:53:15 CET | yoyo@home | Reporting 1 completed tasks
sam. 22 févr. 2020 12:53:15 CET | yoyo@home | Requesting new tasks for CPU and NVIDIA GPU
sam. 22 févr. 2020 12:53:17 CET | yoyo@home | Scheduler request completed: got 6 new tasks
sam. 22 févr. 2020 12:53:20 CET | yoyo@home | Started download of ogr_200222083039_89-in.og2
sam. 22 févr. 2020 12:53:20 CET | yoyo@home | Started download of ogr_200221163610_77-in.og2
sam. 22 févr. 2020 12:53:21 CET | yoyo@home | Finished download of ogr_200222083039_89-in.og2
sam. 22 févr. 2020 12:53:21 CET | yoyo@home | Finished download of ogr_200221163610_77-in.og2
sam. 22 févr. 2020 12:53:21 CET | yoyo@home | Started download of ogr_200222083039_73-in.og2
sam. 22 févr. 2020 12:53:21 CET | yoyo@home | Started download of ogr_200222083039_74-in.og2
sam. 22 févr. 2020 12:53:22 CET | yoyo@home | Finished download of ogr_200222083039_73-in.og2
sam. 22 févr. 2020 12:53:22 CET | yoyo@home | Finished download of ogr_200222083039_74-in.og2
sam. 22 févr. 2020 12:53:22 CET | yoyo@home | Started download of ogr_200222083039_27-in.og2
sam. 22 févr. 2020 12:53:22 CET | yoyo@home | Started download of ogr_200127090608_13-in.og2
sam. 22 févr. 2020 12:53:23 CET | yoyo@home | Finished download of ogr_200222083039_27-in.og2
sam. 22 févr. 2020 12:53:23 CET | yoyo@home | Finished download of ogr_200127090608_13-in.og2
sam. 22 févr. 2020 12:54:43 CET | GPUGRID | Computation for task 3ramA01_348_2-TONI_MDADpr4sr-0-10-RND9394_0 finished
sam. 22 févr. 2020 12:54:43 CET | GPUGRID | Starting task 3s0yA01_320_1-TONI_MDADpr4ss-0-10-RND8090_0
sam. 22 févr. 2020 12:54:45 CET | GPUGRID | Started upload of 3ramA01_348_2-TONI_MDADpr4sr-0-10-RND9394_0_0
sam. 22 févr. 2020 12:54:45 CET | GPUGRID | Started upload of 3ramA01_348_2-TONI_MDADpr4sr-0-10-RND9394_0_1
sam. 22 févr. 2020 12:54:46 CET | GPUGRID | Finished upload of 3ramA01_348_2-TONI_MDADpr4sr-0-10-RND9394_0_0
sam. 22 févr. 2020 12:54:46 CET | GPUGRID | Started upload of 3ramA01_348_2-TONI_MDADpr4sr-0-10-RND9394_0_2
sam. 22 févr. 2020 12:54:48 CET | GPUGRID | Finished upload of 3ramA01_348_2-TONI_MDADpr4sr-0-10-RND9394_0_1
sam. 22 févr. 2020 12:54:48 CET | GPUGRID | Started upload of 3ramA01_348_2-TONI_MDADpr4sr-0-10-RND9394_0_8
sam. 22 févr. 2020 12:54:50 CET | GPUGRID | Finished upload of 3ramA01_348_2-TONI_MDADpr4sr-0-10-RND9394_0_2
sam. 22 févr. 2020 12:54:50 CET | GPUGRID | Started upload of 3ramA01_348_2-TONI_MDADpr4sr-0-10-RND9394_0_9
sam. 22 févr. 2020 12:54:53 CET | GPUGRID | Finished upload of 3ramA01_348_2-TONI_MDADpr4sr-0-10-RND9394_0_9
sam. 22 févr. 2020 12:54:53 CET | GPUGRID | Started upload of 3ramA01_348_2-TONI_MDADpr4sr-0-10-RND9394_0_10
sam. 22 févr. 2020 12:54:54 CET | GPUGRID | Finished upload of 3ramA01_348_2-TONI_MDADpr4sr-0-10-RND9394_0_8
sam. 22 févr. 2020 12:54:54 CET | GPUGRID | Finished upload of 3ramA01_348_2-TONI_MDADpr4sr-0-10-RND9394_0_10
sam. 22 févr. 2020 12:54:59 CET | GPUGRID | Sending scheduler request: To report completed tasks.
sam. 22 févr. 2020 12:54:59 CET | GPUGRID | Reporting 1 completed tasks
sam. 22 févr. 2020 12:54:59 CET | GPUGRID | Requesting new tasks for NVIDIA GPU
sam. 22 févr. 2020 12:55:01 CET | GPUGRID | Scheduler request completed: got 1 new tasks
sam. 22 févr. 2020 12:55:03 CET | GPUGRID | Started download of 3te6A02_379_1-TONI_MDADpr4st-0-conf_file_enc
sam. 22 févr. 2020 12:55:03 CET | GPUGRID | Started download of 3te6A02_379_1-TONI_MDADpr4st-0-coor_file
sam. 22 févr. 2020 12:55:04 CET | GPUGRID | Finished download of 3te6A02_379_1-TONI_MDADpr4st-0-conf_file_enc
sam. 22 févr. 2020 12:55:04 CET | GPUGRID | Finished download of 3te6A02_379_1-TONI_MDADpr4st-0-coor_file
sam. 22 févr. 2020 12:55:04 CET | GPUGRID | Started download of 3te6A02_379_1-TONI_MDADpr4st-0-vel_file
sam. 22 févr. 2020 12:55:04 CET | GPUGRID | Started download of 3te6A02_379_1-TONI_MDADpr4st-0-idx_file
sam. 22 févr. 2020 12:55:05 CET | GPUGRID | Finished download of 3te6A02_379_1-TONI_MDADpr4st-0-vel_file
sam. 22 févr. 2020 12:55:05 CET | GPUGRID | Finished download of 3te6A02_379_1-TONI_MDADpr4st-0-idx_file
sam. 22 févr. 2020 12:55:05 CET | GPUGRID | Started download of 3te6A02_379_1-TONI_MDADpr4st-0-xsc_file
sam. 22 févr. 2020 12:55:05 CET | GPUGRID | Started download of 3te6A02_379_1-TONI_MDADpr4st-0-pdb_file
sam. 22 févr. 2020 12:55:06 CET | GPUGRID | Finished download of 3te6A02_379_1-TONI_MDADpr4st-0-xsc_file
sam. 22 févr. 2020 12:55:06 CET | GPUGRID | Started download of 3te6A02_379_1-TONI_MDADpr4st-0-psf_file
sam. 22 févr. 2020 12:55:08 CET | GPUGRID | Finished download of 3te6A02_379_1-TONI_MDADpr4st-0-pdb_file
sam. 22 févr. 2020 12:55:08 CET | GPUGRID | Started download of 3te6A02_379_1-TONI_MDADpr4st-0-par_file
sam. 22 févr. 2020 12:55:09 CET | GPUGRID | Finished download of 3te6A02_379_1-TONI_MDADpr4st-0-psf_file
sam. 22 févr. 2020 12:55:09 CET | GPUGRID | Finished download of 3te6A02_379_1-TONI_MDADpr4st-0-par_file
sam. 22 févr. 2020 12:55:09 CET | GPUGRID | Started download of 3te6A02_379_1-TONI_MDADpr4st-0-prmtop_file
sam. 22 févr. 2020 12:55:10 CET | GPUGRID | Finished download of 3te6A02_379_1-TONI_MDADpr4st-0-prmtop_file
sam. 22 févr. 2020 12:55:34 CET | GPUGRID | Sending scheduler request: To fetch work.
sam. 22 févr. 2020 12:55:34 CET | GPUGRID | Requesting new tasks for NVIDIA GPU
sam. 22 févr. 2020 12:55:35 CET | GPUGRID | Scheduler request completed: got 0 new tasks
sam. 22 févr. 2020 12:55:35 CET | GPUGRID | No tasks sent
sam. 22 févr. 2020 12:55:35 CET | GPUGRID | This computer has reached a limit on tasks in progress
sam. 22 févr. 2020 13:01:24 CET | yoyo@home | Computation for task ogr_200219105615_16_0 finished
sam. 22 févr. 2020 13:01:24 CET | yoyo@home | Starting task ogr_200219105608_8_0
sam. 22 févr. 2020 13:01:26 CET | yoyo@home | Started upload of ogr_200219105615_16_0_0
sam. 22 févr. 2020 13:01:26 CET | yoyo@home | Started upload of ogr_200219105615_16_0_1
sam. 22 févr. 2020 13:01:28 CET | yoyo@home | Finished upload of ogr_200219105615_16_0_0
sam. 22 févr. 2020 13:01:30 CET | yoyo@home | Finished upload of ogr_200219105615_16_0_1
sam. 22 févr. 2020 13:01:31 CET | yoyo@home | Sending scheduler request: To report completed tasks.
sam. 22 févr. 2020 13:01:31 CET | yoyo@home | Reporting 1 completed tasks
sam. 22 févr. 2020 13:01:31 CET | yoyo@home | Requesting new tasks for CPU and NVIDIA GPU
sam. 22 févr. 2020 13:01:33 CET | yoyo@home | Scheduler request completed: got 2 new tasks
sam. 22 févr. 2020 13:01:35 CET | yoyo@home | Started download of ogr_200222083039_90-in.og2
sam. 22 févr. 2020 13:01:35 CET | yoyo@home | Started download of ogr_200222083039_91-in.og2
sam. 22 févr. 2020 13:01:36 CET | yoyo@home | Finished download of ogr_200222083039_90-in.og2
sam. 22 févr. 2020 13:01:36 CET | yoyo@home | Finished download of ogr_200222083039_91-in.og2
sam. 22 févr. 2020 13:01:37 CET | Amicable Numbers | update requested by user
sam. 22 févr. 2020 13:01:39 CET | Amicable Numbers | Sending scheduler request: Requested by user.
sam. 22 févr. 2020 13:01:39 CET | Amicable Numbers | Requesting new tasks for NVIDIA GPU
sam. 22 févr. 2020 13:01:40 CET | Amicable Numbers | Scheduler request completed: got 0 new tasks
sam. 22 févr. 2020 13:01:40 CET | collatz | update requested by user
sam. 22 févr. 2020 13:01:44 CET | Einstein@Home | update requested by user
sam. 22 févr. 2020 13:01:45 CET | collatz | Sending scheduler request: Requested by user.
sam. 22 févr. 2020 13:01:45 CET | collatz | Requesting new tasks for NVIDIA GPU
sam. 22 févr. 2020 13:01:48 CET | collatz | Scheduler request completed: got 0 new tasks
sam. 22 févr. 2020 13:01:54 CET | Einstein@Home | Sending scheduler request: Requested by user.
sam. 22 févr. 2020 13:01:54 CET | Einstein@Home | Requesting new tasks for NVIDIA GPU
sam. 22 févr. 2020 13:01:56 CET | Einstein@Home | Scheduler request completed: got 0 new tasks
sam. 22 févr. 2020 13:01:56 CET | Einstein@Home | No work sent
sam. 22 févr. 2020 13:01:56 CET | Einstein@Home | No work is available for Gravitational Wave search O2 Multi-Directional GPU
sam. 22 févr. 2020 13:01:56 CET | Einstein@Home | see scheduler log messages on https://einsteinathome.org/host/12807876/log
sam. 22 févr. 2020 13:01:56 CET | Einstein@Home | Binary Radio Pulsar Search (Arecibo) is not available for your type of computer.
sam. 22 févr. 2020 13:02:01 CET | Amicable Numbers | Sending scheduler request: To fetch work.
sam. 22 févr. 2020 13:02:01 CET | Amicable Numbers | Requesting new tasks for NVIDIA GPU
sam. 22 févr. 2020 13:02:03 CET | Amicable Numbers | Scheduler request completed: got 0 new tasks
sam. 22 févr. 2020 13:03:00 CET | Einstein@Home | Sending scheduler request: To fetch work.
sam. 22 févr. 2020 13:03:00 CET | Einstein@Home | Requesting new tasks for NVIDIA GPU
sam. 22 févr. 2020 13:03:02 CET | Einstein@Home | Scheduler request completed: got 0 new tasks
sam. 22 févr. 2020 13:03:02 CET | Einstein@Home | No work sent
sam. 22 févr. 2020 13:03:02 CET | Einstein@Home | No work is available for Gravitational Wave search O2 Multi-Directional GPU
sam. 22 févr. 2020 13:03:02 CET | Einstein@Home | see scheduler log messages on https://einsteinathome.org/host/12807876/log
sam. 22 févr. 2020 13:03:02 CET | Einstein@Home | Binary Radio Pulsar Search (Arecibo) is not available for your type of computer.
sam. 22 févr. 2020 13:03:07 CET | GPUGRID | Sending scheduler request: To fetch work.
sam. 22 févr. 2020 13:03:07 CET | GPUGRID | Requesting new tasks for NVIDIA GPU
sam. 22 févr. 2020 13:03:09 CET | GPUGRID | Scheduler request completed: got 0 new tasks
sam. 22 févr. 2020 13:03:09 CET | GPUGRID | No tasks sent
sam. 22 févr. 2020 13:03:09 CET | GPUGRID | This computer has reached a limit on tasks in progress
Le problème, c'est que j'ai déjà essayé et que ça fonctionne exactement de la même manière.A mon avis, tu as CUDA qui marche, mais pas OpenCL ...
WUs GPU pour PrimeGrid et GPUGRID : oui
WUs GPU pour Collatz, Einstein, Amicable : non
Savez-vous si on peut "forcer" le téléchargement ?
Au moins, je verrai s'il marque toujours à côté "Pas de processeur graphique".
A mon avis, tu as CUDA qui marche, mais pas OpenCL ...
Tente un "apt-get install opencl-icd" ... reboote et retente.
Tente d'installer mesa-opencl-icdNon surtout pas, c'est de la merde en boite le pilote libre pour le GPGPU. Il faut installer le "nvidia" qui correspond à la version des drivers installée ...
C'est la partie "libre". Certains vont te dire qu'il est moins optimisé que les proprios, mais en réalité, la différence est négligeable.
Tente d'installer mesa-opencl-icdNon surtout pas, c'est de la merde en boite le pilote libre pour le GPGPU. Il faut installer le "nvidia" qui correspond à la version des drivers installée ...
C'est la partie "libre". Certains vont te dire qu'il est moins optimisé que les proprios, mais en réalité, la différence est négligeable.
Et si tu veux un avis pas super expert, mais très éclairé : "si ça marche, ne le répare pas" :)
Hello et (re)bienvenue :)
Niveau GPU, ça a pas mal bougé depuis 2 ou 3 ans : AMD (ex ATI) revient dans la course, même si, au moment où j'écris ces lignes, NVidia est encore assis sur la plus haute marche.
Il y a de nombreux projetx compatibles avec les deux architectures, notamment via OpenCL, qui est commune aux deux.
Reste à savoir sur quoi tu veux faire travailler ton/tes ordi(s)... Et surtout sur quel OS tu comptes les faire tourner.
Un conseil, si tu comptes acheter un GPU : attends la semaine prochaine pour savoir ce que NVidia prépare (téléconférence prévue le 15/05 pour annoncer l'architecture Ampère, qui devrait envoyer du lourd, et faire tomber les prix de l'actuelle), voire la rentrée de septembre, pour voir ce qu'AMD a à y répondre (leur prochaine architecture est très attendue, puisqu'elle pourrait venir concurrencer NVidia sur les perfs haut de gamme).
Hello.hello, c'est une carte graphique de compet : une gt 1030 :pt1cable:
C'est quoi comme GPU ?
Quelle version de Windows ?
Question bonus : tu tiens absolument à rester sur Windows ?
Ce ne serait pas lié au type d'installation de Boinc ("programme" ou "service") ? Ça me fait penser à la VM Shadow qui ne nous autorisait que d'avoir en "Programme" et du coup à chaque veille écran, ça bloquait le calcul sur GPU.Bonsoir,
Bonsoir,second retour :
petit retour sur les dummy plug : ça fonctionne pas terrible (pas plus d'une minute...).
Je pense que ces modèles sont défectueux, j'en ai commandé d'autres pour tester
Le porte container japonnais coincé dans le canal de Suez c'est pas cela qui va amener des GPU et faire baisser les prix. :priz2tet:
Chouette trouvaille !
J'ai toujours pensé que l'indicateur d'occupation GPU était juste "mauvais".
Je n'avais pas imaginé qu'il pouvait être restreint à la session de l'utilisateur.
Merci !
Edit :
par contre, gaffe à la chaleur avec les GPUs des laptops...
J'ai flingué un MacBook comme ça, il y a quelques années : la puce de la GT 8600 s'était "déssoudée" à force de trop chauffer (la température indiquée touchait parfois les 95°C). Depuis, je ne fais plus jamais tourner un GPU "portable".
Hello !
Je n'ai pas autant de machines, mais elles sont pas mal différentes (du PC Windows, du PC Linux, des ARM, du headless, du distant, du local...).
La solution la plus simple, sans rien installer de plus sur les machines distantes, c'est bien BoincTasks sur une machine "tour de contrôle"... Le paramétrage est plutôt simple et ça tourne sans prendre de ressources supplémentaires.
Si tu veux, je t'explique comment faire pas à pas.
Edith : je réalise que la dernière version de BT Js que je n'avais pas encore installée, il y a même un éditeur de fichiers de config intégré pour cc_config.xml et app_config.xml, c'est juste génial !! (je sais pas si ça existe dans la version windows de base)L'éditeur est présent sur la version actuelle Win 1.78.
Elle s’alimente à partir d'elle même ? tu as trouvé le secret du mouvement perpétuel ? :D
De ce genre là ?
https://www.youtube.com/watch?v=9G2-RnH_RkM
Elle est extraordinaire cette vidéo !!! elle a que 85k vues, lamentable !
Je vais en rajouter quelques unes en la mettant dans la taverne :)
Re.
Quitte à me répéter : tu te mets en galère avec ton système de suivi "machine par machine"... Pour chacune d'entre elles, tu dois te connecter, te logguer, bidouiller les projets, te délogguer et te déconnecter... Dans le processus, tu perds ton GPU (pourquoi d'ailleurs, j'utilise parfois VNC et les GPUs continuent à tourner ?) et tu dois bricoler un script pour relogguer un utilisateur local fictif...
Franchement : tu devrais retenter BoincTasks... Tu piloterais tout depuis une seule bécane, sans avoir à installer quoi que ce soit sur les autres, et tu n'aurais plus de problème avec tes GPUs. Pas d'inquiétude sur sa "réactivité" : j'ai déjà piloté plus de 150 threads avec, répartis sur une dizaine de machines, dont certaines distantes via internet... Aucun souci.
Non ?
Bon.
Faute de centraliser, tu peux aussi tenter de paramétrer tes clients Boinc pour qu'ils envoient/reçoivent aux heures les moins "embouteillées" de ta connexion... Genre la nuit.
En spécifiant qu'il faut emmagasiner assez de travail pour une durée de 24 heures.
Tu peux même "t'amuser" à régler chacune des bécanes pour qu'elle ait son propre créneau horaire (0h-0h15 pour l'une, 0h15-0h30 pour l'autre, etc)... ça évitera pas mal de souci si ta connexion est faible.
Quant à VNC, j'utilise TightVNC, qui est gratuit (GPL2) sur ma machine pilote Windows. ça se connecte sans aucun souci sur les serveurs TighVNC d'autres Windows, ou sur les serveurs VNC standards des différents parfums de Linux. Et ça dérange pas les GPUs (je tombe même sur mon gamin en pleine partie de jeu des fois : il ne s'en rend pas compte)
Mate là : https://www.tightvnc.com/download.php
Je pense que tu te galères un poil trop avec de la "microgestion" : Boinc est pas trop mal foutu quand il s'agit de gérer ses flux et ses priorités. Perso, sauf durant les raids, où on bidouille fort pour "gratter" quelques crédits, je le laisse se démerder et il faut bien avouer qu'on a du mal à le prendre en défaut.
les paramètres à tenter :
<http_transfer_timeout>seconds</http_transfer_timeout>
Abort HTTP transfers if idle for this many seconds; default 300.
<http_transfer_timeout_bps>bps</http_transfer_timeout_bps>
An HTTP transfer is considered idle if its transfer rate is below this many bits per second.
"il faudrait mettre moins" pourquoi ? le seul critère c'est la deadline et boinc se demmerde avec ça.
Je comprends pas bien comment "un goulot d'étranglement" peut se réparer tout seul juste en cliquant dans le boinc manager, mais bon.
j'ai largement assez de RAM pour faire des ARP et le fait de les avoir décochées ne permet pas en ce moment de les éviter)
J'ai mis 12h à faire passer une simple OPNG hier soir, et plus vite le calcul débute, moins il y a de gaspillage de bande passante
J'ai mis 12h à faire passer une simple OPNG hier soir, et plus vite le calcul débute, moins il y a de gaspillage de bande passante
Ce que tu veux dire c'est que du fait de ta connexion cartonnée il y a des tâches qui ne se téléchargement pas ou ne se renvoient pas sauf si tu cliques frénétiquement sur réessayer la connexion réseau dans le boinc manager ? parce que sinon le "ré-essai automatique après un délai" que pratique boinc ne permet pas de les faire passer ? et ce sur chaque machine de ton parc ?"il faudrait mettre moins" pourquoi ? le seul critère c'est la deadline et boinc se demmerde avec ça.
Je comprends pas bien comment "un goulot d'étranglement" peut se réparer tout seul juste en cliquant dans le boinc manager, mais bon.
Avec une connexion en carton, il sera très difficile d'avoir des cores actifs
Certains projets ne créditent rien ou très peu sur un retour après deadline, et parfois il peut y avoir une annulation automatique
Quand tu peines à avoir du taf et qu'on te le retire sans demander ton avis parce que quelqu'un a déjà fini sa WU ailleurs (ou autre motif) et que t'en as eu pour des heures à passer quelques dizaines de Mo (x20 pou chaque Xeon), cela implique de devoir retélécharger à nouveau (par exemple j'ai largement assez de RAM pour faire des ARP et le fait de les avoir décochées ne permet pas en ce moment de les éviter)
J'ai mis 12h à faire passer une simple OPNG hier soir, et plus vite le calcul débute, moins il y a de gaspillage de bande passante
Faut dire qu'à vouloir rester dans le top 150 en points sur WCG depuis le fin fond de la Yaute, je cherche un peu aussi:lol:
Sinon ton CPID est incorrect dans ton profil du forum, le lien auto vers tes stats ne marche pas, j'arrive pas à vérifier tes dires pour WCG :siflotte:
Une chose est sûre : pour l'instant le download / upload de WCG est en carafe pour tout le monde :/
De ma compréhension c'est la team "France" historique qui a été une des fondatrices de l'AF à l'époque, n'est-ce pas ?
Ben c'est bizarre alors parce que techniquement t'es rattaché à l'équipe "France" et non à CSF (cf les liens que j'ai mis plus haut).
Mais pas "Grid-France" ni "CSF" - d'ailleurs j'ai pas trouvé une équipe "CSF" tout court sur BS, y'a plein de variantes, et j'ai trouvé une "CRUNCHERS SANS FRONTIERES 2.0 (https://www.boincstats.com/stats/-5/team/detail/2734265254/overview)" mais tu n'es pas dedans.
WCG envoie quelques OPNG de temps en temps, sauf que tout mon parc domestique est à revoirRDP c'est de la merde pour le GPGPU, quand tu te loggues en RDP il remplace le pilote GPU par un pilote virtuel RDP et ça fout la grouille ... regarde plutot du coté de VNC (TightVNC pour ma part) ou TeamViewer ... par contre il faut éviter d'ouvrir VNC sur Internet, c'est pas très safe ...
Pendant plusieurs années c'était tranquille, j'avais quelques stations de travail sur lesquelles je retirais le GPU et je contrôlais tout avec le RDP de base (que des licences Windows Pro, pas utile de rajouter des softs encore en plus)
Comme j'ai attaqué les dépenses chez NVIDIA depuis moins d'un an, je reprends quelques machines sans installer BOINC Manager en tant que service, je revois également les stratégies de mot de passe, etc...
Le plus simple pour moi était jusqu'à présent le bureau à distance, sauf qu'avec mon arrivée dans le crunch GPU tout se complique (parfois ça reprend du début ou ça plante, alors si je suis par exemple sur des Python de m.... ça fout mal de benner des heures de taf) et beaucoup vont me conseiller d'installer BOINCTasks, VNC etc,
Mais chaque fois que cette piste est envisagée je trouve que c'est pire qu'une usine à gaz à paramétrer déjà rin qu'une fois, sans être véritablement intuitif ou plus efficace que les outils de base
Avec 20 cores par PC et jusqu'à deux GPU sur certains d'entre eux, ça va faire un bordel pas possible réparti dans diverses pièces (3 Gen9 et une douzaine de Z)
Déjà qu'en hiver je relançais manuellement les transferts en baladant mon tel sur chaque PC car l'ADSL désynchronise sévère, si maintenant que mon réseau est autonome je passe ma vie à courir entre les HID, ça va me gaver
Il doit bien y avoir une solution pour que ça tourne en RDP, parfois les WU GPU sont actives plus d'une dizaine de secondes après la connexion distante
RDP c'est de la merde pour le GPGPU, quand tu te loggues en RDP il remplace le pilote GPU par un pilote virtuel RDP et ça fout la grouille ... regarde plutot du coté de VNC (TightVNC pour ma part) ou TeamViewer ... par contre il faut éviter d'ouvrir VNC sur Internet, c'est pas très safe ...
Et pour ton ADSL pourri, remplace le par un Starlink : https://www.starlink.com/
Sinon tu passes tout sous Linux et tu gères en SSH ... ;)Pas bête le coup des crises cardiaques pour espérer récupérer mon matos :D
On voit sur BS que tu es toujours "France" (qui en effet cite l'URL de GridFrance) sur ODLK1, amicable,collatz, Einstein, etc.Ben c'est bizarre alors parce que techniquement t'es rattaché à l'équipe "France" et non à CSF (cf les liens que j'ai mis plus haut).
Mais pas "Grid-France" ni "CSF" - d'ailleurs j'ai pas trouvé une équipe "CSF" tout court sur BS, y'a plein de variantes, et j'ai trouvé une "CRUNCHERS SANS FRONTIERES 2.0 (https://www.boincstats.com/stats/-5/team/detail/2734265254/overview)" mais tu n'es pas dedans.
J'ai retrouvé mes identifiants et je suis bien dans la CSF 2.0 mais pour WCG uniquement si je regarde depuis BOINCstats, et pas moyen de trouver comment "quitter la FRANCE"
Pour NumberFields et GPUGRID j'ai également les contributions au sein de mon équipe, mais je n'arrive pas à faire la bascule "générale" sur le site BAM
Cela ne m'empêche pas de faire bosser mes machines, et comme Grid-France n'existe plus, je ne vais pas me torturer plus à comprendre le pourquoi de cette incohérence
Rejoins l'AF, ce sera plus simple ! :siflotte:Je pense agir de ce pas pour envoyer à l'Alliance Francophone les crédits des projets non CSF auxquels je participe
:love:
mais c'est quand même dingue que tu n'aies "pas le droit" de te rattacher à "ta team" sur les autres projets !? le "grand chef" aurait-il des airs de gourou de secte ? :D
Et concernant Collatz Conjecture, savez-vous si le projet va revenir un jour?
Et concernant Collatz Conjecture, savez-vous si le projet va revenir un jour?
Normalement oui. Si je me souviens bien, l'administrateur du projet hébergeait le serveur chez lui. Vu qu'il a déménagé, il attend d'avoir une situation stable pour tout relancer.
Kali.
Tiens, Christrian, rien à voir... Vu que tu sembles particulièrement concentré sur WCG, je te propose de jeter un oeil à mon outil (yes : autopromo !) :
Il te permet de voir ce que tu peux espérer comme "crédits temps" des calculs en cours sur WCG, en prenant en compte la capacité de chacune de tes machines :
Mate là : https://guillaumejamet.fr/petits_outils/boinc_wcg_stats.php
Si t'as des questions, je suis là :)
"Sur WCG depuis 2009, je me suis ouvert aux autres projets en 2022
Des Xeon v4 avant tout, je me penche sur les GPU depuis peu"
Il faut essayer milkyway ou folding (cpu et gpu pour les deux).
https://milkyway.cs.rpi.edu/milkyway/gpu_list.php
https://foldingathome.org/alternative-downloads/?lng=fr
:hello:
Einstein emballement des ventilos à cause de la chaleur.Ce ne sont que quelques degrés... :)
Folding gpu à 93°.
Je pense qu'il faut prendre des gants avec les statistiques GPU, car si tout le monde ne dédie pas correctement un nombre coeur nécessaire pour nourrir le GPU, les performances peuvent varier pour un même GPU.On est d'accord qu'il faut contribuer sans chercher absolument les gains à tous les niveaux, et ce qui me fout en rogne, c'est de voir du Python fait pour 1 GPU qui ne l'exploite même pas et qui ferait ramer tout ce qu'il y a à côté, en ralentissant l'ensemble sans exploiter la moindre optimisation CUDA, pour un projet taillé GPU c'est super bête
Sans compter le fait que certains projets qui tournent en parallèle d'autres peuvent générer des écarts dans les performances aussi :/
Tu vas me dire que c'est pas souhaitable, mais il me semble que seule une règle dans Boinctasks peut te faire ça.Souhaitable ou non, c'est le genre d'information qui pèse lourd dans la balance, même si j'avoue ne plus surveiller quoi que ce soit depuis que ça foire moins chez Krembil
J'ai déjà testé pour respecter les "heures creuses" d'EDF et ça marche :)
Petit délire du jour, assez efficient suivant les projetsPunaise, ça doit faire un boucan infernal pour pas grand chose ces merdouilles ... :/
"pour pas grand chose" : si, pour le plaisir exclusif du bidouilleur :DPas tant de bruit que ça car les K2200 tiraient entre 20 et 30W maxi selon le projet, c'est grâce à ces merdouilles que j'ai été le plus impressionné sur l'efficience avec NumberFields, car au "point par watt consommé" j'étais devant ma 2070
ça aurait été mieux avec des K2000 , c'est sûr :oLa K2000 était inutilisable avec BOINC et le taux de WU en erreur était monstrueux,
ça aurait été mieux avec des K2000 , c'est sûr :o
ça aurait été mieux avec des K2000 , c'est sûr :o
L'avantage c'est que K2000 elle parle :D :dialout:
De la 4090 sinon rien.
M4000 1664 cores 120w 120 € 8 Go
K2200 640 cores 68w 90€ x 3
1920 cores 204 w 270 € 12 go
M2000 768 cores 75 watts 70 € 4 go
Total 4352 cores 400 watts 460 € 24 Go
RTX6000 4608 cores 24 go 2552 € 300 watts
:electric:
Hey amigo j'avais pas vu ceci ::kookoo:
Sympa :)
Impressionnant Christian ! Ca envoie du lourd !Il est clair que la stabilité des transferts s'est fortement améliorée durant la semaine
J'ai remarqué qu'actuellement il n'y a plus d'erreur sur les téléchargements d'UT WCG donc ça aide aussi (plus besoin de relancer à la main).
Kali.
Combien de temps pour charger ?On a parlé trop vite il faut croire, c'est de nouveau la cata
Chez moi c'est toujours figé...
:cpopossib:
J'ai laissé charger toute la journée d'hier WVG et il resté quelques fichiers à charger...
Comme mes deux pc sont dans ma chambre j'ai éteint à 1 heure du matin.
Et quelle surprise ce matin, c'est un jour sans fin version WCG...
Il n'a pas sauvegardé tout le travail d'hier, et a recommencé à zéro...
:cpopossib:
Et en plus ce matin le forum de leur site est planté...
Ce fut une belle opération (de transfert) mais le patient est mort...
Et encore. Là, c'est du passif...
Et encore. Là, c'est du passif...
Faut le dire vite, t'as vu les grosses turbines juste devant ? :o
@Christian : Je vois que c'est une Workstation HP : quel modèle ? Prolient ML350 Gen9 (https://www.hpe.com/psnow/doc/c04346270?jumpid=in_lit-psnow-red) ? (https://forum-images.hardware.fr/images/perso/1/chaleureux.gif)
Un pièce à vivre ? avec ça comme déco ? :lol:Pas de waf, pas de ouaf :gno:
Oui oui je sais, "les goûts et les couleurs" ;)
Moi si je tentais une chose du genre ça deviendrait "une pièce où s'engueuler" :D
Le Mac M1 ou M1 Ultra sont incapables d'exécuter une application BOINC gpu, qu'il s'agisse d'OpenCL ou de CUDA, car le processeur M1* ne supporte aucune des deux API de calcul graphique.
À ma connaissance (https://boinc.berkeley.edu/forum_thread.php?id=14853&postid=110727), OpenCL a été déprécié pour les Mac depuis un certain temps déjà, même si la plupart des MacOS le prennent toujours en charge, même sur leurs CPU Apple Silicon ARM64. Mais ils veulent passer à Metal. Vous pouvez lire ici (https://github.com/BOINC/boinc/issues/2550) à ce sujet.
Est-ce qu'il y a du taf GPU en ce moment pour Universe@Home ?Non.
Mmm... Clairement, la WX4100 n'est pas taillée pour le calcul, c'est une carte d'affichage.Vu que j'arrive à faire tourner des K2200 et M2000 sans broncher (28nm), je comptais expérimenter la concurrence pour voir si je pouvais au moins espérer m'approcher de la Quadro P2000 qui tourne nickel dans un de mes serveurs, tout en me disant de faire un système "alternatif"
Du coup, pas certain qu'il soit très utile de prendre le temps de comprendre comment améliorer sa situation :/
https://www.techpowerup.com/gpu-specs/radeon-pro-wx-4100.c2874
Marcher, ça doit marcher, mais... Il faut aussi considérer que les applis Boinc sont plus ou moins optimisées.Dès que je mets une machine en route, il est dans mes habitudes de faire apparaître les fichiers cachés pour supprimer toutes les cartes absentes, puis de redémarrer avant d'entreprendre quoi que ce soit
Si la carte fonctionne bien sur un projet et "moins bien" sur un autre, peut-être n'est-ce pas sa faute seulement ?
Et : oui : on peut avoir des soucis en installant les deux pilotes d'architecture sur un même PC, notamment en OpenCL.
Dans le doute, tu peux toujours t'assurer que les pilotes sont installés "proprement" en commençant par bien tout désinstaller avant de réinstaller la dernière version.
Il y a un logiciel qui fait ça très bien :
https://www.guru3d.com/files-details/display-driver-uninstaller-download.html
... C'est une procédure un poil pénible (il faut redémarrer en mode "Sans échec", nettoyer, puis démarrer en mode normal, installer un premier pilote, redémarrer, installer le 2e...)
Après le serveur et ses quatre GPU, voici les premiers instants de vie d'une nouvelle réalisation, plutôt prometteuse pour une utilisation estivale discrète et propre
Voici donc mon heureux événement, son timide frère jumeau a vu le jour plusieurs minutes après, mais tout le monde se porte parfaitement bien et apprécie le crunch
Attendons la hausse des températures pour perfectionner le Power Limit, la discrétion est en ce moment de la partie
J'ai bon espoir, car à ce jour, chaque sandwich chauffe moins et reste plus silencieux qu'une seule Quadro RTX 4000
Après le serveur et ses quatre GPU, voici les premiers instants de vie d'une nouvelle réalisation, plutôt prometteuse pour une utilisation estivale discrète et propre
Voici donc mon heureux événement, son timide frère jumeau a vu le jour plusieurs minutes après, mais tout le monde se porte parfaitement bien et apprécie le crunch
Attendons la hausse des températures pour perfectionner le Power Limit, la discrétion est en ce moment de la partie
J'ai bon espoir, car à ce jour, chaque sandwich chauffe moins et reste plus silencieux qu'une seule Quadro RTX 4000
Quand même impressionnantes comment elles sont petites et consomment pas beaucoup pour leur puissance. Beau build! Petite question: Étant donné que ces cartes ont de la VRAM ECC, est-ce que tu as parfois des erreurs de calcul ou l'ECC les rendent impossible (à moins d'y aller comme un bourrin pour forcer l'erreur)?
C'est une tour "normale", ici juste ouverte pour la photo, ou ça reste comme ça ? c'est grand comment ? ça trône dans le salon ? :)
<exclude_gpu>
<url>project_URL</url>
[<device_num>N</device_num>]
[<type>NVIDIA</type>]
[<app>appname</app>]
</exclude_gpu>
a modif selon config<cc_config>
<log_flags>
<task>1</task>
<file_xfer>1</file_xfer>
<sched_ops>1</sched_ops>
</log_flags>
<options>
<device_name>crack crack1</device_name>
<allow_multiple_clients>1</allow_multiple_clients>
<use_all_gpus>1</use_all_gpus>
<ignore_nvidia_dev>1</ignore_nvidia_dev>
<report_results_immediately>1</report_results_immediately>
</options>
</cc_config>
cc_config client2<cc_config>
<log_flags>
<task>1</task>
<file_xfer>1</file_xfer>
<sched_ops>1</sched_ops>
</log_flags>
<options>
<device_name>crack crack 2</device_name>
<allow_multiple_clients>1</allow_multiple_clients>
<use_all_gpus>1</use_all_gpus>
<ignore_nvidia_dev>0</ignore_nvidia_dev>
<report_results_immediately>1</report_results_immediately>
</options>
</cc_config>
<cc_config>
<log_flags>
<file_xfer>1</file_xfer>
<sched_ops>1</sched_ops>
<task>1</task>
<app_msg_receive>0</app_msg_receive>
<app_msg_send>0</app_msg_send>
<async_file_debug>0</async_file_debug>
<benchmark_debug>0</benchmark_debug>
<checkpoint_debug>0</checkpoint_debug>
<coproc_debug>0</coproc_debug>
<cpu_sched>0</cpu_sched>
<cpu_sched_debug>0</cpu_sched_debug>
<cpu_sched_status>0</cpu_sched_status>
<dcf_debug>0</dcf_debug>
<disk_usage_debug>0</disk_usage_debug>
<file_xfer_debug>0</file_xfer_debug>
<gui_rpc_debug>0</gui_rpc_debug>
<heartbeat_debug>0</heartbeat_debug>
<http_debug>0</http_debug>
<http_xfer_debug>0</http_xfer_debug>
<idle_detection_debug>0</idle_detection_debug>
<mem_usage_debug>0</mem_usage_debug>
<network_status_debug>0</network_status_debug>
<notice_debug>0</notice_debug>
<poll_debug>0</poll_debug>
<priority_debug>0</priority_debug>
<proxy_debug>0</proxy_debug>
<rr_simulation>0</rr_simulation>
<rrsim_detail>0</rrsim_detail>
<sched_op_debug>0</sched_op_debug>
<scrsave_debug>0</scrsave_debug>
<slot_debug>0</slot_debug>
<state_debug>0</state_debug>
<statefile_debug>0</statefile_debug>
<suspend_debug>0</suspend_debug>
<task_debug>0</task_debug>
<time_debug>0</time_debug>
<trickle_debug>0</trickle_debug>
<unparsed_xml>0</unparsed_xml>
<work_fetch_debug>0</work_fetch_debug>
</log_flags>
<options>
<exclude_gpu>
<url>https://milkyway.cs.rpi.edu/milkyway/</url>
<device_num>1</device_num>
<type>NVIDIA</type>
</exclude_gpu>
<exclude_gpu>
<url>https://einstein.phys.uwm.edu/</url>
<device_num>0</device_num>
<type>NVIDIA</type>
</exclude_gpu>
<abort_jobs_on_exit>0</abort_jobs_on_exit>
<allow_gui_rpc_get>0</allow_gui_rpc_get>
<allow_multiple_clients>0</allow_multiple_clients>
<allow_remote_gui_rpc>0</allow_remote_gui_rpc>
<disallow_attach>0</disallow_attach>
<dont_check_file_sizes>0</dont_check_file_sizes>
<dont_contact_ref_site>0</dont_contact_ref_site>
<lower_client_priority>0</lower_client_priority>
<dont_suspend_nci>0</dont_suspend_nci>
<dont_use_vbox>0</dont_use_vbox>
<dont_use_wsl>0</dont_use_wsl>
<exit_after_finish>0</exit_after_finish>
<exit_before_start>0</exit_before_start>
<exit_when_idle>0</exit_when_idle>
<fetch_minimal_work>0</fetch_minimal_work>
<fetch_on_update>0</fetch_on_update>
<force_auth>default</force_auth>
<http_1_0>0</http_1_0>
<http_transfer_timeout>300</http_transfer_timeout>
<http_transfer_timeout_bps>10</http_transfer_timeout_bps>
<max_event_log_lines>2000</max_event_log_lines>
<max_file_xfers>8</max_file_xfers>
<max_file_xfers_per_project>2</max_file_xfers_per_project>
<max_stderr_file_size>0.000000</max_stderr_file_size>
<max_stdout_file_size>0.000000</max_stdout_file_size>
<max_tasks_reported>0</max_tasks_reported>
<ncpus>-1</ncpus>
<no_alt_platform>0</no_alt_platform>
<no_gpus>0</no_gpus>
<no_info_fetch>0</no_info_fetch>
<no_opencl>0</no_opencl>
<no_priority_change>0</no_priority_change>
<os_random_only>0</os_random_only>
<process_priority>-1</process_priority>
<process_priority_special>-1</process_priority_special>
<proxy_info>
<socks_server_name></socks_server_name>
<socks_server_port>80</socks_server_port>
<http_server_name></http_server_name>
<http_server_port>80</http_server_port>
<socks5_user_name></socks5_user_name>
<socks5_user_passwd></socks5_user_passwd>
<socks5_remote_dns>0</socks5_remote_dns>
<http_user_name></http_user_name>
<http_user_passwd></http_user_passwd>
<no_proxy></no_proxy>
<no_autodetect>0</no_autodetect>
</proxy_info>
<rec_half_life_days>10.000000</rec_half_life_days>
<report_results_immediately>0</report_results_immediately>
<run_apps_manually>0</run_apps_manually>
<save_stats_days>30</save_stats_days>
<skip_cpu_benchmarks>0</skip_cpu_benchmarks>
<simple_gui_only>0</simple_gui_only>
<start_delay>0.000000</start_delay>
<stderr_head>0</stderr_head>
<suppress_net_info>0</suppress_net_info>
<unsigned_apps_ok>0</unsigned_apps_ok>
<use_all_gpus>0</use_all_gpus>
<use_certs>0</use_certs>
<use_certs_only>0</use_certs_only>
<vbox_window>0</vbox_window>
</options>
</cc_config>
Einstein m'affiche ceci:En général, c'est que tu as suffisamment de travail par ailleurs ... diminue le nombre de projets actifs en même temps ou augmente le cache ...
2023-03-14 18:19:55 | Einstein@Home | Not requesting tasks: don't need (CPU: ; NVIDIA GPU: )
Einstein m'affiche ceci:En général, c'est que tu as suffisamment de travail par ailleurs ... diminue le nombre de projets actifs en même temps ou augmente le cache ...
2023-03-14 18:19:55 | Einstein@Home | Not requesting tasks: don't need (CPU: ; NVIDIA GPU: )
J'ai simplement laissé tomber d'utiliser la 1030, même en ne faisant rien depuis que la 1030 est dans le PC j'avais des plantages de l'ordi. Je l'ai donc désinstallée et depuis pas de problème. Je ne sais pas si c'est un problème de pilotes avec la Titan qui a des optimisations spécifiques étant donné que c'est une Titan.