Le Forum de l'Alliance Francophone

Boinc et les projets distribués => Mathématiques => Discussion démarrée par: Aillas le 05 September 2009 à 09:02

Titre: NFS@Home
Posté par: Aillas le 05 September 2009 à 09:02
(http://escatter11.fullerton.edu/nfs/img/NFS_Logo.jpg) (http://escatter11.fullerton.edu/nfs)

Infos Utiles:

Résumé :

     NFS@Home est un projet de recherche pour faire du criblage lattice dans le domaine de la factorisation de grands entiers. A l'école, vous avez gagné votre première expérience en brisant des entiers en facteurs premiers, tels que 15 = 3 * 5 ou 35 = 5 * 7. NFS@Home est une continuation de cette expérience, seulement avec des nombres entiers qui ont des centaines de chiffres. La plupart des dernières grandes factorisations ont été faites principalement par des clusters dans les universités. Avec NFS@Home, vous pouvez vous aussi participer à l'art de la factorisation.

     La factorisation d'entier est intéressante d'une perspective mathématique mais également pratique. Mathématiquement, par exemple, le calcul de fonctions multiplicatives dans la théorie des nombres pour un nombre donné, requiert les facteurs du nombre. De plus, la factorisation de nombres particuliers peut aider dans la preuve qu'un nombre qui leurs est associé est premier. Dans la pratique, beaucoup d'algorithmes à clé publique, incluant l’algorithme RSA, se basent sur le fait que le module public ne peut pas être factorisé. Si c'était le cas, la clé privée pourrait facilement être calculée. Jusqu'à récemment, RSA-512, qui utilise un module de 512bits (155 chiffres), était couramment utilisé mais peut maintenant facilement être déchiffré.

     Les nombres que nous factorisons sont choisis dans le projet Cunningham (http://homes.cerias.purdue.edu/~ssw/cun/index.html). Débuté en 1925, c'est l'un des plus vieux projets encore en cours en théorie des nombres. La troisième édition du livre, publié par the American Mathematical Society en 2002, est disponible en téléchargement gratuit (http://www.ams.org/online_bks/conm22/). Tous les résultats obtenus depuis, ceux de NFS@HOME également, sont disponibles sur le site du projet Cunningham .


Applications CPU :

           Disponible pour Windows (32bits), Linux (32 et 64bits), Mac (32bits et 64bits) et FreeBSD 64 bits.

           Disponible pour Windows (32bits), Linux (32 et 64bits), Mac (32bits et 64bits) et FreeBSD 64 bits.

           Disponible pour Windows (32bits), Linux (32 et 64bits), Mac (32bits et 64bits) et  FreeBSD 64 bits.

*Pour Windows 64bits, des WUs 32bits seront envoyées.

           Disponible actuellement uniquement pour Linux (32 et 64bits) et FreeBSD  64bits.

Crédits par tâches:
lasieved - 36
lasievee - 44
lasievef - 65
lasieve5f - 65

Les calculs les plus importants reçoivent le plus de crédits. Particulièrement pour 16e (lasievef+lasieve5f), les crédits récompensent aussi l'utilisation d'une grande quantité de mémoire.

Les applications utilisées par chaque sous-projets?

lasieved - Oddperfect, n^n+(n+1)^(n+1), Fibonacci, Lucas, Cunningham, Cullen et Woodall pour des difficultés SNFS en dessous de 250.
lasievee - Cunningham, Oddperfect et d'autres pour des difficultés SNFS entre 250 et environ 280.
lasievef - utilisation d'applications de pointes pour des factorisations très difficiles, pour des difficultés SNFS supérieur à 280.
lasieve5f -  utilisation d'applications de pointes pour des factorisations très difficiles, pour des difficultés SNFS supérieur à 280.




Applications GPU :

     La question a été posée sur le forum, l'administrateur a répondu qu'il était potentiellement possible de porter l'application sur GPU, cependant cela n'était pas faisable actuellement sans une recherche plus poussée, donc pour le moment le projet reste uniquement disponible pour CPU.



Dernière Info :

Le 02/06/2012

Citer
64-bit Mac OS X app released
A 64-bit Mac OS X app has been released. It uses less memory and is much faster than the older 32-bit app for Mac. Note that this was built with Xcode 4.0, and requires Mac OS X 10.6 Snow Leopard or greater. It will not run with 10.5 Leopard.

Citer
Application 64-bit Mac OS X disponible
Une application 64-bit Mac OS X est maintenant disponible. Elle utilise moins de mémoire et est bien plus rapide que la vieille version 32-bit de l'application pour Mac. Veuillez noter que cette application a été créée avec Xcode 4.0, et nécessite Mac OS X 10.6 Snow Leopard ou plus récent. Elle ne fonctionnera pas avec 10.5 Leopard.



mise à jour 14 décembre 2012 par cedricdd.
Titre: Re : NFS@Home
Posté par: Netrider le 05 September 2009 à 09:10
Jy suis , merci, j'ai pas de results pour l'instant  :miam:

Edit > fonctionne sous vista 64 B ici
Titre: Re : NFS@Home
Posté par: Aillas le 05 September 2009 à 09:12
Je viens juste de récupérer ma première WU sous Linux. On verra ce que cela donne.
Titre: Re : NFS@Home
Posté par: Dimi [edls] le 05 September 2009 à 09:16
J'espère que il seras pas trop repetitif, que il y aura une vraie simulation ou qu'ils refassent un porshe 2000
  :marcp:

Sinon c'est original comme projet :)

 
Titre: Re : NFS@Home
Posté par: Netrider le 05 September 2009 à 09:40
UOTD  :D :sun:

35 minutes la wu pour 14 points sur un Q9650
Titre: Re : NFS@Home
Posté par: louchio le 05 September 2009 à 13:52
mais dans les faits cela fait quoi comme recherche ce projet
Titre: Re : NFS@Home
Posté par: Aillas le 05 September 2009 à 14:46
Pas trop le temps là. Je vais essayer de retrouver des liens sur le net qui expliqueront mieux que moi.
En gros, ils cherchent à factoriser des nombres entier très grands.

Titre: Re : NFS@Home
Posté par: Netrider le 05 September 2009 à 17:40
Je comprends pas pourquoi sur le site on ne nous vois pas, notre compte est bien présent mais dans les stats du site il ni a que deux personnes, louche  :??:

De plus j'ai trouvé leur forum mais en externe

http://www.mersenneforum.org/showthread.php?p=188690#post188690
Titre: Re : NFS@Home
Posté par: Netrider le 06 September 2009 à 19:02
Bon bein tout fonctionne à présent l'AF y est enregistrée, il ni a plus qu'a venir me tenir compagnie  :/

http://escatter11.fullerton.edu/nfs/index.php

Projet mathématique dans le sillage de PrimGrid

A déplacer donc  :jap:
Titre: Re : NFS@Home
Posté par: xipehuz le 06 September 2009 à 22:03
Une seule UT partie en erreur sur 7 calculées, le projet à l'aire de fonctionner correctement.
Titre: Re : NFS@Home
Posté par: Netrider le 06 September 2009 à 23:26
Nos amis germains sonts arrivés en force sur ce projet, je tiendrait pas longtemps la premiere place de l'AF  :gno:
Titre: Re : NFS@Home
Posté par: Netrider le 08 September 2009 à 13:47
Les stats du projet sont disponibles pour les stastisticiens ennes

J'ai remarqué que quand je crunchait avant de m'accrocher  l'AF mes points d'avant nont pas été injectés dans l'équipe, heu je sait plus ce qu'il en est avec ca, bref ca serait bien de comparer avec les stats SETIBZH

Merci :smak:
/

http://escatter11.fullerton.edu/nfs/stats/
Titre: Re : NFS@Home
Posté par: la frite le 08 September 2009 à 15:06
Salut je viens de calculer qques unités et je suis deja UotD!! :)

Juste une 'tite question si par hasard tu sais: (sinon je posterai sur leur fofo)
en ce moment il essaye de factoriser 5^353+1 et un autre nombre, mais prquoi ces 2 nombres là précisement?? :D
Titre: Re : NFS@Home
Posté par: Netrider le 08 September 2009 à 17:27
j'ai lu un truc en anglais je ne sait plus ou mais je ne l'ai pas traduit et j'ai eut du mal a comprendre la lecture technique dans la langue de schakespire ( Le frangin de britney ?  :lol: ) une premiere vague et en cours de finition et la il passent à la seconde.
Titre: Re : Re : NFS@Home
Posté par: bcoz le 08 September 2009 à 18:50
en ce moment il essaye de factoriser 5^353+1 et un autre nombre, mais prquoi ces 2 nombres là précisement??

Pourquoi précisément ces deux là, je ne sais pas, mais tous les deux sont déjà factorisés et leurs facteurs connus et publiés (dans les tables de Cunningham, dispo sur le net). J'imagine qu'il souhaitait tester une puissance de 2 pas trop grande pour son premier essai, et une puissance de 5 un peu plus costaude pour le deuxième test.
Avec ce genre de nombres, il va déjà y avoir une matrice de plusieurs millions d'éléments à simplifier et résoudre.
Titre: Re : NFS@Home
Posté par: la frite le 08 September 2009 à 20:35
:hello: bcoz :) merci de l'info je n'avais pas pensé que ces deux nombres pouvaient être deja factorisés. J'ai posé la même question sur leur forum, sûrement l'admin me répondra du coup un peu aussi sur l'avenir du projet après ces deux tests. Par contre je sais tjrs pas à quoi cela sert il de factoriser des big numbers. a+
Titre: Re : Re : NFS@Home
Posté par: bcoz le 08 September 2009 à 22:01
:hello: bcoz :) merci de l'info je n'avais pas pensé que ces deux nombres pouvaient être deja factorisés. J'ai posé la même question sur leur forum, sûrement l'admin me répondra du coup un peu aussi sur l'avenir du projet après ces deux tests. Par contre je sais tjrs pas à quoi cela sert il de factoriser des big numbers. a+
Pas évident de répondre à ta question. Il y a un grand intérêt à trouver un algorithme de factorisation de grands entier pour un tas de raisons dont notamment la cryptographie. Etablir des tables de facteurs comme la liste de Cunningham dont je parlais plus haut est probablement moins intéressant en soi, mais un peu comme les listes de grands nombres premiers, ça peut toujours servir, et c'est un moyen de continuer à tester et améliorer les algos.

L'algorithme NFS utilisé par ce projet est le plus efficace connu à ce jour pour des nombres quelconques. Il est assez difficile de l’expliquer simplement. Le descriptif de wikipédia est pas mal, mais assez touffu : http://fr.wikipedia.org/wiki/Crible_g%C3%A9n%C3%A9ral_de_corps_de_nombres_(GNFS) . Le principe de congruence des carrés est plus facilement compréhensible et le principe est en gros le même : http://fr.wikipedia.org/wiki/Crible_quadratique .

L’ordre de grandeur des records de factorisation est très loin des records de nombres premiers. Pour des nombres quelconques je crois que le record est de l’ordre de 200 chiffres (challenge rsa de l’année dernière, il me semble) et de quelques centaines pour des nombres ayant des formes particulières facilitant la factorisation ou avec des indices sur leur construction. Alors que le record actuel de grand nombre premier est de 1 300 000 chiffres, et que l’on trouve presque quotidiennement (notamment avec PrimeGrid) des premiers de quelques centaines de millier de chiffres.

A+

Titre: Re : NFS@Home
Posté par: la frite le 09 September 2009 à 15:49
Super ta réponse! merciii :) j'ai suivi les liens sur wikipédia, légérement compliqué :D mais interessant quand même ;)

Au fait l'admin du projet m'a rép:

Citer
My interest lies in the continued development of open source, publicly available tools for large integer factorization. Over the past couple of years, the capability of open source tools, in particular the lattice sieve of the GGNFS suite and the program msieve, have dramatically improved. My collaborators and I have factored quite a few large numbers using these tools.

Integer factorization is interesting both mathematical and practical perspectives. Mathematically, for instance, the calculation of multiplicative functions in number theory for a particular number require the factors of the number. Likewise, the integer factorization of particular numbers can aid in the proof that an associated number is prime. Practically, many public key algorithms, including the RSA algorithm, rely on the fact that the publicly available modulus cannot be factored. If it is factored, the private key can be easily calculated. Until quite recently, RSA-512, which uses a 512-bit modulus (155 digits), was used. As recently demonstrated by factoring the Texas Instruments calculator keys, these are no longer secure.

For most recent large factorizations, the work has been done primarily by large clusters at universities. There are two other public efforts, NFSNet and MersenneForum, in both of which I have participated, but the software used by NFSNet doesn't incorporate the latest developments and participation in the MersenneForum effort requires manual reservation and submission of work. I have been toying with the idea of trying a BOINC project for a while now to make it easy for the public to participate in state-of-the-art factorizations, and I found the time to do so. My interest in this project is to see how far we can push the envelope and perhaps become competitive with the larger university projects running on clusters, and perhaps even collaborating on a really large factorization.

The numbers are chosen from the Cunningham project. The project is named after Allan Joseph Champneys Cunningham, who published the first version of the factor tables together with Herbert J. Woodall in 1925. This project is one of the oldest continuously ongoing projects in computational number theory, and is currently maintained by Sam Wagstaff at Purdue University. The third edition of the book, published by the American Mathematical Society in 2002, is available as a free download. All results obtained since the publication of the third edition are available on the Cunningham project website.

Concerning target size, I started out somewhat "small" (small meaning that I can do it on our cluster in a few days), but it also took the contributors to this project only a few days as well. For our second project, I chose a target somewhat larger. I will continue to slowly increase the size. The real limit is the memory requirement. The current project requires a bit less than 512 MB of memory. As the size of the target increases, that will also increase somewhat. I will be keeping a close eye on that as we move forward.

J'ai pas trop le tmps de le traduire là, et puis je suis pas sûr que ce soit une grande priorité :D

Hop a+
Titre: Re : NFS@Home
Posté par: bcoz le 09 September 2009 à 17:33
Grilled, je mets quand même ma traduction, un peu plus lisible que la trad automatique  :ange:
Citer
Mon intérêt réside dans le développement d’outils open source et librement disponibles pour la factorisation de grands entiers. Ces dernières années les capacités des outils open source ont augmenté spectaculairement, particulièrement pour le criblage GNFS et le programme msieve. Mes collaborateurs et moi avons factorisé pas mal de grands nombres avec ces outils.

La factorisation d’entiers est intéressante à la fois mathématiquement et pour des raisons pratiques. Mathématiquement, par exemple, le calcul de fonctions multiplicatives en théorie des nombres pour un nombre particulier requière les facteurs de ce nombre. De la même façon la factorisation de certains nombres peut aider à prouver qu’un nombre associé est premier. Pratiquement, beaucoup d’algorithmes à clé publique, y compris RSA, reposent sur le fait que a clé publique ne peut être factorisée. Si elle est factorisée, la clé privée peut être facilement calculée. Jusqu’à récemment, RSA-512 qui utilise une clé de 512 bits (155 chiffres) était utilisé. Comme cela a été démontré par le calcul de la clé des calculettes Texas Instruments, on ne peut plus le considérer sûr.


La plupart des factorisations récentes de grands nombres ont été réalisées par de grands clusters d’universités. Il y a deux autres projets publics, NFSNet et MersenenForum, auxquels j’ai participé, mais NFSNet n’utilise pas les derniers développements et la participation  au projet MersenneForum demande des réservations et soumissions manuelles du travail. Cela fait maintenant un moment que l’idée de faire un projet BOINC me titille, pour rendre facilement accessible au public la participation à un projet de factorisation compétitif. Un des intérêts du projet est de voir jusqu’ou nous pourrons pousser l’enveloppe, et peut-être devenir compétitif avec les grands projets universitaires tournant sur clusters, et peut-être même collaborer sur des factorisations vraiment grandes.

Les nombres sont choisis depuis le Cunningham project. Ce projet est nommé d’après Allan Joseph Champneys Cunningham, qui a publié la première version de la table de facteurs avec Herbert J. Woodall en 1925.  Ce projet est l’un des plus anciens toujours actifs de la théorie des nombres, et est en ce moment maintenu par Sam Wagstaff de l’université de Purdue. La troisième édition de la liste, publiée par l’American Mathematical Society in 2002 est disponible en téléchargement. Tous les résultats obtenus depuis cette publication sont disponibles sur le site du projet.

Concernant la taille des cibles, j’ai commence par quelque chose de relativement “petit” (petit signifiant que je peux le calculer en quelques jours sur notre cluster), mais cela à pris également quelques jours aux contributeurs. Pour notre second test, j’ai choisi une cible notablement plus grande. Je vais continuer à augmenter doucement la taille. La vraie limite est le besoin en mémoire. Le calcul actuel nécessite un peu moins de 512 Mo de mémoire. Au fur et à mesure de l’augmentation de la taille des cibles, le besoin mémoire va continuer à augmenter. Je surveillerai attentivement cela au cours de notre progression.
Titre: Re : NFS@Home
Posté par: jm@rc le 09 September 2009 à 17:54
c'est donc un projet intéressant au niveau des mathématiques mais pour lequel nous aurons besoin d'une quantité de RAM assez importante à terme?
Titre: Re : NFS@Home
Posté par: al@ON le 09 September 2009 à 18:35

Merci bcoz pour toutes tes explications sur ce projet et pour la trad. :jap:... bien essayé Netrider. ;)

Je m'inscrirais à NFS@Home après le RAID. :coffeetime:
Titre: Re : NFS@Home
Posté par: la frite le 09 September 2009 à 20:33
Wouah quel bon boulot merci pour la trad! ;)
Titre: Re : Re : NFS@Home
Posté par: bcoz le 09 September 2009 à 22:53
c'est donc un projet intéressant au niveau des mathématiques mais pour lequel nous aurons besoin d'une quantité de RAM assez importante à terme?
Exactement

A la demande unanime d’un MP, j’essaye une explication encore plus simple :
D’abord l’arithmétique modulaire : Il s’agit de choisir un nombre maximum après lequel tu retournes à zéro. Par exemple si ton maximum est quatre, tu comptera 0,1,2,3,O,1,2,3,.… c’est comme quand tu comptes les heures, arrivé à 23h59, tu retourne à zéro. Le nombre maximum est appelé la base. On dit que l’on compte modulo cette base. Dans mon exemple on compte modulo 4 et on peut écrire des choses comme 3+2=1 modulo 4 (comme trois heures après 22heures, il est 1 heure).

Si la base est bien choisie (il faut que ce soit un nombre premier), toutes les opérations habituelles de l’arithmétique restent valables, et leurs propriétés également (commutativité, associativité, etc…). En fait une arithmétique modulo n permet de constituer un sous ensemble de nombres qui est un modèle réduit de l’ensemble des entiers naturels et qui en partage presque toutes les propriétés. Sous certaines conditions des théorèmes démontrés dans le modèle réduit sont aussi valables dans le « vrai » ensemble des nombres. C’est la raison du succès énorme de cette approche.

Parmi les propriétés intéressantes, il y a la congruence des carrés : si deux carrés sont congruents (c'est-à-dire égaux modulo la base), alors ils ont probablement un facteur commun qui est un diviseur de la base. C’est le principe des cribles quadratiques. On cherche des carrés congruents dans des bases premières grandes, mais plus petites que le nombre à factoriser, puis on applique des méthodes qui permettent par approche successives d’arriver à un diviseur du nombre cible.

Voilà, j’espère que ça éclairera un peu les pas trop matheux.
Titre: Re : Re : Re : NFS@Home
Posté par: al@ON le 09 September 2009 à 23:12
Voilà, j’espère que ça éclairera un peu les pas trop matheux.

Totalement abstrait pour moi... pour ne pas dire abscons. :desole:  :D
Titre: Re : NFS@Home
Posté par: JeromeC le 09 September 2009 à 23:35
Fiouuuu j'ai bien fait d'arrêter les maths après le bac, je serais déjà devenu fou sinon...

Comment ça je suis déjà fou ???  :pt1cable:
Titre: Re : NFS@Home
Posté par: Netrider le 13 September 2009 à 09:46
Flûte kevint est arrivé sur le projet  :o

 NFS cherche un logo pour le projet À vos pinceaux les artistes 
Titre: Re : NFS@Home
Posté par: la frite le 13 September 2009 à 12:51
Au fait ptite info puisque je vois que personne ne l'a encore annoncée: (prems :D)
le premier nombre à factoriser qui était 2^2214+1 a été factorisé! c'est le produit de deux nombres premiers de tailles respectives 87 et 104 chiffres, ça nous fait une belle jambe :D
Au suivant :)
Titre: Re : NFS@Home
Posté par: al@ON le 13 September 2009 à 15:53

(prems :D)

Bien joué la frite. :siflotte:
Titre: Re : Re : NFS@Home
Posté par: JeromeC le 13 September 2009 à 22:11
Au fait ptite info puisque je vois que personne ne l'a encore annoncée: (prems :D)
le premier nombre à factoriser qui était 2^2214+1 a été factorisé! c'est le produit de deux nombres premiers de tailles respectives 87 et 104 chiffres, ça nous fait une belle jambe :D
Au suivant :)
Wé surtout que ça fait une jambe plus longue que l'autre cette affaire :D
Titre: Re : NFS@Home
Posté par: fr@ntz le 20 September 2009 à 21:47
Aïe Aïe Aïe !  :cry:
https://statseb.boinc-af.org/details.py?projet=107

et plusieurs équipes parlent d'en faire leur Potm
http://forums.pcper.com/showthread.php?t=466510
...
Titre: Re : NFS@Home
Posté par: la frite le 24 September 2009 à 12:11
Wouh les unités deviennent un tantinet gourmandes en RAM en ce moment, là je suis à 330 Mo de mémoire par unité  :eek: sur un i7 ça doit faire lourd tout ça...
Titre: Re : NFS@Home
Posté par: samuel debergh le 25 September 2009 à 23:24
jai 2 go ça me bouffe 1.8 lol
Titre: Re : Re : Re : NFS@Home
Posté par: la frite le 04 October 2009 à 11:07
Wé surtout que ça fait une jambe plus longue que l'autre cette affaire :D

Ba pour remettre tes jambes à même longueur j'annonce que le projet a factorisé son 2ème nombre :D
http://escatter11.fullerton.edu/nfs/forum_thread.php?id=17.

Euh en fait non tu auras encore une jambe plus longue que l'autre vu qu'un 3ème nombre a été factorisé :lol:
http://escatter11.fullerton.edu/nfs/forum_thread.php?id=18

Tu es voué à marcher comme le dahu! :siflotte:
Titre: Re : NFS@Home
Posté par: louchio le 08 October 2009 à 13:04
Si vous cherchez sur quoi cruncher pourquoi ne pas tenter NFS. l'AF se fait chauffer les fesses par AMD.  :sodo:
Titre: Re : NFS@Home
Posté par: la frite le 11 October 2009 à 23:03
En plus ça crédite super bien:

avec mon pauvre C2D T7200 à 2Ghz je fais sous ubuntu 64 bits du 2100 points/jour !! :)
Titre: Re : NFS@Home
Posté par: al@ON le 24 October 2009 à 17:43
Citer
16e Lattice Sieve
Oct 22, 2009, 12:30 PDT
Shortly I will begin releasing work for the 16e lattice sieve, lasievef. These workunits will take a bit longer to process and will require up to 1 GB of memory. The BOINC client will process them only if your computer has sufficient memory. You can choose not to process these work units by deselecting the lasievef application in NFS@Home preferences in your account (http://escatter11.fullerton.edu/nfs/home.php). Workunits for the current lasievee application will continue to be available.

En gros, nouvelle série d'UTs (16e Lattice Sieve) utilisant 1 GB de RAM.
Pour les ceux qui ne sont pas suffisamment membrés équipés en mémoire, il faut aller sur son compte > Préférences de NFS@Home et clic sur Edit NFS@Home preferences et à "Run only the selected applications" sélectionner les applis que vous voulez ou pouvez cruncher
Citer
lasieved - rarely used so work is rarely available, only for small numbers
lasievee - work nearly always available, uses up to 0.5 GB memory
lasievef - occasionally used for huge factorizations, uses up to 1 GB memory

Sur mon 3400+ que j' :love: j'en ai calculé 2:

Voili. :p
Titre: Re : NFS@Home
Posté par: [AF>Libristes] Dudumomo le 24 October 2009 à 17:49
 :hello:
Merci al  :jap:

Je précise que si vous n'avez pas assez de ram (Il font donc au minimum 1gb de ram), vous ne receverez pas de ces unités.
Pour ceux qui en ont assez, mais ne souhaite pas faire tourner ces UT, Al@on à très bien expliqué ce qu'il faut faire !
Titre: Re : NFS@Home
Posté par: al@ON le 24 October 2009 à 17:58
 (http://moe.mabul.org/up/moe/2009/05/14/img-1105374fn89.gif) Dudu... pour une fois que je peux placer une info intéressante sans me faire GRILLED. :D


ÉDIT: J'ai oublié de signaler que les 16e Lattice Sieve ont une limite de renvoi (pending) de 7 jours, pour rappel les 15e Lattice Sieve c'est 3,5 jours.
Titre: Re : NFS@Home
Posté par: RLDF le 24 October 2009 à 19:31
quelles coincidences, sur the lattive project, les unités qui tournent actuellement font aussi 1Go en RAM, heureusement que j'ai réglé boinc pour n'utiliser que 50% de la mémoire maximum :)
Titre: Re : NFS@Home
Posté par: fr@ntz le 26 October 2009 à 00:21
J'aime bien quand ils envoient des saumons, moins quand il s'agit de scuds  :/
Il faudrait peut être remettre un peu les gaz pour sauvegarder 1 point FB ?

(https://statseb.boinc-af.org/graphe.py?graph_id=782120f9736db10fcf34b0996a729b11)

 moins de 20000 points supplémentaires de RAC jusqu'à la fin de l'année suffiraient à contenir les vikings
https://statseb.boinc-af.org/simulation_FB.py?projet=107&points=77598&equipe=11&points=89375&equipe=204&duree=72
Titre: Re : NFS@Home
Posté par: Netrider le 26 October 2009 à 05:35
Merci Al@on  :kookoo: je ne comprenait pas pourquoi j'avait un pc qui rammai ... :jap:
Titre: Re : NFS@Home
Posté par: al@ON le 26 October 2009 à 19:04
 (http://moe.mabul.org/up/moe/2009/05/14/img-1105374fn89.gif)... de rien. ;)
Titre: Re : NFS@Home
Posté par: tristesire le 07 November 2009 à 12:27
pour info, chaque unités 15e lattice sieve 1.07 est crédité 24 points, pour 23 minutes environ de calcul sur un q6600.
Titre: Re : NFS@Home
Posté par: NicoX900 le 21 November 2009 à 23:21
On va se faire dépasser sur ce projet
J'ai des ut qui partent en erreur de calcul
Vous aussi?  :??:
Titre: Re : Re : NFS@Home
Posté par: al@ON le 22 November 2009 à 01:10
On va se faire dépasser sur ce projet
J'ai des ut qui partent en erreur de calcul
Vous aussi?  :??:

J'en ai eu 2 sous GNU/Linux 64, des "16e Lattice Sieve 1.07"... sur leur Forum j'ai trouvé ce fil de discussion http://escatter11.fullerton.edu/nfs/forum_thread.php?id=45 (http://escatter11.fullerton.edu/nfs/forum_thread.php?id=45).
Titre: Re : NFS@Home
Posté par: 007sivade le 11 December 2009 à 15:03
je suis aussi sur le projet depuis hier soir et comment vous dire euh....

sur mon PC 6GO de ram j'ai été obliger de limiter a 50% en utilisation parce que j'étais a 98% soit pas moins de 5GO,8 sa commençait a être un peu lent même avec le raptor  :gno:

en limitant a 50% je suis a 59% d'utilisation  :gniak:
merci mon G15 qui m'indique en live l'utilisation de ma mem !  :winner2:


ps il est pas censé être compatible X64 ? je suis par la même occasion pas censé avoir un apli X64 ?

"lasievee_1.07_windows_intelx86" normalement avec boinc 64 et seven 64 il n'y est pas censé avoir écrit X86_64 ou X64 tout court (si l'apli est optimisé pour le 64) 

genre : "milkyway_0.19_windows_x86_64"

??
Titre: Re : Re : NFS@Home
Posté par: al@ON le 11 December 2009 à 20:57
je suis aussi sur le projet depuis hier soir et comment vous dire euh....

sur mon PC 6GO de ram j'ai été obliger de limiter a 50% en utilisation parce que j'étais a 98% soit pas moins de 5GO,8 sa commençait a être un peu lent même avec le raptor  :gno:

en limitant a 50% je suis a 59% d'utilisation  :gniak:
merci mon G15 qui m'indique en live l'utilisation de ma mem !  :winner2:
Aujourd'hui, au taf, suite à des ralentissement sur ma bécane j'ai ouvert le Gestionnaire des tâches et je me suis rendu compte qu'une UT "16e Lattice Sieve" prenait ~720 Mo de RAM :bouh:... j'ai donc sur le champ suspendu ce projet sur le poste de mon voisin pour lui permettre de travailler correctement. :ange:

Dans ton cas je te conseille juste de faire tourner d'autres projets moins gourmants en // et ainsi tu ne seras pas obligé de limiter l'utilisation de BOINC. :hyperbon:


ps il est pas censé être compatible X64 ? je suis par la même occasion pas censé avoir un apli X64 ?

"lasievee_1.07_windows_intelx86" normalement avec boinc 64 et seven 64 il n'y est pas censé avoir écrit X86_64 ou X64 tout court (si l'apli est optimisé pour le 64) 

genre : "milkyway_0.19_windows_x86_64"

??

 (http://moe.mabul.org/up/moe/2009/12/11/img-204600cws9j.png) (http://mabul.org/)
AMHA, il n'y a pas pour ce projet d'applis spécifiques aux CPU 64 bits... je me trompe peut-être. :bhs:
Titre: Re : NFS@Home
Posté par: popolito le 28 December 2009 à 10:33
Mince, j'avais même pas vu les explications de bcoz !!
Merci au passage, c'est intéressant  :)
Titre: Re : NFS@Home
Posté par: popolito le 01 January 2010 à 10:04
J'veux pas m'la raconter, mais c'est la classe quand même !
(http://imagik.fr/thumb/187793.jpeg) (http://imagik.fr/uploads/187793)
Titre: Re : NFS@Home
Posté par: al@ON le 01 January 2010 à 13:29

  :oki:
Titre: Re : NFS@Home
Posté par: Jaehaerys Targaryen le 28 June 2010 à 14:23
très populaire à ce que je vois....

44 points par uts...
Titre: Re : Re : NFS@Home
Posté par: al@ON le 28 June 2010 à 21:58
très populaire à ce que je vois....
17 cruncheurs pour toute L'AF. (http://moe.mabul.org/up/moe/2009/06/17/img-0034554cpyr.gif)

44 points par uts...
Ta bécane
Citer
4,952.42     4,626.52     32.42     44.00     15e Lattice Sieve v1.07
4,713.07    4,377.09    30.67    44.00    15e Lattice Sieve v1.07
5,044.04    4,695.83    32.90    44.00    15e Lattice Sieve v1.07
4,836.05    4,444.70    31.15    44.00    15e Lattice Sieve v1.07
5,486.41    5,032.05    35.26    44.00    15e Lattice Sieve v1.07

Mon 3400+ que j' :love:
Citer
3,900.91     3,524.03     16.03     44.00     15e Lattice Sieve v1.07
3,442.94    3,378.56    15.37    44.00    15e Lattice Sieve v1.07
3,252.10    3,226.94    14.68    44.00    15e Lattice Sieve v1.07
3,684.84    3,628.45    16.51    44.00    15e Lattice Sieve v1.07
3,727.23    3,623.64    16.48    44.00    15e Lattice Sieve v1.07

Mais quel est donc son secret à cette vieille machine. :siflotte:
Titre: Re : NFS@Home
Posté par: Jaehaerys Targaryen le 28 June 2010 à 22:44
n'oublie pas que je suis sous win 7 64 bits
Titre: Re : Re : NFS@Home
Posté par: al@ON le 28 June 2010 à 22:55
n'oublie pas que je suis sous win 7 64 bits

Hélas pour le projet :/... avec ton i7 tu serais sous GNU/Linux 64 bits tu calculerais 2x + d'UTs. :fccpu:
Titre: Re : NFS@Home
Posté par: F5LCU le 28 June 2010 à 23:07
sniff moi nossi w7 64b!
mais bon le portable est en dual boot screu nieu nieu

17 sur 2832 membres actifs  :??:

Pas Dans Les Sommets la participation  :desole:

Titre: Re : Re : Re : NFS@Home
Posté par: Jaehaerys Targaryen le 28 June 2010 à 23:13
Hélas pour le projet :/ ... avec ton i7 tu serais sous GNU/Linux 64 bits tu calculerais 2x + d'UTs. :fccpu:

qu'est ce qui bloque de calculer plus d'uts ?
Titre: Re : Re : NFS@Home
Posté par: al@ON le 28 June 2010 à 23:15
sniff moi nossi w7 64b!
mais bon le portable est en dual boot screu nieu nieu

17 sur 2832 membres actifs  :??:

Pas Dans Les Sommets la participation  :desole:
Un peu comme d'hab... en pire. :D
Titre: Re : NFS@Home
Posté par: louchio le 28 June 2010 à 23:57
Vive le projet de la semaine,

Cest pour cela que j'ai suggeré de mettre un encart style déroulant ou différent sur le projet de la semaine sur le site de l'AF. Et pas seulement le forum dans la section fight. Cela aiderait peut-être.
Titre: Re : NFS@Home
Posté par: MDodier le 29 June 2010 à 02:05
Bonne suggestion Louchio
Titre: Re : NFS@Home
Posté par: lamoule le 29 June 2010 à 08:56
partez pas les amis, je viens vous voir ! :lol:
Titre: Re : NFS@Home
Posté par: fzs600 le 27 August 2010 à 12:32
Cela fait la troisieme en deux jours que nfs se detache tout seul,plus
d'ut en cours plus rien du tout.
je suis obliger de me ratacher au projet a chaque fois.
est-ce quelque chose qui arrive souvent qu'un projet se détache tout seul?  :??:
 
Titre: Re : NFS@Home
Posté par: cedricdd le 08 May 2012 à 19:53
Citer
Help needed to factor Bernoulli(200)!
Barry Mazur and William Stein wish to include the factors of the numerator of the 200th Bernoulli number in their upcoming book, and you can help! This is a large GNFS factorization, but NFS@Home has the ability to sieve it in 2-3 months. Therefore, I am placing 2,1019- on hold for a bit. If you have the memory for it please use the lasievef application help factor B200, and let's complete it as quickly as possible!

Citer
Besoin d'aide pour factoriser Bernoulli(200)!
Barry Mazur (http://www.math.harvard.edu/~mazur/) et William Stein (http://modular.math.washington.edu/) aimeraient inclure les facteurs du numérateur du 200ème nombre de Bernoulli dans leur prochain livre, et vous pouvez aider! Ceci est une énorme factorisation GNFS, mais NFS@Home à la possibilité de le traiter en 2-3 mois. C'est pourquoi je place 2,1019- en attente pour quelque temps. Si vous avez la mémoire nécessaire s'il vous plaît utilisez l'application lasievef (16e Lattice Sieve) pour aider à factoriser B200, finissons le le plus vite possible!
Titre: Re : NFS@Home
Posté par: Jeannot Le Tazon le 08 May 2012 à 22:20
PDLS...ponts...Pentathlon...ponts...
bon, si ça dure 2 à 3 mois je pense faire un petit tour dessus. :hyperbon: :hyperbon: :hyperbon:
Titre: NFS@Home - appli pour Mac 64 bits
Posté par: Jaehaerys Targaryen le 02 June 2012 à 22:03
http://escatter11.fullerton.edu/nfs/forum_thread.php?id=347
Titre: Re : NFS@Home - appli pour Mac 64 bits
Posté par: Prof le 03 June 2012 à 11:16
http://escatter11.fullerton.edu/nfs/forum_thread.php?id=347

Cool!! Excellente nouvelle!! :bounce: :bounce:

Merci Polynésia pour le lien! :jap:
Titre: Re : NFS@Home
Posté par: fzs600 le 21 July 2012 à 07:59
 :hello:

64-bit application publié FreeBSD
http://escatter11.fullerton.edu/nfs/forum_thread.php?id=360#938 (http://escatter11.fullerton.edu/nfs/forum_thread.php?id=360#938)
Titre: Re : NFS@Home
Posté par: JeromeC le 22 July 2012 à 11:36
Pointu.
Titre: Re : NFS@Home
Posté par: Dilandau le 11 December 2012 à 18:52
Un petit run de 7 jours par equipe est en cours !
http://escatter11.fullerton.edu/nfs/forum_thread.php?id=397
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 14 December 2012 à 18:02
The goal of NFS@Home is to factor large numbers using the Number Field Sieve algorithm. After setting up two polynomials and various parameters, the project participants "sieve" the polynomials to find values of two variables, called "relations," such that the values of both polynomials are completely factored. Each workunit finds a small number of relations and returns them. Once these are returned, the relations are combined together into one large file then start the "postprocessing." The postprocessing involves combining primes from the relations to eliminate as many as possible, constructing a matrix from those remaining, solving this matrix, then performing square roots of the products of the relations indicated by the solutions to the matrix. The end result is the factors of the number.

NFS@Home is interested in the continued development of open source, publicly available tools for large integer factorization. Over the past couple of years, the capability of open source tools, in particular the lattice sieve of the GGNFS suite and the program msieve, have dramatically improved.

Integer factorization is interesting both mathematical and practical perspectives. Mathematically, for instance, the calculation of multiplicative functions in number theory for a particular number require the factors of the number. Likewise, the integer factorization of particular numbers can aid in the proof that an associated number is prime. Practically, many public key algorithms, including the RSA algorithm, rely on the fact that the publicly available modulus cannot be factored. If it is factored, the private key can be easily calculated. Until quite recently, RSA-512, which uses a 512-bit modulus (155 digits), was used. As recently demonstrated by factoring the Texas Instruments calculator keys, these are no longer secure.

NFS@Home BOINC project makes it easy for the public to participate in state-of-the-art factorizations. The project interests is to see how far we can push the envelope and perhaps become competitive with the larger university projects running on clusters, and perhaps even collaborating on a really large factorization.

The numbers are chosen from the Cunningham project (http://homes.cerias.purdue.edu/~ssw/cun/index.html). The project is named after Allan Joseph Champneys Cunningham, who published the first version of the factor tables together with Herbert J. Woodall in 1925. This project is one of the oldest continuously ongoing projects in computational number theory, and is currently maintained by Sam Wagstaff at Purdue University. The third edition of the book, published by the American Mathematical Society in 2002, is available as a free download (http://www.ams.org/samplings/math-history/math-history). All results obtained since the publication of the third edition are available on the Cunningham project website.

Concerning target size there are four sievers applications available (http://escatter11.fullerton.edu/nfs/prefs.php?subset=project:): (http://escatter11.fullerton.edu/nfs/prefs.php?subset=project:):)

lasieved - app for RSALS subproject, uses less than 0.5 GB memory: yes or no
lasievee - work nearly always available, uses up to 0.5 GB memory: yes or no
lasievef - used for huge factorizations, uses up to 1 GB memory: yes or no
lasieve5f - used for huge factorizations, uses up to 1 GB memory: yes or no

How's the credit distributed per target wu?

lasieved - 36
lasievee - 44
lasievef - 65
lasieve5f - 65

Why the difference in credits?

The more valuable calculation gets more credit. Especially for 16e (lasievef+lasieve5f), the extra credit also awards for the large memory usage.

What project uses what application?

lasieved - Oddperfect, n^n+(n+1)^(n+1), Fibonacci, Lucas, Cunningham, Cullen and Woodall for SNFS difficulty below 250.
lasievee - Cunningham, Oddperfect or other for SNFS difficulty above 250 to ~280.
lasievef - push the state of art for very difficulty factorizations, above SNFS difficulty of 280
lasieve5f - push the state of art for very difficulty factorizations, above SNFS difficulty of 280

The limits depends upon the boundaries chosen for the poly and characteristics of the number being factored. It's advanced math related.

For a (much) more technical description of the NFS, see the Wikipedia article (http://en.wikipedia.org/wiki/Number_field_sieve) or Briggs' Master's thesis (http://scholar.lib.vt.edu/theses/available/etd-32298-93111/unrestricted/etd.pdf).
Titre: Number Field Sieve (NFS) References
Posté par: Carlos Pinho le 14 December 2012 à 18:03
From msieve readme.txt file:

Citer
Matthew Briggs' 'An Introduction to the Number Field Sieve' is
a very good introduction; it's heavier than C&P in places
and lighter in others

Michael Case's 'A Beginner's Guide to the General Number Field
Sieve' has more detail all around and starts to deal with
advanced stuff

Per Leslie Jensen's thesis 'Integer Factorization' has a lot of
introductory detail on NFS that other references lack

Peter Stevenhagen's "The Number Field Sieve" is a whirlwind
introduction the algorithm

Steven Byrnes' "The Number Field Sieve" is a good simplified
introduction as well.

Lenstra, Lenstra, Manasse and Pollard's paper 'The Number Field
Sieve' is nice for historical interest

'Factoring Estimates for a 1024-bit RSA Modulus' should be required
reading for anybody who thinks it would be a fun and easy project to
break a commercial RSA key.

'On the Security of 1024-bit RSA and 160-bit Elliptic Curve
Cryptography' is a 2010-era update to the previous paper

Brian Murphy's thesis, 'Polynomial Selection for the Number Field
Sieve Algorithm', is simply awesome. It goes into excruciating
detail on a very undocumented subject.

Thorsten Kleinjung's 'On Polynomial Selection for the General Number
Field Sieve' explains in detail a number of improvements to
NFS polynomial selection developed since Murphy's thesis.

Kleinjung's latest algorithmic ideas on NFS polynomial selection
are documented at the 2008 CADO Factoring Workshop:
http://cado.gforge.inria.fr/workshop/abstracts.html (http://cado.gforge.inria.fr/workshop/abstracts.html)

Jason Gower's 'Rotations and Translations of Number Field Sieve
Polynomials' describes some very promising improvements to the
polynomial generation process. As far as I know, nobody has actually
implemented them.

D.J. Bernstein has two papers in press and several slides on
some improvements to the polynomial selection process, that I'm
just dying to implement.

Aoki and Ueda's 'Sieving Using Bucket Sort' described the kind of
memory optimizations that a modern siever must have in order to
be fast

Dodson and Lenstra's 'NFS with Four Large Primes: An Explosive
Experiment' is the first realization that maybe people should
be using two large primes per side in NFS after all

Franke and Kleinjung's 'Continued Fractions and Lattice Sieving' is
the only modern reference available on techniques used in a high-
performance lattice siever.

Bob Silverman's 'Optimal Parametrization of SNFS' has lots of detail on
parameter selection and implementation details for building a line
siever

Ekkelkamp's 'On the amount of Sieving in Factorization Methods'
goes into a lot of detail on simulating NFS postprocessing

Cavallar's 'Strategies in Filtering in the Number Field Sieve'
is really the only documentation on NFS postprocessing

My talk 'A Self-Tuning Filtering Implementation for the Number
Field Sieve' describes research that went into Msieve's filtering code.

Denny and Muller's extended abstract 'On the Reduction of Composed
Relations from the Number Field Sieve' is an early attempt at NFS
filtering that's been almost forgotten by now, but their techniques
can work on top of ordinary NFS filtering

Montgomery's 'Square Roots of Products of Algebraic Numbers' describes
the standard algorithm for the NFS square root phase

Nguyen's 'A Montgomery-Like Square Root for the Number Field Sieve'
is also standard stuff for this subject; I haven't read this or the
previous paper in great detail, but that's because the convetional
NFS square root algorithm is still a complete mystery to me

David Yun's 'Algebraic Algorithms Using P-adic Constructions' provided
a lot of useful theoretical insight into the math underlying the
simplex brute-force NFS square root algorithm that msieve uses


Decio Luiz Gazzoni Filho adds:

The collection of papers `The Development of the Number Field
Sieve' (Springer Lecture Notes In Mathematics 1554) should be
absolutely required reading -- unfortunately it's very hard to get
ahold of. It's always marked `special order' at Amazon.com, and I
figured I shouldn't even try to order as they'd get back to me in a
couple of weeks saying the book wasn't available. I was very lucky to
find a copy available one day, which I promptly ordered. Again, I
cannot recommend this book enough; I had read lots of literature on
NFS but the first time I `got' it was after reading the papers here.
Modern expositions of NFS only show the algorithm as its currently
implemented, and at times certain things are far from obvious. Now
this book, being a historical account of NFS, shows how it progressed
starting from John Pollard's initial work on SNFS, and things that
looked out of place start to make sense. It's particularly
enlightening to understand the initial formulation of SNFS, without
the use of character columns.
[NOTE: this has been reprinted and is available from bn.com, at least   -JP]

As usual, a very algebraic and deep exposition can be found in Henri
Cohen's book `A Course In Computational Algebraic Number Theory'.
Certainly not for the faint of heart though. It's quite dated as
well, e.g. the SNFS section is based on the `old' (without character
columns) SNFS, but explores a lot of the underlying algebra.

In order to comprehend NFS, lots of background on algebra and
algebraic number theory is necessary. I found a nice little
introductory book on algebraic number theory, `The Theory of
Algebraic Numbers' by Harry Pollard and Harold Diamond. It's an old
book, not contaminated by the excess of abstraction found on modern
books. It helped me a lot to get a grasp on the algebraic concepts.
Cohen's book is hard on the novice but surprisingly useful as one
advances on the subject, and the algorithmic touches certainly help.

As for papers: `Solving Sparse Linear Equations Over Finite Fields'
by Douglas Wiedemann presents an alternate method for the matrix
step. Block Lanczos is probably better, but perhaps Wiedemann's
method has some use, e.g. to develop an embarassingly parallel
algorithm for linear algebra (which, in my opinion, is the current
holy grail of NFS research).
Titre: Factoring an integer using NFS - from msieve readme.nfs file Part 1
Posté par: Carlos Pinho le 14 December 2012 à 18:04
Factoring an integer using NFS has 3 main steps:

1. Select Polynomial
2. Collect Relations via Sieving (NFS@Home is dedicated to this step)
3. Combine Relations


1. Polynomial Selection


Step 1 of NFS involves choosing a polynomial-pair (customarily shortened to 'a polynomial') to use in the other NFS phases. The polynomial is completely specific to the number you need factored, and there is an  effectively infinite supply of polynomials that will work. The quality of the polynomial you select has a dramatic effect on the sieving time; a *good* polynomial can make the sieving proceed two or three times faster compared to an average polynomial. So you really want a *good* polynomial, and for large problems should be prepared to spend a fair amount of time looking for one.

Just how long is too long, and exactly how you should look for good polynomials, is currently an active research area. The approximate consensus is that you should spend maybe 3-5% of the anticipated sieving time looking for a good polynomial.

We measure the goodness of a polynomial primarily by its Murphy E score; this is the probability, averaged across all the  possible relations we could encounter during the sieving, that an 'average' relation will be useful for us. This is usually a very small number, and the E score to expect goes down as the number to be factored becomes larger. A larger E score is better.

Besides the E score, the other customary measure of polynomial goodness is the 'alpha score', an approximate measure of how much of an average relation is easily 'divided out' by dividing by small primes. The E score computation requires that we know the approximate alpha value, but alpha is also of independent interest. Good alpha values are negative, and negative alpha with large abo****e value is better. Both E and alpha were first  formalized in Murphy's wonderful dissertation on NFS polynomial selection.

With that in mind, here's an example polynomial for a 100-digit input of no great significance:

R0: -2000270008852372562401653
R1:  67637130392687
A0: -315744766385259600878935362160
A1:  76498885560536911440526
A2:  19154618876851185
A3: -953396814
A4:  180
skew 7872388.07, size 9.334881e-014, alpha -5.410475, combined = 1.161232e-008

As mentioned, this 'polynomial' is actually a pair of polynomials, the Rational polynomial R1 * x + R0 and the 4-th degree Algebraic polynomial

   A4 * x^4 + A3 * x^3 + A2 * x^2 + A1 * x + A0

The algebraic polynomial is of degree 4, 5, or 6 depending on the size of the input. The 'combined' score is the Murphy E value for this polynomial, and is pretty good in this case. The other thing to note about this polynomial-pair is that the leading algebraic coefficient is very small, and each other coefficient looks like it's a fixed factor larger than the next higher- degree coefficient. That's because the algebraic polynomial expects the sieving region to be 'skewed' by a factor equal to the reported skew above.
The polynomial selection determined that the 'average size' of relations drawn from the sieving region is smallest when the region is 'short and wide' by a factor given by the skew. The big advantage to skewing the  polynomial is that it allows the low-order algebraic coefficients to be large, which in turn allows choosing them to optimize the alpha value. The modern algorithms for selecting NFS polynomials are optimized to work when the skew is very large.

NFS polynomial selection is divided into two stages. Stage 1 chooses the leading algebraic coefficient and tries to find the two rational polynomial coefficients so that the top three algebraic coefficients are small. Because stage 1 doesn't try to find the entire algebraic polynomial, it can use powerful sieving techniques to speed up this portion of the search. When stage 1 finds a 'hit', composed of the rational and the leading algebraic polynomial coefficient, Stage 2 then finds the complete polynomial pair and tries to optimize both the alpha and E values. A single stage 1 hit can generate many complete polynomials in stage 2. You can think of stage 1 as a very compute-intensive net that tries to drag in something good, and stage 2 as a shorter but still compute-intensive process that tries to polish things.
Titre: part 2
Posté par: Carlos Pinho le 14 December 2012 à 18:04
Factoring an integer using NFS has 3 main steps:

1. Select Polynomial
2. Collect Relations via Sieving (NFS@Home is dedicated to this step)
3. Combine Relations


2. Sieving for Relations

The sieving step is not the theoretically most complex part of the algorithm of factorization, but it is the most time consuming part because it iterates over a large domain with some expensive calculations like division and modulo, although some of these can be avoided by using logarithms.
In general optimization of the sieving step will give the biggest reduction in actual running time of the algorithm. It is easy to use a large amount of memory in this step, and one should be aware of this and try to reuse arrays and use the smallest possible data types. The factor bases can for record factorizations contain millions of elements, so one should try to obtain the best on-disk/in-memory tradeoff.

The purpose of the sieving step is to find usable relations, i.e. elements (a, b) with the following properties
• gcd(a, b) = 1
• a + bm is smooth over the rational factor base
• b^deg(f)*f(a/b) is smooth over the algebraic factor base

Finding elements with these properties can be done by various sieving methods like the classical line sieving or the faster lattice sieving, the latter being used at NFS@Home.

The lattice sieving was proposed by John Pollard in "Lattice sieving, Lecture Notes in Mathematics 1554 (1991), 43–49.". The factor bases are split into smaller sets and then the elements which are divisible by a large prime q are sieved. The sizes of the factor bases have to be determined empirically, and are dependent on the precision of the sieving code, if all smooth elements are found or if one skips some by using special-q methods.

One advantage the lattice siever has is the following. The yield rate for the line siever decreases over time because the norms get bigger as the sieve region moves away from the origin. The lattice siever brings the sieve region "back to the origin" when special-q's are changed. This might be its biggest advantage (if there is one).

3. Combine Relations

The last phase of NFS factorization is a group of tasks collectively referred to as 'NFS postprocessing'. You need the factor base file described in the sieving section (only the polynomial is needed, not the actual factor base entries), and all of the relations from the sieving. If you have performed sieving in multiple steps or on multiple machines, all of the relations that have been produced need to be combined into a single giant file. And by giant I mean *really big*; the largest NFS jobs that I know about currently have involved relation files up to 100GB in size.
Even a fairly small 100-digit factorization generates perhaps 500MB of disk files, so you are well advised to allow plenty of space for relations. Don't like having to deal with piling together thousands of files into one? Sorry, but disk space is cheap now.

With the factor base and relation data file available, is is time to perform NFS postprocessing.However, for larger jobs or for any job where data has to be moved from machine to machine, it is probably necessary to divide the postprocessing into its three fundamental tasks. These are described below:

NFS Filtering
-------------

The first phase of NFS postprocessing is the filtering step. This analyzes the input relation file, sets up the rest of the filtering to ignore relations  that will not be useful (usually 90% of them or more), and produces  a 'cycle file' that describes the huge matrix to be used in the next  postprocessing stage.

To do that, every relation is assigned a unique number, corresponding to its line number in the relation file. Relations are numbered starting from zero, and part of the filtering also adds 'free relations' to the dataset. Free relations are so-called because it does not require any sieving to find them; these are a unique feature of the number field sieve, although there will never be very many of them. Filtering is a very complex process. If you do not have enough relations for filtering to succeed, no output  is produced other than complaints to that effect. If there are 'enough'  relations for filtering to succeed, the result is a 'cycle file'.

How many relations is 'enough'? This is unfortunately another hard question, and answering it requires either compiling large tables of factorizations of similar size numbers, running the filtering over and over again, or  performing simulations after a little test-sieving. There's no harm in  finding more relations than you strictly need for filtering to work at  all, although if you mess up and find twice as many relations as you need  then getting the filtering to work can also be difficult. In general the  filtering works better if you give it somewhat more relations than it stricly needs, maybe 10% more. As more and more relations are added, the size of the generated matrix becomes smaller and smaller, partly because the filtering can throw away more and more relations to keep only the 'best' ones.

NFS Linear Algebra
------------------

The linear algebra step constructs the matrix that was generated from the filtering, and finds a group of vectors that lie in the nullspace of that matrix. Finding nullspace vectors for a really big matrix is an enormous amount of work. To do the job, Msieve uses the block Lanczos algorithm with a large number of performance optimizations. Even with fast code like that, solving the matrix can take anywhere from a few minutes (factoring a 100-digit input leads to a matrix of size ~200000) to several months  (using the special number field sieve on 280-digit numbers from the  Cunningham Project usually leads to matrices of size ~18 million). Even worse, the answer has to be *exactly* correct all the way through; there's no throwing away intermediate results that are bad, like the other NFS phases can do. So solving a big matrix is a severe test of both your computer and your patience.

Multithreaded Linear Algebra
----------------------------

The linear algebra is fully multithread aware. Note that the solver is primarily memory bound, and using as many threads as you have cores on your multicore processor will probably not give the best performance. The best number of threads to use depends on the underlying machine; more recent processors have much more powerful memory controllers and can continue speeding up as more and more threads are used. A good rule of thumb to start off is to try two threads for each physical package on your motherboard; even if it's not the fastest choice, just two or four threads gets the vast majority of the potential speedup for the vast majority of machines.

Finally, note that the matrix solver is a 'tightly parallel' computation, which means if you give it four threads then the machine those four threads run on must be mostly idle otherwise. The linear algebra will soak up most of the memory bandwidth your machine has, so if you divert any of it away to something else then the completion time for the linear algebra will suffer.

As for memory use, solving the matrix for a 512-bit input is going to  require around 2GB of memory in the solver, and a fast modern processor running  the solver with four threads will need about 36 hours. A slow, less modern processor that is busy with other stuff could take up to a week!

NFS Square Root
---------------

With the solution file from the linear algebra in hand, the last phase of  NFS postprocessing is the square root.
'an NFS square root' is actually two square roots, an easy one over the integers and a very complex one over the algebraic number field described by the NFS polynomial we selected. Traditionally, the best algorithm for the algebraic part of the NFS square root is the one described by Montgomery and Nguyen, but that takes some quite sophisticated algebraic number theory smarts.
Every solution generated by the linear algebra is called 'a dependency', because it is a linearly dependent vector for the matrix we built.
The square root in Msieve proceeds one dependency at a time; it requires all the relations from the data file, the cycle file from the filtering, and the dependency file from the linear algebra. Technically the square root can be speed up if you process multiple dependencies in parallel, but doing one at a time makes it possible to adapt the precision of the numbers used to save a great deal of memory toward the end of each dependency.
Each dependency has a 50% chance of finding a nontrivial factorization of the input.

msieve is the client used for post-processing phase
Titre: NFS@Home Project Goals
Posté par: Carlos Pinho le 14 December 2012 à 18:05
Factoring an integer using NFS has 3 main steps:

1. Select Polynomial

External to NFS@Home project. If number is GNFS then polynomial search is necessary using GPU or CPU.

2. Collect Relations via Sieving

Made via NFS@Home, only CPU sievers available.

3. Combine Relations

Done by NFS@Home in part, the relations obtained by sieving effort are stored on NFS@Home server. The post-processing phase is done or by external members or in clusters to take advantage of Multithreaded Linear Algebra phase. The latter can be done by using msieve MPI.
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 14 December 2012 à 18:06
Hi there! Sorry for posting in English.

I think with my five previously post you can get to know very well what NFS@Home does.
Now to the challenge numbers and figures:

To get the most credits you should run the 16e (lasievef) or 16e V5 (lasieve5f) applications. These applications are sieving a number called 2,1037-. For linux users with more than 1.2GB per thread set

lasieved - app for RSALS subproject, uses less than 0.5 GB memory: no
lasievee - work nearly always available, uses up to 0.5 GB memory: no
lasievef - used for huge factorizations, uses up to 1 GB memory: no
lasieve5f - used for huge factorizations, uses up to 1 GB memory: yes

in "http://escatter11.fullerton.edu/nfs/prefs.php?subset=project".

For windows users set "yes" instead or "no" for "lasievef". 1.35 GB per thread is needed to run "lasievef" application. If you don't have it chose lasievee or lasieved application. lasieve5f is not available for windows OS.

In terms of points per application the situation is like this:

lasieved - 36 points per wu
lasievee - 44 points per wu
lasievef - 65 points per wu
lasieve5f - 65 points per wu

In global settings at "http://escatter11.fullerton.edu/nfs/prefs.php?subset=global" set

Swap space: use at most:  98% of total
Memory: when computer is in use, use at most: 100% of total
Memory: when computer is not in use, use at most: 100% of total


Carlos Pinho

PS( Windows users with more than 2GB/thread of memory with Ubuntu x64 installed under Virtual Box will get the most of it instead of only running NFS@Home under Windows environment)
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 14 December 2012 à 18:07
Any doubts please ask me.
Thank you for the cores added to the challenge but I was hoping for more from L'Alliance Francophone.  Let's try to finish 2,1037- sieve until the end of the year.

Best regards,

Carlos Pinho
(Post-processing helper of NFS@Home Boinc Project)

Edit: Anyway, those long five posts have important information. The BOINC client is only doing the second stage of the factoring process. After BOINC sieves 2,1037- integer the wu's are gathered in a file called relations. This file is then put on big cluster with a university granted to be processed in parallel. Can't be via BOINC. I'm talking about being processed on a 512 core cluster during 15 days in a row.
Titre: Re : NFS@Home
Posté par: cedricdd le 14 December 2012 à 18:26
I'm gonna be honest with you, the challenge wasn't even announced here, the team is automatically added by BOINCStat to all the challenge. December is really one of the worst time of the year for us to do challenges, we are more or less all crunching to win the FB http://formula-boinc.org/, if some cores were added to NFS@home it was to win some places on NFS@home for the FB.

Je vais être honnête avec vous, le challenge n'a même pas été annoncé ici, l'équipe est automatiquement ajouté par BOINCStat  sur tous les challenges. Décembre est une des pires période de l'année pour nous pour participer à des challenges, la majorité d'entre nous calcule pour gagner le FB  http://formula-boinc.org/, si des cœurs ont été ajouté à NFS@home c'était pour gagner des places sur NFS@home pour le FB.
Titre: Re : NFS@Home
Posté par: bernardP le 14 December 2012 à 18:36
Ben dites donc, il en raconte des trucs, lui. Devait être sevré depuis un moment...
 :heink: :marcp:
Titre: Re : Re : NFS@Home
Posté par: Carlos Pinho le 14 December 2012 à 18:53
I'm gonna be honest with you, the challenge wasn't even announced here, the team is automatically added by BOINCStat to all the challenge. December is really one of the worst time of the year for us to do challenges, we are more or less all crunching to win the FB http://formula-boinc.org/, if some cores were added to NFS@home it was to win some places on NFS@home for the FB.

Je vais être honnête avec vous, le challenge n'a même pas été annoncé ici, l'équipe est automatiquement ajouté par BOINCStat  sur tous les challenges. Décembre est une des pires période de l'année pour nous pour participer à des challenges, la majorité d'entre nous calcule pour gagner le FB  http://formula-boinc.org/, si des cœurs ont été ajouté à NFS@home c'était pour gagner des places sur NFS@home pour le FB.

I'm a member of team SETI.USA and we don't care about http://formula-boinc.org/. I think our position is a consequence of the random crunch we do.

Carlos
Titre: Re : Re : Re : NFS@Home
Posté par: cedricdd le 14 December 2012 à 18:55
I'm a member of team SETI.USA and we don't care about http://formula-boinc.org/. I think our position is a consequence of the random crunch we do.

Carlos

Well, we care.
Titre: Re : Re : Re : Re : NFS@Home
Posté par: Carlos Pinho le 14 December 2012 à 19:00
Well, we care.

Good luck for the final days. Hope you manage to stay in first place.
Back to the topic, any doubts about NFS@Home please ask and I'll try to answer.
Titre: Re : NFS@Home
Posté par: JeromeC le 15 December 2012 à 18:11
Anyway thanks for all the information, it'll take some time to translate and digest everything :)
Titre: Re : Re : NFS@Home
Posté par: Carlos Pinho le 15 December 2012 à 21:02
Anyway thanks for all the information, it'll take some time to translate and digest everything :)

Any doubt on the translation I can help a bit.
Keep the cores running!
Titre: Re : NFS@Home
Posté par: mcroger le 15 December 2012 à 22:53
Thanks Carlos !

One question though : cannot be large factorization calculations be parallelized for GPGPU ?

This is what is currently done with GPGPU key cracking machines, so why does not NFS work that way ?

Pretty sure that this question has already been raised, but I'd be glad to hear your opinion ! :)

----------------------------------------------

Traduction

Merci Carlos !

Une question par contre: des grands calculs de factorisation ne peuvent-ils être parallélisés en GPU ?
C'est ce qui est actuellement fait avec des machines pour du craquage de clés, alors pourquoi NFS suit-il pas cette voie ?

Je suis assez sûr que cette question a déjà été posée, mais j'aimerais avoir ton opinion à ce propos ? :)
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 16 December 2012 à 02:03
Polynomial stage is already done via GPU for GNFS integers.
For sieving, quadratic sieving, you can find a lot of papers regarding the attempt to run it on a GPU. You can read this master thesis: http://www.cs.bath.ac.uk/~mdv/courses/CM30082/projects.bho/2009-10/Archer-C-dissertation-2009-10.pdf
For lattice sieving, the one used at NFS@Home, I think there's memory issues I can't understand because I don't know CUDA nor OpenCL coding. A thread was started a few years ago in here: http://www.mersenneforum.org/showthread.php?t=12566.

I personally think that the code is so hard that no one manages or have time to port it to GPU application. I will dig more about this issue and post progress here.

Carlos
Titre: 2,1037- sieve (16e and 16e V5 applications)
Posté par: Carlos Pinho le 17 December 2012 à 10:55
Last 16e Lattice Sieve application wu received is at ~q=782.000M.
Last 16e Lattice Sieve V5 application wu received is at ~q=959.000M (second chunck restarted at 950M going to 1,000M: meaning going backwards from 1,000M until meet 16e in the middle).
Last 16e Lattice Sieve V5 application already sent all wu's from 1,000M to 1,400M (first chunk).

Overall Q range sieve of 2,1027- started at 20M to 1,400M.

Q range situation is this:
20M-782M (sent through 16e application, remaining wu's close to be done)
782M-950M (unsent)
950M-959M (sent, remaining wu's close to be done)
959M-1000M (unsent, will be sent through 16e V5 application)
1000M-1400M (sent through 16e V5 application, remaining wu's close to be done)

Second part of the challenge will start tomorrow, and about 2,1037- sieve, we still have about ~209k wu's left to be crunched, ~113k already created, ~46k in progress. If people can leave their machines for the Second Part of the challenge would be great because I think with the current rate all 2,1037- wu's will be sent to people to crunch.
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 18 December 2012 à 12:27
Second part of the challenge is underway at http://boincstats.com/en/stats/challenge/team/chat/285.

2,1037- figures:

Last 16e Lattice Sieve application wu received is at ~q=801M.
Last 16e Lattice Sieve V5 application wu received is at ~q=970M (second chunk restarted at 950M going to 1,000M: meaning going backwards from 1,000M until meet 16e in the middle).
Last 16e Lattice Sieve V5 application already sent all wu's from 1,000M to 1,400M (first chunk).

Overall Q range sieve of 2,1037- started at 20M to 1,400M.

Q range situation is this:
20M-801M (sent through 16e application, remaining wu's close to be done)
801M-950M (unsent)
950M-970M (sent, remaining wu's close to be done)
970M-1000M (unsent, will be sent through 16e V5 application)
1000M-1400M (sent through 16e V5 application, remaining wu's close to be done)

In terms of work still to be done we are talking about ~179k wu's left to be crunched, ~82k already created, ~46k in progress.

Considering my machine (core i5 750 with cache set to 200, 180 wu's daily done) the leading edge of the undone wu's to the finish ones is about 11M without taking into consideration the repetitive wu's that probably are in there mixed.
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 19 December 2012 à 23:44
Thank you for the cores, keep them busy!

Carlos Pinho
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 20 December 2012 à 09:50
Last 16e Lattice Sieve application wu received is at ~q=837M.
Last 16e Lattice Sieve V5 application wu received is at ~q=991M (second chunk restarted at 950M going to 1,000M: meaning going backwards from 1,000M until meet 16e in the middle).
Last 16e Lattice Sieve V5 application already sent all wu's from 1,000M to 1,400M (first chunk).

Overall Q range sieve of 2,1037- started at 20M to 1,400M.

Q range situation is this:
20M-837M (sent through 16e application, remaining wu's close to be done)
837M-950M (unsent)
950M-991M (sent, remaining wu's close to be done)
991M-1000M (unsent, will be sent through 16e V5 application)
1000M-1400M (sent through 16e V5 application, remaining wu's close to be done)
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 21 December 2012 à 08:15
Last 16e Lattice Sieve application wu received is at ~q=849M.
Last 16e Lattice Sieve V5 application wu received is at ~q=932M (third chunk restarted at 30M going to 950M: meaning going backwards from 1,000M until meet 16e in the middle).
Last 16e Lattice Sieve V5 application already sent all wu's from 950M to 1,400M.

Overall Q range sieve of 2,1037- started at 20M to 1,400M.

Q range situation is this:
20M-849M (sent through 16e application, remaining wu's close to be done)
849M-930M (unsent)
930M-932M (sent, remaining wu's close to be done)
932M-950M (unsent)
950M-1400M (sent through 16e V5 application, remaining wu's close to be done)

Lot's of aborted wu's being done on the range below 800M.

If you are only running lasieve5f application please consider also checking lasievef application. Linux users will run both, windows users only lasievef.
NFS@Home is hitting a moment where the two q regions sieved separately by 16e and 16 V5 are going to collide so it is better for linux users to check both applications. I already did and also because let's a lot of aborted wu's below 800M to be done. So I am going to run a mix of the two.
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 24 December 2012 à 12:41
Last 16e Lattice Sieve application wu received is at ~q=921M.
16e Lattice Sieve V5 application already sent all wu's from 930M to 1,400M.

Overall Q range sieve of 2,1037- started at 20M to 1,400M.

Q range situation is this:
20M-921M (sent through 16e application, remaining wu's close to be done)
921M-930M (unsent through 16e application)
930M-1400M (sent through 16e V5 application, remaining wu's close to be done)

16e V5 application started another number (2,1049+) from q=1000M because all wu's for 2,1037- have been distributed. Only missing the left overs wu's. Also I only gave order to my CPU to do the 16e Lattice Sieve wu's instead of both 16 and 16e V5 applications respectively.

In conclusion, 2,1037- will be completely sieved by the end of the year.

Carlos Pinho
Titre: Re : NFS@Home
Posté par: JeromeC le 24 December 2012 à 13:39
On peut pas dire qu'on manque d'information sur NFS ! :)

Merci Carlos :jap:
Titre: Re : NFS@Home
Posté par: Dilandau le 25 December 2012 à 00:08
L'AF termine encore 2ème pour le challenge #2 de décembre ;)
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 26 December 2012 à 04:37
Status of 2,1037-:

20948 wu's left to be crunched by applications 16e and 16 e V5 to finally close the 2,1037- sieve.

Status of 2,1049+:


Last 16e Lattice Sieve application wu received is at ~q=23M (goal to 1000M)
Last 16e Lattice Sieve V5 application wu received is at ~q=1046M (started at 1000M, goal to unknown, then backwards from 1000M until meet 16e in the middle)
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 02 January 2013 à 16:03
Soon I'll post the status of 2,1037-. Post-processing phase started.

About 2,1049+ NFS@Home sieve:

Last 16e Lattice Sieve application wu received is at ~q=129M (goal to 1000M)
Last 16e Lattice Sieve V5 application wu received is at ~q=1095M (goal to unknown, then backwards from 1000M until meet 16e in the middle)

From now on I'll update weekly.

Carlos
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 25 January 2013 à 12:04
For 2,1037-:

The LA has started.

matrix is 67008555 x 67008732 (29495.3 MB) with weight 8405533452 (125.44/col)

linear algebra at 0.1%, ETA 447h56m at 10/01/2013 on 576 cores on Trestles at the San Diego Supercomputing Center.

For 2,1049+:

Last 16e Lattice Sieve application wu received is at ~q=323M (goal to 1000M)
Last 16e Lattice Sieve V5 application wu received is at ~q=1233M (goal to unknown, then backwards from 1000M until meet 16e in the middle)

If you guys can move your clients for a while from 16e Lattice Sieve V5 to 16e Lattice Sieve would be great. We need to crunch more 16e wu's instead of the V5 ones. (message to [AF>Libristes] Dilandau...lol...you're crunching 16e V5 very fast)

Carlos Pinho
Titre: Re : NFS@Home
Posté par: Dilandau le 25 January 2013 à 12:39
Ok ^^ Now each server can crunch 16e + 16e V5 ;)
Titre: Re : Re : NFS@Home
Posté par: Carlos Pinho le 25 January 2013 à 13:47
Ok ^^ Now each server can crunch 16e + 16e V5 ;)

Can you move only to crunch 16e? 16e must go through q=323M to q=1000M. Lot's of wu's to be crunched there , 677 000 wu's.

Thank you.

Carlos Pinho
Titre: Re : NFS@Home
Posté par: [AF>Libristes>Jip] Elgrande71 le 25 January 2013 à 18:15
Bravo Dilandau, continue comme ça.  :kookoo: :jap:
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 28 January 2013 à 10:37
Soon SETI.USA will be rolling to help.

For 2,1049+:

Last 16e Lattice Sieve application wu received is at ~q=356M (goal to 1000M)
Last 16e Lattice Sieve V5 application wu received is at ~q=1243M (goal to unknown, then backwards from 1000M until meet 16e in the middle)
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 31 January 2013 à 03:15
2,1037- is done. Log file in the attachment.
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 31 January 2013 à 12:52
2,1037- post-processing phase waas run on this: http://www.sdsc.edu/us/resources/trestles/
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 14 February 2013 à 18:49
For 2,1049+:

Last 16e Lattice Sieve application wu received is at ~q=521M (goal to 1000M)
Last 16e Lattice Sieve V5 application wu received is at ~q=1304M (goal to unknown, then backwards from 1000M until meet 16e in the middle)
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 13 March 2013 à 12:39
For 2,1049+:

Last 16e Lattice Sieve application wu received is at ~q=766M (goal to 1000M)
Last 16e Lattice Sieve V5 application wu received is at ~q=1391M (goal to 1650M)

Better move all cores to 16e Lattice Sieve V5.
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 13 March 2013 à 12:56
Just received an email warning so people can help push faster the V5 progress.

Help is appreciated.

Carlos
Titre: Re : NFS@Home
Posté par: JeromeC le 18 March 2013 à 15:02
We are currently doing our spring RAID on Yoyo + Einstein so many (not all) AF crunchers will focus on these projects for the forthcoming 2 weeks :jap:
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 30 March 2013 à 21:09
NFS@Home April Showers Challenges

April Showers I

http://boincstats.com/en/stats/challenge/team/chat/360

April Showers II

http://boincstats.com/en/stats/challenge/team/chat/362

Carlos
Titre: Re : Re : NFS@Home
Posté par: al@ON le 01 April 2013 à 23:17
 (http://img.lbzh.fr/images/hellod.gif)

NFS@Home April Showers Challenges

April Showers I

http://boincstats.com/en/stats/challenge/team/chat/360

 :help:... quelques cores supplémentaires ne seraient pas de trop.

(http://boincstats.com/signature/360/team/6/challenge/sig.png)
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 02 April 2013 à 00:07
Did you guys already finish the RAID on Yoyo + Einstein? NFS@Home really needs linux users running the 5f application.

http://escatter11.fullerton.edu/nfs/prefs.php?subset=project

Run only the selected applications   lasieved - app for RSALS subproject, uses less than 0.5 GB memory: no
lasievee - work nearly always available, uses up to 0.5 GB memory: no
lasievef - used for huge factorizations, uses up to 1 GB memory: no
lasieve5f - used for huge factorizations, uses up to 1 GB memory: yes
Titre: Re : NFS@Home
Posté par: sebastien11 le 07 April 2013 à 11:18
Bon après réinstallation de ubuntu sur mon petit pc de campagne ( AMD A4  :D ), je viens donner un petit coup de main.  :kookoo:
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 10 April 2013 à 17:22
16e:
Query: select * from workunit where ( name like 'S2p1049_%' and assimilate_state!=2 and appid=8 ) order by id desc limit 20
5135 records match the query.

16e V5:
Query: select * from workunit where ( name like 'S2p1049_%' and assimilate_state!=2 and appid=9 ) order by id desc limit 20
31630 records match the query.

So that's the status of the wu's left for 2,1049+ sieve.
Titre: Re : NFS@Home
Posté par: Maurice Goulois le 10 April 2013 à 17:25
SUSA a mis le paquet  :eek:
Titre: Re : Re : NFS@Home
Posté par: Carlos Pinho le 10 April 2013 à 18:38
SUSA a mis le paquet  :eek:

You guys can do better.
Titre: Re : NFS@Home
Posté par: JeromeC le 11 April 2013 à 13:10
Z'avez vu, il essaye de nous attirer dans la débauche de crédits :D
Titre: Re : Re : NFS@Home
Posté par: Carlos Pinho le 11 April 2013 à 14:56
Z'avez vu, il essaye de nous attirer dans la débauche de crédits :D

Strategy my friend although it is true.
Titre: Re : NFS@Home
Posté par: fzs600 le 08 May 2013 à 03:45
 :hello:

De l'admin du projet : Nouvelles applications Windows x64 déployés
Citer
S'appuyant sur ​​les travaux de Dan_Ee , j'ai compilé et déployé de nouvelles applications Windows x64. Il s'agit de 50% à 100% plus rapide que les applications 32 bits en fonction de votre processeur. S'il vous plaît laissez-moi savoir si vous rencontrez des problèmes.
http://escatter11.fullerton.edu/nfs/forum_thread.php?id=426&postid=1129 (http://escatter11.fullerton.edu/nfs/forum_thread.php?id=426&postid=1129)

 :jap:
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 29 July 2013 à 12:56
To finish the 10M770 in this grant period, the 64-bit Linux 16e v5 sieving speed needs to triple for the next couple of months.

If you have a 64-bit linux machine free, please consider contributing to the sieving. If you are contributing using 64-bit linux computers, consider changing their "location" in the host details screen linked from http://escatter11.fullerton.edu/nfs/hosts_user.php to a currently unused one, then setting that location to get only lasieve5f workunits in your NFS@Home Preferences at http://escatter11.fullerton.edu/nfs/prefs.php?subset=project.

Finally, let other potential contributors know that we can use their help for the next two months. Thanks!
Titre: Re : NFS@Home
Posté par: JeromeC le 31 July 2013 à 12:14
Il dit que vous pouvez faire du sieving sous linux 64 bits et que vous pouvez jouer avec la location pour un régler une sur lasieve5f et l'associer avec votre linux 64b.
Titre: Re : NFS@Home
Posté par: bernardP le 17 August 2013 à 11:51
http://www.fullerton.edu/IT/announcements/ (http://www.fullerton.edu/IT/announcements/)
Ils ont oublié de revenir ce matin :eek:
Titre: Re : NFS@Home
Posté par: [AF>Libristes] Pascal le 17 August 2013 à 11:56
 :kookoo: C'est certainement en heure de Californie donc à 16h00 heure française ! :siflotte:
Titre: Re : NFS@Home
Posté par: Dilandau le 17 August 2013 à 19:17
De retour depuis 17h30 :)
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 10 December 2013 à 19:09
Please warn [AF>Libristes>Gentoo]guiglar of the following:

To get the most points of NFS@Home he/she must only run the lasievef application. To change that he/she must go to:

http://escatter11.fullerton.edu/nfs/prefs.php?subset=project

and set

lasievef - used for huge factorizations, uses up to 1 GB memory: yes
lasieve5f - used for huge factorizations, uses up to 1 GB memory: yes

Also with HT on there will be an increase of points by at least 30 % when compared with HT off.

Thank you in advance,

Carlos Pinho
Titre: Re : NFS@Home
Posté par: [AF>Libristes>Jip] otax le 10 December 2013 à 21:40
Hello Carlos,

We have tranferred your message to him from NFS-project directly, since this cruncher seems not to come here regularly at all .

Thanks,
Regards.

otax.
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 11 December 2013 à 16:22
Merci otax.
Titre: Re : NFS@Home
Posté par: fzs600 le 28 December 2013 à 07:19
 :hello:

Des badges ? Des badges !!!  :yahoo: :yahoo:
http://escatter11.fullerton.edu/nfs/forum_thread.php?id=455 (http://escatter11.fullerton.edu/nfs/forum_thread.php?id=455)

Titre: Re : NFS@Home
Posté par: JeromeC le 28 December 2013 à 19:28
Badges pourris...  :cpopossib:
Titre: Re : NFS@Home
Posté par: Spica le 18 January 2014 à 11:42
l'AF a aussi des badges sur  ce projet, voir là : http://escatter11.fullerton.edu/nfs/team_display.php?teamid=6
Titre: Re : NFS@Home
Posté par: sebastien11 le 14 February 2014 à 16:08
J'ai dû le lire quelque part, mais je ne me souviens plus où  :cpopossib:, quelqu'un sait se qu'il faut cocher dans les préférences du projet pour ne recevoir que des 15e.  :??: :jap:
Titre: Re : NFS@Home
Posté par: Philippe06121966 le 14 February 2014 à 16:46
Oui :D
Le premier = 14 - lasieved - app for RSALS subproject, uses less than 0.5 GB memory
le deuxième = 15- lasievee - work nearly always available, uses up to 0.5 GB memory
les 3° et 4° = 16 - lasievef - used for huge factorizations, uses up to 1 GB memory
lasieve5f - used for huge factorizations, uses up to 1 GB memory
Si ma mémoire est bonne :D
Titre: Re : NFS@Home
Posté par: bernardP le 14 February 2014 à 17:16
 :kookoo:
Merci :hyperbon:
Titre: Re : NFS@Home
Posté par: sebastien11 le 14 February 2014 à 17:17
Merci  :jap:, je viens de changer les préférences  :D
Titre: Re : NFS@Home
Posté par: Philippe06121966 le 14 February 2014 à 17:56
Avec plaisir  :jap:
Le 16 est celui qui "paye" le mieux, et le 15 celui qu'on reçoit le moins ... Aucune idée pourquoi  :??:
Bon Crunch  :hyperbon:
Titre: Re : NFS@Home
Posté par: sebastien11 le 16 February 2014 à 00:21
C'est bon, c'était ça. :jap:
Oui le 16e "paye" plus, mais je chasse le badge, j'ai déjà le 14e et le 16e. :D
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 28 May 2014 à 14:32
The (N)eed (F)or (S)peed Challenge issued by SETI.USA team and will start from 2014-06-21 00:00 UTC to 2014-06-26 00:00 UTC.
All teams are invited to join the challenge.
Stats can be follow here: http://boincstats.com/en/stats/challenge/team/chat/557
Don't forget that team leader should be register at boincstats so that the team can be added to the challenge.

We hope to see all teams gathered to crunch some NFS@Home wu's and to increase their badge status.

Best of luck.

Carlos Pinho
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 01 June 2014 à 15:58
Letter of invitation from SETI.USA part for L'Alliance Francophone team.

https://cld.pt/dl/download/8ef40c56-cb45-4c5d-9326-3f68fc18fb81/Invitation_L%27Alliance%20Francophone.pdf
Titre: Re : NFS@Home
Posté par: LOCTET SetiOne le 01 June 2014 à 16:54
C'est sur que ça ne peut pas nous faire de mal ! https://statseb.boinc-af.org/details_FB.py?projet=107 d'autant que Planet 3DNow! cartonne

@Carlos, thank's : why not, we are far, and 3D is hot
Titre: Re : NFS@Home
Posté par: kipoos le 01 June 2014 à 17:49
il faut relever le défi !!!
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 03 June 2014 à 22:59
NFS@Home admin advices to linux users to crunch with lasieve5f application.
Yes, Planet 3DNow! is on a move there. Look close.
Titre: Re : NFS@Home
Posté par: Maaanu le 04 June 2014 à 00:04
Je serai présent pour ce challenge. Je viens de m'inscrire sur le projet au cas où il y a un bug au moment de la préparation...
Titre: Re : NFS@Home
Posté par: chev6791 le 05 June 2014 à 11:30
pour info, deadline 3,5 jours pour les 14e et 15e Lattice Sieve et 7 jours pour les 16e Lattice Sieve   :D
Titre: Re : NFS@Home
Posté par: Philippe06121966 le 05 June 2014 à 12:18
 :hello:
Étant donné que les 16 créditent beaucoup +, je ne ferai(s) tourner que celles-là sur les pc's ayant suffisamment de RAM ;)

NB Les 16 =

lasievef - used for huge factorizations, uses up to 1 GB memory = Windows
lasieve5f - used for huge factorizations, uses up to 1 GB memory = LINUX

Pour info, ci-dessous mes points + nombre d'heures pour les obtenir + moyenne (5 CPU différents) :

16e Lattice Sieve    - 6,222.28 heures - 504,010 points = 81 points / h
15e Lattice Sieve    - 2,624.23 heures - 106,760 points = 41 points / h
14e Lattice Sieve    - 4,181.53 heures - 103,212 points = 25 points / h

 :jap: :jap: :jap:
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 09 June 2014 à 03:04
Teams so far register in the challenge:

SETI.USA
L'Alliance Francophone
AMD Users
BOINC@Poland
The Scottish Boinc Team
UK BOINC Team
Planet 3DNow!
Colombia
BOINC RUSSIA

Invitations sent to teams:

Ars Technica
Team Norway
[H]ard|OCP
SETI.Germany
...

Carlos
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 19 June 2014 à 14:29
Just to let you guys know that SETI.Germany also joined the challenge. Planet3DNow! is there too. All the big teams of last Pentathlon.
SETI.USA hopes for a good challenge.

http://boincstats.com/en/stats/challenge/team/chat/557
Titre: Re : NFS@Home
Posté par: jesuisunlapin le 08 July 2014 à 16:41
Bonjour,

Noté un truc bizarre, les calculs se font bien sur
15e Lattice Sieve   
14e Lattice Sieve   

Mais les calculs sur 16e Lattice Sieve génèrent toujours des erreurs de calculs....
Quelqu'un dans ce cas ?

Titre: Re : NFS@Home
Posté par: kipoos le 08 July 2014 à 17:52
combien d'UTs en même temps ?
quelle quantité de ram sur ta machine ?

les UTs 16e Lattice Sieve mangent un bon gros gigaoctet de ram...
il se peut que tu en manques.
ce qui génère une erreur.
Titre: Re : NFS@Home
Posté par: jesuisunlapin le 09 July 2014 à 09:33
Bonjour kipoos,

Tu as raison problème de RAM, en général j'ai 2 ou 3 UTs 14e ou 15e Lattice Sieve qui tournent en même temps qui chacun prennent 300-400 Mo de RAM et comme je n'en ai que 4 Go, ceci explique cela. 

Merci pour les infos.
Titre: Re : NFS@Home
Posté par: kipoos le 09 July 2014 à 10:27
je t'en prie.
bon crunch.
Titre: Re : NFS@Home
Posté par: Oncle Bob le 13 September 2014 à 01:06
:hello:

Une idée de comment forcer BOINC à prendre plus de 20 jours de calcul ? (soit 2,5 jours réels sur mon 8 threads).
Titre: Re : NFS@Home
Posté par: mamouth le 18 September 2014 à 10:15
 :hello:

Est ce que je suis le seul a avoir des erreurs de calcul sur les ut 16e Lattice Sieve
certaines passent
j'en ai fait plus des centaines récemment sans problème, ça n'a pas l'air de venir de la mémoire
rien sur leur forum ...

ça ressemble bien à des ut vérolées
 
<core_client_version>7.2.42</core_client_version>
<![CDATA[
<message>
Fonction incorrecte.
 (0x1) - exit code 1 (0x1)
</message>
<stderr_txt>
boinc initialized
work files resolved, now working
-> projects/escatter11.fullerton.edu_nfs/lasievef_1.08_windows_x86_64__notphenomiix6.exe
-> -r
-> -f
-> 1090508000
-> -c
-> 2000
-> -R
-> -o
-> ../../projects/escatter11.fullerton.edu_nfs/G3p697_r_1090508_1_0
-> ../../projects/escatter11.fullerton.edu_nfs/G3p697.poly
Cannot handle special q >= 1073741823
03:21:47 (6884): called boinc_finish

</stderr_txt>
Titre: Re : NFS@Home
Posté par: JeromeC le 19 September 2014 à 13:48
Le dernière que j'ai eu a planté (http://escatter11.fullerton.edu/nfs/result.php?resultid=37169717) mais visiblement pas pour la même raison :

Citer
<core_client_version>7.5.0</core_client_version>
<![CDATA[
<message>
process got signal 4
</message>
<stderr_txt>
boinc initialized
work files resolved, now working
-> lasievef_1.10_x86_64-apple-darwin
-> -r
-> -f
-> 978294000
-> -c
-> 2000
-> -R
-> -o
-> ../../projects/escatter11.fullerton.edu_nfs/G3p697_r_978294_2_0
-> ../../projects/escatter11.fullerton.edu_nfs/G3p697.poly

</stderr_txt>
]]>

Encore un putain de "process got signal 4", comme mes problèmes sur Primegrid !!!!

C'est ptet bien une merde avec mon Mac, finalement !  :/
Titre: Re : NFS@Home
Posté par: Giulietta26 le 17 October 2014 à 18:30
C'est sur ce projet où l'on peut mettre la pression aux tchèques pour le FB 2014? C'est jouable ou peine perdue d'après vous?
Titre: Re : NFS@Home
Posté par: kikiphil le 17 October 2014 à 20:38
j'en suis a 14 000 points en 20h sur mon i7 2600k

et on a 1 millions de retard, donc si on fait comme pour collatz c jouable  :kookoo:
Titre: Re : Re : NFS@Home
Posté par: [AF>Amis des Lapins] Jean-Luc le 17 October 2014 à 21:38
C'est sur ce projet où l'on peut mettre la pression aux tchèques pour le FB 2014? C'est jouable ou peine perdue d'après vous?

Le souci, c'est que moi, si je lance NFS, mes PrimeGrid partent très souvent en erreur !!!
Et pour plusieurs projets, ça me fait ça !
Heureusement que pour certains autres projets, ça ne me le fait pas...

Jean-Luc
Titre: Re : Re : NFS@Home
Posté par: Giulietta26 le 17 October 2014 à 21:47
j'en suis a 14 000 points en 20h sur mon i7 2600k

et on a 1 millions de retard, donc si on fait comme pour collatz c jouable  :kookoo:

Je met de côté POGS et rejoint le projet, si tu veux qu'on avance pour le FB il va falloir motiver des troupes, la Taskforce  :cavachier:

Mis dessus H24
4 cœurs i5 2500S
3 cœurs i5 4670K @stock
Titre: Re : NFS@Home
Posté par: Giulietta26 le 18 October 2014 à 08:39
 :kookoo:


 :coffeetime:

(http://img4.hostingpics.net/pics/988829appel18juin.jpg) (http://www.hostingpics.net/viewer.php?id=988829appel18juin.jpg) (http://img4.hostingpics.net/pics/888935thb.jpg) (http://www.hostingpics.net/viewer.php?id=888935thb.jpg)
(http://img4.hostingpics.net/pics/982275ducdrap.gif) (http://www.hostingpics.net/viewer.php?id=982275ducdrap.gif) (http://img4.hostingpics.net/pics/320799gillesvillenueverenearnouxatfrenchgrandprix.jpg) (http://www.hostingpics.net/viewer.php?id=320799gillesvillenueverenearnouxatfrenchgrandprix.jpg)


Chers AFistes, dans le cadre du Formula Boinc nous avons besoin de nous unir pour réduire le temps de dépassement sur le projet NFS@Home, https://statseb.boinc-af.org/details_FB.py?projet=107 où le Czech National Team est à notre portée, si vous êtes tentés par ce miniRAID pour la bonne place de l'AF vous êtes les bienvenus, en effet le CNT est classé 2ème au classement général FB https://statseb.boinc-af.org/classement_FB.py et c'est notre adversaire direct, on se démerdera de les dépasser eux aussi pour l'heure de l'apéro. :D
Titre: Re : NFS@Home
Posté par: Philippe06121966 le 18 October 2014 à 08:44
Si tu as assez de RAM, ne sélectionne QUE les UT 16e :

16e Lattice Sieve et/ou 16e Lattice Sieve V5

dans les préférences :

lasievef et lasieve5f

Se sont celles qui créditent le plus. (BEAUCOUP plus que les 14 et 15)

On en a pas mal discuté plus haut dans ce topic ;)

 :hello: :kookoo:

PS N'y a t'il pas un appel à tous les FRANCOPHONES ?  :gniak: :D :hello:
Titre: Re : NFS@Home
Posté par: nafrayou le 18 October 2014 à 08:45
ok pas de problème je passe une trentaines de cores dessus de suite  !

et un Kirass>MPF de plus   y a qu a demander  !! LOL
Titre: Re : NFS@Home
Posté par: Giulietta26 le 18 October 2014 à 08:53
@Phil : Appel du 18 Juin édité  :lol:

@nafrayou : nickel  :jap: merci


A nous le CNT  :cavachier:
Titre: Re : NFS@Home
Posté par: nafrayou le 18 October 2014 à 08:56
voila c est fait !

y a même un peut plus de 30 CPU's la   juste le temps pour les ordi de vider les stocks de WU d autres projets ( 1 a 3 jours en général ) et c est partie !
Titre: Re : NFS@Home
Posté par: Giulietta26 le 18 October 2014 à 09:13
De mon côté j'ai les 2 machines avec 10 jours de cache et j'ai modifié les préférences pour ne prendre que des UT 16e.
Titre: Re : Re : NFS@Home
Posté par: Philippe06121966 le 18 October 2014 à 09:14
@Phil : Appel du 18 Juin édité  :lol:

 :plusun: :oki:
Titre: Re : Re : Re : NFS@Home
Posté par: Giulietta26 le 18 October 2014 à 09:38
C'est sur ce projet où l'on peut mettre la pression aux tchèques pour le FB 2014? C'est jouable ou peine perdue d'après vous?

Le souci, c'est que moi, si je lance NFS, mes PrimeGrid partent très souvent en erreur !!!
Et pour plusieurs projets, ça me fait ça !
Heureusement que pour certains autres projets, ça ne me le fait pas...

Jean-Luc

Salut Jean-Luc,

Moi je fais NeedForSpeed+CocaCollatz, et 0 soucis pour le moment, mais c'est normal entre projets Mathématiques il ne peut y avoir qu'une bonne entente  :lol: , c'est comme 1+1=2.

Ta place est réservée sur le projet  :hyperbon:
Titre: Re : NFS@Home
Posté par: [AF>Amis des Lapins] Jean-Luc le 18 October 2014 à 10:33
Je ne pense pas que je vais m'y coller à mon grand regret !
Mon problème doit venir du fait que j'ai une GTX 680 et une R9 290X sur la même carte mère.
C'est pareil, à mon grand regret, je ne peut pas faire du Collatz en même temps que du GPUGrid.
Si je lance GPUGrid sur la NVidia, mes Large Collatz sur R9 prennent 4h30 au lieu de 3h50 avec PrimeGrid !

Et sur mes CPU, je ne peux mettre que du Pogs, du Yoyo et du Oproject !
Avec tout le reste, y'a des beugs !

C'est vrai que je suis donc très limité.

Je n'ai jamais réussi à régler ces problèmes...

Pourtant, NFS et surtout NumberFields me tenaient à coeur, étant donnés mes travaux sur les suites aliquotes (http://www.aliquotes.com/ (http://www.aliquotes.com/))...
C'est d'ailleurs pour ça que je suis si bien placé sur NumberFields, car à une époque, quand j'avais d'autres GPU, j'y allais à fond (http://boincstats.com/en/stats/-1/user/detail/937/projectList (http://boincstats.com/en/stats/-1/user/detail/937/projectList)) ! Mais ça doit remonter à plus de 2 ans.

Jean-Luc
Titre: Re : NFS@Home
Posté par: Philippe06121966 le 18 October 2014 à 12:21
Après avoir lu ton post, j'ai regardé les stats de Numberfields d'un peu plus près.
SG y mène une attaque en règle depuis presque 1 mois.
Nous aurions plus à gagner sur ce projet que sur NFS.
Je pense.
Titre: Re : NFS@Home
Posté par: [AF>Amis des Lapins] Jean-Luc le 18 October 2014 à 12:42
Perso, comme je l'ai dit, je ne peux pas cruncher sur ces deux projets sans avoir de problèmes avec mes GPU !
Mais à l'époque, j'avais privilégié NumberFields, car il permet de construire une base de données (http://hobbes.la.asu.edu/NFDB/ (http://hobbes.la.asu.edu/NFDB/)) qui sera ensuite utilisée par toute la communauté : c'est mis à disposition.
NFS est très important aussi, mais c'est du calcul numérique de décomposition de nombres particuliers.
Jean-Luc
Titre: Re : Re : NFS@Home
Posté par: Giulietta26 le 18 October 2014 à 13:05
Après avoir lu ton post, j'ai regardé les stats de Numberfields d'un peu plus près.
SG y mène une attaque en règle depuis presque 1 mois.
Nous aurions plus à gagner sur ce projet que sur NFS.
Je pense.

Je viens de regarder sur Statseb le classement général et le placement FB pour Numberfields, et je pense qu'il n'y a rien à gagner dans un temps court, ou à moins que quelque chose m'échappe.
Titre: Re : Re : Re : NFS@Home
Posté par: Philippe06121966 le 18 October 2014 à 15:07
Après avoir lu ton post, j'ai regardé les stats de Numberfields d'un peu plus près.
SG y mène une attaque en règle depuis presque 1 mois.
Nous aurions plus à gagner sur ce projet que sur NFS.
Je pense.

Je viens de regarder sur Statseb le classement général et le placement FB pour Numberfields, et je pense qu'il n'y a rien à gagner dans un temps court, ou à moins que quelque chose m'échappe.

Le but du PD2S étant de soutenir notre classement au FB, il y a fort à parier que notre RAC de 20000 passe rapidement à ? 200.000 / 300.000 / 400.000 ?
Tout dépend du nombre de crunchers.

Mais je ne me focalise pas sur Numberfields, il y a d'autres projets ou cruncher tous ensemble serait plus rentable pour l'AF au FB.

Asteroids, POGS, EDGES, LHC, COSMOLOGY, ...

En GPU ... à voir.

 :hello:
Titre: Re : Re : NFS@Home
Posté par: nafrayou le 18 October 2014 à 17:10
De mon côté j'ai les 2 machines avec 10 jours de cache et j'ai modifié les préférences pour ne prendre que des UT 16e.

yes c est bon ca  !
Titre: Re : NFS@Home
Posté par: nafrayou le 18 October 2014 à 17:21
Salut Jean-Luc

j ai aussi un PC avec une GTX 580 et une ATI R9 290 et je fais tout les projet sans problème

il y en avais bien un ou les WU ne finissaient jamais  mais je n était pas le seul dans ce cas  !
Titre: Re : NFS@Home
Posté par: Giulietta26 le 18 October 2014 à 18:27
Je peux rajouter 2 x Core2Duo 2.4 avec de la RAM, d'ici peu.  :hyperbon:
Titre: Re : Re : NFS@Home
Posté par: [AF>Amis des Lapins] Jean-Luc le 18 October 2014 à 18:49
Salut Jean-Luc

j ai aussi un PC avec une GTX 580 et une ATI R9 290 et je fais tout les projet sans problème

il y en avais bien un ou les WU ne finissaient jamais  mais je n était pas le seul dans ce cas  !

J'ai tout essayé !
Je ne sais même pas si ça vient de ça ou de mon changement de CM ?
Pas grave, je continue comme ça avec cet ordi, y'a assez à faire...
Jean-Luc
Titre: Re : NFS@Home
Posté par: Giulietta26 le 18 October 2014 à 19:20
StatSeb nous indique déjà moins de 28j (un cycle lunaire  :D ) pour dépasser le CNT au FB, et encore mon crédit journalier est faussé car j'ai arrêté mon i5 2500S pour la MAJ MacOX X.X, avec les 2 autres Core2Duo que je vais rajouter ça devrait encore s'améliorer pour ma part.


Allez les pommiers faites tourner pour la bonne cause vos machines qui consomment rien.  :hyperbon:

Finir à la 4ème place FB n'est pas permis, l'AF a largement laissé la place aux autres...  :cavachier:
Titre: Re : NFS@Home
Posté par: Philippe06121966 le 18 October 2014 à 19:23
C'est ce qui s'appelle motiver les troupes  :oki:
Si on peut attaquer sur plusieurs fronts en même temps, c'est génial.
Si tu redémarres tes 2 core 2 DUO, vais voir si j'ai assez de RAM pour mettre le petit  i5 CPU M 430 sur NFS16e

 :hello: :kookoo:
Titre: Re : NFS@Home
Posté par: Giulietta26 le 18 October 2014 à 20:43
Même si tu n'as pas assez de RAM pour du 16e, ce n'est pas grave les tâches à plus faible niveau de RAM seront bienvenue.  :jap:
Titre: Re : NFS@Home
Posté par: Philippe06121966 le 18 October 2014 à 20:45
Non c'est OK. J'ai 8 Go. Les 16eV5 sont en route. Environ 60 UT / jours  :hello:
Titre: Re : Re : NFS@Home
Posté par: LOCTET SetiOne le 18 October 2014 à 21:25
StatSeb nous indique déjà moins de 28j (un cycle lunaire  :D ) pour dépasser le CNT au FB, et encore mon crédit journalier est faussé car j'ai arrêté mon i5 2500S pour la MAJ MacOX X.X, avec les 2 autres Core2Duo que je vais rajouter ça devrait encore s'améliorer pour ma part.


Allez les pommiers faites tourner pour la bonne cause vos machines qui consomment rien.  :hyperbon:

Finir à la 4ème place FB n'est pas permis, l'AF a largement laissé la place aux autres...  :cavachier:
Les Pommiers, et pourquoi pas les amis des lapins pendant que tu y es  :lol:
Pour la suite : 100%  :+1: :bipbip:
Titre: Re : Re : NFS@Home
Posté par: Giulietta26 le 18 October 2014 à 21:37
Non c'est OK. J'ai 8 Go. Les 16eV5 sont en route. Environ 60 UT / jours  :hello:

Merci Phil :jap:
Titre: Re : Re : Re : NFS@Home
Posté par: Giulietta26 le 18 October 2014 à 21:38
StatSeb nous indique déjà moins de 28j (un cycle lunaire  :D ) pour dépasser le CNT au FB, et encore mon crédit journalier est faussé car j'ai arrêté mon i5 2500S pour la MAJ MacOX X.X, avec les 2 autres Core2Duo que je vais rajouter ça devrait encore s'améliorer pour ma part.


Allez les pommiers faites tourner pour la bonne cause vos machines qui consomment rien.  :hyperbon:

Finir à la 4ème place FB n'est pas permis, l'AF a largement laissé la place aux autres...  :cavachier:
Les Pommiers, et pourquoi pas les amis des lapins pendant que tu y es  :lol:
Pour la suite : 100%  :+1: :bipbip:

Même les Lapinous sont les bienvenus :jap:
Titre: Re : NFS@Home
Posté par: nafrayou le 18 October 2014 à 21:42
j en suis a 40 cores ( pas tous en H/24 )

j en ai encore d autres s il en faut plus  mais je ne pourrais pas tous les passer sur NFS car certains PC de la ferme n on pas beaucoup de RAM !

 :bimo:
Titre: Re : NFS@Home
Posté par: kikiphil le 19 October 2014 à 08:43
Bon ont a deja peter le serveur  :sun:
Titre: Re : NFS@Home
Posté par: Philippe06121966 le 19 October 2014 à 09:10
J'aurais pas du mettre tout mes pc's sur le coup  :hilare:

Vais ajouter Numberfields en priorité 0, au cas où la panne durerait un peu trop longtemps.

 :hello:
Titre: Re : NFS@Home
Posté par: Philippe06121966 le 19 October 2014 à 12:47
Çà refonctionne, mais suis sur Numberfields.
Juste laissé 4 cores sur NFS 16eV5
Titre: Re : NFS@Home
Posté par: Giulietta26 le 19 October 2014 à 18:56
De retour après 24H de chamboulement de salon, et de retour avec 4 machines dessus, soit 10 cœurs.  :cavachier:
Titre: Re : NFS@Home
Posté par: PhilTheNet le 19 October 2014 à 18:57
Motivator is back  :sun:
Titre: Re : NFS@Home
Posté par: Giulietta26 le 19 October 2014 à 19:02
Pour le FB on passe devant le CNT sur ce projet en moins de 2 semaines (on va gagner 2 pts au FB), vous allez voir l'évolution du RAC3J, l'AF is back !!!  https://statseb.boinc-af.org/details_FB.py?projet=107
Titre: Re : NFS@Home
Posté par: Giulietta26 le 20 October 2014 à 04:38
Ca paye direct  :electric:, déjà moins de 10j  :love: pour le dépassement, autant dimanche c'est plié avec la prise en compte réelle de l'évolution du RAC3J.  :cavachier:

 :coffeetime: :coffeetime: :coffeetime:
Titre: Re : NFS@Home
Posté par: kikiphil le 20 October 2014 à 10:33
ils commence a accelerer CNT , hier un rac de 50 000 , aujourd'hui il en sont a 73 000   :pt1cable:

bientot un fight   :cavachier:
Titre: Re : NFS@Home
Posté par: Philippe06121966 le 20 October 2014 à 10:55
Il nous faudra bientôt louer un Centre de Calcul  :miam: :D
Titre: Re : NFS@Home
Posté par: Spica le 20 October 2014 à 12:26
Je vous rejoins... Je mets quelques coeurs pour l'instant et un peu plus en milieu de semaine après avoir atteint un très bel objectif Wuprop :kookoo:
Titre: Re : NFS@Home
Posté par: Giulietta26 le 21 October 2014 à 07:39
 :kookoo:

La progression du RAC est pas mal du tout, allez on insiste  :cavachier:
Titre: Re : NFS@Home
Posté par: kikiphil le 21 October 2014 à 09:09
oui sa monte plus chez eux , tjrs 70k  :sun:

plus que 700k a chercher avec notre rac a 160k sa devrait le faire

on insiste  :cavachier:
Titre: Re : NFS@Home
Posté par: Giulietta26 le 21 October 2014 à 12:46
Moins de 8 j pour gratter la 3ème place au CNT

(http://img4.hostingpics.net/pics/513132TAMBOURGALERE02.jpg) (http://www.hostingpics.net/viewer.php?id=513132TAMBOURGALERE02.jpg)


Le suivi du programme PD2S porte ses fruits, allez on leur en met un coup aux chèques en bois  :D
Titre: Re : NFS@Home
Posté par: Giulietta26 le 22 October 2014 à 22:58
Avec un delta de 100k/j on va gratter les points pour le FB, non crunch  :kookoo:
Titre: Re : NFS@Home
Posté par: Giulietta26 le 24 October 2014 à 08:21
 :coffeetime:

Y a fight, le CNT s'est réveillé  :eek:

 :cavachier:
Titre: Re : NFS@Home
Posté par: [AF>Libristes] Pascal le 10 December 2014 à 10:01
 :kookoo: à tous,

Depuis ce matin toutes les nouvelles unités que je reçois, commençant par GC_2... partent en erreur au bout de quelques secondes alors que jusqu'à présent celles commençant par C158_... ou GC_3... ou encore GC_8... se terminaient correctement. :cavapobienmwa:

Quelqu'un a-t-il ce problème ? :/


Edit : c'est sur 14e Lattice Sieve.
 
Titre: Re : NFS@Home
Posté par: [AF>Libristes] Pascal le 14 December 2014 à 10:33
C'est reparti pour le 14e Lattice Sieve.

Une erreur dans la programmation des tâches ?
http://escatter11.fullerton.edu/nfs/forum_thread.php?id=576&postid=1459 (http://escatter11.fullerton.edu/nfs/forum_thread.php?id=576&postid=1459)
Titre: Re : NFS@Home
Posté par: [AF>Libristes>Jip] Elgrande71 le 14 December 2014 à 15:31
Oui tu as raison Pascal apparemment certains paramètres ne conviennent pas .
Il suffit qu'ils trouvent un admin disponible et qui a accès à la base de données 14e et tout devrait rentrer dans l'ordre .
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 14 February 2015 à 16:01
Are you guys keen for a March NFS@Home Challenge?
Titre: Re : NFS@Home
Posté par: JeromeC le 14 February 2015 à 19:38
Y'a un gars il provoque :D
Titre: Re : Re : NFS@Home
Posté par: Carlos Pinho le 14 February 2015 à 19:49
Y'a un gars il provoque :D

Just looking around the big teams to schedule one. Looks like planet3dnow can't access BOINCstats to enter contests. SETI.USA is keen to one challenge in March.
Titre: Re : Re : Re : NFS@Home
Posté par: Philippe06121966 le 14 February 2015 à 23:42
Y'a un gars il provoque :D

Just looking around the big teams to schedule one. Looks like planet3dnow can't access BOINCstats to enter contests. SETI.USA is keen to one challenge in March.

Hi Carlos, Thank You for the invitation.
If we participate, it will be for the 1st place ;)
Be ready  :sun:
 :hello:
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 14 February 2015 à 23:45
Challenge issued by SETI.USA.

http://boincstats.com/en/stats/challenge/team/chat/652
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 03 March 2015 à 20:08
I see you are into the challenge but are you guys up to it?!
Titre: Re : NFS@Home
Posté par: Philippe06121966 le 04 March 2015 à 19:22
Allons-nous relever le défi ?
Titre: Re : NFS@Home
Posté par: JeromeC le 04 March 2015 à 19:33
Seulement si c'est defiscalisé.

Et pan encore une que Charles Pinou n'aura pas :)
Titre: Re : NFS@Home
Posté par: kipoos le 04 March 2015 à 19:44
pourquoi pas.

on peut le passer en pd2s, non ?
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 04 March 2015 à 22:32
In the meantime we set

<max_wus_in_progress> 50 </max_wus_in_progress>

Meaning that each core is allowed 50 wu's per day, in progress to double this figure. Quad-core with 8 threads can download up to 400 wu´s, this is important if you guys want to hold your queue to dump during the challenge. Wu's deadline is 5 and/or 7 days. Challenge lasts for 5 days.

That's it, no more tips from me.

Carlos
NFS@Home Moderator

Titre: Re : NFS@Home
Posté par: Carlos Pinho le 08 March 2015 à 21:32
6 days to start of the challenge.
lasieve5f application wu has a deadline of 7 days so bunkers can start queuing for first days dump.
Titre: Re : NFS@Home
Posté par: modesti le 09 March 2015 à 09:03
I'm in :gniak:
(en FR: j'en suis)
Titre: Re : NFS@Home
Posté par: LOCTET SetiOne le 09 March 2015 à 21:24
Et en plus il explique que l'on peut faire du cache. Chouette cet admin  :sun:

pourquoi pas.

on peut le passer en pd2s, non ?
Si pas d'autres instructions, je vote pour !
Titre: Re : NFS@Home
Posté par: naz le 10 March 2015 à 16:55
On est passé premier au fb...  :oki:
Je vais me concentrer un peu dessus pour aiderl'ally à prendre de l'avance Sur ce projet  :hyperbon:
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 14 March 2015 à 00:45
1 day left for the start of the challenge.
Titre: Re : NFS@Home
Posté par: kipoos le 15 March 2015 à 09:29
c'est assez hallucinant.
il doit y avoir quelques grosses fermes...
Titre: Re : Re : NFS@Home
Posté par: fzs600 le 15 March 2015 à 09:42
c'est assez hallucinant.
il doit y avoir quelques grosses fermes...
Les 4 premières places SUSA.
http://boincstats.com/en/stats/challenge/user/list/652/credits (http://boincstats.com/en/stats/challenge/user/list/652/credits)

Tu prends les PC de zombie67 [MM] http://escatter11.fullerton.edu/nfs/hosts_user.php?userid=660 (http://escatter11.fullerton.edu/nfs/hosts_user.php?userid=660) que tu X4 ( les PC des trois autres sont cachés ) et tu a une idée de leur puissance.   :pt1cable: :pt1cable:

   
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 15 March 2015 à 11:53
Guys, let me explain. A few days ago I gave you the hints.
On the same machine you can have more than one OS, using VM's. So in case of the 16e V5 wu's, where deadline is 7, therefore bigger than 5 days challenge, you can bunker when you reach NFS limit of wu's per machine per day. This is strategy, a beautiful one...lol
Titre: Re : NFS@Home
Posté par: JeromeC le 15 March 2015 à 18:58
De la bidouille à coup de VM pour empiler des UTs avant de les renvoyer. On s'amuse comme on peut.
Titre: Re : NFS@Home
Posté par: toTOW le 21 March 2015 à 15:52
Certains font ce qu'il peuvent pour tenter de prouver qu'ils ont la plus grosse :/
Titre: Re : NFS@Home
Posté par: nafrayou le 21 March 2015 à 20:38

la plus grosse quoi  !!!!!!!!!!!!!!!!   facture de E.D.F  ( enfin c est pas E.D.F chez eux mais tout le monde a compris ) 

je sais c est même pas drôle .........
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 11 April 2015 à 13:32
Thank you very much for the CPU power deployed on NFS@Home for the last couple of weeks. Post-processing backstage of the project has been very but very busy processing the sieved numbers from applications lasieved (14e) and lasievee(15e). Main clusters have been processing lasieve5f.

In the meantime I was hoping to see a wake up reaction of Team Norway but nothing so far. Congratulations on reaching second place overall.

Once again thank you very much. Go go for first place!

Carlos
Titre: Re : Re : NFS@Home
Posté par: naz le 11 April 2015 à 14:00
Thank you very much for the CPU power deployed on NFS@Home for the last couple of weeks. Post-processing backstage of the project has been very but very busy processing the sieved numbers from applications lasieved (14e) and lasievee(15e). Main clusters have been processing lasieve5f.

In the meantime I was hoping to see a wake up reaction of Team Norway but nothing so far. Congratulations on reaching second place overall.

Once again thank you very much. Go go for first place!

Carlos

Yes, we go now... :D
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 07 July 2015 à 23:33
Can I request some help running lasieve5f application? We are going for two records(GNFS factorisation ) so we will have to process 1.5M wus or even more. Can you guys set a challenge at boincstats? Your help is needed.

Thank you in advance,

Carlos Pinho
NFS@Home Moderator
Titre: Re : Re : NFS@Home
Posté par: MDodier le 08 July 2015 à 00:27
Can I request some help running lasieve5f application? We are going for two records(GNFS factorisation ) so we will have to process 1.5M wus or even more. Can you guys set a challenge at boincstats? Your help is needed.

Thank you in advance,

Carlos Pinho
NFS@Home Moderator

Would be nice to transfer that request in the "team action for the next two weeks"`s, section! "projet de la quinzaine"

Je copie la demande dans la section du projet de la quinzaine!

Titre: Re : NFS@Home
Posté par: Carlos Pinho le 12 July 2015 à 13:34
Just to let you guys know that I also requested help from Planet 3DNow! team and they are delivering a daily extra ~3000 16e Lattice Sieve V5 wus, which is good.

Finally Syracuse University ramped up its numbers since a week ago.

So thank you L'AF team and keep crunching!!!

Carlos
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 17 July 2015 à 07:32
2,1285- sieve has started. We will go up to q=2200M or 2400M, meaning we will have 1.09M wus to 1.19M wus to process.

For 6,490+ we hope to stop at q=1800M.

Best Regards,

Carlos
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 18 July 2015 à 21:43
Right now we have 21505 outstanding wus to complete the sieve of 6,490+ to q=1800M.
Titre: Re : NFS@Home
Posté par: al@ON le 19 July 2015 à 22:42
Jip UotD sur NFS@Home (https://lut.im/gyWudcNx/VGSEhSA7)  :clafete:
Titre: Re : NFS@Home
Posté par: JeromeC le 20 July 2015 à 13:53
:bounce:
Titre: Re : Re : NFS@Home
Posté par: MDodier le 20 July 2015 à 14:29
Jip UotD sur NFS@Home (https://lut.im/gyWudcNx/VGSEhSA7)  :clafete:
:+1:
Titre: Re : Re : NFS@Home
Posté par: [AF>Libristes>Jip] Elgrande71 le 21 July 2015 à 17:03
:bounce:
Génial
 :fccpu:
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 24 July 2015 à 21:17
Thank you guys for the support on running NFS@Home.

Happy crunching!
Titre: Re : NFS@Home
Posté par: MDodier le 24 July 2015 à 21:41
le résultats du PD2S pour NFS est sans équivoque avec les circonstances que l'on connait sur l'autre projet:

(https://statseb.boinc-af.org/img/NFS_distrib.png)

(https://statseb.boinc-af.org/img/FB_NFS_jour.png)
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 25 July 2015 à 00:21
At current pace 2,1285- will be completely sieved within 100 days.
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 03 August 2015 à 14:04
Name: NFS@home Air Strike on lasieve5f Application
Status: Upcoming
Project: NFS@Home
Issued by: SETI.USA
Start time: 2015-08-28 00:00 UTC
End time: 2015-09-02 00:00 UTC
Late entrants allowed? Yes U

http://boincstats.com/en/stats/challenge/team/chat/704 (http://boincstats.com/en/stats/challenge/team/chat/704)

http://escatter11.fullerton.edu/nfs/prefs.php?subset=project (http://escatter11.fullerton.edu/nfs/prefs.php?subset=project)

Run only the selected applications    lasieved - app for RSALS subproject, uses less than 0.5 GB memory: no
lasievee - work nearly always available, uses up to 0.5 GB memory: no
lasievef - used for huge factorizations, uses up to 1 GB memory: no
lasieve5f - used for huge factorizations, uses up to 1 GB memory: yes
Titre: Re : NFS@Home
Posté par: al@ON le 03 August 2015 à 21:04
Presque pile poil après le SETI@Home Wow!-Event 2015 (http://forum.boinc-af.org/index.php/topic,6658.0.html).
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 11 August 2015 à 23:29
Still more than 700k wus to process regarding sieving of 2,1285-.
Thank you for your support.
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 16 August 2015 à 12:52
Preparations for the challenge underway for the three applications.
16e Lattice Sieve V5 (lasieve5f)
15e Lattice Sieve (lasievee)
14e Lattice Sieve (lasieved)

Thank you all for your support.
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 24 August 2015 à 02:15
Plenty of work available for all applications for the upcoming challenge.
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 27 August 2015 à 07:00
Just to share that we are going to run application 14e. Uses less memory but we can use more cores.
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 03 September 2015 à 22:08
Note: 16e Lattice Sieve V5 (lasieve5f) wus are at this stage very quick to process, less than 1600 secs for 130 points.
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 17 September 2015 à 21:24
Thank you all for the constant support.
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 19 September 2015 à 21:27
Bad news.
Major corrupted file on G6p490 which got propagated to the backup before being discovered. Needs to redo up to 1500M (now at 255M).

Help requested, application lasieve5f.

Thank you in advance,

Carlos
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 20 September 2015 à 18:30
Dears,

May I request only one week of your full support on running application lasieve5f.

Thank you in advance,

Carlos
Titre: Re : NFS@Home
Posté par: MDodier le 20 September 2015 à 18:42
I'm already on ower bi-weekly project that will endup september 24th.

Unfortunatly, it will be already follow by ower Fall Challange from september 25th up until october 11th.

NFS may be submit for the bi-weekly project afterward those two chalange.

Here you'll find the "Projet de la quinzaine" topic (bi-weekly projetc)  http://forum.boinc-af.org/index.php/topic,3417.0.html (http://forum.boinc-af.org/index.php/topic,3417.0.html)

Some members are and will maintain there production on NFS meanwhile those two activities will take place.
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 30 September 2015 à 21:05
Regarding 2,1285- sieve, wus are being processed in less than 15 mins, so 520 points per hour per thread. Still to process ~217k tasks.

2,1285- will go through 3700M.

After we complete 2,1285- we will pick up G6p490b.
Titre: Re : NFS@Home
Posté par: MDodier le 30 September 2015 à 21:11
Thanks Carlos for the information
Titre: Re : NFS@Home
Posté par: naz le 30 September 2015 à 22:02
Hi Carlos. I would want to calculate with my smartphone. In when tasks possible to calculate under Android?
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 30 September 2015 à 22:26
Hey naz, not in the near future I see an Android sieve client.
Titre: Re : Re : NFS@Home
Posté par: Carlos Pinho le 04 October 2015 à 20:48

After we complete 2,1285- we will pick up G6p490b.

NFS@Home is already distributing G6p490b tasks. Long way in front of us to q=1500M....
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 01 November 2015 à 10:32
6,490b was pushed to 1600M.
90,000 tasks to be done with leftovers.

Thank you for your support.

Carlos
Titre: Re : NFS@Home
Posté par: Jakez Sulli le 07 January 2016 à 07:20
 :kookoo: Le serveur NFS sera coupé à partir de ce matin jusqu'à vendredi après-midi pour relocalisation dans un autre centre de données.

http://escatter11.fullerton.edu/nfs/forum_thread.php?id=622#1628 (http://escatter11.fullerton.edu/nfs/forum_thread.php?id=622#1628)
Titre: Re : NFS@Home
Posté par: ousermaatre le 07 January 2016 à 14:54
merci Jakez, j'ai mis ton message dans les brèves du portail.  :jap:
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 27 June 2016 à 22:02
Hi,

Can I request support from you all to run lasieve5f application where we queued more than 1M wus to sieve 6,383-, 7,353+, 7,353-, and 2,1009+composites.

Thank you in advance,

Carlos
NFS@Home Moderator
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 04 July 2016 à 12:39
Name: Need Fast Ships, Pirates Ahoy NFS@Home Challenge
Status:Upcoming
Project:NFS@Home
Issued by Anguillan Pirates
Start time: 2016-07-10 00:00 UTC
End time:2016-07-17 00:00 UTC

http://boincstats.com/en/stats/challenge/team/chat/799
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 04 July 2016 à 16:31
More than 2M wus to process. Come and join the Pirates.
Titre: Re : NFS@Home
Posté par: modesti le 04 July 2016 à 21:21
L'AF is already in ;)
Anyway, thanks a lot for the invitation :jap:
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 08 July 2016 à 16:46
We have a lot of wus from all three applications ready to be processed.
Have fun on the challenge.
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 01 October 2016 à 20:47
We have a set of 750k 16e wus (lasieve5f application) to immediately start crushing and more 2M to come afterwards. Every help is appreciated.

Go to:

https://escatter11.fullerton.edu/nfs/prefs.php?subset=project

and set:

lasieved - app for RSALS subproject, uses less than 0.5 GB memory: no
lasievee - work nearly always available, uses up to 0.5 GB memory: no
lasievef - used for huge factorizations, uses up to 1 GB memory: no
lasieve5f - used for huge factorizations, uses up to 1 GB memory: yes

Kind Regards,

Carlos
NFS@Home Moderator
Titre: Re : NFS@Home
Posté par: naz le 03 October 2016 à 16:20
Hi Carlos,

It would be possible that you speaks to us about NFS! The utility of the results etc. And that they are the evolutions. As for example a 17th continuation Lattice Sieve, 18th Lattice Sieve, etc.

Best regard

Naz

ps : Sory for my bad English, I am French  :D
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 03 October 2016 à 21:31
7/10-14/10 Need Faster Ships, Pirates Ahoy part deux NFS@Home Challenge

http://boincstats.com/en/stats/challenge/team/chat/815

Name Need Faster Ships, Pirates Ahoy part deux NFS@Home Challenge
Status Upcoming
Project NFS@Home
Issued by Anguillan Pirates
Start time 2016-10-07 00:00 UTC
End time 2016-10-14 00:00 UTC
Late entrants allowed? Yes
Number of teams participating » 7
Number of users participating 0
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 03 October 2016 à 21:36
Hi Naz,

The goal of NFS@Home is to factor large numbers using the Number Field Sieve algorithm. After setting up two polynomials and various parameters, the project participants "sieve" the polynomials to find values of two variables, called "relations," such that the values of both polynomials are completely factored. Each workunit finds a small number of relations and returns them. Once these are returned, the relations are combined together into one large file then start the "postprocessing." The postprocessing involves combining primes from the relations to eliminate as many as possible, constructing a matrix from those remaining, solving this matrix, then performing square roots of the products of the relations indicated by the solutions to the matrix. The end result is the factors of the number.

NFS@Home is interested in the continued development of open source, publicly available tools for large integer factorization. Over the past couple of years, the capability of open source tools, in particular the lattice sieve of the GGNFS suite and the program msieve, have dramatically improved.

Integer factorization is interesting both mathematical and practical perspectives. Mathematically, for instance, the calculation of multiplicative functions in number theory for a particular number require the factors of the number. Likewise, the integer factorization of particular numbers can aid in the proof that an associated number is prime. Practically, many public key algorithms, including the RSA algorithm, rely on the fact that the publicly available modulus cannot be factored. If it is factored, the private key can be easily calculated. Until quite recently, RSA-512, which uses a 512-bit modulus (155 digits), was used. As recently demonstrated by factoring the Texas Instruments calculator keys, these are no longer secure.

NFS@Home BOINC project makes it easy for the public to participate in state-of-the-art factorizations. The project interests is to see how far we can push the envelope and perhaps become competitive with the larger university projects running on clusters, and perhaps even collaborating on a really large factorization.

The numbers are chosen from the Cunningham project. The project is named after Allan Joseph Champneys Cunningham, who published the first version of the factor tables together with Herbert J. Woodall in 1925. This project is one of the oldest continuously ongoing projects in computational number theory, and is currently maintained by Sam Wagstaff at Purdue University.

Concerning target size there are four three sievers applications available:

lasieved - app for RSALS subproject, uses less than 0.5 GB memory: yes or no
lasievee - work nearly always available, uses up to 0.5 GB memory: yes or no
lasievef - used for huge factorizations, uses up to 1 GB memory: yes or no
lasieve5f - used for huge factorizations, uses up to 1 GB memory: yes or no

How's the credit distributed per target wu?

lasieved - 36
lasievee - 44
lasievef - 130 (not anymore)
lasieve5f - 130

Why the difference in credits?

The more valuable calculation gets more credit. Especially for 16e (lasievef+lasieve5f), the extra credit also awards for the large memory usage.

What project uses what application?

lasieved - Oddperfect, n^n+(n+1)^(n+1), Fibonacci, Lucas, Cunningham, Cullen and Woodall for SNFS difficulty below 250.
lasievee - Cunningham, Oddperfect, Fibonacci, Lucas or other for SNFS difficulty above 250 to ~280.
lasievef - push the state of art for very difficulty factorizations, above SNFS difficulty of 280
lasieve5f - push the state of art for very difficulty factorizations, above SNFS difficulty of 280

The limits depends upon the boundaries chosen for the poly and characteristics of the number being factored. It's advanced math related.

For a (much) more technical description of the NFS, see:
- Wikipedia article (http://en.wikipedia.org/wiki/Number_field_sieve)
- Briggs' Master's thesis (http://scholar.lib.vt.edu/theses/available/etd-32298-93111/unrestricted/etd.pdf)
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 03 October 2016 à 21:37
Factoring an integer using NFS - from msieve readme.nfs file

Factoring an integer using NFS has 3 main steps:

1. Select Polynomial
2. Collect Relations via Sieving (NFS@Home is dedicated to this step)
3. Combine Relations


1. Polynomial Selection


Step 1 of NFS involves choosing a polynomial-pair (customarily shortened to 'a polynomial') to use in the other NFS phases. The polynomial is completely specific to the number you need factored, and there is an  effectively infinite supply of polynomials that will work. The quality of the polynomial you select has a dramatic effect on the sieving time; a *good* polynomial can make the sieving proceed two or three times faster compared to an average polynomial. So you really want a *good* polynomial, and for large problems should be prepared to spend a fair amount of time looking for one.

Just how long is too long, and exactly how you should look for good polynomials, is currently an active research area. The approximate consensus is that you should spend maybe 3-5% of the anticipated sieving time looking for a good polynomial.

We measure the goodness of a polynomial primarily by its Murphy E score; this is the probability, averaged across all the  possible relations we could encounter during the sieving, that an 'average' relation will be useful for us. This is usually a very small number, and the E score to expect goes down as the number to be factored becomes larger. A larger E score is better.

Besides the E score, the other customary measure of polynomial goodness is the 'alpha score', an approximate measure of how much of an average relation is easily 'divided out' by dividing by small primes. The E score computation requires that we know the approximate alpha value, but alpha is also of independent interest. Good alpha values are negative, and negative alpha with large aboslute value is better. Both E and alpha were first  formalized in Murphy's wonderful dissertation on NFS polynomial selection.

With that in mind, here's an example polynomial for a 100-digit input of no great significance:

R0: -2000270008852372562401653
R1:  67637130392687
A0: -315744766385259600878935362160
A1:  76498885560536911440526
A2:  19154618876851185
A3: -953396814
A4:  180
skew 7872388.07, size 9.334881e-014, alpha -5.410475, combined = 1.161232e-008

As mentioned, this 'polynomial' is actually a pair of polynomials, the Rational polynomial R1 * x + R0 and the 4-th degree Algebraic polynomial

   A4 * x^4 + A3 * x^3 + A2 * x^2 + A1 * x + A0

The algebraic polynomial is of degree 4, 5, or 6 depending on the size of the input. The 'combined' score is the Murphy E value for this polynomial, and is pretty good in this case. The other thing to note about this polynomial-pair is that the leading algebraic coefficient is very small, and each other coefficient looks like it's a fixed factor larger than the next higher- degree coefficient. That's because the algebraic polynomial expects the sieving region to be 'skewed' by a factor equal to the reported skew above.
The polynomial selection determined that the 'average size' of relations drawn from the sieving region is smallest when the region is 'short and wide' by a factor given by the skew. The big advantage to skewing the  polynomial is that it allows the low-order algebraic coefficients to be large, which in turn allows choosing them to optimize the alpha value. The modern algorithms for selecting NFS polynomials are optimized to work when the skew is very large.

NFS polynomial selection is divided into two stages. Stage 1 chooses the leading algebraic coefficient and tries to find the two rational polynomial coefficients so that the top three algebraic coefficients are small. Because stage 1 doesn't try to find the entire algebraic polynomial, it can use powerful sieving techniques to speed up this portion of the search. When stage 1 finds a 'hit', composed of the rational and the leading algebraic polynomial coefficient, Stage 2 then finds the complete polynomial pair and tries to optimize both the alpha and E values. A single stage 1 hit can generate many complete polynomials in stage 2. You can think of stage 1 as a very compute-intensive net that tries to drag in something good, and stage 2 as a shorter but still compute-intensive process that tries to polish things.

2. Sieving for Relations

The sieving step is not the theoretically most complex part of the algorithm of factorization, but it is the most time consuming part because it iterates over a large domain with some expensive calculations like division and modulo, although some of these can be avoided by using logarithms.
In general optimization of the sieving step will give the biggest reduction in actual running time of the algorithm. It is easy to use a large amount of memory in this step, and one should be aware of this and try to reuse arrays and use the smallest possible data types. The factor bases can for record factorizations contain millions of elements, so one should try to obtain the best on-disk/in-memory tradeoff.

The purpose of the sieving step is to find usable relations, i.e. elements (a, b) with the following properties
• gcd(a, b) = 1
• a + bm is smooth over the rational factor base
• b^deg(f)*f(a/b) is smooth over the algebraic factor base

Finding elements with these properties can be done by various sieving methods like the classical line sieving or the faster lattice sieving, the latter being used at NFS@Home.

The lattice sieving was proposed by John Pollard in "Lattice sieving, Lecture Notes in Mathematics 1554 (1991), 43–49.". The factor bases are split into smaller sets and then the elements which are divisible by a large prime q are sieved. The sizes of the factor bases have to be determined empirically, and are dependent on the precision of the sieving code, if all smooth elements are found or if one skips some by using special-q methods.

One advantage the lattice siever has is the following. The yield rate for the line siever decreases over time because the norms get bigger as the sieve region moves away from the origin. The lattice siever brings the sieve region "back to the origin" when special-q's are changed. This might be its biggest advantage (if there is one).

3. Combine Relations

The last phase of NFS factorization is a group of tasks collectively referred to as 'NFS postprocessing'. You need the factor base file described in the sieving section (only the polynomial is needed, not the actual factor base entries), and all of the relations from the sieving. If you have performed sieving in multiple steps or on multiple machines, all of the relations that have been produced need to be combined into a single giant file. And by giant I mean *really big*; the largest NFS jobs that I know about currently have involved relation files up to 100GB in size.
Even a fairly small 100-digit factorization generates perhaps 500MB of disk files, so you are well advised to allow plenty of space for relations. Don't like having to deal with piling together thousands of files into one? Sorry, but disk space is cheap now.

With the factor base and relation data file available, is is time to perform NFS postprocessing.However, for larger jobs or for any job where data has to be moved from machine to machine, it is probably necessary to divide the postprocessing into its three fundamental tasks. These are described below:

NFS Filtering
-------------

The first phase of NFS postprocessing is the filtering step. This analyzes the input relation file, sets up the rest of the filtering to ignore relations  that will not be useful (usually 90% of them or more), and produces  a 'cycle file' that describes the huge matrix to be used in the next  postprocessing stage.

To do that, every relation is assigned a unique number, corresponding to its line number in the relation file. Relations are numbered starting from zero, and part of the filtering also adds 'free relations' to the dataset. Free relations are so-called because it does not require any sieving to find them; these are a unique feature of the number field sieve, although there will never be very many of them. Filtering is a very complex process. If you do not have enough relations for filtering to succeed, no output  is produced other than complaints to that effect. If there are 'enough'  relations for filtering to succeed, the result is a 'cycle file'.

How many relations is 'enough'? This is unfortunately another hard question, and answering it requires either compiling large tables of factorizations of similar size numbers, running the filtering over and over again, or  performing simulations after a little test-sieving. There's no harm in  finding more relations than you strictly need for filtering to work at  all, although if you mess up and find twice as many relations as you need  then getting the filtering to work can also be difficult. In general the  filtering works better if you give it somewhat more relations than it stricly needs, maybe 10% more. As more and more relations are added, the size of the generated matrix becomes smaller and smaller, partly because the filtering can throw away more and more relations to keep only the 'best' ones.

NFS Linear Algebra
------------------

The linear algebra step constructs the matrix that was generated from the filtering, and finds a group of vectors that lie in the nullspace of that matrix. Finding nullspace vectors for a really big matrix is an enormous amount of work. To do the job, Msieve uses the block Lanczos algorithm with a large number of performance optimizations. Even with fast code like that, solving the matrix can take anywhere from a few minutes (factoring a 100-digit input leads to a matrix of size ~200000) to several months  (using the special number field sieve on 280-digit numbers from the  Cunningham Project usually leads to matrices of size ~18 million). Even worse, the answer has to be *exactly* correct all the way through; there's no throwing away intermediate results that are bad, like the other NFS phases can do. So solving a big matrix is a severe test of both your computer and your patience.

Multithreaded Linear Algebra
----------------------------

The linear algebra is fully multithread aware. Note that the solver is primarily memory bound, and using as many threads as you have cores on your multicore processor will probably not give the best performance. The best number of threads to use depends on the underlying machine; more recent processors have much more powerful memory controllers and can continue speeding up as more and more threads are used. A good rule of thumb to start off is to try two threads for each physical package on your motherboard; even if it's not the fastest choice, just two or four threads gets the vast majority of the potential speedup for the vast majority of machines.

Finally, note that the matrix solver is a 'tightly parallel' computation, which means if you give it four threads then the machine those four threads run on must be mostly idle otherwise. The linear algebra will soak up most of the memory bandwidth your machine has, so if you divert any of it away to something else then the completion time for the linear algebra will suffer.

As for memory use, solving the matrix for a 512-bit input is going to  require around 2GB of memory in the solver, and a fast modern processor running  the solver with four threads will need about 36 hours. A slow, less modern processor that is busy with other stuff could take up to a week!

NFS Square Root
---------------

With the solution file from the linear algebra in hand, the last phase of  NFS postprocessing is the square root.
'an NFS square root' is actually two square roots, an easy one over the integers and a very complex one over the algebraic number field described by the NFS polynomial we selected. Traditionally, the best algorithm for the algebraic part of the NFS square root is the one described by Montgomery and Nguyen, but that takes some quite sophisticated algebraic number theory smarts.
Every solution generated by the linear algebra is called 'a dependency', because it is a linearly dependent vector for the matrix we built.
The square root in Msieve proceeds one dependency at a time; it requires all the relations from the data file, the cycle file from the filtering, and the dependency file from the linear algebra. Technically the square root can be speed up if you process multiple dependencies in parallel, but doing one at a time makes it possible to adapt the precision of the numbers used to save a great deal of memory toward the end of each dependency.
Each dependency has a 50% chance of finding a nontrivial factorization of the input.

msieve is the client used for post-processing phase
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 03 October 2016 à 21:40
The Cunningham factorizations are published here:

http://homes.cerias.purdue.edu/~ssw/cun/

More precisely at  http://homes.cerias.purdue.edu/~ssw/cun/page132.

Reserved integers for NFS@Home grid at: http://homes.cerias.purdue.edu/~ssw/cun/who
Titre: Re : NFS@Home
Posté par: JeromeC le 03 October 2016 à 23:59
Ouch :eek: y'a de la traduction dans l'air !! mais ça va faire mal !!  :bouh:
Titre: Re : NFS@Home
Posté par: naz le 04 October 2016 à 13:09
thank you for taking the time to all these details Carlos  :jap:
So now...  :hyperbon: :hyperbon: :hyperbon: :)
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 05 October 2016 à 22:39
You guys can join even after the challenge, there's plenty of work to be done.
Titre: Re : NFS@Home
Posté par: [AF>Libristes] nico8313 le 05 October 2016 à 23:07
Hello Carlos  :hello:

it's possible to create a GPU application?
and Thank you for the added work
best regards
Titre: Re : Re : NFS@Home
Posté par: Carlos Pinho le 06 October 2016 à 21:09
Hello Carlos  :hello:

it's possible to create a GPU application?
and Thank you for the added work
best regards

Hi nico,

For the moment there's no need to create a GPU application despite the fact that the Polynomial Selection stage uses GPU (Nvidia CUDA) capability for the GNFS numbers.
There was a discussion about this at mersenneforum.org but stayed in standby. It's not high priority task at the moment.

Carlos
Titre: Re : NFS@Home
Posté par: naz le 08 October 2016 à 18:23
Hi Carlos,

Have you a graph of the same style as the yoyo even our progress?

http://stats.distributed.net/project/ogr_status.php?project_id=28
Titre: Re : Re : NFS@Home
Posté par: Carlos Pinho le 09 October 2016 à 09:23
Hi Carlos,

Have you a graph of the same style as the yoyo even our progress?

http://stats.distributed.net/project/ogr_status.php?project_id=28

Hi Naz,

It's difficult to forecast the number of tasks for a lasieve5f factorisation therefore there won't be any progress bar on the webpage. This follows the fact that there are a lot of variables that influence the build of the matrix for the linear algebra phase, this one not done by the NFS users, it's done on clusters. If you follow the tasks sometimes we are processing one number and then after we are processing other number, and then the former one again which is pushed a little further. This behave has to do with the failure on building the matrix and hence the need for more relations from sieve.

Carlos
Titre: Re : NFS@Home
Posté par: naz le 09 October 2016 à 09:29
OK! I understand! Thanks  :jap:
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 09 October 2016 à 11:59
Sometimes even on the small applications as lasieved and lasievee you need to add more work for a particular number after the initial number of tasks is per-determinated.
This case was real with me when I was trying to post-process a sieved lasieved integer. I managed to build the matrix but the LA on 4 cores would take 200 hours, adding more tasks to sieve we manage to decrease the LA to 80 hours.

All of this to tell you when we have a grant to use the cluster it's wise to get the smallest matrix so it can use less CPU time on the cluster so we can you use more often instead of using the grant in one single LA. For this case adding more tasks in steps until the matrix is optimal is the way to go and impossible to forecast how many tasks/wus are needed.
Hope this helps answering your questions. Any queries please let me know.

BTW, I hope to see you all soon crunching some of the lasieve5f tasks.
Titre: Re : NFS@Home
Posté par: naz le 09 October 2016 à 12:58
Je ne reçois que des taches 14,15 et 16eme lattice. Pas de lasieve5f :??:
Titre: Re : NFS@Home
Posté par: Xe120 le 09 October 2016 à 13:18
lasieved = 14
lasievee = 15
lasieve5f = 16

C'est juste que le nom est différent.
Titre: Re : NFS@Home
Posté par: naz le 09 October 2016 à 14:27
Oups! Ok merci  :kookoo:
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 27 October 2016 à 13:19
If you are looking for 14e badge please serve yourself because we would like to reach 1000 14e (lasieved) factorizations by the end of the year. The ''Now Sieving'' should be completed as well as the ones in ''Queued''. I am processing C187_121_102 which is to be completed within 9 hours. Then I have reserved P223 (284688...)+1 which I don't know if I will be able to build a matrix because last time I tried to process it it was consuming more than 14GB of memory on my laptop!!!

Overall 300k 14e (lasieved) needs to be sieved by NFS@Home and then all of them post-processed in the back stage to achieve 1000 factorizations.

Carlos
Titre: Re : NFS@Home
Posté par: JeromeC le 27 October 2016 à 17:22
:gno: :gni: :gnu:
Titre: Re : NFS@Home
Posté par: Androgilles33 le 07 November 2016 à 15:37
Bonjour les gars,

Ayant des problèmes avec plusieurs projets, j'ai décidé de me lancer dans NFS@Home !

Citer
À propos de NFS @ Home

NFS @ Home est un projet de recherche qui utilise des ordinateurs connectés à Internet pour effectuer l'étape de criblage du réseau dans la factorisation de Sieve de champ numérique de grands nombres entiers. En tant que jeune étudiant, vous avez acquis votre première expérience de rupture d'un entier en facteurs premiers, tels que 15 = 3 * 5 ou 35 = 5 * 7. NFS @ Home est une continuation de cette expérience, seulement avec des nombres entiers qui sont des centaines de Chiffres long. La plupart des grandes factorisations récentes ont été réalisées principalement par de grandes grappes d'universités. Avec NFS @ Home, vous pouvez participer à la factorisation de pointe en téléchargeant et en exécutant un programme gratuit sur votre ordinateur.

La factorisation des nombres entiers est intéressante tant du point de vue mathématique que du point de vue pratique. Mathématiquement, par exemple, le calcul des fonctions multiplicatives dans la théorie des nombres pour un nombre particulier nécessite les facteurs du nombre. De même, la factorisation entière de nombres particuliers peut aider à prouver qu'un nombre associé est premier. Pratiquement, de nombreux algorithmes de clé publique, y compris l'algorithme RSA, reposent sur le fait que le module accessible au public ne peut pas être pris en compte. Si elle est prise en compte, la clé privée peut être facilement calculée. Jusqu'à tout récemment, RSA-512, qui utilise un module de 512 bits (155 chiffres), était couramment utilisé mais peut maintenant être facilement cassé.

Les numéros que nous factorisons sont choisis dans le projet Cunningham. Lancé en 1925, il est l'un des plus anciens projets continuellement en cours dans la théorie des nombres informatiques. La troisième édition du livre, publiée par l'American Mathematical Society en 2002, est disponible en téléchargement gratuit. Tous les résultats obtenus depuis, y compris ceux de NFS @ Home, sont disponibles sur le site Web du projet Cunningham.

NFS @ Home est hébergé à la California State University Fullerton et est soutenu en partie par la National Science Foundation par l'entremise des ressources XSEDE fournies par le Texas Advanced Computing Center, le San Diego Supercomputer Center, le National Center for Supercomputing Applications et Purdue University Numéro TG-DMS100027.

(Gilles D*****) et NFS@Home.
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 18 November 2016 à 06:23
lots of wus to process, please check https://escatter11.fullerton.edu/nfs/numbers.html
Titre: Re : NFS@Home
Posté par: Maurice Goulois le 18 November 2016 à 06:51
Plus de 480K uts !  :hyperbon: :hyperbon: :hyperbon:
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 17 December 2016 à 22:31
At Sam's request, NFS@Home will factor the smallest five Bernoulli/Euler numbers. Details of the project are at http://homes.cerias.purdue.edu/~ssw/bernoulli/index.html (http://homes.cerias.purdue.edu/~ssw/bernoulli/index.html)

These numbers are below.

c193 E,162  4433412106658741087933232089378724397906206646379922900251289622751707498087510521673827952479387101476055350479732960366249816761504231219756875500959872022188279008190800161931436720491245839
c198 N,228  296569147970687972018305992022305479444800534802596868167612154770357922331944290632711595707525008075052827152208842160028802232479554533007880867580604612496376331014306272671066168224885301922139
c200 E,192  38520071631718399385569612596870425832813667446322377950818788712501250551228139856601338294522891553906379588542169718154722596682565080979763328866848000587896648249672528064585979301197677287093573
c202 E,148  3288719081408570989091469257524004512856169702169344935878936181981622152040418051052138482890793620819361069696255059446484398066989546855559239020999441385627314503459380878410208878448073950298808719
c208 N,248  1832286501854003138052676989520560424403225562007684729403530852600313798697523554946311839528638518912406077110670650069044969139294389942454684694590767301444969837766981072288000680734361752459501676835073

Application is lasieve5f and more than 1.7M wus to be processed.

Carlos
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 02 April 2018 à 23:06
Still alive and with lots do be done at NFS.
Titre: Re : NFS@Home
Posté par: modesti le 04 September 2020 à 15:04
Déterrage de topic (https://smilies.4-user.de/include/Garten/smilie_ga_009.gif) (https://smilies.4-user.de)

Viens de voir apparaître de nouvelles applis:
16e Lattice Sieve for smaller numbers 1.10
15e Lattice Sieve for smaller numbers 1.10

2 applis de plus pour faire des heures et choper des étoiles WUprop :hyperbon: :hyperbon: :gniak:
Titre: Re : NFS@Home
Posté par: naz le 04 September 2020 à 15:36
Super  :bipbip:
Titre: Re : NFS@Home
Posté par: cougarpelardou le 04 September 2020 à 16:40
Merci de l'info. Je reviens sur NFSaprès le sprint Yoyo.  :jap:
Titre: Re : Re : NFS@Home
Posté par: fzs600 le 04 September 2020 à 16:59
Déterrage de topic (https://smilies.4-user.de/include/Garten/smilie_ga_009.gif) (https://smilies.4-user.de)

Viens de voir apparaître de nouvelles applis:
16e Lattice Sieve for smaller numbers 1.10
15e Lattice Sieve for smaller numbers 1.10

2 applis de plus pour faire des heures et choper des étoiles WUprop :hyperbon: :hyperbon: :gniak:
Pas seulement, les 14e Lattice Sieve et 15e Lattice Sieve ont disparus ou alors ils ont changés de nom ?

https://escatter11.fullerton.edu/nfs/forum_thread.php?id=775&postid=2096 (https://escatter11.fullerton.edu/nfs/forum_thread.php?id=775&postid=2096)
Citer
Deux nouvelles applications ont été lancées, lasievee_small et lasievef_small. Au fur et à mesure que le nombre d'utilisateurs augmente, l'application lasievee est devenue largement inadaptée, tandis que la file d'attente pour l'application lasievee s'est allongée. Pour tenter de compenser, l'utilisation de la mémoire de travail et la durée d'exécution ont augmenté afin d'étendre les capacités des applications. Pour remédier à ces problèmes, ces nouvelles applications offriront une plus grande flexibilité pour choisir l'application la plus appropriée à la taille du nombre pris en compte, tout en maintenant l'utilisation de la mémoire et la durée d'exécution à un niveau plus raisonnable. Si vous avez modifié les préférences de votre projet pour n'exécuter que des applications spécifiques, vous voudrez peut-être ajuster vos paramètres pour activer ces nouvelles applications. Merci pour vos contributions à NFS@Home !

Traduit avec www.DeepL.com/Translator (version gratuite)
Titre: Re : NFS@Home
Posté par: modesti le 04 September 2020 à 18:55
C'est peut-être juste que t'en as pas eu, parce que j'ai aussi des 14e et des 15e "normales" (c'était pas prévu, je voulais prendre du Yoyo pour le sprint, pas vu que NFS était ouvert)
Titre: Re : Re : NFS@Home
Posté par: fzs600 le 04 September 2020 à 19:09
C'est peut-être juste que t'en as pas eu, parce que j'ai aussi des 14e et des 15e "normales" (c'était pas prévu, je voulais prendre du Yoyo pour le sprint, pas vu que NFS était ouvert)
C'est dans les préférences que le nom a changer.
Titre: Re : NFS@Home
Posté par: Maeda le 04 September 2020 à 19:33
Les 15 plantent sur mon Linux, les 14 ont l'air de passer. J'ai posté sur le forum je vais voir...
Edit: quelques 14 plantent aussi... Décidément, j'ai peu de crédit sur ce projet, je sens que ça ne va pas changer...
Titre: Re : NFS@Home
Posté par: Jakez Sulli le 05 September 2020 à 12:29
 :kookoo: Tout passe chez mois sous Ubuntu 18
Titre: Re : NFS@Home
Posté par: modesti le 25 September 2020 à 11:59
Viens de faire un tour sur mon compte (ou plutôt sur celui de l'AF pour lequel je calcule :D). M'étais pas rendue compte que les erreurs étaient renvoyées de suite, même avec BSF. Donc je peux déjà dire que sur 141 tâches 15e small, 19 sont parties en erreur de calcul, toutes à 0 seconde.
Ça fait 13.48%.

Ya aussi une 16e V5 normale qui a planté.

Si je fais le ratio erreurs (20) par rapport à toutes les tâches en cours (1177), ça fait 1.7% - ce qui est ma foi plus que raisonnable :D
Titre: Re : NFS@Home
Posté par: [AF] fansyl le 25 September 2020 à 16:48
J'ai des UTs 16e v5 1.11 qui prennent des heures, genre 8h sur un Xeon E5-2667 v3... Je les annule ou je les laisse tourner ?

PS: oui ce message est un appel au secours pour maximiser mes chances au RAID !   :cry:
Titre: Re : NFS@Home
Posté par: JeromeC le 25 September 2020 à 17:01
"Prendre des heures" c'est une chose, avoir un % d'avancement qui progresse + du CPU bien utilisé par le process de la tâche + du blabla (agréable) qui s'inscrit dans les (éventuels) fichiers de log dans le dossier de slot de la tâche, c'en est une autre. Et surtout, ne pas dépasser la deadline.

En prime, un petit tour sur la page des résultats WUProp pour voir comme ce type de tâche se comporte d'habitude, ça permet de rassurer. Ou pas :)
Titre: Re : Re : NFS@Home
Posté par: [AF] Xenon le 25 September 2020 à 18:27
Viens de faire un tour sur mon compte (ou plutôt sur celui de l'AF pour lequel je calcule :D). M'étais pas rendue compte que les erreurs étaient renvoyées de suite, même avec BSF. Donc je peux déjà dire que sur 141 tâches 15e small, 19 sont parties en erreur de calcul, toutes à 0 seconde.
Ça fait 13.48%.

Ya aussi une 16e V5 normale qui a planté.

Si je fais le ratio erreurs (20) par rapport à toutes les tâches en cours (1177), ça fait 1.7% - ce qui est ma foi plus que raisonnable :D

Idem sur 50 taches : 48 en erreur et 2 valide pour 15e small 1.10 mais uniquement sur Ubuntu 20, sur Windows pas d'erreur.
Titre: Re : NFS@Home
Posté par: modesti le 25 September 2020 à 20:03
Ah vi, j'oubliais de préciser: Manjaro dernière version
Titre: Re : NFS@Home
Posté par: Prof le 26 September 2020 à 01:07
Pour une fois on doit avoir de la chance en tant que pommeux!!!! :bounce: :bounce:
0 erreur quelle que soit l’application!!!!!  :D :siflotte: :gniak: :hyperbon:
Titre: Re : NFS@Home
Posté par: JeromeC le 27 September 2020 à 11:07
Mmmm toujours pas de Mac en vue chez moi... y'a plus de service pro chez la pomme (ou plutôt : il est devenu complètement covid-défaillant).
Titre: Re : NFS@Home
Posté par: PhilTheNet le 24 November 2020 à 10:16
petite question :

lasieved - very small numbers, uses less than 0.5 GB memory, work may be infrequently available: yes
lasievee_small - small numbers, uses up to 0.8 GB memory: yes
lasievee - medium numbers, uses up to 1 GB memory: no
lasievef_small - large numbers, uses up to 1 GB memory: no
lasieve5f - huge numbers, uses up to 1.25 GB memory: no

A quoi correspond "15e_small credit" dans la liste ci-dessus ?

Thks
Titre: Re : NFS@Home
Posté par: franky82 le 24 November 2020 à 16:36
Avec tatonnement, "15e Lattice Sieve for smaller numbers" = lasievee_small - small numbers !
(14e Lattice Sieve = lasieved - very small numbers et j'ai pas testé pour les autres : je cherchais aussi le premier)
Titre: Re : NFS@Home
Posté par: Maurice Goulois le 24 November 2020 à 17:11
lasievee_small pour 15e small
lasievef_small  pour 16e small
Titre: Re : NFS@Home
Posté par: PhilTheNet le 24 November 2020 à 17:13
Merci

Titre: Re : NFS@Home
Posté par: JeromeC le 24 November 2020 à 19:49
Sans talonnements (https://forum.boinc-af.org/index.php/topic,8357.msg505809.html#msg505809) :)

(enfin si mais le tatonnage avait déjà été fait)

lasieved 14e Lattice Sieve
lasievee 15e Lattice Sieve
lasieve5f 16e Lattice Sieve V5
lasievee_small 15e Lattice Sieve for smaller numbers
lasievef_small 16e Lattice Sieve for smaller numbers
Titre: Re : NFS@Home
Posté par: Maeda le 25 November 2020 à 08:01
Ils peuvent pas les nommer de façon à les comprendre :??:. OK c'est de maths, mais de là à rendre tout complexe :siflotte:
Titre: Re : NFS@Home
Posté par: modesti le 25 November 2020 à 10:03
d = 4e lettre de l'alphabet => 14
e = 5e lettre de l'alphabet => 15
f = 6e lettre de l'alphabet => 16
Facile :D
Titre: Re : NFS@Home
Posté par: melektha le 25 November 2020 à 10:31
Et voilà, tous mouchés  :D
Titre: Re : NFS@Home
Posté par: Maeda le 02 September 2021 à 06:58
jeu. 02 sept. 2021 06:55:49 | NFS@Home | Sending scheduler request: Requested by user.
jeu. 02 sept. 2021 06:55:49 | NFS@Home | Requesting new tasks for CPU
jeu. 02 sept. 2021 06:55:50 | NFS@Home | Scheduler request completed: got 0 new tasks
jeu. 02 sept. 2021 06:55:50 | NFS@Home | No tasks sent
jeu. 02 sept. 2021 06:55:50 | NFS@Home | No tasks are available for 16e Lattice Sieve V5
jeu. 02 sept. 2021 06:55:50 | NFS@Home | Project requested delay of 7 seconds
Pourtant j'en vois sur le statut serveur, serait-ce uniquement sur Linux ? Quelqu'un d'autre (sur Linux à priori) a le même comportement ?
Comme je n'ai pas le "limit of tasks in progress", j'en déduis que ce n'est pas un problème de cache.
Titre: Re : NFS@Home
Posté par: cougarpelardou le 02 September 2021 à 08:14
Cela semble normal

État de l'exécution
Travail
Tasks ready to send   0
Tâches en cours   247617

Certains se sont goinfrés ...  :D dès 4h00 https://statseb.boinc-af.org/nb_ut.py?projet=105

Utilisateurs
With credit   17827
With recent credit   1350
Registered in past 24 hours   4900

Mais bon si l'admin a été prévenu du sprint Il va charger de nouvelles taches.
Titre: Re : NFS@Home
Posté par: Maeda le 02 September 2021 à 09:16
OK, bon j'ai un petit stock de quelques jours calculées, rien en attendant. Espérons qu'il en rajoute vite.
Titre: Re : NFS@Home
Posté par: cougarpelardou le 02 September 2021 à 10:16
410 UT disponibles ... Faut acheter Now ...
Titre: Re : NFS@Home
Posté par: JeromeC le 03 January 2022 à 22:00
Les écossais ont créé un challenge NFS sur BoincStats (https://www.boincstats.com/stats/challenge/team/chat/1098), et, oh surprise, ils produisent 15 fois plus que les suivants :D

Et ça fait son petit effet

(https://cdn.discordapp.com/attachments/731472504216092712/927067543502475285/unknown.png)

Visiblement nous sommes dedans, donc notre père (ou mère) fondateur(trice) nous a inscrit :)

Mais bon ça finit le 7, alors comment dire...
Titre: Re : NFS@Home
Posté par: Maeda le 31 March 2022 à 07:09
Une pensée pour Cocagne que je viens de dépasser au général sur NFS@home.
Titre: Re : NFS@Home
Posté par: JeromeC le 31 March 2022 à 09:33
:/
Titre: Re : NFS@Home
Posté par: modesti le 31 March 2022 à 17:10
(https://smilies.4-user.de/include/Traurig/smilie_tra_167.gif) (https://smilies.4-user.de)
Titre: Re : NFS@Home
Posté par: bill1170 le 09 June 2022 à 09:41
Le serveur est planté !
Titre: Re : NFS@Home
Posté par: Carlos Pinho le 28 October 2022 à 17:01
Hi all. Thank you so much for the CPU power deployed until today on NFS@Home, much appreciated. Not sure if I shared this before but in the past the bottleneck on this project was on the post-processing after the work done on the sieve side, BOINC calculations. Nowadays the post-processing, the linear algebra phase, is done on a cluster of GPU's. Now the delays of the planned work is on BOINC side...heheh...And nope, there is no plans to work on a GPU client for the BOINC sievers.

Currently we are sieving the hardiest SNFS integer ever sieved on NFS, the 2,1091+, 16e Lattice Sieve V5 siever app, wu name is S2p1091_XXXXXXX_0. Still long way up until we sieve this bastard!

Have fun.
Titre: Re : Re : NFS@Home
Posté par: fzs600 le 28 October 2022 à 17:09
Hi all. Thank you so much for the CPU power deployed until today on NFS@Home, much appreciated. Not sure if I shared this before but in the past the bottleneck on this project was on the post-processing after the work done on the sieve side, BOINC calculations. Nowadays the post-processing, the linear algebra phase, is done on a cluster of GPU's. Now the delays of the planned work is on BOINC side...heheh...And nope, there is no plans to work on a GPU client for the BOINC sievers.

Currently we are sieving the hardiest SNFS integer ever sieved on NFS, the 2,1091+, 16e Lattice Sieve V5 siever app, wu name is S2p1091_XXXXXXX_0. Still long way up until we sieve this bastard!

Have fun.
Citer
Bonjour à tous. Merci beaucoup pour la puissance CPU déployée jusqu'à aujourd'hui sur NFS@Home, très apprécié. Je ne sais pas si j'en ai déjà parlé, mais dans le passé, le goulot d'étranglement de ce projet se situait au niveau du post-traitement après le travail effectué du côté du tamis, les calculs BOINC. Aujourd'hui, le post-traitement, la phase d'algèbre linéaire, est effectué sur un cluster de GPU. Maintenant les retards du travail prévu sont du côté de BOINC...heheh...Et non, il n'est pas prévu de travailler sur un client GPU pour les tamiseurs BOINC.

Actuellement, nous sommes en train de tamiser l'entier SNFS le plus difficile jamais tamisé sur NFS, le 2,1091+, 16e Lattice Sieve V5 siever app, wu nom est S2p1091_XXXXXXX_0. Encore un long chemin à parcourir avant de tamiser ce bâtard !

Amusez-vous bien.

Traduit avec www.DeepL.com/Translator (version gratuite)
Titre: Re : NFS@Home
Posté par: JeromeC le 28 October 2022 à 19:36
:kookoo: hello Carlos, thanks for the info :D

We have lot's of maths enthusiasts on this forum, so they will sure continue to participate :)
Titre: Re : NFS@Home
Posté par: fzs600 le 01 January 2024 à 06:09
14
https://escatter11.fullerton.edu/nfs/forum_thread.php?id=706&postid=2426 (https://escatter11.fullerton.edu/nfs/forum_thread.php?id=706&postid=2426)
Citer
Au fil des ans, nous avons en grande partie éliminé les petits nombres des projets d'affacturage établis. Nous l'utilisons maintenant principalement pour travailler lentement sur les petits chiffres proches de la réforme ou si un nombre impair parfait ou aliquote nécessaire et de taille appropriée se présente.
Titre: Re : NFS@Home
Posté par: JeromeC le 01 January 2024 à 16:01
La première phrase de 2024 où je ne comprends rien :lol:
Titre: Re : Re : NFS@Home
Posté par: fzs600 le 01 January 2024 à 16:30
La première phrase de 2024 où je ne comprends rien :lol:
Je te rassure moi non plus.   :kookoo:
Titre: Re : NFS@Home
Posté par: [AF>Amis des Lapins] Jean-Luc le 01 January 2024 à 18:32
Bon, ben... on est trois !

2024 sera certainement une année où l'on va tous planer !
Titre: Re : NFS@Home
Posté par: modesti le 01 January 2024 à 18:33
Peut-être en remplaçant "affacturage" par "factorisation" ;) ?
En tout cas, ça doit expliquer pourquoi il n'y a (presque) plus de tâches du sous-projet 14e à calculer : ils ont fini les petits nombres et n'ont besoin de cette appli que dans des cas exceptionnels.
Titre: Re : NFS@Home
Posté par: toTOW le 01 January 2024 à 18:34
C'est plus clair en anglais en fait ...
Titre: Re : NFS@Home
Posté par: JeromeC le 01 January 2024 à 22:41
Je l'ai fait traduire par ChatGPT (de base), je crois qu'il s'en est mieux sorti que deepl en effet, même si tout n'est pas encore très clair :

"Nous avons largement éliminé les nombres plus petits dans les projets établis de factorisation au fil des années. Il est principalement utilisé maintenant pour travailler lentement sur les petits nombres près des répétitions, ou si un nombre parfait impair ou un nombre Aliquot de la taille appropriée est nécessaire."

Sauf pour la fin, je mettrais plutôt "se présente" (comme deepl) que "est nécessaire".
Titre: Re : NFS@Home
Posté par: [AF] Kalianthys le 06 January 2024 à 19:23
Ca fait 2 ou 3 jours que le site internet de NFS est injoignable et je commencais à m'inquiéter.

Voici l'info qui date du 5 janvier que j'ai trouvée sur le net :
Citer
Le serveur NFS@Home a été inopinément impliqué dans une réorganisation du réseau du campus. Cela nous a mis hors ligne pendant un peu plus d'une journée. Il peut y avoir de brèves pannes au cours des prochains jours, le temps que tout soit à nouveau réglé, mais nous sommes pour la plupart de retour avec une nouvelle adresse IP. Nous nous excusons pour le dérangement.

Lien de l'article quand le site sera UP :
https://escatter11.fullerton.edu/nfs/forum_thread.php?id=869

Kali.
Titre: Re : Re : NFS@Home
Posté par: fzs600 le 07 January 2024 à 07:16
Ca fait 2 ou 3 jours que le site internet de NFS est injoignable et je commencais à m'inquiéter.

Voici l'info qui date du 5 janvier que j'ai trouvée sur le net :
Citer
Le serveur NFS@Home a été inopinément impliqué dans une réorganisation du réseau du campus. Cela nous a mis hors ligne pendant un peu plus d'une journée. Il peut y avoir de brèves pannes au cours des prochains jours, le temps que tout soit à nouveau réglé, mais nous sommes pour la plupart de retour avec une nouvelle adresse IP. Nous nous excusons pour le dérangement.

Lien de l'article quand le site sera UP :
https://escatter11.fullerton.edu/nfs/forum_thread.php?id=869

Kali.
Le site est de retour.