64-bit Mac OS X app released
A 64-bit Mac OS X app has been released. It uses less memory and is much faster than the older 32-bit app for Mac. Note that this was built with Xcode 4.0, and requires Mac OS X 10.6 Snow Leopard or greater. It will not run with 10.5 Leopard.
Application 64-bit Mac OS X disponible
Une application 64-bit Mac OS X est maintenant disponible. Elle utilise moins de mémoire et est bien plus rapide que la vieille version 32-bit de l'application pour Mac. Veuillez noter que cette application a été créée avec Xcode 4.0, et nécessite Mac OS X 10.6 Snow Leopard ou plus récent. Elle ne fonctionnera pas avec 10.5 Leopard.
en ce moment il essaye de factoriser 5^353+1 et un autre nombre, mais prquoi ces 2 nombres là précisement??
:hello: bcoz :) merci de l'info je n'avais pas pensé que ces deux nombres pouvaient être deja factorisés. J'ai posé la même question sur leur forum, sûrement l'admin me répondra du coup un peu aussi sur l'avenir du projet après ces deux tests. Par contre je sais tjrs pas à quoi cela sert il de factoriser des big numbers. a+Pas évident de répondre à ta question. Il y a un grand intérêt à trouver un algorithme de factorisation de grands entier pour un tas de raisons dont notamment la cryptographie. Etablir des tables de facteurs comme la liste de Cunningham dont je parlais plus haut est probablement moins intéressant en soi, mais un peu comme les listes de grands nombres premiers, ça peut toujours servir, et c'est un moyen de continuer à tester et améliorer les algos.
My interest lies in the continued development of open source, publicly available tools for large integer factorization. Over the past couple of years, the capability of open source tools, in particular the lattice sieve of the GGNFS suite and the program msieve, have dramatically improved. My collaborators and I have factored quite a few large numbers using these tools.
Integer factorization is interesting both mathematical and practical perspectives. Mathematically, for instance, the calculation of multiplicative functions in number theory for a particular number require the factors of the number. Likewise, the integer factorization of particular numbers can aid in the proof that an associated number is prime. Practically, many public key algorithms, including the RSA algorithm, rely on the fact that the publicly available modulus cannot be factored. If it is factored, the private key can be easily calculated. Until quite recently, RSA-512, which uses a 512-bit modulus (155 digits), was used. As recently demonstrated by factoring the Texas Instruments calculator keys, these are no longer secure.
For most recent large factorizations, the work has been done primarily by large clusters at universities. There are two other public efforts, NFSNet and MersenneForum, in both of which I have participated, but the software used by NFSNet doesn't incorporate the latest developments and participation in the MersenneForum effort requires manual reservation and submission of work. I have been toying with the idea of trying a BOINC project for a while now to make it easy for the public to participate in state-of-the-art factorizations, and I found the time to do so. My interest in this project is to see how far we can push the envelope and perhaps become competitive with the larger university projects running on clusters, and perhaps even collaborating on a really large factorization.
The numbers are chosen from the Cunningham project. The project is named after Allan Joseph Champneys Cunningham, who published the first version of the factor tables together with Herbert J. Woodall in 1925. This project is one of the oldest continuously ongoing projects in computational number theory, and is currently maintained by Sam Wagstaff at Purdue University. The third edition of the book, published by the American Mathematical Society in 2002, is available as a free download. All results obtained since the publication of the third edition are available on the Cunningham project website.
Concerning target size, I started out somewhat "small" (small meaning that I can do it on our cluster in a few days), but it also took the contributors to this project only a few days as well. For our second project, I chose a target somewhat larger. I will continue to slowly increase the size. The real limit is the memory requirement. The current project requires a bit less than 512 MB of memory. As the size of the target increases, that will also increase somewhat. I will be keeping a close eye on that as we move forward.
Mon intérêt réside dans le développement doutils open source et librement disponibles pour la factorisation de grands entiers. Ces dernières années les capacités des outils open source ont augmenté spectaculairement, particulièrement pour le criblage GNFS et le programme msieve. Mes collaborateurs et moi avons factorisé pas mal de grands nombres avec ces outils.
La factorisation dentiers est intéressante à la fois mathématiquement et pour des raisons pratiques. Mathématiquement, par exemple, le calcul de fonctions multiplicatives en théorie des nombres pour un nombre particulier requière les facteurs de ce nombre. De la même façon la factorisation de certains nombres peut aider à prouver quun nombre associé est premier. Pratiquement, beaucoup dalgorithmes à clé publique, y compris RSA, reposent sur le fait que a clé publique ne peut être factorisée. Si elle est factorisée, la clé privée peut être facilement calculée. Jusquà récemment, RSA-512 qui utilise une clé de 512 bits (155 chiffres) était utilisé. Comme cela a été démontré par le calcul de la clé des calculettes Texas Instruments, on ne peut plus le considérer sûr.
La plupart des factorisations récentes de grands nombres ont été réalisées par de grands clusters duniversités. Il y a deux autres projets publics, NFSNet et MersenenForum, auxquels jai participé, mais NFSNet nutilise pas les derniers développements et la participation au projet MersenneForum demande des réservations et soumissions manuelles du travail. Cela fait maintenant un moment que lidée de faire un projet BOINC me titille, pour rendre facilement accessible au public la participation à un projet de factorisation compétitif. Un des intérêts du projet est de voir jusquou nous pourrons pousser lenveloppe, et peut-être devenir compétitif avec les grands projets universitaires tournant sur clusters, et peut-être même collaborer sur des factorisations vraiment grandes.
Les nombres sont choisis depuis le Cunningham project. Ce projet est nommé daprès Allan Joseph Champneys Cunningham, qui a publié la première version de la table de facteurs avec Herbert J. Woodall en 1925. Ce projet est lun des plus anciens toujours actifs de la théorie des nombres, et est en ce moment maintenu par Sam Wagstaff de luniversité de Purdue. La troisième édition de la liste, publiée par lAmerican Mathematical Society in 2002 est disponible en téléchargement. Tous les résultats obtenus depuis cette publication sont disponibles sur le site du projet.
Concernant la taille des cibles, jai commence par quelque chose de relativement petit (petit signifiant que je peux le calculer en quelques jours sur notre cluster), mais cela à pris également quelques jours aux contributeurs. Pour notre second test, jai choisi une cible notablement plus grande. Je vais continuer à augmenter doucement la taille. La vraie limite est le besoin en mémoire. Le calcul actuel nécessite un peu moins de 512 Mo de mémoire. Au fur et à mesure de laugmentation de la taille des cibles, le besoin mémoire va continuer à augmenter. Je surveillerai attentivement cela au cours de notre progression.
c'est donc un projet intéressant au niveau des mathématiques mais pour lequel nous aurons besoin d'une quantité de RAM assez importante à terme?Exactement
Voilà, j’espère que ça éclairera un peu les pas trop matheux.
(prems :D)
Au fait ptite info puisque je vois que personne ne l'a encore annoncée: (prems :D)Wé surtout que ça fait une jambe plus longue que l'autre cette affaire :D
le premier nombre à factoriser qui était 2^2214+1 a été factorisé! c'est le produit de deux nombres premiers de tailles respectives 87 et 104 chiffres, ça nous fait une belle jambe :D
Au suivant :)
Wé surtout que ça fait une jambe plus longue que l'autre cette affaire :D
16e Lattice Sieve
Oct 22, 2009, 12:30 PDT
Shortly I will begin releasing work for the 16e lattice sieve, lasievef. These workunits will take a bit longer to process and will require up to 1 GB of memory. The BOINC client will process them only if your computer has sufficient memory. You can choose not to process these work units by deselecting the lasievef application in NFS@Home preferences in your account (http://escatter11.fullerton.edu/nfs/home.php). Workunits for the current lasievee application will continue to be available.
lasieved - rarely used so work is rarely available, only for small numbers
lasievee - work nearly always available, uses up to 0.5 GB memory
lasievef - occasionally used for huge factorizations, uses up to 1 GB memory
On va se faire dépasser sur ce projet
J'ai des ut qui partent en erreur de calcul
Vous aussi? :??:
je suis aussi sur le projet depuis hier soir et comment vous dire euh....Aujourd'hui, au taf, suite à des ralentissement sur ma bécane j'ai ouvert le Gestionnaire des tâches et je me suis rendu compte qu'une UT "16e Lattice Sieve" prenait ~720 Mo de RAM :bouh:... j'ai donc sur le champ suspendu ce projet sur le poste de mon voisin pour lui permettre de travailler correctement. :ange:
sur mon PC 6GO de ram j'ai été obliger de limiter a 50% en utilisation parce que j'étais a 98% soit pas moins de 5GO,8 sa commençait a être un peu lent même avec le raptor :gno:
en limitant a 50% je suis a 59% d'utilisation :gniak:
merci mon G15 qui m'indique en live l'utilisation de ma mem ! :winner2:
ps il est pas censé être compatible X64 ? je suis par la même occasion pas censé avoir un apli X64 ?
"lasievee_1.07_windows_intelx86" normalement avec boinc 64 et seven 64 il n'y est pas censé avoir écrit X86_64 ou X64 tout court (si l'apli est optimisé pour le 64)
genre : "milkyway_0.19_windows_x86_64"
??
très populaire à ce que je vois....17 cruncheurs pour toute L'AF. (http://moe.mabul.org/up/moe/2009/06/17/img-0034554cpyr.gif)
44 points par uts...Ta bécane
4,952.42 4,626.52 32.42 44.00 15e Lattice Sieve v1.07
4,713.07 4,377.09 30.67 44.00 15e Lattice Sieve v1.07
5,044.04 4,695.83 32.90 44.00 15e Lattice Sieve v1.07
4,836.05 4,444.70 31.15 44.00 15e Lattice Sieve v1.07
5,486.41 5,032.05 35.26 44.00 15e Lattice Sieve v1.07
3,900.91 3,524.03 16.03 44.00 15e Lattice Sieve v1.07
3,442.94 3,378.56 15.37 44.00 15e Lattice Sieve v1.07
3,252.10 3,226.94 14.68 44.00 15e Lattice Sieve v1.07
3,684.84 3,628.45 16.51 44.00 15e Lattice Sieve v1.07
3,727.23 3,623.64 16.48 44.00 15e Lattice Sieve v1.07
n'oublie pas que je suis sous win 7 64 bits
Hélas pour le projet :/ ... avec ton i7 tu serais sous GNU/Linux 64 bits tu calculerais 2x + d'UTs. :fccpu:
sniff moi nossi w7 64b!Un peu comme d'hab... en pire. :D
mais bon le portable est en dual boot screu nieu nieu
17 sur 2832 membres actifs :??:
Pas Dans Les Sommets la participation :desole:
Help needed to factor Bernoulli(200)!
Barry Mazur and William Stein wish to include the factors of the numerator of the 200th Bernoulli number in their upcoming book, and you can help! This is a large GNFS factorization, but NFS@Home has the ability to sieve it in 2-3 months. Therefore, I am placing 2,1019- on hold for a bit. If you have the memory for it please use the lasievef application help factor B200, and let's complete it as quickly as possible!
Besoin d'aide pour factoriser Bernoulli(200)!
Barry Mazur (http://www.math.harvard.edu/~mazur/) et William Stein (http://modular.math.washington.edu/) aimeraient inclure les facteurs du numérateur du 200ème nombre de Bernoulli dans leur prochain livre, et vous pouvez aider! Ceci est une énorme factorisation GNFS, mais NFS@Home à la possibilité de le traiter en 2-3 mois. C'est pourquoi je place 2,1019- en attente pour quelque temps. Si vous avez la mémoire nécessaire s'il vous plaît utilisez l'application lasievef (16e Lattice Sieve) pour aider à factoriser B200, finissons le le plus vite possible!
http://escatter11.fullerton.edu/nfs/forum_thread.php?id=347
Matthew Briggs' 'An Introduction to the Number Field Sieve' is
a very good introduction; it's heavier than C&P in places
and lighter in others
Michael Case's 'A Beginner's Guide to the General Number Field
Sieve' has more detail all around and starts to deal with
advanced stuff
Per Leslie Jensen's thesis 'Integer Factorization' has a lot of
introductory detail on NFS that other references lack
Peter Stevenhagen's "The Number Field Sieve" is a whirlwind
introduction the algorithm
Steven Byrnes' "The Number Field Sieve" is a good simplified
introduction as well.
Lenstra, Lenstra, Manasse and Pollard's paper 'The Number Field
Sieve' is nice for historical interest
'Factoring Estimates for a 1024-bit RSA Modulus' should be required
reading for anybody who thinks it would be a fun and easy project to
break a commercial RSA key.
'On the Security of 1024-bit RSA and 160-bit Elliptic Curve
Cryptography' is a 2010-era update to the previous paper
Brian Murphy's thesis, 'Polynomial Selection for the Number Field
Sieve Algorithm', is simply awesome. It goes into excruciating
detail on a very undocumented subject.
Thorsten Kleinjung's 'On Polynomial Selection for the General Number
Field Sieve' explains in detail a number of improvements to
NFS polynomial selection developed since Murphy's thesis.
Kleinjung's latest algorithmic ideas on NFS polynomial selection
are documented at the 2008 CADO Factoring Workshop:
http://cado.gforge.inria.fr/workshop/abstracts.html (http://cado.gforge.inria.fr/workshop/abstracts.html)
Jason Gower's 'Rotations and Translations of Number Field Sieve
Polynomials' describes some very promising improvements to the
polynomial generation process. As far as I know, nobody has actually
implemented them.
D.J. Bernstein has two papers in press and several slides on
some improvements to the polynomial selection process, that I'm
just dying to implement.
Aoki and Ueda's 'Sieving Using Bucket Sort' described the kind of
memory optimizations that a modern siever must have in order to
be fast
Dodson and Lenstra's 'NFS with Four Large Primes: An Explosive
Experiment' is the first realization that maybe people should
be using two large primes per side in NFS after all
Franke and Kleinjung's 'Continued Fractions and Lattice Sieving' is
the only modern reference available on techniques used in a high-
performance lattice siever.
Bob Silverman's 'Optimal Parametrization of SNFS' has lots of detail on
parameter selection and implementation details for building a line
siever
Ekkelkamp's 'On the amount of Sieving in Factorization Methods'
goes into a lot of detail on simulating NFS postprocessing
Cavallar's 'Strategies in Filtering in the Number Field Sieve'
is really the only documentation on NFS postprocessing
My talk 'A Self-Tuning Filtering Implementation for the Number
Field Sieve' describes research that went into Msieve's filtering code.
Denny and Muller's extended abstract 'On the Reduction of Composed
Relations from the Number Field Sieve' is an early attempt at NFS
filtering that's been almost forgotten by now, but their techniques
can work on top of ordinary NFS filtering
Montgomery's 'Square Roots of Products of Algebraic Numbers' describes
the standard algorithm for the NFS square root phase
Nguyen's 'A Montgomery-Like Square Root for the Number Field Sieve'
is also standard stuff for this subject; I haven't read this or the
previous paper in great detail, but that's because the convetional
NFS square root algorithm is still a complete mystery to me
David Yun's 'Algebraic Algorithms Using P-adic Constructions' provided
a lot of useful theoretical insight into the math underlying the
simplex brute-force NFS square root algorithm that msieve uses
Decio Luiz Gazzoni Filho adds:
The collection of papers `The Development of the Number Field
Sieve' (Springer Lecture Notes In Mathematics 1554) should be
absolutely required reading -- unfortunately it's very hard to get
ahold of. It's always marked `special order' at Amazon.com, and I
figured I shouldn't even try to order as they'd get back to me in a
couple of weeks saying the book wasn't available. I was very lucky to
find a copy available one day, which I promptly ordered. Again, I
cannot recommend this book enough; I had read lots of literature on
NFS but the first time I `got' it was after reading the papers here.
Modern expositions of NFS only show the algorithm as its currently
implemented, and at times certain things are far from obvious. Now
this book, being a historical account of NFS, shows how it progressed
starting from John Pollard's initial work on SNFS, and things that
looked out of place start to make sense. It's particularly
enlightening to understand the initial formulation of SNFS, without
the use of character columns.
[NOTE: this has been reprinted and is available from bn.com, at least -JP]
As usual, a very algebraic and deep exposition can be found in Henri
Cohen's book `A Course In Computational Algebraic Number Theory'.
Certainly not for the faint of heart though. It's quite dated as
well, e.g. the SNFS section is based on the `old' (without character
columns) SNFS, but explores a lot of the underlying algebra.
In order to comprehend NFS, lots of background on algebra and
algebraic number theory is necessary. I found a nice little
introductory book on algebraic number theory, `The Theory of
Algebraic Numbers' by Harry Pollard and Harold Diamond. It's an old
book, not contaminated by the excess of abstraction found on modern
books. It helped me a lot to get a grasp on the algebraic concepts.
Cohen's book is hard on the novice but surprisingly useful as one
advances on the subject, and the algorithmic touches certainly help.
As for papers: `Solving Sparse Linear Equations Over Finite Fields'
by Douglas Wiedemann presents an alternate method for the matrix
step. Block Lanczos is probably better, but perhaps Wiedemann's
method has some use, e.g. to develop an embarassingly parallel
algorithm for linear algebra (which, in my opinion, is the current
holy grail of NFS research).
lasieved - app for RSALS subproject, uses less than 0.5 GB memory: no
lasievee - work nearly always available, uses up to 0.5 GB memory: no
lasievef - used for huge factorizations, uses up to 1 GB memory: no
lasieve5f - used for huge factorizations, uses up to 1 GB memory: yes
lasieved - 36 points per wu
lasievee - 44 points per wu
lasievef - 65 points per wu
lasieve5f - 65 points per wu
Swap space: use at most: 98% of total
Memory: when computer is in use, use at most: 100% of total
Memory: when computer is not in use, use at most: 100% of total
I'm gonna be honest with you, the challenge wasn't even announced here, the team is automatically added by BOINCStat to all the challenge. December is really one of the worst time of the year for us to do challenges, we are more or less all crunching to win the FB http://formula-boinc.org/, if some cores were added to NFS@home it was to win some places on NFS@home for the FB.
Je vais être honnête avec vous, le challenge n'a même pas été annoncé ici, l'équipe est automatiquement ajouté par BOINCStat sur tous les challenges. Décembre est une des pires période de l'année pour nous pour participer à des challenges, la majorité d'entre nous calcule pour gagner le FB http://formula-boinc.org/, si des cœurs ont été ajouté à NFS@home c'était pour gagner des places sur NFS@home pour le FB.
I'm a member of team SETI.USA and we don't care about http://formula-boinc.org/. I think our position is a consequence of the random crunch we do.
Carlos
Well, we care.
Anyway thanks for all the information, it'll take some time to translate and digest everything :)
Ok ^^ Now each server can crunch 16e + 16e V5 ;)
NFS@Home April Showers Challenges
April Showers I
http://boincstats.com/en/stats/challenge/team/chat/360
SUSA a mis le paquet :eek:
Z'avez vu, il essaye de nous attirer dans la débauche de crédits :D
S'appuyant sur les travaux de Dan_Ee , j'ai compilé et déployé de nouvelles applications Windows x64. Il s'agit de 50% à 100% plus rapide que les applications 32 bits en fonction de votre processeur. S'il vous plaît laissez-moi savoir si vous rencontrez des problèmes.http://escatter11.fullerton.edu/nfs/forum_thread.php?id=426&postid=1129 (http://escatter11.fullerton.edu/nfs/forum_thread.php?id=426&postid=1129)
<core_client_version>7.5.0</core_client_version>
<![CDATA[
<message>
process got signal 4
</message>
<stderr_txt>
boinc initialized
work files resolved, now working
-> lasievef_1.10_x86_64-apple-darwin
-> -r
-> -f
-> 978294000
-> -c
-> 2000
-> -R
-> -o
-> ../../projects/escatter11.fullerton.edu_nfs/G3p697_r_978294_2_0
-> ../../projects/escatter11.fullerton.edu_nfs/G3p697.poly
</stderr_txt>
]]>
C'est sur ce projet où l'on peut mettre la pression aux tchèques pour le FB 2014? C'est jouable ou peine perdue d'après vous?
j'en suis a 14 000 points en 20h sur mon i7 2600k
et on a 1 millions de retard, donc si on fait comme pour collatz c jouable :kookoo:
@Phil : Appel du 18 Juin édité :lol:
C'est sur ce projet où l'on peut mettre la pression aux tchèques pour le FB 2014? C'est jouable ou peine perdue d'après vous?
Le souci, c'est que moi, si je lance NFS, mes PrimeGrid partent très souvent en erreur !!!
Et pour plusieurs projets, ça me fait ça !
Heureusement que pour certains autres projets, ça ne me le fait pas...
Jean-Luc
Après avoir lu ton post, j'ai regardé les stats de Numberfields d'un peu plus près.
SG y mène une attaque en règle depuis presque 1 mois.
Nous aurions plus à gagner sur ce projet que sur NFS.
Je pense.
Après avoir lu ton post, j'ai regardé les stats de Numberfields d'un peu plus près.
SG y mène une attaque en règle depuis presque 1 mois.
Nous aurions plus à gagner sur ce projet que sur NFS.
Je pense.
Je viens de regarder sur Statseb le classement général et le placement FB pour Numberfields, et je pense qu'il n'y a rien à gagner dans un temps court, ou à moins que quelque chose m'échappe.
De mon côté j'ai les 2 machines avec 10 jours de cache et j'ai modifié les préférences pour ne prendre que des UT 16e.
Salut Jean-Luc
j ai aussi un PC avec une GTX 580 et une ATI R9 290 et je fais tout les projet sans problème
il y en avais bien un ou les WU ne finissaient jamais mais je n était pas le seul dans ce cas !
StatSeb nous indique déjà moins de 28j (un cycle lunaire :D ) pour dépasser le CNT au FB, et encore mon crédit journalier est faussé car j'ai arrêté mon i5 2500S pour la MAJ MacOX X.X, avec les 2 autres Core2Duo que je vais rajouter ça devrait encore s'améliorer pour ma part.Les Pommiers, et pourquoi pas les amis des lapins pendant que tu y es :lol:
Allez les pommiers faites tourner pour la bonne cause vos machines qui consomment rien. :hyperbon:
Finir à la 4ème place FB n'est pas permis, l'AF a largement laissé la place aux autres... :cavachier:
Non c'est OK. J'ai 8 Go. Les 16eV5 sont en route. Environ 60 UT / jours :hello:
StatSeb nous indique déjà moins de 28j (un cycle lunaire :D ) pour dépasser le CNT au FB, et encore mon crédit journalier est faussé car j'ai arrêté mon i5 2500S pour la MAJ MacOX X.X, avec les 2 autres Core2Duo que je vais rajouter ça devrait encore s'améliorer pour ma part.Les Pommiers, et pourquoi pas les amis des lapins pendant que tu y es :lol:
Allez les pommiers faites tourner pour la bonne cause vos machines qui consomment rien. :hyperbon:
Finir à la 4ème place FB n'est pas permis, l'AF a largement laissé la place aux autres... :cavachier:
Pour la suite : 100% :+1: :bipbip:
Y'a un gars il provoque :D
Y'a un gars il provoque :D
Just looking around the big teams to schedule one. Looks like planet3dnow can't access BOINCstats to enter contests. SETI.USA is keen to one challenge in March.
pourquoi pas.Si pas d'autres instructions, je vote pour !
on peut le passer en pd2s, non ?
c'est assez hallucinant.Les 4 premières places SUSA.
il doit y avoir quelques grosses fermes...
Thank you very much for the CPU power deployed on NFS@Home for the last couple of weeks. Post-processing backstage of the project has been very but very busy processing the sieved numbers from applications lasieved (14e) and lasievee(15e). Main clusters have been processing lasieve5f.
In the meantime I was hoping to see a wake up reaction of Team Norway but nothing so far. Congratulations on reaching second place overall.
Once again thank you very much. Go go for first place!
Carlos
Can I request some help running lasieve5f application? We are going for two records(GNFS factorisation ) so we will have to process 1.5M wus or even more. Can you guys set a challenge at boincstats? Your help is needed.
Thank you in advance,
Carlos Pinho
NFS@Home Moderator
Jip UotD sur NFS@Home (https://lut.im/gyWudcNx/VGSEhSA7) :clafete::+1:
:bounce:Génial
After we complete 2,1285- we will pick up G6p490b.
Hello Carlos :hello:
it's possible to create a GPU application?
and Thank you for the added work
best regards
Hi Carlos,
Have you a graph of the same style as the yoyo even our progress?
http://stats.distributed.net/project/ogr_status.php?project_id=28
À propos de NFS @ Home
NFS @ Home est un projet de recherche qui utilise des ordinateurs connectés à Internet pour effectuer l'étape de criblage du réseau dans la factorisation de Sieve de champ numérique de grands nombres entiers. En tant que jeune étudiant, vous avez acquis votre première expérience de rupture d'un entier en facteurs premiers, tels que 15 = 3 * 5 ou 35 = 5 * 7. NFS @ Home est une continuation de cette expérience, seulement avec des nombres entiers qui sont des centaines de Chiffres long. La plupart des grandes factorisations récentes ont été réalisées principalement par de grandes grappes d'universités. Avec NFS @ Home, vous pouvez participer à la factorisation de pointe en téléchargeant et en exécutant un programme gratuit sur votre ordinateur.
La factorisation des nombres entiers est intéressante tant du point de vue mathématique que du point de vue pratique. Mathématiquement, par exemple, le calcul des fonctions multiplicatives dans la théorie des nombres pour un nombre particulier nécessite les facteurs du nombre. De même, la factorisation entière de nombres particuliers peut aider à prouver qu'un nombre associé est premier. Pratiquement, de nombreux algorithmes de clé publique, y compris l'algorithme RSA, reposent sur le fait que le module accessible au public ne peut pas être pris en compte. Si elle est prise en compte, la clé privée peut être facilement calculée. Jusqu'à tout récemment, RSA-512, qui utilise un module de 512 bits (155 chiffres), était couramment utilisé mais peut maintenant être facilement cassé.
Les numéros que nous factorisons sont choisis dans le projet Cunningham. Lancé en 1925, il est l'un des plus anciens projets continuellement en cours dans la théorie des nombres informatiques. La troisième édition du livre, publiée par l'American Mathematical Society en 2002, est disponible en téléchargement gratuit. Tous les résultats obtenus depuis, y compris ceux de NFS @ Home, sont disponibles sur le site Web du projet Cunningham.
NFS @ Home est hébergé à la California State University Fullerton et est soutenu en partie par la National Science Foundation par l'entremise des ressources XSEDE fournies par le Texas Advanced Computing Center, le San Diego Supercomputer Center, le National Center for Supercomputing Applications et Purdue University Numéro TG-DMS100027.
c193 E,162 4433412106658741087933232089378724397906206646379922900251289622751707498087510521673827952479387101476055350479732960366249816761504231219756875500959872022188279008190800161931436720491245839
c198 N,228 296569147970687972018305992022305479444800534802596868167612154770357922331944290632711595707525008075052827152208842160028802232479554533007880867580604612496376331014306272671066168224885301922139
c200 E,192 38520071631718399385569612596870425832813667446322377950818788712501250551228139856601338294522891553906379588542169718154722596682565080979763328866848000587896648249672528064585979301197677287093573
c202 E,148 3288719081408570989091469257524004512856169702169344935878936181981622152040418051052138482890793620819361069696255059446484398066989546855559239020999441385627314503459380878410208878448073950298808719
c208 N,248 1832286501854003138052676989520560424403225562007684729403530852600313798697523554946311839528638518912406077110670650069044969139294389942454684694590767301444969837766981072288000680734361752459501676835073
Déterrage de topic (https://smilies.4-user.de/include/Garten/smilie_ga_009.gif) (https://smilies.4-user.de)Pas seulement, les 14e Lattice Sieve et 15e Lattice Sieve ont disparus ou alors ils ont changés de nom ?
Viens de voir apparaître de nouvelles applis:
16e Lattice Sieve for smaller numbers 1.10
15e Lattice Sieve for smaller numbers 1.10
2 applis de plus pour faire des heures et choper des étoiles WUprop :hyperbon: :hyperbon: :gniak:
Deux nouvelles applications ont été lancées, lasievee_small et lasievef_small. Au fur et à mesure que le nombre d'utilisateurs augmente, l'application lasievee est devenue largement inadaptée, tandis que la file d'attente pour l'application lasievee s'est allongée. Pour tenter de compenser, l'utilisation de la mémoire de travail et la durée d'exécution ont augmenté afin d'étendre les capacités des applications. Pour remédier à ces problèmes, ces nouvelles applications offriront une plus grande flexibilité pour choisir l'application la plus appropriée à la taille du nombre pris en compte, tout en maintenant l'utilisation de la mémoire et la durée d'exécution à un niveau plus raisonnable. Si vous avez modifié les préférences de votre projet pour n'exécuter que des applications spécifiques, vous voudrez peut-être ajuster vos paramètres pour activer ces nouvelles applications. Merci pour vos contributions à NFS@Home !
Traduit avec www.DeepL.com/Translator (version gratuite)
C'est peut-être juste que t'en as pas eu, parce que j'ai aussi des 14e et des 15e "normales" (c'était pas prévu, je voulais prendre du Yoyo pour le sprint, pas vu que NFS était ouvert)C'est dans les préférences que le nom a changer.
Viens de faire un tour sur mon compte (ou plutôt sur celui de l'AF pour lequel je calcule :D). M'étais pas rendue compte que les erreurs étaient renvoyées de suite, même avec BSF. Donc je peux déjà dire que sur 141 tâches 15e small, 19 sont parties en erreur de calcul, toutes à 0 seconde.
Ça fait 13.48%.
Ya aussi une 16e V5 normale qui a planté.
Si je fais le ratio erreurs (20) par rapport à toutes les tâches en cours (1177), ça fait 1.7% - ce qui est ma foi plus que raisonnable :D
lasieved 14e Lattice Sieve
lasievee 15e Lattice Sieve
lasieve5f 16e Lattice Sieve V5
lasievee_small 15e Lattice Sieve for smaller numbers
lasievef_small 16e Lattice Sieve for smaller numbers
jeu. 02 sept. 2021 06:55:49 | NFS@Home | Sending scheduler request: Requested by user.
jeu. 02 sept. 2021 06:55:49 | NFS@Home | Requesting new tasks for CPU
jeu. 02 sept. 2021 06:55:50 | NFS@Home | Scheduler request completed: got 0 new tasks
jeu. 02 sept. 2021 06:55:50 | NFS@Home | No tasks sent
jeu. 02 sept. 2021 06:55:50 | NFS@Home | No tasks are available for 16e Lattice Sieve V5
jeu. 02 sept. 2021 06:55:50 | NFS@Home | Project requested delay of 7 seconds
Pourtant j'en vois sur le statut serveur, serait-ce uniquement sur Linux ? Quelqu'un d'autre (sur Linux à priori) a le même comportement ?Hi all. Thank you so much for the CPU power deployed until today on NFS@Home, much appreciated. Not sure if I shared this before but in the past the bottleneck on this project was on the post-processing after the work done on the sieve side, BOINC calculations. Nowadays the post-processing, the linear algebra phase, is done on a cluster of GPU's. Now the delays of the planned work is on BOINC side...heheh...And nope, there is no plans to work on a GPU client for the BOINC sievers.
Currently we are sieving the hardiest SNFS integer ever sieved on NFS, the 2,1091+, 16e Lattice Sieve V5 siever app, wu name is S2p1091_XXXXXXX_0. Still long way up until we sieve this bastard!
Have fun.
Bonjour à tous. Merci beaucoup pour la puissance CPU déployée jusqu'à aujourd'hui sur NFS@Home, très apprécié. Je ne sais pas si j'en ai déjà parlé, mais dans le passé, le goulot d'étranglement de ce projet se situait au niveau du post-traitement après le travail effectué du côté du tamis, les calculs BOINC. Aujourd'hui, le post-traitement, la phase d'algèbre linéaire, est effectué sur un cluster de GPU. Maintenant les retards du travail prévu sont du côté de BOINC...heheh...Et non, il n'est pas prévu de travailler sur un client GPU pour les tamiseurs BOINC.
Actuellement, nous sommes en train de tamiser l'entier SNFS le plus difficile jamais tamisé sur NFS, le 2,1091+, 16e Lattice Sieve V5 siever app, wu nom est S2p1091_XXXXXXX_0. Encore un long chemin à parcourir avant de tamiser ce bâtard !
Amusez-vous bien.
Traduit avec www.DeepL.com/Translator (version gratuite)
Au fil des ans, nous avons en grande partie éliminé les petits nombres des projets d'affacturage établis. Nous l'utilisons maintenant principalement pour travailler lentement sur les petits chiffres proches de la réforme ou si un nombre impair parfait ou aliquote nécessaire et de taille appropriée se présente.
La première phrase de 2024 où je ne comprends rien :lol:Je te rassure moi non plus. :kookoo:
Le serveur NFS@Home a été inopinément impliqué dans une réorganisation du réseau du campus. Cela nous a mis hors ligne pendant un peu plus d'une journée. Il peut y avoir de brèves pannes au cours des prochains jours, le temps que tout soit à nouveau réglé, mais nous sommes pour la plupart de retour avec une nouvelle adresse IP. Nous nous excusons pour le dérangement.
Ca fait 2 ou 3 jours que le site internet de NFS est injoignable et je commencais à m'inquiéter.Le site est de retour.
Voici l'info qui date du 5 janvier que j'ai trouvée sur le net :CiterLe serveur NFS@Home a été inopinément impliqué dans une réorganisation du réseau du campus. Cela nous a mis hors ligne pendant un peu plus d'une journée. Il peut y avoir de brèves pannes au cours des prochains jours, le temps que tout soit à nouveau réglé, mais nous sommes pour la plupart de retour avec une nouvelle adresse IP. Nous nous excusons pour le dérangement.
Lien de l'article quand le site sera UP :
https://escatter11.fullerton.edu/nfs/forum_thread.php?id=869
Kali.