Oui, c'est la même chose.
Mais yafu utilise NFS pour les "petits" nombres à décomposer, sur une seule machine.
NFS@home décompose de très grands nombres, jusqu'à 200-210 chiffres.
C'est tellement horrible qu'il faut partager le travail sur des centaines de machines, sinon, c'est impossible.
Et même sur des centaines de machines, ou même des milliers, ça peut prendre des mois pour une seule décomposition.
Notons que personne n'oserait lancer des décompositions de nombres de plus de 220-240 chiffres, de toute façon, nos disques durs sont trop petits !
Il faut bien comprendre que la décomposition de nombres composés en facteurs premiers tient une place centrale en théorie des nombres.
Et la théorie des nombres tient une place centrale en mathématiques.
Ainsi, une bonne part des projets BOINC en mathématiques porte sur la décomposition en facteurs premiers : yafu, Amicable, ECM (sous projet yoyo), NFS, plusieurs sous-projets PrimeGrid, SRBase (TF) et j'en passe.
En espérant que à force d'observations, on comprenne en profondeur comment tout ceci fonctionne... mais c'est (très) loin d'être gagné !
J'espère voir l'avènement de l'ordinateur quantique accessible au public surtout : les vitesses de décompositions seront alors vraiment accélérées, grâce à l'algorithme de Shor :
https://fr.wikipedia.org/wiki/Algorithme_de_ShorPeut-être aussi que la solution viendra de travaux plus théoriques qui visent à jeter des ponts entre différents domaines des mathématiques apparemment sans aucun lien : programmes de Langlands, théorie des catégories.
Un projet BOINC est en lien avec ces théories : NumberFields.
Ainsi, tout "jeu" mathématique comme "les suites aliquotes" sur lesquelles je travaille ou Collatz par exemple pourraient tout à coup se révéler très utiles !