Portail de l'AF

Nouvelles

Projets du mois: SiDock@home et Numberfields@home

Faites un don

Shoutbox

Nichan:
2025-10-29, 10:25:29
It's alive ! Alive !  :electric:
JeromeC:
2025-10-16, 14:01:50
Ben chaque année on faisait sur MCM / WCG, mais cette année il est toujours dans les choux...
modesti:
2025-10-01, 18:56:41
Pour l'instant non. Si tu as le temps de t'en occuper, ne te prive pas surtout ;) :)
Naz:
2025-10-01, 10:58:53
Hello! Il y a quelques choses de prévu pour Octobre Rose comme chaque année?
Nichan:
2025-09-28, 17:50:40
ils annoncent pour demain lundi 29, mais bon hein voila quoi on verra bien :cpopossib:
modesti:
2025-09-23, 20:56:02
Elle est excellente ! :D
[CSF] Christian Carquillat:
2025-09-23, 19:16:02
C'est la World Company des Guignols, le serveur remarchera à la St Sylvestre  :D
modesti:
2025-09-23, 15:00:04
Flûte, manque une lettre, sinon je dirais: WCG: What Could Go wrong? :siflotte:
Nichan:
2025-09-06, 22:06:02
Bon WCG la migration qui devait prendre 48h... on est deja a une semaine, ca se passe pas comme prevu faut croire  :lol:  :lol:
Kao:
2025-08-27, 17:56:21
Plop
Maeda:
2025-08-15, 22:43:47
N'oubliez pas les Perséides en ce moment ;)
Nichan:
2025-08-04, 15:28:25
WCG doit etre en carafe je ne recois plus d'unites de travail depuis hier soir
modesti:
2025-08-01, 11:28:49
C'est les vacances ou bien ? C'est bien calme :siflotte:
modesti:
2025-07-08, 18:50:08
@Nichan: ressaie, j'en ai eu aujourd'hui (sur Linux) ;)
Nichan:
2025-07-07, 17:48:57
Asteroid n'envoit plus rien depuis plusieurs jours  :/
modesti:
2025-06-25, 23:26:21
Prenez soin de vous et soyez prudents avec les orages. Chez moi le courant est coupé depuis ~22h (CEST).
Nichan:
2025-05-29, 11:31:25
le site de WCG est kaput  :electric:
modesti:
2025-05-28, 18:44:13
Je dirais que c'est l'effet post-Pentathlon :D Après 15 jours intenses, la pression retombe et on s'endort ;)
ousermaatre:
2025-05-28, 18:14:17
 :ouser:
JeromeC:
2025-05-28, 12:26:05
Ce forum est mort ! tout le monde roupille ! tout le monde est en vacances ?! (pas moi :) )
Nichan:
2025-05-23, 17:35:11
dommage qu'ils n'aient pas de statut de serveurs visibles, ou alors j'ai pas trouve
modesti:
2025-05-23, 15:24:38
C'est pas interdit. Il peinait déjà à fournir tout le monde pendant le Pentathlon :spamafote:
Nichan:
2025-05-23, 12:52:08
WCG est en panne de WU ?
modesti:
2025-05-18, 20:40:24
On rattaquera le mois prochain
modesti:
2025-05-18, 20:40:08
quartier libre jusqu'à la fin du mois :)
Nichan:
2025-05-18, 17:44:46
on a deja une idee du projet du mois apres le pentathlon ?
Maeda:
2025-05-17, 23:02:56
On peut stopper NFS, objectif du javelot atteint :)
Maeda:
2025-05-16, 07:46:24
Bonus 30% aujourd'hui aussi pour Einstein (Steeple-Chase) !

Recent

[WCG] World Community Grid (multi-projets)

Démarré par xter, 01 Novembre 2005 à 16:55

« précédent - suivant »

0 Membres et 1 Invité sur ce sujet

JeromeC

Elle t'aura sûrement des prix ! drague, drague !!
A quoi bon prendre la vie au sérieux, puisque de toute façon nous n'en sortirons pas vivants ? (Alphonse Allais)


Nichan

Attendons nous à des perturbations

Recu ce soir :

TEMPS D'ARRÊT IMMINENT : Migration complète de WCG vers le cloud Nibi alors que le cloud Graham est mis hors service le 31 août 2025

Nous prévoyons que tous les terminaux WCG seront hors service entre 15h et 17h le 31 août 2025, lors de la migration vers le cloud Nibi. En prévision de cette migration, nous arrêterons systématiquement la production.


Published on: 29 août 2025

-La migration complète de WCG des installations cloud de Graham vers Nibi sera achevée entre 15h00 et 17h00 le 31 août 2025.
-Sharcnet éteindra ensuite tout le matériel de Graham.
-Nous avons déposé un ticket auprès d'UHN Digital pour déplacer nos enregistrements DNS vers les nouvelles adresses IP qui nous ont été attribuées dans le cloud Nibi, et toutes les ressources de stockage, de réseau et de calcul sont déjà provisionnées chez Nibi.
-Nous continuons à tester l'assurance qualité et la production sur la nouvelle infrastructure.
-Nous subirons une interruption de service suite au changement des URL *.worldcommunitygrid.org. Nous allons arrêter successivement les scripts de création d'unités de travail, les composants du serveur BOINC et les serveurs de téléchargement/envoi, arrêter la base de données, effectuer une dernière synchronisation rsync, puis arrêter le site web, les forums et les services internes au cours des prochaines 48 heures.
-Dans le meilleur des cas, nos enregistrements DNS seront basculés le 31 et tout le système derrière l'équilibreur de charge sera opérationnel. Cependant, nous souhaitons préparer les utilisateurs à d'éventuelles interruptions de service supplémentaires pendant la mise en production de Nibi.


zOU

September 4, 2025
Migration did run into some unexpected issues. No WU/results/credits will be lost. We will descrebe more, once we have some more time after the system is back on and running.
Before we took the final backup of the BOINC database (Aug 31), all results had their deadlines extended by 96h, we expect to bring the BOINC database online today (Sep 4, 2025), and extend as needed until the system is operational
Currently, WCG tech team is standing up DB2, IBM MQ, Websphere, and adpating Apache configuration.
BOINC server components are expected to take less time to configure for operation at Nibi. We will stand up the upload/download server group ASAP so users can begin to upload results they have been holding on to during the migration, which will be credited.

JeromeC

C'est la faute à Nichan, il a écrit sur l'autre topic j'ai traduit là bas  :gno:
A quoi bon prendre la vie au sérieux, puisque de toute façon nous n'en sortirons pas vivants ? (Alphonse Allais)


zOU

September 9, 2025
We are finalizing IBM MQ <-> DB2 <-> BOINC db <-> website axis, which will allow us to bring up the website. If all goes to plan now - we should have the website up tonight.
Once that is solved - we will go through the BOINC stack to ensure nothing catastrophic will happen when once we let traffic through to the scheduler, upload/download servers. Then we can finally start letting the BOINC daemons manipulate state in the BOINC db.

Fabrice.ltn

Salut,
Depuis cette migration, je n'ai pas pu récupérer des taches ou transmettre des résultats.
J'ai dû passer à côté de quelque chose. :)
Merci à vous. :) <3

JeromeC

C'est plutôt eux qui sont passés à côté de quelque chose :warf:
A quoi bon prendre la vie au sérieux, puisque de toute façon nous n'en sortirons pas vivants ? (Alphonse Allais)


Antares

Quand le dernier arbre sera abattu, la dernière rivière empoisonnée, le dernier poisson capturé, alors le visage pâle réalisera que l'argent ne se mange pas.

Sitting Bull

                                            

Fabrice.ltn


Nichan

Ils esperaient pour demain que ca refonctionne, bon evidemment hein voila quoi. Laissez le pauvre stagiaire bosser tout seul

toTOW

Passez donc sur un projet un peu plus sérieux ... :siflotte:
FAH-Addict, première source d'information francophone sur le projet Folding@Home.

JeromeC

Citation2 octobre 2025
L'hébergement a résolu le problème avec nos partages NFS dans Openstack ; le planificateur et le chemin de téléchargement semblent fonctionner ; nous déboguons actuellement le nouveau pool de travailleurs FCGI conteneurisé file_upload_handler et l'intégration de file_upload_handler avec Kafka via la bibliothèque librdkafka.

Nous allons supprimer les restrictions ACL qui provoquent l'erreur 403 forbidden lorsque les utilisateurs essaient de contacter le planificateur ou de télécharger des fichiers.

Nous sommes toujours en train de valider le chemin de téléchargement de bout en bout avec nos clients BOINC locaux. Une fois que nous l'aurons confirmé, nous ouvrirons le trafic vers les serveurs de téléchargement, commencerons à servir les téléchargements qui étaient disponibles lors de l'arrêt et pourrons réactiver les démons BOINC.

Citation3 octobre 2025
Nous sommes conscients du problème lié au planificateur qui renvoie le message « Une autre instance du planificateur est en cours d'exécution pour cet hôte » et avons identifié la cause dans le modèle config.xml que nous avons adapté pour le nouvel environnement conteneurisé. Nous corrigerons ce problème dès que nous aurons confirmé que les nouveaux pipelines de validation et d'assimilation pilotés par les événements fonctionnent correctement.

Les téléchargements sont traités normalement. Nous avons confirmé que la nouvelle architecture du pool file_upload_handler conteneurisé derrière Apache produit correctement les sujets Kafka (Redpanda) par application, en stockant les données d'événement et de résultat dans des files d'attente distinctes sur la partition des courtiers locaux.

En conséquence, il y aura au moins un sprint supplémentaire pendant le week-end. À titre provisoire, nous prévoyons de produire de nouvelles unités de travail la semaine prochaine pour MCM1, ARP1 et MAM1 version bêta 7.07. Les validations devraient reprendre pendant le week-end, les premières versions des lots seront intermittentes.

C'est beau la technique hein :gno:
A quoi bon prendre la vie au sérieux, puisque de toute façon nous n'en sortirons pas vivants ? (Alphonse Allais)


modesti


[CSF] Christian Carquillat

Il n'y a plus le bug "another instance is running machin mékouï" mais les WU se font attendre
Un regard extérieur sur moi : https://clementguerraz.com/atypique

Actifs en ce moment : Quasi 300 cores @2GHz et 4 A2000

JeromeC

Bah on est plus à quelques éons près...
A quoi bon prendre la vie au sérieux, puisque de toute façon nous n'en sortirons pas vivants ? (Alphonse Allais)


JeromeC

Citation7 octobre 2025
Nous avons résolu le problème lié à la configuration du planificateur BOINC qui provoquait l'erreur « Une autre instance du planificateur est en cours d'exécution pour cet hôte ». Les utilisateurs devraient désormais pouvoir signaler des tâches. Nous vous tiendrons informés dès que nous commencerons à créer de nouvelles unités de travail, car nous travaillons toujours à la mise en place du reste de l'architecture backend BOINC.

Le site web a été brièvement indisponible lorsque nous avons mis le planificateur en ligne. Nous avons ajusté la configuration HAProxy et nous continuerons à ajuster la configuration Apache/HAProxy si nous constatons que le site web cesse à nouveau de répondre.

Nous continuons à déboguer les problèmes liés au nouveau workflow de validation basé sur Kafka qui fonctionne avec les règles de routage HAProxy pour partitionner les téléchargements et les chargements BOINC en attribuant aux serveurs des compartiments hexadécimaux égaux à l'aide de l'https://github.com/BOINC/boinc/wiki/DirHierarchye attendue par BOINC, et en émettant des événements à partir du nouveau file_upload_handler que nous avons écrit pour Kafka afin de pouvoir les regrouper et y répondre en parallèle. Cela élimine le besoin de multiples allers-retours vers la base de données pour les opérations ligne par ligne et le sondage, qui sont désormais simplement des applications par lots de l'état après avoir consommé les unités de travail prêtes à être validées dans le sujet Kafka pertinent pour cette application.

Cela nous permet d'effectuer la validation et l'assimilation dans le même processus, du moins pour les projets que nous menons nous-mêmes (MCM1, MAM1, ARP1). Bien que la courbe d'apprentissage de Kafka/Redpanda ait été importante, nous avons réussi à passer à une architecture partitionnée en mémoire pilotée par les événements qui devrait nous permettre de suivre le rythme de la prochaine application MAM1 compatible avec les GPU.

On pourra pas dire qu'on est pas informés :gnu:
A quoi bon prendre la vie au sérieux, puisque de toute façon nous n'en sortirons pas vivants ? (Alphonse Allais)


Kao

On ressent quand même l'absence de IBM...
Niyati : AMD Zen 3 Ryzen 9 5950x / 32Go@3800MHz DDR4 / Asus ROG RTX 3080Ti OC / Windows 10 Pro
Azrael : OVH RISE-LE-2 Intel Xeon E5-2650v2@2.6GHz(3.4GHz Turbo) / 64GB DDR4 ECC 1600MHz

toTOW

J'ai l'impression qu'on a conservé la tradition des mauvais choix ... :siflotte:
FAH-Addict, première source d'information francophone sur le projet Folding@Home.

JeromeC

Citation13 octobre 2025
Joyeux Thanksgiving à nos bénévoles et partenaires canadiens.
Les travaux visant à terminer la configuration du déploiement reprendront demain.
A quoi bon prendre la vie au sérieux, puisque de toute façon nous n'en sortirons pas vivants ? (Alphonse Allais)


JeromeC

Citation15 octobre 2025
  • Nous testons actuellement les validateurs, qui ont fait l'objet de nombreuses itérations.
  • Dès que le validateur fonctionnera, nous le déploierons sur les six partitions et effacerons le retard accumulé. Nous pourrons alors vérifier l'interaction du transitionneur. Si tout se passe bien, nous pourrons enfin commencer à envoyer de nouveaux travaux.
  • Nous allons finaliser le stockage des objets pour les archives, en remplacement de la sauvegarde sur bande utilisée précédemment.
Bon faut avouer que maintenant ils donnent régulièrement des nouvelles. Ils ne donnent pas de taff, mais ils donnent des nouvelles :)
A quoi bon prendre la vie au sérieux, puisque de toute façon nous n'en sortirons pas vivants ? (Alphonse Allais)


modesti

Citation de: JeromeC le 17 Octobre 2025 à 12:55en remplacement de la sauvegarde sur bande utilisée précédemment
:eek:
Ça me fait penser aux Japonais qui n'ont abandonné la disquette 2.5" qu'en début de cette année.
 :pt1cable:  :pt1cable:

JeromeC

3.5" Madame, 3.5"



Moi j'ai utilisé les 5.25" (le premier Amstrad PC 512 de mon beau-père avec un seul et unique lecteur 5.25 pour l'OS, les programmes, les données... tu passais ta journée à changer de disquette :gno: on est vite passé à deux lecteurs, quel confort, et quand je lui ai trouvé la première carte interne disque dur de 20 Mo, il a failli faire une syncope :D) et j'ai même vu et un peu utilisé des 8" dans le bureau de ma mère (qui faisait la compta dans un collège) à la fin des 70's.

Cet article est sympa, il ne parle pas de l'arrêt de la 3.5" mais il dit que l'armée américaine a arrêté d'utiliser les 8" en 2019 !  :eek:

En revanche il oublie un peu vite que les Amstrad CPC et Commodore 64 du début des 80's (grand public) tournaient avec un lecteur de K7 audio (standard) !



J'en avais un (C64 et son lecteur), quel pied :D

Quant aux backups sur bande ils sont loin d'être morts !
A quoi bon prendre la vie au sérieux, puisque de toute façon nous n'en sortirons pas vivants ? (Alphonse Allais)


PhilTheNet



JeromeC

A quoi bon prendre la vie au sérieux, puisque de toute façon nous n'en sortirons pas vivants ? (Alphonse Allais)


PhilTheNet



SMF spam blocked by CleanTalk