Portail de l'AF

Nouvelles

Projet du mois : Primegrid

Faites un don

Shoutbox

modesti:
2025-02-01, 11:10:25
Bonne chasse aux nombres premiers !
modesti:
2025-01-31, 21:24:33
Spafo :D
Maeda:
2025-01-31, 20:11:40
Plutôt H-4h :)
modesti:
2025-01-31, 19:54:14
J-1  :banana:
[AF] Kalianthys:
2025-01-30, 18:53:31
modesti:
2025-01-30, 11:55:53
J-2 :gniak: :ange:
fzs600:
2025-01-02, 11:18:45
Bonne année a tous et bon crunch.
zelandonii:
2025-01-02, 11:08:45
Bonne année à tous et que vous soyez heureux.
Ironman:
2025-01-01, 15:55:54
Bonne année et bonne santé pour vous et vos proches !  :smak:
modesti:
2025-01-01, 07:53:37
Bonne et heureuse année à toutes et tous !
ousermaatre:
2024-12-25, 21:04:16
 :perenoel:
modesti:
2024-12-25, 10:03:06
Noyeux Joël !  :D
fzs600:
2024-12-02, 12:28:17
Tout pareil bon Raid a tous.
modesti:
2024-12-02, 11:29:50
Un peu à la bourre, mais quand même de tout cœur : bon raid à tous ! :hyperbon:
Sébastien:
2024-11-19, 21:42:51
 @Bertrand Fr, je n'ai pas beaucoup d'expérience sur mac, mais je n'ai pas de problème avec BOINC 8.0.4 sur un mac M1.
JeromeC:
2024-11-19, 15:53:46
Moi dès que j'ai su qu'Apple passait à ses propres CPU je me suis précipité pour prendre le dernier iMac Intel du marché (fin 2020) pour remplacer le précédent (après 10 ans de loyaux services) et j'en suis fort aise :)
ousermaatre:
2024-11-19, 15:39:53
 :hello: Bertrand, alors les amis, pas de réponse pour un p'tit nouveau?
Bertrand Fr:
2024-11-18, 20:56:19
Quelqu'un a-t-il réussi  à installer BOINC sur un Mac M2 sans qu'à chaque redémarrage on soit obligé de le réinstaller ?
JeromeC:
2024-11-18, 16:00:41
Bah moi en général je mets la veille version des dépôts et ça roule... (oui je ne parle pas d'outil magique évidemment)
[CSF] Christian Carquillat:
2024-11-17, 20:25:01
Linux et BOINC, ça patauge dans la colle avec les mises à jour (à défaut de iech dans la semoule)
zelandonii:
2024-11-17, 19:06:54
Je viens de faire passer LM en version 22 et BOINC est redescendu en version. Pas grave.
modesti:
2024-11-17, 17:19:47
Ayé, le raid est annoncé :gniak: :hyperbon: :D
modesti:
2024-11-04, 18:17:19
C'est clair ! Va falloir tabler sur les gelées tardives pour le raid de printemps  :electric:
JeromeC:
2024-11-04, 14:19:23
Avec le réchauffement la fenêtre de tir se réduit de plus en plus  :gno:
ousermaatre:
2024-11-03, 10:23:22
mois de décembre, de plus amples infos dans 2-3 semaines.
Alan St-Pierre:
2024-11-03, 04:01:30
Des nouvelles au sujet d'un éventuel Raid d'automne/hiver?
ousermaatre:
2024-11-02, 11:10:01
 :hamac:
modesti:
2024-11-02, 10:45:05
Week-end !  :kermit:

Recent

[SETI] Server out !!

Démarré par spike, 29 Juin 2004 à 00:39

« précédent - suivant »

0 Membres et 1 Invité sur ce sujet

isadem

Pour info, voici la réponse de wanadoo :

CitationBonjour,

France Télécom / Wanadoo et l'opérateur américain Cogent qui échangeaient en direct du trafic Internet le font désormais via d'autres opérateurs.

Depuis cette modification, le trafic provenant de France Télécom / Wanadoo a toujours été correctement acheminé vers Cogent, mais le trafic en retour ne nous parvenait que partiellement (par suite de filtrage ou de dysfonctionnement côté Cogent).

N'étaient concernés que les sites uniquement reliés au réseau Cogent. Les équipes techniques sont restées en contact et le rétablissement complet est de la responsabilité de Cogent.

Nous assumons en tant que prestataire global la gêne rencontrée par nos clients Wanadoo, et nous continuons à mettre tout en oeuvre pour aboutir à la résolution complète de ces problèmes.

Nous espérons que ces précisions répondent à votre demande et vous souhaitons une bonne navigation avec Wanadoo.

Le service client Wanadoo

Caribou

t'en as de la chance d'avoir reçu cette réponse, moi de mon coté je n'ai rien...
Je ne vais tout de même pas changer de FAI rien que pour Berkeley..

qui sait.....

@+

JWhy


xterminator757288


Caribou

oui en effet c'est affligeant, il faut mieux de rien recevoir que ce genre de réponse

@+

Douglas Riper

Citation de: JWhyFinalement, j'ai eu une réponse de Wanadoo: http://folding.mesdiscussions.net/forum2.php?config=foldinghome.inc&cat=3&post=723&position=74#t10990 :)
oh :lol:

d'nu autre quote quand ca ne marche il y a des fois ou les tech n'ont pas le droit de le dire :/

ThierryH


ThierryH

Citation de: isademJe ne pense pas que ce que nous vivons en ce moment relève de de la seule (in)compétence de FT...

Cela dit, merci encore Thierry pour ton proxy et bien reçu pour l'usage modéré de ce dernier.
@+

Avec FT il y a souvent des problèmes de ce type. C'est bel et bien leur incompétence à négocier avec les autres opérateurs qui fait qu'ils se retrouvent dans des situation de bloquage  ;)
Et là, je te parle de mon expérience professionnel qui fait que j'ai résillié tous les contrats que j'avais avec eux (ils y ont tout de même perdu 10000€/mois). Ce qui, soit dit en passant, me permet de pouvoir vous ouvrir un proxy  ;)

Caribou

Je ne suis pas vraiment doué en informatique, mais pas vraiment nul non plus, mais là je ne sais si ma manoeuvre que je viens d'effectuer en ai la cause..

explication: mon ordi tourne 24h/24 sans interruption, depuis le 16 ou 17 avril, j'ai les problèmes que vous connaissez pour envoer ou/et recevoir mes Wus pour SETI, je viens de faire un areter/redemarer, car je trouvais que ma machine se trainait et là  miracle je viens de recevoir une Wu à calculer et mes deux WUs qui attendaient d'être envoyées sont parties et celà a l'air de marcher comme avant

à mon entendeur..

cordialement

@+  

Caribou

PS: en tout cas une chose EST certaine je suis nul en orthographe

@+

Caribou

PS bis: j'ai peut être parlé trop vite, car il semblerait qu'à nouveau je ne puisse me connecter à Berkeley (pour mettre à jour mes résultats dans ce cas) enfin bref,

 wait and see !

@+

isadem

A l'heure qu'il est, certains sites US impactés par ce problème semblent de nouveau accessibles (en tout cas, c'est le cas de cogentco.com).

Mais pas Berkeley, en tout cas pas chez moi.

A suivre...

Caribou

En fait PLUS chez moi non plus, mais hier j'ai reçu une réponse de FR, m'indiquant que certains sites fonctionnaient de nouveau et qu'il fallait indiquer ceux que posaient encore des problèmes...NF  à suivre donc aussi..

@+

Homer54

Voici la réponse faites par wanadoo:

"Bonjour,

Dans votre Courriel du 17/4/05, vous nous faites part de souci pour naviguer sur certains sites.

France Télécom et l'opérateur américain Cogent qui échangeaient en direct du trafic Internet (peering), le font désormais en s'appuyant sur le réseau d'autres opérateurs.

Depuis cette modification, le trafic provenant de Wanadoo est toujours correctement acheminé vers Cogent. En revanche, des perturbations sont constatées sur le trafic en retour de Cogent, pour les sites uniquement reliés par ce réseau.

Le rétablissement complet du trafic relève de la responsabilité de Cogent.

Toutefois, Wanadoo est conscient de la gêne rencontrée par ses clients et continue à tout mettre en oeuvre, notamment en restant en contact avec les équipes techniques de Cogent, afin d'aboutir à la résolution complète de ces problèmes.

 

19/04/2005 10:30 : Certains sites sont à nouveau accessibles

Nous vous prions de bien vouloir nous excuser pour la gêne occasionnée.
 


Merci de votre confiance et bonne navigation avec Wanadoo.



 
 
 

Merci de votre confiance et bonne navigation avec Wanadoo.

Le service client Wanadoo
http://assistance.wanadoo.fr"


Je vais essayer , on verra bien

Black Hole Sun

Bon, Berkeley down pour cause de maintenance sur la base de données : on patiente...

thomas

serveur out ce soir c une update .. :(


patouchon

et c'est le week-end, ça devient une habitude à Berkeley... :whistle:

Black Hole Sun

Again.
Le DL et le UP se sont mis à merdouiller dans la journée.
Les équipes de Berkeley s'en sont aperçues et ont tout mis off line pour 3-4 de leurs heures

CitationOutage Notice
Today (Monday) around 18:00 UTC we are having a short outage to back up our database. The data servers and most web pages are offline during this time. The outage lasts 3-4 hours, and then there is a long period of "catch up" afterwards as the servers are swamped with backlogged requests.

Black Hole Sun

Mise à jour : l'année démarre en fanfare à Berkeley :bounce:

CitationJanuary 2, 2006 - 19:15 UTC
Happy New Year! The holiday season has been a bit of a headache, as several nagging problems kept the BOINC backend from running optimally. Luckily, most of us were around town and able to stop/start/reboot/kick things as needed to keep the project rolling as much as possible.
Most of the issues stem from an excessive load on the BOINC database. Remember that the BOINC database is the one that contains all the information pertaining to the distributed computing side of things: like users and teams, but also cursory workunit and result data for scheduling and sending/receiving purposes. We are still in the middle of the master database merge (see below for more information about that). This is an entirely different database that contains all the scientific products of SETI@home (both Classic and BOINC). So while we are busy merging the old and new scientific databases into one, this has no bearing on the problems people are having connecting to our servers, posting messages on the forums, etc. The merge process will be continuing for many weeks, in fact.

In a nutshell, the BOINC database issues started when we built up a large "waiting to assimilate" queue in mid-December. Then we got hit with, among other things, an influx of new users, a network outage beyond our control, a failed disk, a full disk, a spat of noisy workunits, and a database crash. All events were handled effectively, but the queues weren't draining as fast as we wished.

The sum of all this ended up being large, unweildy tables in the BOINC database, as old workunits and results weren't being purged and more entries were being inserted. All the backend processes that enumerate on these tables (the validator, the assimilator, the file_deleter, etc.) all slowed down. It got to the point that just doing a "select count(*)" on these tables would take 30 minutes, which is why we shut off the counts on the status page.

To help all this, we rebuilt some of the backend processes. Those who pay close attention may have noticed that workunit names have changed over the past week or so. It used to be a tape name followed by four dot-delimited numbers. Now there are five numbers. The new number (which is currently "1" for all workunits) is a scientific configuration setting. Having this number in the name saves us two expensive database reads to look up these configuration settings. This change vastly improved the assimilator throughput, but we were already mired in the problems listed above. Without this change, though, we would have been dead in the water, as the deleters would back up behind the assimilators. We would have then run out of workunit space, the splitters would halt, and no new work would be created.

Adding insult to injury, we found the feeder has some kind of bug in it. The feeder is the process that keeps a stash of results in shared memory that the scheduler reads to find out what to send to clients requesting work. Over time the feeder gets less and less able to keep a full stash. Eventually the feeder can't keep up with the scheduler's demand for results, and then clients get "no work available" messages. These clients retry quickly, and these extra connections cause stress on the server, which then starts dropping these connections. So every day or so we've been restarting the feeder to clear out its clogged shared memory segments and that temporarily improves connectivity. We're looking into it.

Since the last database compression/backup on Wednesday, we purged about 8 million results from the result table. So we decided to have another compression/backup outage today (Monday) to reap the benefit of a much smaller result table sooner than later.

Bon en clair : grosse cata cata caca
L'afflux de nouveaux utilisateurs sur Boinc + la récente coupure réseau a légérement mis le boxon dans la base de données :d
Le tout combiné à divers problèmes dans les différents process de traitement des résultats dont ils se sont rendus compte grâce ou à cause de cette montée en charge.

Le résultat final est un joyeux merdier qu'ils vont mettre plusieurs jours à remettre en ordrer. Dans l'attente, le renvoi de résultats et le chargement de wus sera perturbé

Black Hole Sun

Quelques problèmes de firewall à Berkeley qui rendent les connexions avec les schedulers compliquées.
Les clients n'arrivent pas à se connecter à tous les coups.

Ils corrigent ça demain en profitant d'une journée de vacances sur le campus

Necromago

Le serveur est tombé depuis samedi dernier.

J'ai actuellement 13 WU en attente d'upload :(

Alors que soit disant le serveur d'upload est en ligne.

Avez-vous une astuce ?

Merci.

SETI@home classic WU : 10,787
SETI@home classic CPU time : 59,954 hours

Jaehaerys Targaryen

Je trouve bizarres toutes ces pannes... surtout avec le nouveau matériel et les dons du moment...

Peut être qu'ils mélangent ancien matériel et nouveau ....  :??: et c'est pour çà que cela bug encore et encore.... :rhaa: :rhaa: :rhaa:


Twitter : devweborne // Chaine Youtube : https://www.youtube.com/channel/UCXcoCd-1UlHpYIYzNER0n1Q

Hildor

Méga-déterrage de topic obsolète de plus de 5 ans :moimoi:

Comme il me semble que cela concerne Seti, pourquoi ne pas poster la-bas   :jap:
On en parle déjà d'ailleurs  :siflotte:


SMF spam blocked by CleanTalk