Kaynağa Gözat

remove debug logs

justheuristic 3 yıl önce
ebeveyn
işleme
5be0e09baf
1 değiştirilmiş dosya ile 0 ekleme ve 4 silme
  1. 0 4
      hivemind/optim/experimental/optimizer.py

+ 0 - 4
hivemind/optim/experimental/optimizer.py

@@ -239,10 +239,6 @@ class Optimizer(torch.optim.Optimizer):
                 logger.log(self.status_loglevel, f"Discarding failed matchmaking results: {self.scheduled_round}")
                 self.scheduled_round = None
 
-            logger.info(  # TODO
-                f"BEFORE: {self.grad_averager.local_samples_accumulated}, {repr([grad.norm() / self.grad_averager.local_times_accumulated for grad in self.grad_averager._grad_accumulators()])}"
-            )
-
             need_averaging = self.tracker.global_progress.num_peers > 1
             if need_averaging:
                 try: