Explorar o código

Disable the optimization

Max Ryabinin %!s(int64=2) %!d(string=hai) anos
pai
achega
a7f87b636b
Modificáronse 1 ficheiros con 1 adicións e 1 borrados
  1. 1 1
      src/petals/models/llama/block.py

+ 1 - 1
src/petals/models/llama/block.py

@@ -114,7 +114,7 @@ class OptimizedLlamaDecoderLayer(LlamaDecoderLayer):
         self.post_attention_layernorm = LlamaRMSNorm(config.hidden_size, eps=config.rms_norm_eps)
 
 
-class WrappedLlamaBlock(OptimizedLlamaDecoderLayer):
+class WrappedLlamaBlock(LlamaDecoderLayer):
     def forward(
         self,
         hidden_states: torch.Tensor,