소스 검색

Revert to MAX_TOKENS_IN_BATCH = 1024 default

Aleksandr Borzunov 2 년 전
부모
커밋
d3121d7f08
2개의 변경된 파일2개의 추가작업 그리고 2개의 파일을 삭제
  1. 1 1
      src/petals/cli/benchmark_forward.py
  2. 1 1
      src/petals/client/sequential_autograd.py

+ 1 - 1
src/petals/cli/benchmark_forward.py

@@ -12,7 +12,7 @@ from transformers import BloomTokenizerFast
 
 logger = get_logger()
 
-petals.client.sequential_autograd.MAX_TOKENS_IN_BATCH = 1024
+# petals.client.sequential_autograd.MAX_TOKENS_IN_BATCH = 1024
 
 
 def main():

+ 1 - 1
src/petals/client/sequential_autograd.py

@@ -20,7 +20,7 @@ from petals.utils.misc import DUMMY, is_dummy
 
 logger = get_logger(__name__)
 
-MAX_TOKENS_IN_BATCH = 512
+MAX_TOKENS_IN_BATCH = 1024
 
 
 async def sequential_forward(