소스 검색

Don't use NF4 default

Aleksandr Borzunov 2 년 전
부모
커밋
753f8df594
1개의 변경된 파일3개의 추가작업 그리고 1개의 파일을 삭제
  1. 3 1
      src/petals/server/server.py

+ 3 - 1
src/petals/server/server.py

@@ -171,9 +171,11 @@ class Server:
 
         if quant_type is None:
             if device.type == "cuda":
-                quant_type = QuantType.NF4 if self.block_config.model_type == "llama" else QuantType.INT8
+                quant_type = QuantType.INT8
             else:
                 quant_type = QuantType.NONE
+        elif quant_type == QuantType.NF4:
+            raise RuntimeError("4-bit quantization (NF4) is not supported on AMD GPUs!")
         self.quant_type = quant_type
         logger.info(f"Model weights are loaded in {get_dtype_name(torch_dtype, quant_type)} format")