mirror of
https://github.com/ggml-org/llama.cpp.git
synced 2025-10-27 08:21:30 +00:00
CUDA: mmq CLI option, fixed mmq build issues (#2453)
This commit is contained in:
6
Makefile
6
Makefile
@@ -236,9 +236,9 @@ ifdef LLAMA_CUDA_MMQ_Y
|
||||
else
|
||||
NVCCFLAGS += -DGGML_CUDA_MMQ_Y=64
|
||||
endif # LLAMA_CUDA_MMQ_Y
|
||||
ifdef LLAMA_CUDA_CUBLAS
|
||||
NVCCFLAGS += -DGGML_CUDA_CUBLAS
|
||||
endif # LLAMA_CUDA_CUBLAS
|
||||
#ifdef LLAMA_CUDA_CUBLAS
|
||||
# NVCCFLAGS += -DGGML_CUDA_CUBLAS
|
||||
#endif # LLAMA_CUDA_CUBLAS
|
||||
ifdef LLAMA_CUDA_CCBIN
|
||||
NVCCFLAGS += -ccbin $(LLAMA_CUDA_CCBIN)
|
||||
endif
|
||||
|
||||
Reference in New Issue
Block a user