mirror of
				https://github.com/ggml-org/llama.cpp.git
				synced 2025-10-31 08:51:55 +00:00 
			
		
		
		
	CUDA: fixed cmake F16 option (#2471)
This commit is contained in:
		| @@ -73,7 +73,7 @@ set(LLAMA_CUDA_MMQ_Y       "64" CACHE STRING "llama: y tile size for mmq CUDA ke | |||||||
| option(LLAMA_CUDA_FORCE_DMMV                 "llama: use dmmv instead of mmvq CUDA kernels"     OFF) | option(LLAMA_CUDA_FORCE_DMMV                 "llama: use dmmv instead of mmvq CUDA kernels"     OFF) | ||||||
| set(LLAMA_CUDA_DMMV_X      "32" CACHE STRING "llama: x stride for dmmv CUDA kernels") | set(LLAMA_CUDA_DMMV_X      "32" CACHE STRING "llama: x stride for dmmv CUDA kernels") | ||||||
| set(LLAMA_CUDA_MMV_Y        "1" CACHE STRING "llama: y block size for mmv CUDA kernels") | set(LLAMA_CUDA_MMV_Y        "1" CACHE STRING "llama: y block size for mmv CUDA kernels") | ||||||
| option(LLAMA_CUDA_DMMV_F16                   "llama: use 16 bit floats for dmmv CUDA kernels"   OFF) | option(LLAMA_CUDA_F16                        "llama: use 16 bit floats for some calculations"   OFF) | ||||||
| set(LLAMA_CUDA_KQUANTS_ITER "2" CACHE STRING "llama: iters./thread per block for Q2_K/Q6_K") | set(LLAMA_CUDA_KQUANTS_ITER "2" CACHE STRING "llama: iters./thread per block for Q2_K/Q6_K") | ||||||
| option(LLAMA_CLBLAST                         "llama: use CLBlast"                               OFF) | option(LLAMA_CLBLAST                         "llama: use CLBlast"                               OFF) | ||||||
| option(LLAMA_METAL                           "llama: use Metal"                                 OFF) | option(LLAMA_METAL                           "llama: use Metal"                                 OFF) | ||||||
| @@ -265,8 +265,8 @@ if (LLAMA_CUBLAS) | |||||||
|         if (DEFINED LLAMA_CUDA_DMMV_Y) |         if (DEFINED LLAMA_CUDA_DMMV_Y) | ||||||
|             add_compile_definitions(GGML_CUDA_MMV_Y=${LLAMA_CUDA_DMMV_Y}) # for backwards compatibility |             add_compile_definitions(GGML_CUDA_MMV_Y=${LLAMA_CUDA_DMMV_Y}) # for backwards compatibility | ||||||
|         endif() |         endif() | ||||||
|         if (LLAMA_CUDA_DMMV_F16) |         if (LLAMA_CUDA_F16 OR LLAMA_CUDA_DMMV_F16) | ||||||
|             add_compile_definitions(GGML_CUDA_DMMV_F16) |             add_compile_definitions(GGML_CUDA_F16) | ||||||
|         endif() |         endif() | ||||||
|         add_compile_definitions(K_QUANTS_PER_ITERATION=${LLAMA_CUDA_KQUANTS_ITER}) |         add_compile_definitions(K_QUANTS_PER_ITERATION=${LLAMA_CUDA_KQUANTS_ITER}) | ||||||
|  |  | ||||||
|   | |||||||
		Reference in New Issue
	
	Block a user
	 Johannes Gäßler
					Johannes Gäßler