mirror of
				https://github.com/ggml-org/llama.cpp.git
				synced 2025-10-31 08:51:55 +00:00 
			
		
		
		
	Merge branch 'master' into compilade/bitnet-ternary
This commit is contained in:
		| @@ -93,6 +93,9 @@ extern "C" { | ||||
|         LLAMA_VOCAB_PRE_TYPE_TEKKEN         = 20, | ||||
|         LLAMA_VOCAB_PRE_TYPE_SMOLLM         = 21, | ||||
|         LLAMA_VOCAB_PRE_TYPE_CODESHELL      = 22, | ||||
|         LLAMA_VOCAB_PRE_TYPE_BLOOM          = 23, | ||||
|         LLAMA_VOCAB_PRE_TYPE_GPT3_FINNISH   = 24, | ||||
|         LLAMA_VOCAB_PRE_TYPE_EXAONE         = 25, | ||||
|     }; | ||||
|  | ||||
|     enum llama_rope_type { | ||||
| @@ -510,6 +513,9 @@ extern "C" { | ||||
|     // to the decoder to start generating output sequence. For other models, it returns -1. | ||||
|     LLAMA_API llama_token llama_model_decoder_start_token(const struct llama_model * model); | ||||
|  | ||||
|     // Returns true if the model is recurrent (like Mamba, RWKV, etc.) | ||||
|     LLAMA_API bool llama_model_is_recurrent(const struct llama_model * model); | ||||
|  | ||||
|     // Returns 0 on success | ||||
|     LLAMA_API uint32_t llama_model_quantize( | ||||
|             const char * fname_inp, | ||||
| @@ -914,11 +920,8 @@ extern "C" { | ||||
|     LLAMA_API llama_token llama_token_nl (const struct llama_model * model); // next-line | ||||
|     LLAMA_API llama_token llama_token_pad(const struct llama_model * model); // padding | ||||
|  | ||||
|     // Returns -1 if unknown, 1 for true or 0 for false. | ||||
|     LLAMA_API int32_t llama_add_bos_token(const struct llama_model * model); | ||||
|  | ||||
|     // Returns -1 if unknown, 1 for true or 0 for false. | ||||
|     LLAMA_API int32_t llama_add_eos_token(const struct llama_model * model); | ||||
|     LLAMA_API bool llama_add_bos_token(const struct llama_model * model); | ||||
|     LLAMA_API bool llama_add_eos_token(const struct llama_model * model); | ||||
|  | ||||
|     // Codellama infill tokens | ||||
|     LLAMA_API llama_token llama_token_prefix(const struct llama_model * model); // Beginning of infill prefix | ||||
|   | ||||
		Reference in New Issue
	
	Block a user
	 Francis Couture-Harpin
					Francis Couture-Harpin