mirror of
				https://github.com/ggml-org/llama.cpp.git
				synced 2025-10-31 08:51:55 +00:00 
			
		
		
		
	llama : deprecate llama_kv_self_ API (#14030)
* llama : deprecate llama_kv_self_ API ggml-ci * llama : allow llama_memory_(nullptr) ggml-ci * memory : add flag for optional data clear in llama_memory_clear ggml-ci
This commit is contained in:
		| @@ -342,7 +342,7 @@ static bool cb_eval(struct ggml_tensor * t, bool ask, void * user_data) { | ||||
| } | ||||
|  | ||||
| static bool get_hidden_layers(llama_context * ctx, std::vector<llama_token> & tokens) { | ||||
|     llama_kv_self_clear(ctx); | ||||
|     llama_memory_clear(llama_get_memory(ctx), true); | ||||
|     if (llama_decode(ctx, llama_batch_get_one(tokens.data(), tokens.size()))) { | ||||
|         fprintf(stderr, "%s : failed to eval\n", __func__); | ||||
|         return false; | ||||
|   | ||||
		Reference in New Issue
	
	Block a user
	 Georgi Gerganov
					Georgi Gerganov