mirror of
				https://github.com/ggml-org/llama.cpp.git
				synced 2025-10-31 08:51:55 +00:00 
			
		
		
		
	server : add SWA checkpoints (#15293)
* server : add SWA checkpoints ggml-ci * cont : server clean-up * server : handle state restore fails * llama : add extended llama_state_seq_ API * server : do not make checkpoints if --swa-full ggml-ci * llama : remove flags value for NONE * server : configure number of SWA checkpoints with CLI arg ggml-ci * args : fix scope of new argument
This commit is contained in:
		| @@ -165,12 +165,16 @@ llama_pos llama_memory_hybrid::seq_pos_max(llama_seq_id seq_id) const { | ||||
|     return std::min(mem_attn->seq_pos_max(seq_id), mem_recr->seq_pos_max(seq_id)); | ||||
| } | ||||
|  | ||||
| void llama_memory_hybrid::state_write(llama_io_write_i & io, llama_seq_id seq_id) const { | ||||
| void llama_memory_hybrid::state_write(llama_io_write_i & io, llama_seq_id seq_id, llama_state_seq_flags flags) const { | ||||
|     GGML_UNUSED(flags); | ||||
|  | ||||
|     mem_attn->state_write(io, seq_id); | ||||
|     mem_recr->state_write(io, seq_id); | ||||
| } | ||||
|  | ||||
| void llama_memory_hybrid::state_read(llama_io_read_i & io, llama_seq_id seq_id) { | ||||
| void llama_memory_hybrid::state_read(llama_io_read_i & io, llama_seq_id seq_id, llama_state_seq_flags flags) { | ||||
|     GGML_UNUSED(flags); | ||||
|  | ||||
|     mem_attn->state_read(io, seq_id); | ||||
|     mem_recr->state_read(io, seq_id); | ||||
| } | ||||
|   | ||||
		Reference in New Issue
	
	Block a user
	 Georgi Gerganov
					Georgi Gerganov