mirror of
				https://github.com/ggml-org/llama.cpp.git
				synced 2025-11-03 09:22:01 +00:00 
			
		
		
		
	fix compile
This commit is contained in:
		@@ -406,7 +406,7 @@ struct llama_batch_ext * llama_batch_ext_init_from_embd(
 | 
				
			|||||||
}
 | 
					}
 | 
				
			||||||
 | 
					
 | 
				
			||||||
int32_t llama_batch_ext_set_pos(struct llama_batch_ext * batch, llama_pos * pos, size_t n_pos) {
 | 
					int32_t llama_batch_ext_set_pos(struct llama_batch_ext * batch, llama_pos * pos, size_t n_pos) {
 | 
				
			||||||
    if (batch->n_tokens != n_pos) {
 | 
					    if ((size_t) batch->n_tokens != n_pos) {
 | 
				
			||||||
        return -1;
 | 
					        return -1;
 | 
				
			||||||
    }
 | 
					    }
 | 
				
			||||||
    memcpy(batch->pos, pos, n_pos * sizeof(llama_pos));
 | 
					    memcpy(batch->pos, pos, n_pos * sizeof(llama_pos));
 | 
				
			||||||
 
 | 
				
			|||||||
		Reference in New Issue
	
	Block a user