mirror of
				https://github.com/ggml-org/llama.cpp.git
				synced 2025-10-28 08:31:25 +00:00 
			
		
		
		
	test-model-random : fix seq_id buffer overflow
This commit is contained in:
		| @@ -1077,7 +1077,6 @@ int main(int argc, char ** argv) { | |||||||
|     const int32_t n_shared_len = 13; // prime number, shared prompt length |     const int32_t n_shared_len = 13; // prime number, shared prompt length | ||||||
|     const int32_t n_seq_len = 127; // prime number |     const int32_t n_seq_len = 127; // prime number | ||||||
|  |  | ||||||
|     llama_batch batch = llama_batch_init(n_batch, 0, 1); |  | ||||||
|     // TODO: batch with embeddings |     // TODO: batch with embeddings | ||||||
|  |  | ||||||
|     std::vector<model_variant> model_variants; |     std::vector<model_variant> model_variants; | ||||||
| @@ -1119,6 +1118,8 @@ int main(int argc, char ** argv) { | |||||||
|         // TODO: avoid re-creating reference outputs |         // TODO: avoid re-creating reference outputs | ||||||
|         for (int32_t n_seq_max : { 1, 2, 5 }) { |         for (int32_t n_seq_max : { 1, 2, 5 }) { | ||||||
|  |  | ||||||
|  |             llama_batch batch = llama_batch_init(n_batch, 0, n_seq_max); | ||||||
|  |  | ||||||
|             // TODO(later): context shift testing |             // TODO(later): context shift testing | ||||||
|             for (int32_t n_ctx : { n_seq_len * n_seq_max }) { |             for (int32_t n_ctx : { n_seq_len * n_seq_max }) { | ||||||
|  |  | ||||||
| @@ -1195,6 +1196,7 @@ int main(int argc, char ** argv) { | |||||||
|                                 for (llama_seq_id seq_id = 0; seq_id < n_seq_max; ++seq_id) { |                                 for (llama_seq_id seq_id = 0; seq_id < n_seq_max; ++seq_id) { | ||||||
|                                     seq_id_group.push_back(seq_id); |                                     seq_id_group.push_back(seq_id); | ||||||
|                                     seq_id_n_past[seq_id] += shared_prompt.size(); |                                     seq_id_n_past[seq_id] += shared_prompt.size(); | ||||||
|  |                                     seq_ids_in_batch.insert(seq_id); | ||||||
|                                 }; |                                 }; | ||||||
|  |  | ||||||
|                                 for (size_t i = 0; i < shared_prompt.size(); ++i) { |                                 for (size_t i = 0; i < shared_prompt.size(); ++i) { | ||||||
| @@ -1272,12 +1274,12 @@ int main(int argc, char ** argv) { | |||||||
|                     } |                     } | ||||||
|                 } |                 } | ||||||
|             } |             } | ||||||
|  |  | ||||||
|  |             llama_batch_free(batch); | ||||||
|         } |         } | ||||||
|  |  | ||||||
|         llama_model_free(model); |         llama_model_free(model); | ||||||
|     } |     } | ||||||
|  |  | ||||||
|     llama_batch_free(batch); |  | ||||||
|  |  | ||||||
|     return 0; |     return 0; | ||||||
| } | } | ||||||
|   | |||||||
		Reference in New Issue
	
	Block a user
	 Francis Couture-Harpin
					Francis Couture-Harpin