mirror of
				https://github.com/ggml-org/llama.cpp.git
				synced 2025-10-31 08:51:55 +00:00 
			
		
		
		
	 938943cdbf
			
		
	
	938943cdbf
	
	
	
		
			
			* llama : move sampling code into llama-sampling ggml-ci * llama : move grammar code into llama-grammar ggml-ci * cont ggml-ci * cont : pre-fetch rules * cont ggml-ci * llama : deprecate llama_sample_grammar * llama : move tokenizers into llama-vocab ggml-ci * make : update llama.cpp deps [no ci] * llama : redirect external API to internal APIs ggml-ci * llama : suffix the internal APIs with "_impl" ggml-ci * llama : clean-up
		
			
				
	
	
		
			57 lines
		
	
	
		
			2.6 KiB
		
	
	
	
		
			C++
		
	
	
	
	
	
			
		
		
	
	
			57 lines
		
	
	
		
			2.6 KiB
		
	
	
	
		
			C++
		
	
	
	
	
	
| #pragma once
 | |
| 
 | |
| #include "llama-impl.h"
 | |
| 
 | |
| struct llama_sampling {
 | |
|     llama_sampling(int32_t n_vocab) : n_vocab(n_vocab) {}
 | |
| 
 | |
|     std::mt19937 rng;
 | |
| 
 | |
|     int32_t n_vocab = 0;
 | |
| 
 | |
|     mutable int64_t t_sample_us = 0;
 | |
|     mutable int32_t n_sample = 0;
 | |
| 
 | |
|     void reset_timings() const {
 | |
|         t_sample_us = 0;
 | |
|         n_sample = 0;
 | |
|     }
 | |
| };
 | |
| 
 | |
| //
 | |
| // internal API
 | |
| //
 | |
| 
 | |
| void llama_set_rng_seed_impl(struct llama_sampling * smpl, uint32_t seed);
 | |
| 
 | |
| void llama_sample_softmax_impl  (struct llama_sampling * smpl, llama_token_data_array * candidates);
 | |
| void llama_sample_top_k_impl    (struct llama_sampling * smpl, llama_token_data_array * candidates, int32_t k, size_t min_keep);
 | |
| void llama_sample_top_p_impl    (struct llama_sampling * smpl, llama_token_data_array * candidates, float p, size_t min_keep);
 | |
| void llama_sample_min_p_impl    (struct llama_sampling * smpl, llama_token_data_array * candidates, float p, size_t min_keep);
 | |
| void llama_sample_tail_free_impl(struct llama_sampling * smpl, llama_token_data_array * candidates, float z, size_t min_keep);
 | |
| void llama_sample_typical_impl  (struct llama_sampling * smpl, llama_token_data_array * candidates, float p, size_t min_keep);
 | |
| void llama_sample_entropy_impl  (struct llama_sampling * smpl, llama_token_data_array * candidates, float min_temp, float max_temp, float exponent_val);
 | |
| void llama_sample_temp_impl     (struct llama_sampling * smpl, llama_token_data_array * candidates, float temp);
 | |
| 
 | |
| void llama_sample_repetition_penalties_impl(
 | |
|         struct llama_sampling * smpl,
 | |
|        llama_token_data_array * candidates,
 | |
|             const llama_token * last_tokens,
 | |
|                        size_t   penalty_last_n,
 | |
|                         float   penalty_repeat,
 | |
|                         float   penalty_freq,
 | |
|                         float   penalty_present);
 | |
| 
 | |
| void llama_sample_apply_guidance_impl(
 | |
|         struct llama_sampling * smpl,
 | |
|                         float * logits,
 | |
|                         float * logits_guidance,
 | |
|                         float   scale);
 | |
| 
 | |
| llama_token llama_sample_token_mirostat_impl   (struct llama_sampling * smpl, llama_token_data_array * candidates, float tau, float eta, int32_t m, float * mu);
 | |
| llama_token llama_sample_token_mirostat_v2_impl(struct llama_sampling * smpl, llama_token_data_array * candidates, float tau, float eta, float * mu);
 | |
| llama_token llama_sample_token_greedy_impl     (struct llama_sampling * smpl, llama_token_data_array * candidates);
 | |
| llama_token llama_sample_token_with_rng_impl   (struct llama_sampling * smpl, llama_token_data_array * candidates, std::mt19937 & rng);
 | |
| llama_token llama_sample_token_impl            (struct llama_sampling * smpl, llama_token_data_array * candidates);
 | |
| 
 |