mirror of
				https://github.com/ggml-org/llama.cpp.git
				synced 2025-11-03 09:22:01 +00:00 
			
		
		
		
	* llama : move sampling code into llama-sampling ggml-ci * llama : move grammar code into llama-grammar ggml-ci * cont ggml-ci * cont : pre-fetch rules * cont ggml-ci * llama : deprecate llama_sample_grammar * llama : move tokenizers into llama-vocab ggml-ci * make : update llama.cpp deps [no ci] * llama : redirect external API to internal APIs ggml-ci * llama : suffix the internal APIs with "_impl" ggml-ci * llama : clean-up
		
			
				
	
	
		
			27 lines
		
	
	
		
			795 B
		
	
	
	
		
			C
		
	
	
	
	
	
			
		
		
	
	
			27 lines
		
	
	
		
			795 B
		
	
	
	
		
			C
		
	
	
	
	
	
#pragma once
 | 
						|
 | 
						|
#define LLAMA_API_INTERNAL
 | 
						|
#include "llama.h"
 | 
						|
 | 
						|
#ifdef __GNUC__
 | 
						|
#ifdef __MINGW32__
 | 
						|
#define LLAMA_ATTRIBUTE_FORMAT(...) __attribute__((format(gnu_printf, __VA_ARGS__)))
 | 
						|
#else
 | 
						|
#define LLAMA_ATTRIBUTE_FORMAT(...) __attribute__((format(printf, __VA_ARGS__)))
 | 
						|
#endif
 | 
						|
#else
 | 
						|
#define LLAMA_ATTRIBUTE_FORMAT(...)
 | 
						|
#endif
 | 
						|
 | 
						|
//
 | 
						|
// logging
 | 
						|
//
 | 
						|
 | 
						|
LLAMA_ATTRIBUTE_FORMAT(2, 3)
 | 
						|
void llama_log_internal        (ggml_log_level level, const char * format, ...);
 | 
						|
void llama_log_callback_default(ggml_log_level level, const char * text, void * user_data);
 | 
						|
 | 
						|
#define LLAMA_LOG_INFO(...)  llama_log_internal(GGML_LOG_LEVEL_INFO , __VA_ARGS__)
 | 
						|
#define LLAMA_LOG_WARN(...)  llama_log_internal(GGML_LOG_LEVEL_WARN , __VA_ARGS__)
 | 
						|
#define LLAMA_LOG_ERROR(...) llama_log_internal(GGML_LOG_LEVEL_ERROR, __VA_ARGS__)
 |