mirror of
				https://github.com/ggml-org/llama.cpp.git
				synced 2025-10-30 08:42:00 +00:00 
			
		
		
		
	llama : merge llama_internal.h into llama.h
Hide it behind an #ifdef
This commit is contained in:
		| @@ -253,7 +253,6 @@ endif() | ||||
| add_library(llama | ||||
|             llama.cpp | ||||
|             llama.h | ||||
|             llama_internal.h | ||||
|             llama_util.h) | ||||
|  | ||||
| target_include_directories(llama PUBLIC .) | ||||
|   | ||||
							
								
								
									
										2
									
								
								Makefile
									
									
									
									
									
								
							
							
						
						
									
										2
									
								
								Makefile
									
									
									
									
									
								
							| @@ -142,7 +142,7 @@ default: main quantize perplexity embedding | ||||
| ggml.o: ggml.c ggml.h | ||||
| 	$(CC)  $(CFLAGS)   -c ggml.c -o ggml.o | ||||
|  | ||||
| llama.o: llama.cpp llama.h llama_util.h llama_internal.h | ||||
| llama.o: llama.cpp llama.h llama_util.h | ||||
| 	$(CXX) $(CXXFLAGS) -c llama.cpp -o llama.o | ||||
|  | ||||
| common.o: examples/common.cpp examples/common.h | ||||
|   | ||||
| @@ -1,6 +1,7 @@ | ||||
| #include "ggml.h" | ||||
|  | ||||
| #define LLAMA_API_INTERNAL | ||||
| #include "llama.h" | ||||
| #include "llama_internal.h" | ||||
|  | ||||
| #include <algorithm> | ||||
| #include <cassert> | ||||
|   | ||||
| @@ -5,7 +5,6 @@ | ||||
|  | ||||
| #include "llama_util.h" | ||||
| #include "llama.h" | ||||
| #include "llama_internal.h" | ||||
|  | ||||
| #include "ggml.h" | ||||
|  | ||||
|   | ||||
							
								
								
									
										11
									
								
								llama.h
									
									
									
									
									
								
							
							
						
						
									
										11
									
								
								llama.h
									
									
									
									
									
								
							| @@ -179,4 +179,15 @@ extern "C" { | ||||
| } | ||||
| #endif | ||||
|  | ||||
| // Internal API to be implemented by llama.cpp and used by tests/benchmarks only | ||||
| #ifdef LLAMA_API_INTERNAL | ||||
|  | ||||
| #include <vector> | ||||
| #include <string> | ||||
| struct ggml_tensor; | ||||
|  | ||||
| std::vector<std::pair<std::string, struct ggml_tensor *>>& llama_internal_get_tensor_map(struct llama_context * ctx); | ||||
|  | ||||
| #endif | ||||
|  | ||||
| #endif // LLAMA_H | ||||
|   | ||||
| @@ -1,12 +0,0 @@ | ||||
| // Internal header to be included by llama.cpp and tests/benchmarks only. | ||||
|  | ||||
| #ifndef LLAMA_INTERNAL_H | ||||
| #define LLAMA_INTERNAL_H | ||||
|  | ||||
| #include <vector> | ||||
| #include <string> | ||||
| struct ggml_tensor; | ||||
|  | ||||
| std::vector<std::pair<std::string, struct ggml_tensor *>>& llama_internal_get_tensor_map(struct llama_context * ctx); | ||||
|  | ||||
| #endif // LLAMA_INTERNAL_H | ||||
		Reference in New Issue
	
	Block a user
	 Georgi Gerganov
					Georgi Gerganov