mirror of
				https://github.com/ggml-org/llama.cpp.git
				synced 2025-11-03 09:22:01 +00:00 
			
		
		
		
	llama : update llama_model API names (#11063)
* llama : deprecate llama_free_model, add llama_model_free ggml-ci * llama : change `llama_load_model_from_file` -> `llama_model_load_from_file` ggml-ci
This commit is contained in:
		@@ -38,7 +38,7 @@ int main(int argc, char ** argv) {
 | 
			
		||||
 | 
			
		||||
    llama_model_params model_params = common_model_params_to_llama(params);
 | 
			
		||||
 | 
			
		||||
    llama_model * model = llama_load_model_from_file(params.model.c_str(), model_params);
 | 
			
		||||
    llama_model * model = llama_model_load_from_file(params.model.c_str(), model_params);
 | 
			
		||||
 | 
			
		||||
    if (model == NULL) {
 | 
			
		||||
        fprintf(stderr , "%s: error: unable to load model\n" , __func__);
 | 
			
		||||
@@ -194,7 +194,7 @@ int main(int argc, char ** argv) {
 | 
			
		||||
    llama_batch_free(batch);
 | 
			
		||||
 | 
			
		||||
    llama_free(ctx);
 | 
			
		||||
    llama_free_model(model);
 | 
			
		||||
    llama_model_free(model);
 | 
			
		||||
 | 
			
		||||
    llama_backend_free();
 | 
			
		||||
 | 
			
		||||
 
 | 
			
		||||
@@ -41,7 +41,7 @@ int main(int argc, char ** argv) {
 | 
			
		||||
 | 
			
		||||
    llama_model_params model_params = common_model_params_to_llama(params);
 | 
			
		||||
 | 
			
		||||
    llama_model * model = llama_load_model_from_file(params.model.c_str(), model_params);
 | 
			
		||||
    llama_model * model = llama_model_load_from_file(params.model.c_str(), model_params);
 | 
			
		||||
 | 
			
		||||
    if (model == NULL) {
 | 
			
		||||
        LOG_ERR("%s: error: unable to load model\n" , __func__);
 | 
			
		||||
@@ -236,7 +236,7 @@ int main(int argc, char ** argv) {
 | 
			
		||||
 | 
			
		||||
    llama_sampler_free(smpl);
 | 
			
		||||
    llama_free(ctx);
 | 
			
		||||
    llama_free_model(model);
 | 
			
		||||
    llama_model_free(model);
 | 
			
		||||
 | 
			
		||||
    llama_backend_free();
 | 
			
		||||
 | 
			
		||||
 
 | 
			
		||||
@@ -165,7 +165,7 @@ int main(int argc, char * argv[]) {
 | 
			
		||||
 | 
			
		||||
    llama_backend_init();
 | 
			
		||||
 | 
			
		||||
    llama_model * model = llama_load_model_from_file(params.model.c_str(), mparams);
 | 
			
		||||
    llama_model * model = llama_model_load_from_file(params.model.c_str(), mparams);
 | 
			
		||||
 | 
			
		||||
    // create generation context
 | 
			
		||||
    llama_context * ctx = llama_new_context_with_model(model, cparams);
 | 
			
		||||
@@ -219,7 +219,7 @@ int main(int argc, char * argv[]) {
 | 
			
		||||
 | 
			
		||||
    llama_sampler_free(smpl);
 | 
			
		||||
    llama_free(ctx);
 | 
			
		||||
    llama_free_model(model);
 | 
			
		||||
    llama_model_free(model);
 | 
			
		||||
    llama_backend_free();
 | 
			
		||||
 | 
			
		||||
    return 0;
 | 
			
		||||
 
 | 
			
		||||
@@ -1526,10 +1526,10 @@ int main(int argc, char ** argv) {
 | 
			
		||||
        // keep the same model between tests when possible
 | 
			
		||||
        if (!lmodel || !prev_inst || !inst.equal_mparams(*prev_inst)) {
 | 
			
		||||
            if (lmodel) {
 | 
			
		||||
                llama_free_model(lmodel);
 | 
			
		||||
                llama_model_free(lmodel);
 | 
			
		||||
            }
 | 
			
		||||
 | 
			
		||||
            lmodel = llama_load_model_from_file(inst.model.c_str(), inst.to_llama_mparams());
 | 
			
		||||
            lmodel = llama_model_load_from_file(inst.model.c_str(), inst.to_llama_mparams());
 | 
			
		||||
            if (lmodel == NULL) {
 | 
			
		||||
                fprintf(stderr, "%s: error: failed to load model '%s'\n", __func__, inst.model.c_str());
 | 
			
		||||
                return 1;
 | 
			
		||||
@@ -1540,7 +1540,7 @@ int main(int argc, char ** argv) {
 | 
			
		||||
        llama_context * ctx = llama_new_context_with_model(lmodel, inst.to_llama_cparams());
 | 
			
		||||
        if (ctx == NULL) {
 | 
			
		||||
            fprintf(stderr, "%s: error: failed to create context with model '%s'\n", __func__, inst.model.c_str());
 | 
			
		||||
            llama_free_model(lmodel);
 | 
			
		||||
            llama_model_free(lmodel);
 | 
			
		||||
            return 1;
 | 
			
		||||
        }
 | 
			
		||||
 | 
			
		||||
@@ -1626,7 +1626,7 @@ int main(int argc, char ** argv) {
 | 
			
		||||
        ggml_threadpool_free_fn(threadpool);
 | 
			
		||||
    }
 | 
			
		||||
 | 
			
		||||
    llama_free_model(lmodel);
 | 
			
		||||
    llama_model_free(lmodel);
 | 
			
		||||
 | 
			
		||||
    if (p) {
 | 
			
		||||
        p->print_footer();
 | 
			
		||||
 
 | 
			
		||||
@@ -221,7 +221,7 @@ static struct llama_model * llava_init(common_params * params) {
 | 
			
		||||
 | 
			
		||||
    llama_model_params model_params = common_model_params_to_llama(*params);
 | 
			
		||||
 | 
			
		||||
    llama_model * model = llama_load_model_from_file(params->model.c_str(), model_params);
 | 
			
		||||
    llama_model * model = llama_model_load_from_file(params->model.c_str(), model_params);
 | 
			
		||||
    if (model == NULL) {
 | 
			
		||||
        LOG_ERR("%s: unable to load model\n" , __func__);
 | 
			
		||||
        return NULL;
 | 
			
		||||
@@ -265,7 +265,7 @@ static void llava_free(struct llava_context * ctx_llava) {
 | 
			
		||||
    }
 | 
			
		||||
 | 
			
		||||
    llama_free(ctx_llava->ctx_llama);
 | 
			
		||||
    llama_free_model(ctx_llava->model);
 | 
			
		||||
    llama_model_free(ctx_llava->model);
 | 
			
		||||
    llama_backend_free();
 | 
			
		||||
}
 | 
			
		||||
 | 
			
		||||
@@ -323,7 +323,7 @@ int main(int argc, char ** argv) {
 | 
			
		||||
        }
 | 
			
		||||
    }
 | 
			
		||||
 | 
			
		||||
    llama_free_model(model);
 | 
			
		||||
    llama_model_free(model);
 | 
			
		||||
 | 
			
		||||
    return 0;
 | 
			
		||||
}
 | 
			
		||||
 
 | 
			
		||||
@@ -31,7 +31,7 @@ static struct llama_model * llava_init(common_params * params) {
 | 
			
		||||
 | 
			
		||||
    llama_model_params model_params = common_model_params_to_llama(*params);
 | 
			
		||||
 | 
			
		||||
    llama_model * model = llama_load_model_from_file(params->model.c_str(), model_params);
 | 
			
		||||
    llama_model * model = llama_model_load_from_file(params->model.c_str(), model_params);
 | 
			
		||||
    if (model == NULL) {
 | 
			
		||||
        LOG_ERR("%s: unable to load model\n" , __func__);
 | 
			
		||||
        return NULL;
 | 
			
		||||
@@ -75,7 +75,7 @@ static void llava_free(struct llava_context * ctx_llava) {
 | 
			
		||||
    }
 | 
			
		||||
 | 
			
		||||
    llama_free(ctx_llava->ctx_llama);
 | 
			
		||||
    llama_free_model(ctx_llava->model);
 | 
			
		||||
    llama_model_free(ctx_llava->model);
 | 
			
		||||
    llama_backend_free();
 | 
			
		||||
}
 | 
			
		||||
 | 
			
		||||
 
 | 
			
		||||
@@ -310,7 +310,7 @@ static struct llama_model * llava_init(common_params * params) {
 | 
			
		||||
 | 
			
		||||
    llama_model_params model_params = common_model_params_to_llama(*params);
 | 
			
		||||
 | 
			
		||||
    llama_model * model = llama_load_model_from_file(params->model.c_str(), model_params);
 | 
			
		||||
    llama_model * model = llama_model_load_from_file(params->model.c_str(), model_params);
 | 
			
		||||
    if (model == NULL) {
 | 
			
		||||
        LOG_ERR("%s: unable to load model\n" , __func__);
 | 
			
		||||
        return NULL;
 | 
			
		||||
@@ -354,7 +354,7 @@ static void llava_free(struct llava_context * ctx_llava) {
 | 
			
		||||
    }
 | 
			
		||||
 | 
			
		||||
    llama_free(ctx_llava->ctx_llama);
 | 
			
		||||
    llama_free_model(ctx_llava->model);
 | 
			
		||||
    llama_model_free(ctx_llava->model);
 | 
			
		||||
    llama_backend_free();
 | 
			
		||||
}
 | 
			
		||||
 | 
			
		||||
@@ -575,7 +575,7 @@ int main(int argc, char ** argv) {
 | 
			
		||||
        }
 | 
			
		||||
    }
 | 
			
		||||
 | 
			
		||||
    llama_free_model(model);
 | 
			
		||||
    llama_model_free(model);
 | 
			
		||||
 | 
			
		||||
    return 0;
 | 
			
		||||
}
 | 
			
		||||
 
 | 
			
		||||
@@ -63,7 +63,7 @@ int main(int argc, char ** argv) {
 | 
			
		||||
 | 
			
		||||
    llama_model_params model_params = common_model_params_to_llama(params);
 | 
			
		||||
 | 
			
		||||
    llama_model * model = llama_load_model_from_file(params.model.c_str(), model_params);
 | 
			
		||||
    llama_model * model = llama_model_load_from_file(params.model.c_str(), model_params);
 | 
			
		||||
 | 
			
		||||
    if (model == NULL) {
 | 
			
		||||
        LOG_ERR("%s: unable to load model\n" , __func__);
 | 
			
		||||
@@ -266,7 +266,7 @@ int main(int argc, char ** argv) {
 | 
			
		||||
    llama_batch_free(batch);
 | 
			
		||||
 | 
			
		||||
    llama_free(ctx);
 | 
			
		||||
    llama_free_model(model);
 | 
			
		||||
    llama_model_free(model);
 | 
			
		||||
 | 
			
		||||
    llama_backend_free();
 | 
			
		||||
 | 
			
		||||
 
 | 
			
		||||
@@ -309,7 +309,7 @@ int main(int argc, char ** argv) {
 | 
			
		||||
        auto mparams = llama_model_default_params();
 | 
			
		||||
        mparams.use_mlock  = false;
 | 
			
		||||
 | 
			
		||||
        model = llama_load_model_from_file(params.model.c_str(), mparams);
 | 
			
		||||
        model = llama_model_load_from_file(params.model.c_str(), mparams);
 | 
			
		||||
 | 
			
		||||
        if (model == NULL) {
 | 
			
		||||
            fprintf(stderr, "%s: error: failed to load model '%s'\n", __func__, params.model.c_str());
 | 
			
		||||
@@ -323,7 +323,7 @@ int main(int argc, char ** argv) {
 | 
			
		||||
 | 
			
		||||
        if (ctx == NULL) {
 | 
			
		||||
            fprintf(stderr, "%s: error: failed to create context with model '%s'\n", __func__, params.model.c_str());
 | 
			
		||||
            llama_free_model(model);
 | 
			
		||||
            llama_model_free(model);
 | 
			
		||||
            return 1;
 | 
			
		||||
        }
 | 
			
		||||
    }
 | 
			
		||||
@@ -347,7 +347,7 @@ int main(int argc, char ** argv) {
 | 
			
		||||
            fprintf(stderr, "%s: error: Quantization should be tested with a float model, "
 | 
			
		||||
                "this model contains already quantized layers (%s is type %d)\n", __func__, kv_tensor.first.c_str(), kv_tensor.second->type);
 | 
			
		||||
            llama_free(ctx);
 | 
			
		||||
            llama_free_model(model);
 | 
			
		||||
            llama_model_free(model);
 | 
			
		||||
            return 1;
 | 
			
		||||
        }
 | 
			
		||||
        included_layers++;
 | 
			
		||||
@@ -409,7 +409,7 @@ int main(int argc, char ** argv) {
 | 
			
		||||
 | 
			
		||||
 | 
			
		||||
    llama_free(ctx);
 | 
			
		||||
    llama_free_model(model);
 | 
			
		||||
    llama_model_free(model);
 | 
			
		||||
    // report timing
 | 
			
		||||
    {
 | 
			
		||||
        const int64_t t_main_end_us = ggml_time_us();
 | 
			
		||||
 
 | 
			
		||||
@@ -664,7 +664,7 @@ class LlamaData {
 | 
			
		||||
            "\r%*s"
 | 
			
		||||
            "\rLoading model",
 | 
			
		||||
            get_terminal_width(), " ");
 | 
			
		||||
        llama_model_ptr model(llama_load_model_from_file(opt.model_.c_str(), opt.model_params));
 | 
			
		||||
        llama_model_ptr model(llama_model_load_from_file(opt.model_.c_str(), opt.model_params));
 | 
			
		||||
        if (!model) {
 | 
			
		||||
            printe("%s: error: unable to load model from file: %s\n", __func__, opt.model_.c_str());
 | 
			
		||||
        }
 | 
			
		||||
 
 | 
			
		||||
@@ -69,7 +69,7 @@ int main(int argc, char ** argv) {
 | 
			
		||||
    llama_model_params model_params = llama_model_default_params();
 | 
			
		||||
    model_params.n_gpu_layers = ngl;
 | 
			
		||||
 | 
			
		||||
    llama_model * model = llama_load_model_from_file(model_path.c_str(), model_params);
 | 
			
		||||
    llama_model * model = llama_model_load_from_file(model_path.c_str(), model_params);
 | 
			
		||||
    if (!model) {
 | 
			
		||||
        fprintf(stderr , "%s: error: unable to load model\n" , __func__);
 | 
			
		||||
        return 1;
 | 
			
		||||
@@ -194,7 +194,7 @@ int main(int argc, char ** argv) {
 | 
			
		||||
    }
 | 
			
		||||
    llama_sampler_free(smpl);
 | 
			
		||||
    llama_free(ctx);
 | 
			
		||||
    llama_free_model(model);
 | 
			
		||||
    llama_model_free(model);
 | 
			
		||||
 | 
			
		||||
    return 0;
 | 
			
		||||
}
 | 
			
		||||
 
 | 
			
		||||
@@ -83,7 +83,7 @@ int main(int argc, char ** argv) {
 | 
			
		||||
    llama_model_params model_params = llama_model_default_params();
 | 
			
		||||
    model_params.n_gpu_layers = ngl;
 | 
			
		||||
 | 
			
		||||
    llama_model * model = llama_load_model_from_file(model_path.c_str(), model_params);
 | 
			
		||||
    llama_model * model = llama_model_load_from_file(model_path.c_str(), model_params);
 | 
			
		||||
 | 
			
		||||
    if (model == NULL) {
 | 
			
		||||
        fprintf(stderr , "%s: error: unable to load model\n" , __func__);
 | 
			
		||||
@@ -199,7 +199,7 @@ int main(int argc, char ** argv) {
 | 
			
		||||
 | 
			
		||||
    llama_sampler_free(smpl);
 | 
			
		||||
    llama_free(ctx);
 | 
			
		||||
    llama_free_model(model);
 | 
			
		||||
    llama_model_free(model);
 | 
			
		||||
 | 
			
		||||
    return 0;
 | 
			
		||||
}
 | 
			
		||||
 
 | 
			
		||||
@@ -338,7 +338,7 @@ int main(int raw_argc, char ** raw_argv) {
 | 
			
		||||
 | 
			
		||||
    llama_model_params model_params = llama_model_default_params();
 | 
			
		||||
    model_params.vocab_only = true;
 | 
			
		||||
    llama_model * model = llama_load_model_from_file(model_path, model_params);
 | 
			
		||||
    llama_model * model = llama_model_load_from_file(model_path, model_params);
 | 
			
		||||
    if (!model) {
 | 
			
		||||
        fprintf(stderr, "Error: could not load model from file '%s'.\n", model_path);
 | 
			
		||||
        return 1;
 | 
			
		||||
@@ -408,7 +408,7 @@ int main(int raw_argc, char ** raw_argv) {
 | 
			
		||||
    }
 | 
			
		||||
    // silence valgrind
 | 
			
		||||
    llama_free(ctx);
 | 
			
		||||
    llama_free_model(model);
 | 
			
		||||
    llama_model_free(model);
 | 
			
		||||
 | 
			
		||||
    return 0;
 | 
			
		||||
}
 | 
			
		||||
 
 | 
			
		||||
		Reference in New Issue
	
	Block a user