mirror of
https://github.com/ggml-org/llama.cpp.git
synced 2025-11-11 10:36:54 +00:00
change for ollama
This commit is contained in:
17
llama.cpp
17
llama.cpp
@@ -15379,6 +15379,18 @@ struct llama_model * llama_load_model_from_file(
|
|||||||
}
|
}
|
||||||
model->rpc_servers.push_back(servers);
|
model->rpc_servers.push_back(servers);
|
||||||
}
|
}
|
||||||
|
// int status = llama_model_load(path_model, *model, params);
|
||||||
|
// GGML_ASSERT(status <= 0);
|
||||||
|
// if (status < 0) {
|
||||||
|
// if (status == -1) {
|
||||||
|
// LLAMA_LOG_ERROR("%s: failed to load model\n", __func__);
|
||||||
|
// } else if (status == -2) {
|
||||||
|
// LLAMA_LOG_INFO("%s: cancelled model load\n", __func__);
|
||||||
|
// }
|
||||||
|
// delete model;
|
||||||
|
// return nullptr;
|
||||||
|
// }
|
||||||
|
try {
|
||||||
int status = llama_model_load(path_model, *model, params);
|
int status = llama_model_load(path_model, *model, params);
|
||||||
GGML_ASSERT(status <= 0);
|
GGML_ASSERT(status <= 0);
|
||||||
if (status < 0) {
|
if (status < 0) {
|
||||||
@@ -15390,6 +15402,11 @@ struct llama_model * llama_load_model_from_file(
|
|||||||
delete model;
|
delete model;
|
||||||
return nullptr;
|
return nullptr;
|
||||||
}
|
}
|
||||||
|
} catch (...) {
|
||||||
|
LLAMA_LOG_ERROR("%s: exception loading model\n", __func__);
|
||||||
|
delete model;
|
||||||
|
throw;
|
||||||
|
}
|
||||||
|
|
||||||
return model;
|
return model;
|
||||||
}
|
}
|
||||||
|
|||||||
Reference in New Issue
Block a user