#pragma once #include "common.h" #include #include #include #include #include #include #include #include #include #include #include "llama.h" #include "ggml.h" std::vector legacy_llama_tokenize(struct llama_context * ctx, const std::string & text, bool add_bos); static bool legacy_llama_model_load(const std::string & fname, llama_context & lctx, int n_ctx, int n_parts, ggml_type memory_type, bool vocab_only, llama_progress_callback progress_callback, void *progress_callback_user_data); struct llama_context * legacy_llama_init_from_file(const char * path_model, struct llama_context_params params);