diff --git a/embd_res/kcpp_sdui.embd b/embd_res/kcpp_sdui.embd index 2e0880247..1542a520d 100644 --- a/embd_res/kcpp_sdui.embd +++ b/embd_res/kcpp_sdui.embd @@ -5,18 +5,18 @@ Stable UI for KoboldCpp - diff --git a/src/llama-context.cpp b/src/llama-context.cpp index 4383ba436..040b551c7 100644 --- a/src/llama-context.cpp +++ b/src/llama-context.cpp @@ -1923,7 +1923,7 @@ size_t llama_context::state_write_data(llama_io_write_i & io) { // write model info { - LLAMA_LOG_DEBUG("%s: - writing model info\n", __func__); + //LLAMA_LOG_DEBUG("%s: - writing model info\n", __func__); const std::string arch_str = llm_arch_name(model.arch); io.write_string(arch_str); @@ -1932,7 +1932,7 @@ size_t llama_context::state_write_data(llama_io_write_i & io) { // write output ids { - LLAMA_LOG_DEBUG("%s: - writing output ids\n", __func__); + //LLAMA_LOG_DEBUG("%s: - writing output ids\n", __func__); const auto n_outputs = this->n_outputs; const auto & output_ids = this->output_ids; @@ -1960,7 +1960,7 @@ size_t llama_context::state_write_data(llama_io_write_i & io) { // write logits { - LLAMA_LOG_DEBUG("%s: - writing logits\n", __func__); + //LLAMA_LOG_DEBUG("%s: - writing logits\n", __func__); const uint64_t logits_size = std::min((uint64_t) this->logits_size, (uint64_t) n_outputs * model.vocab.n_tokens()); @@ -1973,7 +1973,7 @@ size_t llama_context::state_write_data(llama_io_write_i & io) { // write embeddings { - LLAMA_LOG_DEBUG("%s: - writing embeddings\n", __func__); + //LLAMA_LOG_DEBUG("%s: - writing embeddings\n", __func__); const uint64_t embd_size = std::min((uint64_t) this->embd_size, (uint64_t) n_outputs * model.hparams.n_embd); @@ -1997,7 +1997,7 @@ size_t llama_context::state_read_data(llama_io_read_i & io) { // read model info { - LLAMA_LOG_DEBUG("%s: - reading model info\n", __func__); + //LLAMA_LOG_DEBUG("%s: - reading model info\n", __func__); const std::string cur_arch_str = llm_arch_name(model.arch); @@ -2011,7 +2011,7 @@ size_t llama_context::state_read_data(llama_io_read_i & io) { // read output ids { - LLAMA_LOG_DEBUG("%s: - reading output ids\n", __func__); + //LLAMA_LOG_DEBUG("%s: - reading output ids\n", __func__); auto n_outputs = this->n_outputs; io.read_to(&n_outputs, sizeof(n_outputs)); @@ -2040,7 +2040,7 @@ size_t llama_context::state_read_data(llama_io_read_i & io) { // read logits { - LLAMA_LOG_DEBUG("%s: - reading logits\n", __func__); + //LLAMA_LOG_DEBUG("%s: - reading logits\n", __func__); uint64_t logits_size; io.read_to(&logits_size, sizeof(logits_size)); @@ -2056,7 +2056,7 @@ size_t llama_context::state_read_data(llama_io_read_i & io) { // read embeddings { - LLAMA_LOG_DEBUG("%s: - reading embeddings\n", __func__); + //LLAMA_LOG_DEBUG("%s: - reading embeddings\n", __func__); uint64_t embd_size; io.read_to(&embd_size, sizeof(embd_size));