From 61eccfcf0d87ca69a787d781fea842b0e83b28ba Mon Sep 17 00:00:00 2001 From: Kawrakow Date: Sun, 18 Jan 2026 15:49:29 +0000 Subject: [PATCH] More formatting --- common/sampling.cpp | 6 +++--- src/llama.cpp | 12 ++++-------- 2 files changed, 7 insertions(+), 11 deletions(-) diff --git a/common/sampling.cpp b/common/sampling.cpp index 60318fa7..f778b159 100644 --- a/common/sampling.cpp +++ b/common/sampling.cpp @@ -125,7 +125,7 @@ struct llama_sampling_context * common_sampler_init(const struct llama_vocab* vo break; } } - + return result; } @@ -419,7 +419,7 @@ static void sampler_queue( case llama_sampler_type::ADAPTIVE_P: use_adaptive_p = true; break; default : break; } - + } if (use_adaptive_p) { // adaptive p should be put to the last, so we ignore the order in the sampler @@ -451,7 +451,7 @@ static llama_token llama_sampling_sample_impl( if (ctx_sampling->grammar != NULL && is_resampling) { float* logits = llama_get_logits_ith(ctx_main, idx); // Apply grammar constraints to all candidates - llama_grammar_sample(ctx_sampling->grammar, ctx_main, &cur_p); + llama_grammar_sample(ctx_sampling->grammar, ctx_main, &cur_p); } if (temp < 0.0) { diff --git a/src/llama.cpp b/src/llama.cpp index 7175eca9..767ab687 100644 --- a/src/llama.cpp +++ b/src/llama.cpp @@ -7690,13 +7690,11 @@ void llama_sample_dry([[maybe_unused]] struct llama_context* ctx, struct llama_s void llama_sample_adaptive_p( [[maybe_unused]] struct llama_context * ctx, llama_token_data_array * candidates, - struct llama_sampler_adaptive_p * adapt_p_ctx) -{ + struct llama_sampler_adaptive_p * adapt_p_ctx) { llama_sample_adaptive_p_impl(candidates, adapt_p_ctx); } -void llama_prep_adaptive_p(llama_token_data_array * candidates, struct llama_sampler_adaptive_p * adapt_p_ctx) -{ +void llama_prep_adaptive_p(llama_token_data_array * candidates, struct llama_sampler_adaptive_p * adapt_p_ctx) { llama_prep_adaptive_p_impl(candidates, adapt_p_ctx); } @@ -7743,8 +7741,7 @@ llama_token llama_sample_token(struct llama_context * ctx, llama_token_data_arra llama_token llama_sample_token_adaptive_p( struct llama_context * ctx, llama_token_data_array * candidates, - struct llama_sampler_adaptive_p * adapt_p_ctx) -{ + struct llama_sampler_adaptive_p * adapt_p_ctx) { return llama_sample_token_adaptive_p_impl(&ctx->sampling, candidates, adapt_p_ctx); } @@ -7800,8 +7797,7 @@ void llama_sampler_dry_accept(struct llama_sampler_dry* smpl, llama_token token) } -struct llama_sampler_adaptive_p * llama_init_adaptive_p(const float target, const float decay, const uint32_t seed) -{ +struct llama_sampler_adaptive_p * llama_init_adaptive_p(const float target, const float decay, const uint32_t seed) { return llama_init_adaptive_p_impl(target, decay, seed); }