More formatting

This commit is contained in:
Kawrakow
2026-01-18 15:49:29 +00:00
parent b2c9689762
commit 61eccfcf0d
2 changed files with 7 additions and 11 deletions

View File

@@ -125,7 +125,7 @@ struct llama_sampling_context * common_sampler_init(const struct llama_vocab* vo
break; break;
} }
} }
return result; return result;
} }
@@ -419,7 +419,7 @@ static void sampler_queue(
case llama_sampler_type::ADAPTIVE_P: use_adaptive_p = true; break; case llama_sampler_type::ADAPTIVE_P: use_adaptive_p = true; break;
default : break; default : break;
} }
} }
if (use_adaptive_p) { if (use_adaptive_p) {
// adaptive p should be put to the last, so we ignore the order in the sampler // adaptive p should be put to the last, so we ignore the order in the sampler
@@ -451,7 +451,7 @@ static llama_token llama_sampling_sample_impl(
if (ctx_sampling->grammar != NULL && is_resampling) { if (ctx_sampling->grammar != NULL && is_resampling) {
float* logits = llama_get_logits_ith(ctx_main, idx); float* logits = llama_get_logits_ith(ctx_main, idx);
// Apply grammar constraints to all candidates // Apply grammar constraints to all candidates
llama_grammar_sample(ctx_sampling->grammar, ctx_main, &cur_p); llama_grammar_sample(ctx_sampling->grammar, ctx_main, &cur_p);
} }
if (temp < 0.0) { if (temp < 0.0) {

View File

@@ -7690,13 +7690,11 @@ void llama_sample_dry([[maybe_unused]] struct llama_context* ctx, struct llama_s
void llama_sample_adaptive_p( void llama_sample_adaptive_p(
[[maybe_unused]] struct llama_context * ctx, [[maybe_unused]] struct llama_context * ctx,
llama_token_data_array * candidates, llama_token_data_array * candidates,
struct llama_sampler_adaptive_p * adapt_p_ctx) struct llama_sampler_adaptive_p * adapt_p_ctx) {
{
llama_sample_adaptive_p_impl(candidates, adapt_p_ctx); llama_sample_adaptive_p_impl(candidates, adapt_p_ctx);
} }
void llama_prep_adaptive_p(llama_token_data_array * candidates, struct llama_sampler_adaptive_p * adapt_p_ctx) void llama_prep_adaptive_p(llama_token_data_array * candidates, struct llama_sampler_adaptive_p * adapt_p_ctx) {
{
llama_prep_adaptive_p_impl(candidates, adapt_p_ctx); llama_prep_adaptive_p_impl(candidates, adapt_p_ctx);
} }
@@ -7743,8 +7741,7 @@ llama_token llama_sample_token(struct llama_context * ctx, llama_token_data_arra
llama_token llama_sample_token_adaptive_p( llama_token llama_sample_token_adaptive_p(
struct llama_context * ctx, struct llama_context * ctx,
llama_token_data_array * candidates, llama_token_data_array * candidates,
struct llama_sampler_adaptive_p * adapt_p_ctx) struct llama_sampler_adaptive_p * adapt_p_ctx) {
{
return llama_sample_token_adaptive_p_impl(&ctx->sampling, candidates, adapt_p_ctx); return llama_sample_token_adaptive_p_impl(&ctx->sampling, candidates, adapt_p_ctx);
} }
@@ -7800,8 +7797,7 @@ void llama_sampler_dry_accept(struct llama_sampler_dry* smpl, llama_token token)
} }
struct llama_sampler_adaptive_p * llama_init_adaptive_p(const float target, const float decay, const uint32_t seed) struct llama_sampler_adaptive_p * llama_init_adaptive_p(const float target, const float decay, const uint32_t seed) {
{
return llama_init_adaptive_p_impl(target, decay, seed); return llama_init_adaptive_p_impl(target, decay, seed);
} }