Minor version increment to 1.40.0

**Base branch:** `main`

┆Issue is synchronized with this [Notion
page](https://www.notion.so/PR-8797-1-40-0-3046d73d36508109b4b7ed3f6ca4530e)
by [Unito](https://www.unito.io)

---------

Co-authored-by: AustinMroz <4284322+AustinMroz@users.noreply.github.com>
Co-authored-by: github-actions <github-actions@github.com>
This commit is contained in:
Comfy Org PR Bot
2026-02-11 12:06:48 +09:00
committed by GitHub
parent 475d7035f7
commit d873c8048f
13 changed files with 145 additions and 1 deletions

View File

@@ -6880,6 +6880,10 @@
"LoraModelLoader": {
"display_name": "Carregar Modelo LoRA",
"inputs": {
"bypass": {
"name": "bypass",
"tooltip": "Quando ativado, aplica o LoRA no modo bypass sem modificar os pesos do modelo base. Útil para treinamento e quando os pesos do modelo são descarregados."
},
"lora": {
"name": "lora",
"tooltip": "O modelo LoRA a ser aplicado ao modelo de difusão."
@@ -14503,6 +14507,10 @@
"name": "bypass_mode",
"tooltip": "Ativar modo bypass para treinamento. Quando ativado, os adaptadores são aplicados via hooks de encaminhamento em vez de modificação de pesos. Útil para modelos quantizados onde os pesos não podem ser modificados diretamente."
},
"checkpoint_depth": {
"name": "checkpoint_depth",
"tooltip": "Nível de profundidade para checkpointing de gradiente."
},
"control_after_generate": {
"name": "controlar após gerar"
},
@@ -14538,6 +14546,10 @@
"name": "modelo",
"tooltip": "O modelo no qual treinar a LoRA."
},
"offloading": {
"name": "offloading",
"tooltip": "Nível de profundidade para checkpointing de gradiente."
},
"optimizer": {
"name": "otimizador",
"tooltip": "O otimizador a ser usado para o treinamento."