mirror of
https://github.com/Comfy-Org/ComfyUI_frontend.git
synced 2026-02-19 22:34:15 +00:00
1.40.0 (#8797)
Minor version increment to 1.40.0 **Base branch:** `main` ┆Issue is synchronized with this [Notion page](https://www.notion.so/PR-8797-1-40-0-3046d73d36508109b4b7ed3f6ca4530e) by [Unito](https://www.unito.io) --------- Co-authored-by: AustinMroz <4284322+AustinMroz@users.noreply.github.com> Co-authored-by: github-actions <github-actions@github.com>
This commit is contained in:
@@ -6879,6 +6879,10 @@
|
||||
"LoraModelLoader": {
|
||||
"display_name": "تحميل نموذج LoRA",
|
||||
"inputs": {
|
||||
"bypass": {
|
||||
"name": "تجاوز",
|
||||
"tooltip": "عند التفعيل، يتم تطبيق LoRA في وضع التجاوز دون تعديل أوزان النموذج الأساسي. مفيد أثناء التدريب وعند تفريغ أوزان النموذج."
|
||||
},
|
||||
"lora": {
|
||||
"name": "lora",
|
||||
"tooltip": "نموذج LoRA لتطبيقه على نموذج الانتشار."
|
||||
@@ -14490,6 +14494,10 @@
|
||||
"name": "bypass_mode",
|
||||
"tooltip": "تفعيل وضع التجاوز أثناء التدريب. عند التفعيل، يتم تطبيق المحولات عبر forward hooks بدلاً من تعديل الأوزان. مفيد للنماذج المحوّلة حيث لا يمكن تعديل الأوزان مباشرة."
|
||||
},
|
||||
"checkpoint_depth": {
|
||||
"name": "عمق نقطة الحفظ",
|
||||
"tooltip": "مستوى العمق لتسجيل نقاط التحقق من التدرج."
|
||||
},
|
||||
"control_after_generate": {
|
||||
"name": "التحكم بعد التوليد"
|
||||
},
|
||||
@@ -14525,6 +14533,10 @@
|
||||
"name": "نموذج",
|
||||
"tooltip": "النموذج الذي سيتم تدريب LoRA عليه."
|
||||
},
|
||||
"offloading": {
|
||||
"name": "تفريغ",
|
||||
"tooltip": "مستوى العمق لتسجيل نقاط التحقق من التدرج."
|
||||
},
|
||||
"optimizer": {
|
||||
"name": "المحسن",
|
||||
"tooltip": "المحسن المستخدم في التدريب."
|
||||
|
||||
@@ -6546,6 +6546,10 @@
|
||||
"strength_model": {
|
||||
"name": "strength_model",
|
||||
"tooltip": "How strongly to modify the diffusion model. This value can be negative."
|
||||
},
|
||||
"bypass": {
|
||||
"name": "bypass",
|
||||
"tooltip": "When enabled, applies LoRA in bypass mode without modifying base model weights. Useful for training and when model weights are offloaded."
|
||||
}
|
||||
},
|
||||
"outputs": {
|
||||
@@ -14627,6 +14631,14 @@
|
||||
"name": "gradient_checkpointing",
|
||||
"tooltip": "Use gradient checkpointing for training."
|
||||
},
|
||||
"checkpoint_depth": {
|
||||
"name": "checkpoint_depth",
|
||||
"tooltip": "Depth level for gradient checkpointing."
|
||||
},
|
||||
"offloading": {
|
||||
"name": "offloading",
|
||||
"tooltip": "Depth level for gradient checkpointing."
|
||||
},
|
||||
"existing_lora": {
|
||||
"name": "existing_lora",
|
||||
"tooltip": "The existing LoRA to append to. Set to None for new LoRA."
|
||||
|
||||
@@ -6879,6 +6879,10 @@
|
||||
"LoraModelLoader": {
|
||||
"display_name": "Cargar Modelo LoRA",
|
||||
"inputs": {
|
||||
"bypass": {
|
||||
"name": "bypass",
|
||||
"tooltip": "Cuando está activado, aplica LoRA en modo bypass sin modificar los pesos del modelo base. Útil para entrenamiento y cuando los pesos del modelo se descargan."
|
||||
},
|
||||
"lora": {
|
||||
"name": "lora",
|
||||
"tooltip": "El modelo LoRA a aplicar al modelo de difusión."
|
||||
@@ -14490,6 +14494,10 @@
|
||||
"name": "bypass_mode",
|
||||
"tooltip": "Activa el modo bypass para el entrenamiento. Cuando está activado, los adaptadores se aplican mediante hooks directos en vez de modificar los pesos. Útil para modelos cuantizados donde los pesos no pueden modificarse directamente."
|
||||
},
|
||||
"checkpoint_depth": {
|
||||
"name": "checkpoint_depth",
|
||||
"tooltip": "Nivel de profundidad para el checkpointing de gradientes."
|
||||
},
|
||||
"control_after_generate": {
|
||||
"name": "controlar después de generar"
|
||||
},
|
||||
@@ -14525,6 +14533,10 @@
|
||||
"name": "modelo",
|
||||
"tooltip": "El modelo sobre el cual entrenar el LoRA."
|
||||
},
|
||||
"offloading": {
|
||||
"name": "offloading",
|
||||
"tooltip": "Nivel de profundidad para el checkpointing de gradientes."
|
||||
},
|
||||
"optimizer": {
|
||||
"name": "optimizador",
|
||||
"tooltip": "El optimizador a utilizar para el entrenamiento."
|
||||
|
||||
@@ -6880,6 +6880,10 @@
|
||||
"LoraModelLoader": {
|
||||
"display_name": "بارگذاری مدل LoRA",
|
||||
"inputs": {
|
||||
"bypass": {
|
||||
"name": "bypass",
|
||||
"tooltip": "زمانی که فعال باشد، LoRA را در حالت bypass بدون تغییر وزنهای مدل پایه اعمال میکند. این گزینه برای آموزش و زمانی که وزنهای مدل offload شدهاند مفید است."
|
||||
},
|
||||
"lora": {
|
||||
"name": "lora",
|
||||
"tooltip": "مدل LoRA که باید روی مدل diffusion اعمال شود."
|
||||
@@ -14503,6 +14507,10 @@
|
||||
"name": "bypass_mode",
|
||||
"tooltip": "فعالسازی حالت bypass برای آموزش. در این حالت، آداپتورها از طریق forward hookها به جای تغییر وزنها اعمال میشوند. این روش برای مدلهای quantized که امکان تغییر مستقیم وزنها وجود ندارد، مفید است."
|
||||
},
|
||||
"checkpoint_depth": {
|
||||
"name": "checkpoint_depth",
|
||||
"tooltip": "سطح عمق برای gradient checkpointing."
|
||||
},
|
||||
"control_after_generate": {
|
||||
"name": "کنترل پس از تولید"
|
||||
},
|
||||
@@ -14538,6 +14546,10 @@
|
||||
"name": "مدل",
|
||||
"tooltip": "مدلی که LoRA روی آن آموزش داده میشود."
|
||||
},
|
||||
"offloading": {
|
||||
"name": "offloading",
|
||||
"tooltip": "سطح عمق برای gradient checkpointing."
|
||||
},
|
||||
"optimizer": {
|
||||
"name": "بهینهساز",
|
||||
"tooltip": "بهینهسازی که برای آموزش استفاده میشود."
|
||||
|
||||
@@ -6879,6 +6879,10 @@
|
||||
"LoraModelLoader": {
|
||||
"display_name": "Charger le modèle LoRA",
|
||||
"inputs": {
|
||||
"bypass": {
|
||||
"name": "bypass",
|
||||
"tooltip": "Lorsqu'il est activé, applique LoRA en mode bypass sans modifier les poids du modèle de base. Utile pour l'entraînement et lorsque les poids du modèle sont déchargés."
|
||||
},
|
||||
"lora": {
|
||||
"name": "lora",
|
||||
"tooltip": "Le modèle LoRA à appliquer au modèle de diffusion."
|
||||
@@ -14490,6 +14494,10 @@
|
||||
"name": "bypass_mode",
|
||||
"tooltip": "Activer le mode bypass pour l'entraînement. Lorsqu'il est activé, les adaptateurs sont appliqués via des hooks forward au lieu de la modification des poids. Utile pour les modèles quantifiés dont les poids ne peuvent pas être modifiés directement."
|
||||
},
|
||||
"checkpoint_depth": {
|
||||
"name": "checkpoint_depth",
|
||||
"tooltip": "Niveau de profondeur pour le gradient checkpointing."
|
||||
},
|
||||
"control_after_generate": {
|
||||
"name": "contrôle après génération"
|
||||
},
|
||||
@@ -14525,6 +14533,10 @@
|
||||
"name": "modèle",
|
||||
"tooltip": "Le modèle sur lequel entraîner le LoRA."
|
||||
},
|
||||
"offloading": {
|
||||
"name": "offloading",
|
||||
"tooltip": "Niveau de profondeur pour le gradient checkpointing."
|
||||
},
|
||||
"optimizer": {
|
||||
"name": "optimiseur",
|
||||
"tooltip": "L'optimiseur à utiliser pour l'entraînement."
|
||||
|
||||
@@ -6879,6 +6879,10 @@
|
||||
"LoraModelLoader": {
|
||||
"display_name": "LoRAモデルを読み込み",
|
||||
"inputs": {
|
||||
"bypass": {
|
||||
"name": "バイパス",
|
||||
"tooltip": "有効にすると、LoRAをバイパスモードで適用し、ベースモデルの重みを変更しません。トレーニングやモデルの重みをオフロードする際に便利です。"
|
||||
},
|
||||
"lora": {
|
||||
"name": "LoRA",
|
||||
"tooltip": "拡散モデルに適用するLoRAモデル。"
|
||||
@@ -14490,6 +14494,10 @@
|
||||
"name": "bypass_mode",
|
||||
"tooltip": "トレーニング用のバイパスモードを有効にします。有効にすると、アダプターは重みの変更ではなくフォワードフックで適用されます。重みを直接変更できない量子化モデルで便利です。"
|
||||
},
|
||||
"checkpoint_depth": {
|
||||
"name": "チェックポイント深度",
|
||||
"tooltip": "勾配チェックポイントの深度レベル。"
|
||||
},
|
||||
"control_after_generate": {
|
||||
"name": "control after generate"
|
||||
},
|
||||
@@ -14525,6 +14533,10 @@
|
||||
"name": "モデル",
|
||||
"tooltip": "LoRAを学習させる対象のモデル。"
|
||||
},
|
||||
"offloading": {
|
||||
"name": "オフロード",
|
||||
"tooltip": "勾配チェックポイントの深度レベル。"
|
||||
},
|
||||
"optimizer": {
|
||||
"name": "オプティマイザ",
|
||||
"tooltip": "学習に使用するオプティマイザ。"
|
||||
|
||||
@@ -6879,6 +6879,10 @@
|
||||
"LoraModelLoader": {
|
||||
"display_name": "LoRA 모델 로드",
|
||||
"inputs": {
|
||||
"bypass": {
|
||||
"name": "bypass",
|
||||
"tooltip": "활성화하면 LoRA를 바이패스 모드로 적용하여 기본 모델 가중치를 변경하지 않습니다. 학습 시나 모델 가중치 오프로딩 시 유용합니다."
|
||||
},
|
||||
"lora": {
|
||||
"name": "LoRA",
|
||||
"tooltip": "디퓨전 모델에 적용할 LoRA 모델입니다."
|
||||
@@ -14490,6 +14494,10 @@
|
||||
"name": "bypass_mode",
|
||||
"tooltip": "학습을 위한 바이패스 모드를 활성화합니다. 활성화 시, 어댑터가 가중치 수정 대신 forward hook을 통해 적용됩니다. 가중치를 직접 수정할 수 없는 양자화된 모델에 유용합니다."
|
||||
},
|
||||
"checkpoint_depth": {
|
||||
"name": "checkpoint_depth",
|
||||
"tooltip": "그래디언트 체크포인팅의 깊이 수준입니다."
|
||||
},
|
||||
"control_after_generate": {
|
||||
"name": "생성 후 제어"
|
||||
},
|
||||
@@ -14525,6 +14533,10 @@
|
||||
"name": "모델",
|
||||
"tooltip": "LoRA를 학습시킬 모델입니다."
|
||||
},
|
||||
"offloading": {
|
||||
"name": "offloading",
|
||||
"tooltip": "그래디언트 체크포인팅의 깊이 수준입니다."
|
||||
},
|
||||
"optimizer": {
|
||||
"name": "옵티마이저",
|
||||
"tooltip": "학습에 사용할 옵티마이저입니다."
|
||||
|
||||
@@ -6880,6 +6880,10 @@
|
||||
"LoraModelLoader": {
|
||||
"display_name": "Carregar Modelo LoRA",
|
||||
"inputs": {
|
||||
"bypass": {
|
||||
"name": "bypass",
|
||||
"tooltip": "Quando ativado, aplica o LoRA no modo bypass sem modificar os pesos do modelo base. Útil para treinamento e quando os pesos do modelo são descarregados."
|
||||
},
|
||||
"lora": {
|
||||
"name": "lora",
|
||||
"tooltip": "O modelo LoRA a ser aplicado ao modelo de difusão."
|
||||
@@ -14503,6 +14507,10 @@
|
||||
"name": "bypass_mode",
|
||||
"tooltip": "Ativar modo bypass para treinamento. Quando ativado, os adaptadores são aplicados via hooks de encaminhamento em vez de modificação de pesos. Útil para modelos quantizados onde os pesos não podem ser modificados diretamente."
|
||||
},
|
||||
"checkpoint_depth": {
|
||||
"name": "checkpoint_depth",
|
||||
"tooltip": "Nível de profundidade para checkpointing de gradiente."
|
||||
},
|
||||
"control_after_generate": {
|
||||
"name": "controlar após gerar"
|
||||
},
|
||||
@@ -14538,6 +14546,10 @@
|
||||
"name": "modelo",
|
||||
"tooltip": "O modelo no qual treinar a LoRA."
|
||||
},
|
||||
"offloading": {
|
||||
"name": "offloading",
|
||||
"tooltip": "Nível de profundidade para checkpointing de gradiente."
|
||||
},
|
||||
"optimizer": {
|
||||
"name": "otimizador",
|
||||
"tooltip": "O otimizador a ser usado para o treinamento."
|
||||
|
||||
@@ -6879,6 +6879,10 @@
|
||||
"LoraModelLoader": {
|
||||
"display_name": "Загрузить модель LoRA",
|
||||
"inputs": {
|
||||
"bypass": {
|
||||
"name": "bypass",
|
||||
"tooltip": "Если включено, LoRA применяется в режиме обхода без изменения весов базовой модели. Полезно для обучения и когда веса модели выгружаются."
|
||||
},
|
||||
"lora": {
|
||||
"name": "lora",
|
||||
"tooltip": "Модель LoRA для применения к диффузионной модели."
|
||||
@@ -14490,6 +14494,10 @@
|
||||
"name": "bypass_mode",
|
||||
"tooltip": "Включить режим обхода для обучения. При включении адаптеры применяются через forward hooks вместо изменения весов. Полезно для квантизованных моделей, где веса нельзя изменить напрямую."
|
||||
},
|
||||
"checkpoint_depth": {
|
||||
"name": "checkpoint_depth",
|
||||
"tooltip": "Уровень глубины для градиентного чекпоинтинга."
|
||||
},
|
||||
"control_after_generate": {
|
||||
"name": "управление после генерации"
|
||||
},
|
||||
@@ -14525,6 +14533,10 @@
|
||||
"name": "модель",
|
||||
"tooltip": "Модель для обучения LoRA."
|
||||
},
|
||||
"offloading": {
|
||||
"name": "offloading",
|
||||
"tooltip": "Уровень глубины для градиентного чекпоинтинга."
|
||||
},
|
||||
"optimizer": {
|
||||
"name": "оптимизатор",
|
||||
"tooltip": "Оптимизатор, используемый для обучения."
|
||||
|
||||
@@ -6879,6 +6879,10 @@
|
||||
"LoraModelLoader": {
|
||||
"display_name": "LoRA Modeli Yükle",
|
||||
"inputs": {
|
||||
"bypass": {
|
||||
"name": "bypass",
|
||||
"tooltip": "Etkinleştirildiğinde, LoRA'yı temel model ağırlıklarını değiştirmeden bypass modunda uygular. Eğitim sırasında ve model ağırlıkları dışa aktarıldığında kullanışlıdır."
|
||||
},
|
||||
"lora": {
|
||||
"name": "lora",
|
||||
"tooltip": "Difüzyon modeline uygulanacak LoRA modeli."
|
||||
@@ -14490,6 +14494,10 @@
|
||||
"name": "bypass_mode",
|
||||
"tooltip": "Eğitim için bypass modunu etkinleştir. Etkinleştirildiğinde, adapter'lar ağırlık değişikliği yerine forward hook'lar ile uygulanır. Ağırlıkların doğrudan değiştirilemediği quantized modeller için kullanışlıdır."
|
||||
},
|
||||
"checkpoint_depth": {
|
||||
"name": "checkpoint_depth",
|
||||
"tooltip": "Gradyan kontrol noktası derinlik seviyesi."
|
||||
},
|
||||
"control_after_generate": {
|
||||
"name": "oluşturduktan sonra kontrol et"
|
||||
},
|
||||
@@ -14525,6 +14533,10 @@
|
||||
"name": "model",
|
||||
"tooltip": "LoRA'nın eğitileceği model."
|
||||
},
|
||||
"offloading": {
|
||||
"name": "offloading",
|
||||
"tooltip": "Gradyan kontrol noktası derinlik seviyesi."
|
||||
},
|
||||
"optimizer": {
|
||||
"name": "optimize_edici",
|
||||
"tooltip": "Eğitim için kullanılacak optimize edici."
|
||||
|
||||
@@ -6879,6 +6879,10 @@
|
||||
"LoraModelLoader": {
|
||||
"display_name": "載入 LoRA 模型",
|
||||
"inputs": {
|
||||
"bypass": {
|
||||
"name": "bypass",
|
||||
"tooltip": "啟用時,以 bypass 模式應用 LoRA,不會修改基礎模型權重。適用於訓練及模型權重卸載時。"
|
||||
},
|
||||
"lora": {
|
||||
"name": "LoRA 模型",
|
||||
"tooltip": "要應用到擴散模型的 LoRA 模型。"
|
||||
@@ -14490,6 +14494,10 @@
|
||||
"name": "bypass_mode",
|
||||
"tooltip": "啟用訓練旁路模式。啟用後,adapter 會透過 forward hook 應用,而不是直接修改權重。適用於無法直接修改權重的量化模型。"
|
||||
},
|
||||
"checkpoint_depth": {
|
||||
"name": "checkpoint_depth",
|
||||
"tooltip": "梯度檢查點的深度層級。"
|
||||
},
|
||||
"control_after_generate": {
|
||||
"name": "生成後控制"
|
||||
},
|
||||
@@ -14525,6 +14533,10 @@
|
||||
"name": "模型",
|
||||
"tooltip": "用於訓練 LoRA 的模型。"
|
||||
},
|
||||
"offloading": {
|
||||
"name": "offloading",
|
||||
"tooltip": "梯度檢查點的深度層級。"
|
||||
},
|
||||
"optimizer": {
|
||||
"name": "優化器",
|
||||
"tooltip": "訓練時使用的優化器。"
|
||||
|
||||
@@ -6880,6 +6880,10 @@
|
||||
"LoraModelLoader": {
|
||||
"display_name": "加载 LoRA 模型",
|
||||
"inputs": {
|
||||
"bypass": {
|
||||
"name": "bypass",
|
||||
"tooltip": "启用后,以旁路模式应用LoRA,不修改基础模型权重。适用于训练和模型权重卸载时。"
|
||||
},
|
||||
"lora": {
|
||||
"name": "lora",
|
||||
"tooltip": "要应用于扩散模型的 LoRA 模型。"
|
||||
@@ -14503,6 +14507,10 @@
|
||||
"name": "bypass_mode",
|
||||
"tooltip": "为训练启用旁路模式。启用后,适配器通过前向钩子应用,而不是直接修改权重。适用于权重无法直接修改的量化模型。"
|
||||
},
|
||||
"checkpoint_depth": {
|
||||
"name": "checkpoint_depth",
|
||||
"tooltip": "用于梯度检查点的深度级别。"
|
||||
},
|
||||
"control_after_generate": {
|
||||
"name": "生成后控制"
|
||||
},
|
||||
@@ -14538,6 +14546,10 @@
|
||||
"name": "模型",
|
||||
"tooltip": "用于训练 LoRA 的模型。"
|
||||
},
|
||||
"offloading": {
|
||||
"name": "offloading",
|
||||
"tooltip": "用于梯度检查点的深度级别。"
|
||||
},
|
||||
"optimizer": {
|
||||
"name": "优化器",
|
||||
"tooltip": "用于训练的优化器。"
|
||||
|
||||
Reference in New Issue
Block a user