“ 前提条件とインストール
Loraトレーニングプロセスを開始する前に、環境を正しく設定することが重要です。まず、必要な依存関係をpipを使用してインストールします:
```bash
pip install huggingface_hub datasets pillow xformers bitsandbytes transformers accelerate wandb dadaptation prodigyopt torch -q
pip install peft -q
pip install git+https://github.com/huggingface/diffusers.git -q
```
インストール後、`accelerate config default`コマンドを実行して加速設定を構成します。
“ スクリプトの設定と実行
トレーニングのメインスクリプトは`train_dreambooth_lora_sdxl_advanced.py`です。このスクリプトを実行するには、次のコマンド構造を使用します:
```bash
#!/usr/bin/env bash
accelerate launch train_dreambooth_lora_sdxl_advanced.py \
--pretrained_model_name_or_path="playgroundai/playground-v2.5-1024px-aesthetic" \
--dataset_name="$dataset_name" \
--instance_prompt="$instance_prompt" \
--validation_prompt="$validation_prompt" \
--output_dir="$output_dir" \
--caption_column="$caption_column" \
--do_edm_style_training \
--mixed_precision="bf16" \
--resolution=1024 \
--train_batch_size=3 \
--repeats=1 \
--report_to="wandb"\
--gradient_accumulation_steps=1 \
--gradient_checkpointing \
--learning_rate=1e-5 \
--optimizer="AdamW"\
--lr_scheduler="constant" \
--rank="$rank" \
--max_train_steps=2000 \
--checkpointing_steps=2000 \
--seed="0" \
--push_to_hub
```
プレースホルダー変数(例:$dataset_name、$instance_prompt)を特定の値に置き換えることを忘れないでください。
“ 追加リソースとワークフロー
Loraトレーニングと推論をさらに支援するために、以下のリソースが利用可能です:
1. 推論用のComfyUIワークフロー: Hugging FaceまたはGitHubで入手可能。
2. トレーニング用のColabノートブック: トレーニングプロセスを実行するためのユーザーフレンドリーなインターフェースを提供します。
3. データセット変換スクリプト: Kohya形式のデータセットをHuggingFace形式に変換するのに役立ちます。
これらのリソースは以下で見つけることができます:
- https://huggingface.co/artificialguybr/Playground-V2.5-Lora-Colab-Inference-Comfyui
- https://github.com/artificialguybr/Playground-V2.5-LoraCreator-Inference/tree/main
これらの追加ツールを利用することで、ワークフローを効率化し、Playground V2.5でのLoraトレーニング体験を向上させることができます。
元のリンク: https://civitai.com/articles/4565/training-a-lora-for-playground-v25-simple-guide
コメント(0)