“ 環境の設定
環境が整ったら、ファインチューニングを開始できます。以下は構造化されたアプローチです:
1. **トレーニングパラメータの定義**: 学習率、バッチサイズ、エポック数などのパラメータを設定します:
```
training_args = TrainingArguments(
output_dir='./results',
num_train_epochs=3,
per_device_train_batch_size=16,
learning_rate=5e-5,
)
```
2. **トレーナーの作成**: Hugging FaceのTrainerクラスを利用します:
```
from transformers import Trainer
trainer = Trainer(
model=model,
args=training_args,
train_dataset=train_dataset,
eval_dataset=eval_dataset,
)
```
3. **トレーニングの開始**:
```
trainer.train()
```
“ モデルパフォーマンスの評価
Hugging Face TransformersライブラリのVQAパイプラインを使用すると、ユーザーは画像と質問を入力し、最も可能性の高い回答を返すことができます。設定方法は以下の通りです:
```
from transformers import pipeline
vqa_pipeline = pipeline(model="dandelin/vilt-b32-finetuned-vqa")
image_url = "https://huggingface.co/datasets/mishig/sample_images/resolve/main/tiger.jpg"
question = "その動物は何をしていますか?"
answer = vqa_pipeline(question=question, image=image_url, top_k=1)
print(answer)
```
元のリンク: https://www.restack.io/p/vision-fine-tuning-answer-hugging-face-ai-cat-ai
コメント(0)