Feinabstimmung von
Gewichten und Verzerrungen

Schließen Sie sich den erstklassigen KI-Teams an, die große Modelle anhand von Gewichten und Verzerrungen trainieren und optimieren, und bauen Sie Ihre beste KI.

Die weltweit führenden ML-Teams vertrauen auf Weights & Biases

Weights & Biases funktioniert mit jedem Feinabstimmungsframework und Feinabstimmungsanbieter, egal ob Sie LLMs, Diffusionsmodelle oder sogar Multimodelle feinabstimmen:

The Hugging Face transformers and TRL libraries have a powerful integration to turn on experiment tracking.

See our Transformers documentation for how to get started.

Examples

Code:

				
					# 1. Define which wandb project to log to
wandb.init(project="llama-4-fine-tune")

# 2. turn on model checkpointing
os.environ["WANDB_LOG_MODEL"] = "checkpoint" 

# 3. Add "wandb" in your `TrainingArguments`
args = TrainingArguments(..., report_to="wandb")

# 4. W&B logging will begin automatically when your start training your Trainer
trainer = Trainer(..., args=args)

# OR if using TRL, W&B logging will begin automatically when your start training your Trainer
trainer = SFTTrainer(..., args=args)

# Start training
trainer.train()
				
			

Axolotl is built on the Hugging Face transformers Trainer, with a lot of additional modifications optimized for LLM fine-tuning. Pass the wandb arguments below to your config.yml file to turn on W&B logging. 

Code:

				
					# pass a project name to turn on W&B logging 
wandb_project: llama-4-fine-tune

# "checkpoint" to log model to wandb Artifacts every `save_steps` 
# or "end" to log only at the end of training
wandb_log_model: checkpoint

# Optional, your username or W&B Team name
wandb_entity: 

# Optional, naming your W&B run
wandb_run_id: 
				
			


You can also use more advanced W&B settings by setting additional environment variables here.

Lightning is a powerful trainer that lets you get started training in only a few lines. See the W&B Lightning documentation and the Lightning documentation to get started. 

You can also use more advanced W&B settings by setting additional environment variables here

Code:

				
					import wandb

# 1. Start a W&B run
run = wandb.init(project="my_first_project")
# 2. Save model inputs and hyperparameters
config = wandb.config
config.learning_rate = 0.01
# 3. Log metrics to visualize performance over time
for i in range(10):
 run.log({"loss": loss})
				
			


You can also use more advanced W&B settings by setting additional environment variables here

MosaicML’s Composer library is a powerful, open source framework for training models and is what powers their LLM Foundry library. The Weights & Biases integration with Composer can be added to training with just a few lines of code.

See the MosaicML Composer documentation for more.

Code:

				
					from composer import Trainer
from composer.loggers import WandBLogger

# initialise the logger
wandb_logger = WandBLogger(
	project="llama-4-fine-tune",
  log_artifacts=true,  # optional
	entity= <your W&B username or team name>,  # optional
	name= <set a name for your W&B run>,  # optional
	init_kwargs={"group": "high-bs-test"}   # optional
)

# pass the wandb_logger to the Trainer, logging will begin on training
trainer = Trainer(..., loggers=[wandb_logger])
				
			

You can also use more advanced W&B settings by passing additional wandb.int parameters to the init_kwargs argument. You can also modify additional W&B settings via the environment variables here.

Hugging Face Diffusers is the go-to library for state-of-the-art pretrained diffusion models for generating images, audio, and even 3D structures of molecules.

With our diffusers autologger you can log your generations from a diffusers pipeline to Weights & Biases in just 1 line of code.

Examples:

Code:

				
					# import the autolog function
from wandb.integration.diffusers import autolog

# call the W&B autologger before calling the pipeline
autolog(init={"project":"diffusers_logging"})

# Initialize the diffusion pipeline
pipeline = DiffusionPipeline.from_pretrained(
	"stabilityai/sdxl-turbo"
)

# call the pipeline to generate the images
images = pipeline("a photograph of a dragon")
				
			

OpenAI fine-tuning for GPT-3.5 and GPT-4 is powerful, and with the Weights & Biases integration you can keep track of every experiment, every result and every dataset version used.

See our OpenAI Fine-Tuning documentation for how to get started.

Examples: 

Code:

				
					from wandb.integration.openai import WandbLogger 

# call your OpenAI fine-tuning code here ...

# call .sync to log the results from the fine-tuning job to W&B
WandbLogger.sync(id=openai_fine_tune_job_id, project="My-OpenAI-Fine-Tune")
				
			

MosaicML offer fast and efficient fine-tuning and inference, and with the Weights & Biases integration you can keep track of every experiment, every result and every dataset version used.

See the MosaicML Fine-Tuning documentation for how to turn on W&B logging.

Code:

Add the following to your YAML config file to turn on W&B logging:

				
					integrations:
  - integration_type: wandb

    # Weights and Biases project name
    project: llama-4-fine-tuning

    # The username or team name the Weights and Biases project belongs to
    entity: < your W&B username or team name >
				
			

Together.ai offer fast and efficient fine-tuning and inference for the latest open source models, and with the Weights & Biases integration you can keep track of every experiment!

See the Together.ai Fine-Tuning documentation for how to get started with fine-tuning.

Code:

				
					# CLI
together finetune create .... --wandb-api-key $WANDB_API_KEY


# Python
import together

resp = together.Finetune.create(..., wandb_api_key = '1a2b3c4d5e.......')
				
			

If using the command line interface, pass your W&B API key to the wandb-api-key argument to turn on W&B logging. If using the python library, you can pass your W&B API key to the wandb_api_key parameter:

The Hugging Face AutoTrain library offers LLM fine-tuning. By passing the --report-to wandb argument you can turn on W&B logging.

Code:

				
					# CLI
autotrain llm ... --report-to wandb
				
			

OpenAI fine-tuning for GPT-3.5 and GPT-4 is powerful, and with the Weights & Biases integration you can keep track of every experiment, every result and every dataset version used.

See our OpenAI Fine-Tuning documentation for how to get started.

Examples:

Code:

				
					from wandb.integration.openai import WandbLogger 

# call your OpenAI fine-tuning code here ...

# call .sync to log the results from the fine-tuning job to W&B
WandbLogger.sync(id=openai_fine_tune_job_id, project="My-OpenAI-Fine-Tune")
				
			

Erfahren Sie in unserem kostenlosen LLM-Kurs, wie Sie einen LLM optimieren

In diesem kostenlosen Kurs erkunden Sie die Architektur, Trainingstechniken und Feinabstimmungsmethoden zum Erstellen leistungsstarker LLMs. Gewinnen Sie Theorie und praktische Erfahrung von Jonathan Frankle (MosaicML) und anderen Branchenführern und lernen Sie modernste Techniken wie LoRA und RLHF.

Erfahren Sie, wie Sie mit HuggingFace ein LLM optimieren

Dieser interaktive Bericht zu Gewichtungen und Biases führt Sie durch die Feinabstimmung eines LLM mit HuggingFace Trainer und erläutert einige gängige Methoden wie LoRA und Model Freezing.

Vertrauenswürdig für die Teams, die hochmoderne LLMs entwickeln

Samuel Weinbach

Vizepräsident für Technologie

„W&B gibt uns einen kompakten Überblick über alle Projekte. Wir können Durchläufe vergleichen, sie alle an einem Ort zusammenfassen und intuitiv entscheiden, was gut funktioniert und was wir als Nächstes ausprobieren sollten.“

Peter Welinder
VP of Product – OpenAI

„Wir verwenden W&B für so ziemlich unser gesamtes Modelltraining.“

Ellie Evans
Produktmanagerin – Cohere

„Mit W&B können wir alle unsere Kandidatenmodelle auf einmal untersuchen. Das ist wichtig, um zu verstehen, welches Modell für welchen Kunden am besten geeignet ist. Die Berichte waren [auch] großartig für uns. Sie ermöglichen uns die nahtlose Kommunikation nuancierter technischer Informationen auf eine Weise, die für nicht-technische Teams verständlich ist.“

Sehen Sie Weights & Biases in Aktion

Gewichte & Die Biases-Plattform hilft Ihnen, Ihren Arbeitsablauf von Anfang bis Ende zu optimieren.

Modell

Experiment

Tracking und Visualisierung ML-Experimente

fegen

Optimierung Hyperparameter

Modellregister

Registrierung und Verwaltung von ML-Modellen

Automatisierung

Lösen Sie Workflows automatisch aus

Start

Verpackung und Betrieb ML-Workflow-Aufgaben

salzig

Beweis

Entdecken Sie
LLM-Debug

Auswertung

Strenge Bewertung von GenAI-Anwendungen

Kern

Relikte

ML-Pipeline-Versionierung und -Management

Tisch

Visualisierung und Erkundung von ML-Daten

Bericht

Dokumentieren und teilen Sie ML-Einblicke

SDK

Protokollieren Sie ML-Experimente und -Artefakte im großen Maßstab

Die besten Teams für maschinelles Lernen der Welt verwenden Gewichte und Biases. Teilen Sie uns mit, wie wir Ihnen beim Einstieg helfen können.