Kostenlos für Studenten, Lehrkräfte und akademische Forscher. Stets.

W&B unterstützt Wissenschaftler aller Art bei der Zusammenarbeit bei der Forschung, beim Reproduzieren ihrer Modelle, beim Austausch ihrer neuesten Erkenntnisse und beim schnelleren Erstellen besserer Modelle.

Führende Universitäten, Spitzenforscher und über 500.000 ML-Anwender vertrauen uns

Vertrauenswürdig und zitiertvon Hunderten Spitzenforschern

Von der Klimawissenschaft über die medizinische Forschung bis hin zu grundlegenden Durchbrüchen in NLP und Computervision sorgt Weights & Biases hinter den Kulissen dafür, dass Forschung reproduzierbarer und kollaborativer wird. Sehen Sie sich einige der über 500 Artikel an, in denen W&B zitiert wurde.

Ressourcen für Pädagogen, Lehrassistenten, UndStudenten

Wir haben Einführungsinhalte beigefügt, die Ihnen und Ihren Schülern den Einstieg in die Verwendung von Weights & Biases erleichtern und so kollaboratives, wiederholbares maschinelles und tiefes Lernen in Ihrem Klassenzimmer, Forschungslabor oder Ihrer von Studenten geführten Organisation ermöglichen.

W&B fürForschung & Lehre

Wie zitiere ich?Weights & Biases

Wenn Sie W&B verwendet haben und wir Ihnen geholfen haben, Ihre Forschung erfolgreich zu machen, würden wir gerne davon hören. Sie können uns mit den Informationen rechts zitieren, aber am liebsten würden wir von Ihnen über Ihre Arbeit hören. Senden Sie uns eine E-Mail an research@wandb.com und wir melden uns bei Ihnen.

@misc{wandb,
title = {Experiment Tracking with Weights and Biases},
year = {2020},
note = {Software available from wandb.com},
url={https://www.wandb.com/},
author = {Biewald, Lukas},
}

Alles protokollierenalso verlierst du nichts

Experimente, die Sie nicht reproduzieren können, werden Ihnen bei Ihrer nächsten großen Entdeckung nicht weiterhelfen. Mit Weights & Biases wählen Sie, was Sie protokollieren und wann Sie es protokollieren, sodass Sie weniger manuelle Verwaltungsarbeit und viel mehr Modelltraining leisten müssen.

Integriert mitjedes beliebte Framework und Tausende von ML-Repos

Weights & Biases funktioniert gut mit anderen. Von PyTorch, Keras und JAX bis hin zu Nischen-Repos in der gesamten ML-Landschaft – die Chancen stehen gut, dass Sie uns dort integriert finden. Sehen Sie sich unsere beliebtesten Integrationen (und wie sie funktionieren) an in
unsere Dokumente.

Möchten Sie an Ihrer Universität eine W&B-Veranstaltung ausrichten?Klicken Sie auf die Schaltfläche links und wir nehmen Kontakt mit Ihnen auf.

Lernen von den Experten

Möchten Sie mehr über MLOps, CI/CD, LLMs oder einfach nur über Weights & Biases erfahren? Wir bieten kostenlose Kurse für den Einstieg! Sie finden sie alle unten:

Zusammenarbeiten mit Ihrem Team in Echtzeit

Weights & Biases ist für die Zusammenarbeit konzipiert. Da jedes einzelne Experiment in einem einzigen System protokolliert wird, hat Ihr Forschungsteam Zugriff auf alle Datensatz- und Modellversionen, Git-Commits und Ihre letzten Experimente.

Gewichte & Die Biases-Plattform hilft Ihnen, Ihren Arbeitsablauf von Anfang bis Ende zu optimieren.

Modell

Experiment

Tracking und Visualisierung ML-Experimente

fegen

Optimierung Hyperparameter

Modellregister

Registrierung und Verwaltung von ML-Modellen

Automatisierung

Lösen Sie Workflows automatisch aus

Start

Verpackung und Betrieb ML-Workflow-Aufgaben

salzig

Beweis

Entdecken Sie
LLM-Debug

Auswertung

Strenge Bewertung von GenAI-Anwendungen

Kern

Relikte

ML-Pipeline-Versionierung und -Management

Tisch

Visualisierung und Erkundung von ML-Daten

Bericht

Dokumentieren und teilen Sie ML-Einblicke

SDK

Protokollieren Sie ML-Experimente und -Artefakte im großen Maßstab

Verfolgen, vergleichen und visualisieren Sie Ihre ML-Modelle mit 5 Zeilen Code

Implementieren Sie die Protokollierung von Experimenten schnell und einfach, indem Sie Ihrem Skript nur ein paar Zeilen hinzufügen und mit der Protokollierung der Ergebnisse beginnen. Unsere leichte Integration funktioniert mit jedem Python-Skript.

				
					# Flexible integration for any Python script

import wandb


# 1. Start a W&B run

wandb.init(project='gpt3')


# 2. Save model inputs and hyperparameters

config = wandb.config

config.learning_rate = 0.01


# Model training here


# 3. Log metrics over time to visualize performance

wandb.log({"loss": loss})
				
			
				
					import wandb

# 1. Start a W&B run

wandb.init(project='gpt3')


# 2. Save model inputs and hyperparameters

config = wandb.config

config.learning_rate = 0.01


# Model training here


# 3. Log metrics over time to visualize performance

with tf.Session() as sess:

	# ...
	wandb.tensorflow.log(tf.summary.merge_all())
				
			
				
					import wandb

# 1. Start a new run

wandb.init(project="gpt-3")


# 2. Save model inputs and hyperparameters

config = wandb.config

config.learning_rate = 0.01


# 3. Log gradients and model parameters

wandb.watch(model)

for batch_idx, (data, target) in

enumerate(train_loader):


if batch_idx % args.log_interval == 0:

# 4. Log metrics to visualize performance

wandb.log({"loss": loss})

				
			
				
					import wandb

from wandb.keras import WandbCallback

# 1. Start a new run

wandb.init(project="gpt-3")


# 2. Save model inputs and hyperparameters

config = wandb.config

config.learning_rate = 0.01


... Define a model


# 3. Log layer dimensions and metrics over time

model.fit(X_train, y_train, validation_data=(X_test, y_test),

callbacks=[WandbCallback()])

				
			
				
					import wandb


wandb.init(project="visualize-sklearn")


# Model training here


# Log classifier visualizations

wandb.sklearn.plot_classifier(clf, X_train, X_test, y_train,
 y_test, y_pred, y_probas, labels, model_name='SVC', 
feature_names=None)


# Log regression visualizations

wandb.sklearn.plot_regressor(reg, X_train,
 X_test, y_train, y_test,  model_name='Ridge')
 

# Log clustering visualizations

wandb.sklearn.plot_clusterer(kmeans, X_train, cluster_labels, labels=None, model_name='KMeans')

				
			
				
					# 1. Import wandb and login

import wandb
wandb.login()

# 2. Define which wandb project to log to and name your run

wandb.init(project="gpt-3", run_name='gpt-3-base-high-lr')


# 3. Add wandb in your Hugging Face `TrainingArguments`

args = TrainingArguments(... , report_to='wandb')


# 4. W&B logging will begin automatically when your start training your Trainer

trainer = Trainer(... , args=args)

trainer.train()

				
			
				
					import wandb

# 1. Start a new run

wandb.init(project="visualize-models",
name="xgboost")


# 2. Add the callback

bst = xgboost.train(param, xg_train, num_round,
watchlist, callbacks=
[wandb.xgboost.wandb_callback()])


# Get predictions

pred = bst.predict(xg_test)

				
			

Nur einige derTop-Universitäten mit W&B

Egal, ob Sie an derselben Universität oder auf verschiedenen Kontinenten sind, W&B macht die akademische Forschung einfach. Und wir sind für Studenten, Lehrkräfte und Universitätsforscher kostenlos.