Kostenlos für Studenten, Lehrkräfte und akademische Forscher. Stets.
W&B unterstützt Wissenschaftler aller Art bei der Zusammenarbeit bei der Forschung, beim Reproduzieren ihrer Modelle, beim Austausch ihrer neuesten Erkenntnisse und beim schnelleren Erstellen besserer Modelle.
Führende Universitäten, Spitzenforscher und über 500.000 ML-Anwender vertrauen uns
Vertrauenswürdig und zitiertvon Hunderten Spitzenforschern
Von der Klimawissenschaft über die medizinische Forschung bis hin zu grundlegenden Durchbrüchen in NLP und Computervision sorgt Weights & Biases hinter den Kulissen dafür, dass Forschung reproduzierbarer und kollaborativer wird. Sehen Sie sich einige der über 500 Artikel an, in denen W&B zitiert wurde.
Ressourcen für Pädagogen, Lehrassistenten, UndStudenten
Wir haben Einführungsinhalte beigefügt, die Ihnen und Ihren Schülern den Einstieg in die Verwendung von Weights & Biases erleichtern und so kollaboratives, wiederholbares maschinelles und tiefes Lernen in Ihrem Klassenzimmer, Forschungslabor oder Ihrer von Studenten geführten Organisation ermöglichen.
W&B fürForschung & Lehre
Wie zitiere ich?Weights & Biases
Wenn Sie W&B verwendet haben und wir Ihnen geholfen haben, Ihre Forschung erfolgreich zu machen, würden wir gerne davon hören. Sie können uns mit den Informationen rechts zitieren, aber am liebsten würden wir von Ihnen über Ihre Arbeit hören. Senden Sie uns eine E-Mail an research@wandb.com und wir melden uns bei Ihnen.
title = {Experiment Tracking with Weights and Biases},
year = {2020},
note = {Software available from wandb.com},
url={https://www.wandb.com/},
author = {Biewald, Lukas},
}
Alles protokollierenalso verlierst du nichts
Experimente, die Sie nicht reproduzieren können, werden Ihnen bei Ihrer nächsten großen Entdeckung nicht weiterhelfen. Mit Weights & Biases wählen Sie, was Sie protokollieren und wann Sie es protokollieren, sodass Sie weniger manuelle Verwaltungsarbeit und viel mehr Modelltraining leisten müssen.
Integriert mitjedes beliebte Framework und Tausende von ML-Repos
Weights & Biases funktioniert gut mit anderen. Von PyTorch, Keras und JAX bis hin zu Nischen-Repos in der gesamten ML-Landschaft – die Chancen stehen gut, dass Sie uns dort integriert finden. Sehen Sie sich unsere beliebtesten Integrationen (und wie sie funktionieren) an in
unsere Dokumente.
Möchten Sie an Ihrer Universität eine W&B-Veranstaltung ausrichten?Klicken Sie auf die Schaltfläche links und wir nehmen Kontakt mit Ihnen auf.
Lernen von den Experten
Möchten Sie mehr über MLOps, CI/CD, LLMs oder einfach nur über Weights & Biases erfahren? Wir bieten kostenlose Kurse für den Einstieg! Sie finden sie alle unten:
Zusammenarbeiten mit Ihrem Team in Echtzeit
Weights & Biases ist für die Zusammenarbeit konzipiert. Da jedes einzelne Experiment in einem einzigen System protokolliert wird, hat Ihr Forschungsteam Zugriff auf alle Datensatz- und Modellversionen, Git-Commits und Ihre letzten Experimente.
Gewichte & Die Biases-Plattform hilft Ihnen, Ihren Arbeitsablauf von Anfang bis Ende zu optimieren.
Modell
Experiment
Tracking und Visualisierung ML-Experimente
fegen
Optimierung Hyperparameter
Modellregister
Registrierung und Verwaltung von ML-Modellen
Automatisierung
Lösen Sie Workflows automatisch aus
Start
Verpackung und Betrieb ML-Workflow-Aufgaben
salzig
Beweis
Entdecken Sie
LLM-Debug
Auswertung
Strenge Bewertung von GenAI-Anwendungen
Verfolgen, vergleichen und visualisieren Sie Ihre ML-Modelle mit 5 Zeilen Code
Implementieren Sie die Protokollierung von Experimenten schnell und einfach, indem Sie Ihrem Skript nur ein paar Zeilen hinzufügen und mit der Protokollierung der Ergebnisse beginnen. Unsere leichte Integration funktioniert mit jedem Python-Skript.
# Flexible integration for any Python script
import wandb
# 1. Start a W&B run
wandb.init(project='gpt3')
# 2. Save model inputs and hyperparameters
config = wandb.config
config.learning_rate = 0.01
# Model training here
# 3. Log metrics over time to visualize performance
wandb.log({"loss": loss})
import wandb
# 1. Start a W&B run
wandb.init(project='gpt3')
# 2. Save model inputs and hyperparameters
config = wandb.config
config.learning_rate = 0.01
# Model training here
# 3. Log metrics over time to visualize performance
with tf.Session() as sess:
# ...
wandb.tensorflow.log(tf.summary.merge_all())
import wandb
# 1. Start a new run
wandb.init(project="gpt-3")
# 2. Save model inputs and hyperparameters
config = wandb.config
config.learning_rate = 0.01
# 3. Log gradients and model parameters
wandb.watch(model)
for batch_idx, (data, target) in
enumerate(train_loader):
if batch_idx % args.log_interval == 0:
# 4. Log metrics to visualize performance
wandb.log({"loss": loss})
import wandb
from wandb.keras import WandbCallback
# 1. Start a new run
wandb.init(project="gpt-3")
# 2. Save model inputs and hyperparameters
config = wandb.config
config.learning_rate = 0.01
... Define a model
# 3. Log layer dimensions and metrics over time
model.fit(X_train, y_train, validation_data=(X_test, y_test),
callbacks=[WandbCallback()])
import wandb
wandb.init(project="visualize-sklearn")
# Model training here
# Log classifier visualizations
wandb.sklearn.plot_classifier(clf, X_train, X_test, y_train,
y_test, y_pred, y_probas, labels, model_name='SVC',
feature_names=None)
# Log regression visualizations
wandb.sklearn.plot_regressor(reg, X_train,
X_test, y_train, y_test, model_name='Ridge')
# Log clustering visualizations
wandb.sklearn.plot_clusterer(kmeans, X_train, cluster_labels, labels=None, model_name='KMeans')
# 1. Import wandb and login
import wandb
wandb.login()
# 2. Define which wandb project to log to and name your run
wandb.init(project="gpt-3", run_name='gpt-3-base-high-lr')
# 3. Add wandb in your Hugging Face `TrainingArguments`
args = TrainingArguments(... , report_to='wandb')
# 4. W&B logging will begin automatically when your start training your Trainer
trainer = Trainer(... , args=args)
trainer.train()
import wandb
# 1. Start a new run
wandb.init(project="visualize-models",
name="xgboost")
# 2. Add the callback
bst = xgboost.train(param, xg_train, num_round,
watchlist, callbacks=
[wandb.xgboost.wandb_callback()])
# Get predictions
pred = bst.predict(xg_test)