학생, 교육자, 연구원들은. 언제나 무료로 사용할 수 있습니다
W&B는 모든 분야의 연구원들이 협력하여 최신 인사이트를 공유하고 더 나은 모델을 더 빠르게 구축할 수 있도록 지원합니다.
주요 대학, 우수 연구원, 500,000명이 넘는 ML 실무자들의 신뢰를 받고 있습니다.

수백명의 최첨단 연구원들에게 신뢰받고 있습니다.
기후 과학부터 의학 연구, NLP 및 컴퓨터 비전의 근본적인 혁신에 이르기까지 Weights & Biases는 연구를 보다 현실적이고 협력 가능하게 만드는 데 기여하고 있습니다. W&B를 인용한 500개 이상의 논문들을 확인해 보세요.
교육자, 조교 및 학생들을 위한 교육자, 조교, and 무료 자료
학생들이 Weights & Biases를 사용하여 머신 및 딥 러닝을 활성화하는 데 도움이 되는 소개 자료들을 공유합니다.
연구 및 교육을 위한 W&B
인용 방법 Weights & Biases
W&B를 사용하여 연구를 성공적으로 수행하셨나요? 오른쪽과 같이 정보를 첨부하거나 연구 내용에 대해 함께 논의할 수 있습니다. research@wandb.com으로 이메일을 보내주시면 확인 후 연락드리겠습니다.
title = {Experiment Tracking with Weights and Biases},
year = {2020},
note = {Software available from wandb.com},
url={https://www.wandb.com/},
author = {Biewald, Lukas},
}
모든 것을 기록하여 아무 것도 놓치지 마세요
재현할 수 없는 실험은 다음 큰 발견에 도움이 되지 않습니다. 가Weights & Biases를 사용하면 무엇을 기록할지, 언제 기록할지를 선택할 수 있어 수작업 관리를 줄이고 모델 학습에 더 많은 시간을 투자할 수 있습니다.
인기 있는 모든 프레임워크와 수천 개의 ML 저장소와 통합됨
Weights & Biases는 다른 모든 것들과 통합할 수 있습니다. PyTorch, Keras, JAX부터 ML 분야의 특화된 저장소까지, 다양한 곳에서 Weights & Biases와의 통합을 찾아볼 수 있습니다. 가장 인기 있는 통합 기능과 그 작동 방식을 문서에서 확인해 보세요.
대학에서 W&B 이벤트를 개최하고 싶습니다.? 왼쪽 버튼을 누르시면 연락드리겠습니다.
전문가에게 배우기
MLOps, CI/CD, LLM에 대해 알아보거나 Weights & Biases을 시작하는 방법을 알고 싶으신가요? 시작하는 데 도움이 되는 무료 강좌가 있습니다! 아래 링크를 클릭하세요.
팀과 실시간으로 협업하기
Weights & Biases는 협업을 위해 만들어졌습니다. 각각의 모든 실험이 단일 시스템에 기록되므로 연구팀은 모든 데이터셋 및 모델 버전, git 커밋 및 최근 실험에 대한 액세스를 공유할 수 있습니다.
ML 모델을 관리, 비교하고 시각화하세요. 단 5줄의 코드로
스크립트에 몇 줄만 추가하여 실험 로깅을 빠르고 쉽게 구현하고 결과를 기록할 수 있습니다. 모든 Python 스크립트와 호환도 가능합니다.
# Flexible integration for any Python script
import wandb
# 1. Start a W&B run
wandb.init(project='gpt3')
# 2. Save model inputs and hyperparameters
config = wandb.config
config.learning_rate = 0.01
# Model training here
# 3. Log metrics over time to visualize performance
wandb.log({"loss": loss})
import wandb
# 1. Start a W&B run
wandb.init(project='gpt3')
# 2. Save model inputs and hyperparameters
config = wandb.config
config.learning_rate = 0.01
# Model training here
# 3. Log metrics over time to visualize performance
with tf.Session() as sess:
# ...
wandb.tensorflow.log(tf.summary.merge_all())
import wandb
# 1. Start a new run
wandb.init(project="gpt-3")
# 2. Save model inputs and hyperparameters
config = wandb.config
config.learning_rate = 0.01
# 3. Log gradients and model parameters
wandb.watch(model)
for batch_idx, (data, target) in
enumerate(train_loader):
if batch_idx % args.log_interval == 0:
# 4. Log metrics to visualize performance
wandb.log({"loss": loss})
import wandb
from wandb.keras import WandbCallback
# 1. Start a new run
wandb.init(project="gpt-3")
# 2. Save model inputs and hyperparameters
config = wandb.config
config.learning_rate = 0.01
... Define a model
# 3. Log layer dimensions and metrics over time
model.fit(X_train, y_train, validation_data=(X_test, y_test),
callbacks=[WandbCallback()])
import wandb
wandb.init(project="visualize-sklearn")
# Model training here
# Log classifier visualizations
wandb.sklearn.plot_classifier(clf, X_train, X_test, y_train,
y_test, y_pred, y_probas, labels, model_name='SVC',
feature_names=None)
# Log regression visualizations
wandb.sklearn.plot_regressor(reg, X_train,
X_test, y_train, y_test, model_name='Ridge')
# Log clustering visualizations
wandb.sklearn.plot_clusterer(kmeans, X_train, cluster_labels, labels=None, model_name='KMeans')
# 1. Import wandb and login
import wandb
wandb.login()
# 2. Define which wandb project to log to and name your run
wandb.init(project="gpt-3", run_name='gpt-3-base-high-lr')
# 3. Add wandb in your Hugging Face `TrainingArguments`
args = TrainingArguments(... , report_to='wandb')
# 4. W&B logging will begin automatically when your start training your Trainer
trainer = Trainer(... , args=args)
trainer.train()
import wandb
# 1. Start a new run
wandb.init(project="visualize-models",
name="xgboost")
# 2. Add the callback
bst = xgboost.train(param, xg_train, num_round,
watchlist, callbacks=
[wandb.xgboost.wandb_callback()])
# Get predictions
pred = bst.predict(xg_test)