학생, 교육자, 학술 연구자에게는 무료입니다. 언제나.
W&B는 모든 분야의 학자들이 연구에 협력하고, 모델을 재현하고, 최신 통찰력을 공유하고, 더 나은 모델을 더 빠르게 구축할 수 있도록 지원합니다.
주요 대학, 최고의 연구원, 500,000명이 넘는 ML 실무자의 신뢰를 받고 있습니다.
신뢰할 수 있고 인용됨 수백명의 최첨단 연구원들에 의해
기후 과학부터 의학 연구, NLP 및 컴퓨터 비전의 근본적인 혁신에 이르기까지 Weights & Biases는 연구의 재현성과 협업을 더욱 향상시키는 배후에 있습니다. W&B를 인용한 500개 이상의 논문 중 일부를 확인해 보세요.
다음에 대한 리소스 교육자, 조교, and Students
귀하와 학생들이 Weights & Biases를 사용하여 강의실, 연구실 또는 학생 운영 조직에서 협업적이고 반복 가능한 머신 및 딥 러닝을 활성화하는 데 도움이 되는 소개 콘텐츠가 포함되어 있습니다.
W&B for 연구 및 교육
인용 방법 Weights & Biases
W&B를 사용하여 연구를 성공적으로 수행하는 데 도움이 되었다면 이에 대한 소식을 듣고 싶습니다. 오른쪽에 정보를 첨부하여 우리를 인용할 수도 있지만 우리가 가장 원하는 것은 귀하의 작업에 대해 귀하의 의견을 듣는 것입니다. research@wandb.com으로 이메일을 보내주시면 연락드리겠습니다.
title = {Experiment Tracking with Weights and Biases},
year = {2020},
note = {Software available from wandb.com},
url={https://www.wandb.com/},
author = {Biewald, Lukas},
}
모든 것을 기록하여 아무것도 잃지 않도록 하세요
재현할 수 없는 실험은 다음 번에 큰 발견에 도움이 되지 않습니다. 가중치 및 편향을 사용하면 기록할 항목과 기록 시기를 선택하여 수동 관리 작업을 줄이고 모델 교육을 훨씬 더 많이 수행할 수 있습니다.
와 통합 모든 인기 있는 프레임워크 수천 개의 ML 저장소
무게 & 편견은 다른 사람들과 잘 어울립니다. PyTorch, Keras, JAX부터 ML 환경 전반의 틈새 저장소에 이르기까지 우리가 거기에 통합되어 있는 것을 발견할 가능성이 높습니다. 가장 인기 있는 통합과 작동 방식을 확인하세요.
우리 문서
.
대학에서 W&B 이벤트를 개최하고 싶습니다.? 왼쪽 버튼을 누르시면 연락드리겠습니다.
배우다 전문가로부터
MLOps, CI/CD, LLM에 대해 알아보거나 가중치 및 편향을 시작하는 방법을 알고 싶으십니까? 시작하는 데 도움이 되는 무료 강좌가 있습니다! 아래에서 모두 찾을 수 있습니다.
협업 실시간으로 팀과 함께
Weights & Biases는 협업을 위해 만들어졌습니다. 각각의 모든 실험이 단일 시스템에 기록되므로 연구팀은 모든 데이터 세트 및 모델 버전, git 커밋 및 최근 실험에 대한 액세스를 공유합니다.
ML 모델 추적, 비교, 시각화 5줄의 코드로
스크립트에 몇 줄만 추가하여 실험 로깅을 빠르고 쉽게 구현하고 결과 로깅을 시작하세요. 우리의 경량 통합은 모든 Python 스크립트와 함께 작동합니다.
# Flexible integration for any Python script
import wandb
# 1. Start a W&B run
wandb.init(project='gpt3')
# 2. Save model inputs and hyperparameters
config = wandb.config
config.learning_rate = 0.01
# Model training here
# 3. Log metrics over time to visualize performance
wandb.log({"loss": loss})
import wandb
# 1. Start a W&B run
wandb.init(project='gpt3')
# 2. Save model inputs and hyperparameters
config = wandb.config
config.learning_rate = 0.01
# Model training here
# 3. Log metrics over time to visualize performance
with tf.Session() as sess:
# ...
wandb.tensorflow.log(tf.summary.merge_all())
import wandb
# 1. Start a new run
wandb.init(project="gpt-3")
# 2. Save model inputs and hyperparameters
config = wandb.config
config.learning_rate = 0.01
# 3. Log gradients and model parameters
wandb.watch(model)
for batch_idx, (data, target) in
enumerate(train_loader):
if batch_idx % args.log_interval == 0:
# 4. Log metrics to visualize performance
wandb.log({"loss": loss})
import wandb
from wandb.keras import WandbCallback
# 1. Start a new run
wandb.init(project="gpt-3")
# 2. Save model inputs and hyperparameters
config = wandb.config
config.learning_rate = 0.01
... Define a model
# 3. Log layer dimensions and metrics over time
model.fit(X_train, y_train, validation_data=(X_test, y_test),
callbacks=[WandbCallback()])
import wandb
wandb.init(project="visualize-sklearn")
# Model training here
# Log classifier visualizations
wandb.sklearn.plot_classifier(clf, X_train, X_test, y_train,
y_test, y_pred, y_probas, labels, model_name='SVC',
feature_names=None)
# Log regression visualizations
wandb.sklearn.plot_regressor(reg, X_train,
X_test, y_train, y_test, model_name='Ridge')
# Log clustering visualizations
wandb.sklearn.plot_clusterer(kmeans, X_train, cluster_labels, labels=None, model_name='KMeans')
# 1. Import wandb and login
import wandb
wandb.login()
# 2. Define which wandb project to log to and name your run
wandb.init(project="gpt-3", run_name='gpt-3-base-high-lr')
# 3. Add wandb in your Hugging Face `TrainingArguments`
args = TrainingArguments(... , report_to='wandb')
# 4. W&B logging will begin automatically when your start training your Trainer
trainer = Trainer(... , args=args)
trainer.train()
import wandb
# 1. Start a new run
wandb.init(project="visualize-models",
name="xgboost")
# 2. Add the callback
bst = xgboost.train(param, xg_train, num_round,
watchlist, callbacks=
[wandb.xgboost.wandb_callback()])
# Get predictions
pred = bst.predict(xg_test)