학생, 교육자, 학술 연구자에게는 무료입니다. 언제나.

W&B는 모든 분야의 학자들이 연구에 협력하고, 모델을 재현하고, 최신 통찰력을 공유하고, 더 나은 모델을 더 빠르게 구축할 수 있도록 지원합니다.

주요 대학, 최고의 연구원, 500,000명이 넘는 ML 실무자의 신뢰를 받고 있습니다.

신뢰할 수 있고 인용됨 수백명의 최첨단 연구원들에 의해

기후 과학부터 의학 연구, NLP 및 컴퓨터 비전의 근본적인 혁신에 이르기까지 Weights & Biases는 연구의 재현성과 협업을 더욱 향상시키는 배후에 있습니다. W&B를 인용한 500개 이상의 논문 중 일부를 확인해 보세요.

다음에 대한 리소스 교육자, 조교, and Students

귀하와 학생들이 Weights & Biases를 사용하여 강의실, 연구실 또는 학생 운영 조직에서 협업적이고 반복 가능한 머신 및 딥 러닝을 활성화하는 데 도움이 되는 소개 콘텐츠가 포함되어 있습니다.

W&B for 연구 및 교육

인용 방법 Weights & Biases

W&B를 사용하여 연구를 성공적으로 수행하는 데 도움이 되었다면 이에 대한 소식을 듣고 싶습니다. 오른쪽에 정보를 첨부하여 우리를 인용할 수도 있지만 우리가 가장 원하는 것은 귀하의 작업에 대해 귀하의 의견을 듣는 것입니다. research@wandb.com으로 이메일을 보내주시면 연락드리겠습니다.

@misc{wandb,
title = {Experiment Tracking with Weights and Biases},
year = {2020},
note = {Software available from wandb.com},
url={https://www.wandb.com/},
author = {Biewald, Lukas},
}

모든 것을 기록하여 아무것도 잃지 않도록 하세요

재현할 수 없는 실험은 다음 번에 큰 발견에 도움이 되지 않습니다. 가중치 및 편향을 사용하면 기록할 항목과 기록 시기를 선택하여 수동 관리 작업을 줄이고 모델 교육을 훨씬 더 많이 수행할 수 있습니다.

와 통합 모든 인기 있는 프레임워크 수천 개의 ML 저장소

무게 & 편견은 다른 사람들과 잘 어울립니다. PyTorch, Keras, JAX부터 ML 환경 전반의 틈새 저장소에 이르기까지 우리가 거기에 통합되어 있는 것을 발견할 가능성이 높습니다. 가장 인기 있는 통합과 작동 방식을 확인하세요.
우리 문서
.

대학에서 W&B 이벤트를 개최하고 싶습니다.? 왼쪽 버튼을 누르시면 연락드리겠습니다.

배우다 전문가로부터

MLOps, CI/CD, LLM에 대해 알아보거나 가중치 및 편향을 시작하는 방법을 알고 싶으십니까? 시작하는 데 도움이 되는 무료 강좌가 있습니다! 아래에서 모두 찾을 수 있습니다.

협업 실시간으로 팀과 함께

Weights & Biases는 협업을 위해 만들어졌습니다. 각각의 모든 실험이 단일 시스템에 기록되므로 연구팀은 모든 데이터 세트 및 모델 버전, git 커밋 및 최근 실험에 대한 액세스를 공유합니다.

웨이트스 & Biases 플랫폼은 작업 흐름을 처음부터 끝까지 간소화하는 데 도움이 됩니다.

모델

실험

추적 및 시각화 ML 실험

스윕

최적화 초매개변수

모델 레지스트리

ML 모델 등록 및 관리

자동화

워크플로우를 자동으로 트리거

시작하다

패키징하고 실행하기 ML 워크플로 작업

짜다

흔적

탐색하고
LLM 디버그

평가

GenAI 애플리케이션에 대한 엄격한 평가

핵심

유물

ML 파이프라인 버전 관리 및 관리

테이블

ML 데이터 시각화 및 탐색

보고서

ML 통찰력 문서화 및 공유

ML 모델 추적, 비교, 시각화 5줄의 코드로

스크립트에 몇 줄만 추가하여 실험 로깅을 빠르고 쉽게 구현하고 결과 로깅을 시작하세요. 우리의 경량 통합은 모든 Python 스크립트와 함께 작동합니다.

				
					# Flexible integration for any Python script

import wandb


# 1. Start a W&B run

wandb.init(project='gpt3')


# 2. Save model inputs and hyperparameters

config = wandb.config

config.learning_rate = 0.01


# Model training here


# 3. Log metrics over time to visualize performance

wandb.log({"loss": loss})
				
			
				
					import wandb

# 1. Start a W&B run

wandb.init(project='gpt3')


# 2. Save model inputs and hyperparameters

config = wandb.config

config.learning_rate = 0.01


# Model training here


# 3. Log metrics over time to visualize performance

with tf.Session() as sess:

	# ...
	wandb.tensorflow.log(tf.summary.merge_all())
				
			
				
					import wandb

# 1. Start a new run

wandb.init(project="gpt-3")


# 2. Save model inputs and hyperparameters

config = wandb.config

config.learning_rate = 0.01


# 3. Log gradients and model parameters

wandb.watch(model)

for batch_idx, (data, target) in

enumerate(train_loader):


if batch_idx % args.log_interval == 0:

# 4. Log metrics to visualize performance

wandb.log({"loss": loss})

				
			
				
					import wandb

from wandb.keras import WandbCallback

# 1. Start a new run

wandb.init(project="gpt-3")


# 2. Save model inputs and hyperparameters

config = wandb.config

config.learning_rate = 0.01


... Define a model


# 3. Log layer dimensions and metrics over time

model.fit(X_train, y_train, validation_data=(X_test, y_test),

callbacks=[WandbCallback()])

				
			
				
					import wandb


wandb.init(project="visualize-sklearn")


# Model training here


# Log classifier visualizations

wandb.sklearn.plot_classifier(clf, X_train, X_test, y_train,
 y_test, y_pred, y_probas, labels, model_name='SVC', 
feature_names=None)


# Log regression visualizations

wandb.sklearn.plot_regressor(reg, X_train,
 X_test, y_train, y_test,  model_name='Ridge')
 

# Log clustering visualizations

wandb.sklearn.plot_clusterer(kmeans, X_train, cluster_labels, labels=None, model_name='KMeans')

				
			
				
					# 1. Import wandb and login

import wandb
wandb.login()

# 2. Define which wandb project to log to and name your run

wandb.init(project="gpt-3", run_name='gpt-3-base-high-lr')


# 3. Add wandb in your Hugging Face `TrainingArguments`

args = TrainingArguments(... , report_to='wandb')


# 4. W&B logging will begin automatically when your start training your Trainer

trainer = Trainer(... , args=args)

trainer.train()

				
			
				
					import wandb

# 1. Start a new run

wandb.init(project="visualize-models",
name="xgboost")


# 2. Add the callback

bst = xgboost.train(param, xg_train, num_round,
watchlist, callbacks=
[wandb.xgboost.wandb_callback()])


# Get predictions

pred = bst.predict(xg_test)

				
			

그 중 몇 가지만 최고의 대학 W&B를 이용해서

같은 대학교에 있든, 다른 대륙에 있든, W&B는 학술 연구를 쉽게 만들어줍니다. 학생, 교육자, 대학 연구자에게는 무료입니다.