학생, 교육자, 연구원들은. 언제나 무료로 사용할 수 있습니다

W&B는 모든 분야의 연구원들이 협력하여 최신 인사이트를 공유하고  더 나은 모델을 더 빠르게 구축할 수 있도록 지원합니다.

주요 대학, 우수 연구원, 500,000명이 넘는 ML 실무자들의 신뢰를 받고 있습니다.

수백명의 최첨단 연구원들에게 신뢰받고 있습니다.

기후 과학부터 의학 연구, NLP 및 컴퓨터 비전의 근본적인 혁신에 이르기까지 Weights & Biases는 연구를 보다 현실적이고 협력 가능하게 만드는 데 기여하고 있습니다. W&B를 인용한 500개 이상의 논문들을 확인해 보세요.

교육자, 조교 및 학생들을 위한 교육자, 조교, and 무료 자료

학생들이 Weights & Biases를 사용하여 머신 및 딥 러닝을 활성화하는 데 도움이 되는 소개 자료들을 공유합니다.

연구 및 교육을 위한 W&B

인용 방법 Weights & Biases

W&B를 사용하여 연구를 성공적으로 수행하셨나요? 오른쪽과 같이 정보를 첨부하거나 연구 내용에 대해 함께 논의할 수 있습니다. research@wandb.com으로 이메일을 보내주시면 확인 후 연락드리겠습니다.

@misc{wandb,
title = {Experiment Tracking with Weights and Biases},
year = {2020},
note = {Software available from wandb.com},
url={https://www.wandb.com/},
author = {Biewald, Lukas},
}

모든 것을 기록하여 아무 것도 놓치지 마세요

재현할 수 없는 실험은 다음 큰 발견에 도움이 되지 않습니다. 가Weights & Biases를 사용하면 무엇을 기록할지, 언제 기록할지를 선택할 수 있어 수작업 관리를 줄이고 모델 학습에 더 많은 시간을 투자할 수 있습니다.

인기 있는 모든 프레임워크와 수천 개의 ML 저장소와 통합됨

Weights & Biases는 다른 모든 것들과 통합할 수 있습니다. PyTorch, Keras, JAX부터 ML 분야의 특화된 저장소까지, 다양한 곳에서 Weights & Biases와의 통합을 찾아볼 수 있습니다. 가장 인기 있는 통합 기능과 그 작동 방식을 문서에서 확인해 보세요.

대학에서 W&B 이벤트를 개최하고 싶습니다.? 왼쪽 버튼을 누르시면 연락드리겠습니다.

전문가에게 배우기

MLOps, CI/CD, LLM에 대해 알아보거나 Weights & Biases을 시작하는 방법을 알고 싶으신가요? 시작하는 데 도움이 되는 무료 강좌가 있습니다! 아래 링크를 클릭하세요.

팀과 실시간으로 협업하기

Weights & Biases는 협업을 위해 만들어졌습니다. 각각의 모든 실험이 단일 시스템에 기록되므로 연구팀은 모든 데이터셋 및 모델 버전, git 커밋 및 최근 실험에 대한 액세스를 공유할 수 있습니다.

웨이트스 & Biases 플랫폼은 작업 흐름을 처음부터 끝까지 간소화하는 데 도움이 됩니다.

모델

실험

추적 및 시각화 ML 실험

스윕

최적화 초매개변수

모델 레지스트리

ML 모델 등록 및 관리

자동화

워크플로우를 자동으로 트리거

시작하다

패키징하고 실행하기 ML 워크플로 작업

짜다

흔적

탐색하고
LLM 디버그

평가

GenAI 애플리케이션에 대한 엄격한 평가

핵심

유물

ML 파이프라인 버전 관리 및 관리

테이블

ML 데이터 시각화 및 탐색

보고서

ML 통찰력 문서화 및 공유

ML 모델을 관리, 비교하고 시각화하세요. 단 5줄의 코드로

스크립트에 몇 줄만 추가하여 실험 로깅을 빠르고 쉽게 구현하고 결과를 기록할 수 있습니다. 모든 Python 스크립트와 호환도 가능합니다.

				
					# Flexible integration for any Python script

import wandb


# 1. Start a W&B run

wandb.init(project='gpt3')


# 2. Save model inputs and hyperparameters

config = wandb.config

config.learning_rate = 0.01


# Model training here


# 3. Log metrics over time to visualize performance

wandb.log({"loss": loss})
				
			
				
					import wandb

# 1. Start a W&B run

wandb.init(project='gpt3')


# 2. Save model inputs and hyperparameters

config = wandb.config

config.learning_rate = 0.01


# Model training here


# 3. Log metrics over time to visualize performance

with tf.Session() as sess:

	# ...
	wandb.tensorflow.log(tf.summary.merge_all())
				
			
				
					import wandb

# 1. Start a new run

wandb.init(project="gpt-3")


# 2. Save model inputs and hyperparameters

config = wandb.config

config.learning_rate = 0.01


# 3. Log gradients and model parameters

wandb.watch(model)

for batch_idx, (data, target) in

enumerate(train_loader):


if batch_idx % args.log_interval == 0:

# 4. Log metrics to visualize performance

wandb.log({"loss": loss})

				
			
				
					import wandb

from wandb.keras import WandbCallback

# 1. Start a new run

wandb.init(project="gpt-3")


# 2. Save model inputs and hyperparameters

config = wandb.config

config.learning_rate = 0.01


... Define a model


# 3. Log layer dimensions and metrics over time

model.fit(X_train, y_train, validation_data=(X_test, y_test),

callbacks=[WandbCallback()])

				
			
				
					import wandb


wandb.init(project="visualize-sklearn")


# Model training here


# Log classifier visualizations

wandb.sklearn.plot_classifier(clf, X_train, X_test, y_train,
 y_test, y_pred, y_probas, labels, model_name='SVC', 
feature_names=None)


# Log regression visualizations

wandb.sklearn.plot_regressor(reg, X_train,
 X_test, y_train, y_test,  model_name='Ridge')
 

# Log clustering visualizations

wandb.sklearn.plot_clusterer(kmeans, X_train, cluster_labels, labels=None, model_name='KMeans')

				
			
				
					# 1. Import wandb and login

import wandb
wandb.login()

# 2. Define which wandb project to log to and name your run

wandb.init(project="gpt-3", run_name='gpt-3-base-high-lr')


# 3. Add wandb in your Hugging Face `TrainingArguments`

args = TrainingArguments(... , report_to='wandb')


# 4. W&B logging will begin automatically when your start training your Trainer

trainer = Trainer(... , args=args)

trainer.train()

				
			
				
					import wandb

# 1. Start a new run

wandb.init(project="visualize-models",
name="xgboost")


# 2. Add the callback

bst = xgboost.train(param, xg_train, num_round,
watchlist, callbacks=
[wandb.xgboost.wandb_callback()])


# Get predictions

pred = bst.predict(xg_test)

				
			

W&B를 사용하는 주요 대학

Whether you're at the same university or on different continents, W&B makes academic research easy. And we're free for students, educators, and university researchers.