실험 추적

기록 시스템 모델 훈련

ML 모델 추적, 비교, 시각화 5줄의 코드로

스크립트에 몇 줄만 추가하여 실험 로깅을 빠르고 쉽게 구현하고 결과 로깅을 시작하세요. 우리의 경량 통합은 모든 Python 스크립트와 작동합니다.
.

				
					import wandb

# 1. Start a W&B run
run = wandb.init(project="my_first_project")

# 2. Save model inputs and hyperparameters
config = wandb.config
config.learning_rate = 0.01

# 3. Log metrics to visualize performance over time
for i in range(10):
 run.log({"loss": loss})
				
			
				
					import weave
from langchain_core.prompts import PromptTemplate
from langchain_openai import ChatOpenAI

# Initialize Weave with your project name
weave.init("langchain_demo")

llm = ChatOpenAI()
prompt = PromptTemplate.from_template("1 + {number} = ")

llm_chain = prompt | llm

output = llm_chain.invoke({"number": 2})

print(output)
				
			
				
					import weave
from llama_index.core.chat_engine import SimpleChatEngine

# Initialize Weave with your project name
weave.init("llamaindex_demo")

chat_engine = SimpleChatEngine.from_defaults()
response = chat_engine.chat(
    "Say something profound and romantic about fourth of July"
)
print(response)
				
			
				
					import wandb
# 1. Start a new run
run = wandb.init(project="gpt5")
# 2. Save model inputs and hyperparameters
config = run.config
config.dropout = 0.01
# 3. Log gradients and model parameters
run.watch(model)
for batch_idx, (data, target) in enumerate(train_loader):
...
   if batch_idx % args.log_interval == 0:
   # 4. Log metrics to visualize performance
      run.log({"loss": loss})
				
			
				
					import wandb
‍
# 1. Define which wandb project to log to and name your run
run = wandb.init(project="gpt-5",
run_name="gpt-5-base-high-lr")
‍
# 2. Add wandb in your `TrainingArguments`
args = TrainingArguments(..., report_to="wandb")
‍
# 3. W&B logging will begin automatically when your start training your Trainer
trainer = Trainer(..., args=args)
trainer.train()
				
			
				
					from lightning.pytorch.loggers import WandbLogger

# initialise the logger
wandb_logger = WandbLogger(project="llama-4-fine-tune")

# add configs such as batch size etc to the wandb config
wandb_logger.experiment.config["batch_size"] = batch_size

# pass wandb_logger to the Trainer 
trainer = Trainer(..., logger=wandb_logger)

# train the model
trainer.fit(...)

				
			
				
					import wandb
# 1. Start a new run
run = wandb.init(project="gpt4")
‍
# 2. Save model inputs and hyperparameters
config = wandb.config
config.learning_rate = 0.01
‍
# Model training here
# 3. Log metrics to visualize performance over time
‍
with tf.Session() as sess:
# ...
wandb.tensorflow.log(tf.summary.merge_all())
				
			
				
					import wandb
from wandb.keras import (
   WandbMetricsLogger,
   WandbModelCheckpoint,
)
‍
# 1. Start a new run
run = wandb.init(project="gpt-4")
‍
# 2. Save model inputs and hyperparameters
config = wandb.config
config.learning_rate = 0.01
...  # Define a model
# 3. Log layer dimensions and metrics
wandb_callbacks = [
   WandbMetricsLogger(log_freq=5),
   WandbModelCheckpoint("models"),
]
model.fit(
   X_train, y_train, validation_data=(X_test, y_test),
   callbacks=wandb_callbacks,
)
				
			
				
					import wandb
wandb.init(project="visualize-sklearn")
‍
# Model training here
# Log classifier visualizations
wandb.sklearn.plot_classifier(clf, X_train, X_test, y_train, y_test, y_pred, y_probas, labels,
model_name="SVC", feature_names=None)
‍
# Log regression visualizations
wandb.sklearn.plot_regressor(reg, X_train, X_test, y_train, y_test,  model_name="Ridge")
‍
# Log clustering visualizations
wandb.sklearn.plot_clusterer(kmeans, X_train, cluster_labels, labels=None, model_name="KMeans")
				
			
				
					import wandb
from wandb.xgboost import wandb_callback
‍
# 1. Start a new run
run = wandb.init(project="visualize-models")
‍
# 2. Add the callback
bst = xgboost.train(param, xg_train, num_round, watchlist, callbacks=[wandb_callback()])
‍
# Get predictions
pred = bst.predict(xg_test)
				
			

시각화 및 비교 모든 실험

모델 측정항목이 대화형 그래프와 테이블로 실시간 스트리밍되는 것을 확인하세요. 모델을 어디에서 교육하든 관계없이 최신 ML 모델의 성능을 이전 실험과 비교하여 쉽게 확인할 수 있습니다.

빠르게 찾아서 다시 실행하세요. 이전 모델 체크포인트

무게 & Biases의 실험 추적은 나중에 모델을 재현하는 데 필요한 모든 것(최신 git 커밋, 하이퍼파라미터, 모델 가중치, 심지어 샘플 테스트 예측까지)을 저장합니다. 실험 파일과 데이터세트를 Weights & 자신의 저장소에 대한 포인터를 편향하거나 저장합니다.

import wandb

from transformers import DebertaV2ForQuestionAnswering

# 1. Create a wandb run

run = wandb.init(project=’turkish-qa’)

# 2. Connect to the model checkpoint you want on W&B

wandb_model = run.use_artifact(‘sally/turkish-qa/

deberta-v2:v5′)

# 3. Download the model files to a directory

model_dir = wandb_model.download()

# 4. Load your model

model = DebertaV2ForQuestionAnswering.from_pretrained(model_dir)

From “When Inception-ResNet-V2 is too slow” by Stacey Svetlichnaya

모니터링 CPU 및 GPU 사용량

GPU 활용도와 같은 실시간 지표를 시각화하여 훈련 병목 현상을 식별하고 값비싼 리소스 낭비를 방지하세요.

디버그 성능 실시간

모델의 성능을 확인하고 훈련 중에 문제 영역을 식별하세요. 이미지, 비디오, 오디오, 3D 개체를 포함한 리치 미디어를 지원합니다.

복합체 N3의 코로나19 주요 프로테아제(왼쪽)와 Z31792168 복합체의 코로나19 주요 프로테아제(오른쪽)
“가중치와 분자 구조 시각화 편견” – 니콜라스 바르디

중복 제거를 통한 데이터 세트 버전 관리 100GB 무료 저장용량

Weights &에 의해 처리되는 비교 및 ​​중복 제거를 통해 기록된 데이터세트의 버전을 자동으로 관리합니다. 편견, 비하인드 스토리.

MLOps 백지

기계 학습 팀에 적합한 기술 스택을 구축하여 핵심 비즈니스 활동을 지원하고 IP를 보호하는 방법을 읽어보세요.

얻기 쉬운어딘가에

데스크톱과 모바일에서 최신 훈련 모델과 결과를 확인하세요. 협업 호스팅 프로젝트를 사용하여 팀 전체를 조율하세요.

웨이트스 & Biases 플랫폼은 작업 흐름을 처음부터 끝까지 간소화하는 데 도움이 됩니다.

모델

실험

추적 및 시각화 ML 실험

스윕

최적화 초매개변수

모델 레지스트리

ML 모델 등록 및 관리

자동화

워크플로우를 자동으로 트리거

시작하다

패키징하고 실행하기 ML 워크플로 작업

짜다

흔적

탐색하고
LLM 디버그

평가

GenAI 애플리케이션에 대한 엄격한 평가

핵심

유물

ML 파이프라인 버전 관리 및 관리

테이블

ML 데이터 시각화 및 탐색

보고서

ML 통찰력 문서화 및 공유

W&B 보고서를 통한 디버깅 과학

By Sarah Jane of Latent Space

Weights &에 의해 처리되는 비교 및 ​​중복 제거를 통해 기록된 데이터세트의 버전을 자동으로 관리합니다. 편견, 비하인드 스토리.

진행 상황을 원활하게 공유 프로젝트 전반에 걸쳐

가벼운 기록 시스템으로 팀 프로젝트를 관리하세요. 모든 실험이 자동으로 잘 문서화되고 중앙 집중식으로 저장되므로 프로젝트를 쉽게 전달할 수 있습니다.

다시는 진행 상황을 잃지 마세요. 지금 가중치 및 편향으로 실험을 추적해 보세요.