AI is easy to productionize

The AI developer platform to train and fine-tune your AI models and develop your AI applications with confidence

W&B Weave: Develop GenAI applications
				
					import weave
weave.init("quickstart")
@weave.op()
def llm_app(prompt):
    pass # Track LLM calls, document retrieval, agent steps
				
			
W&B Models: Train and productionize models
				
					import wandb
run = wandb.init(project="my-model-training-project")
run.config = {"epochs": 1337, "learning_rate": 3e-4}
run.log({"metric": 42})
my_model_artifact = run.log_artifact("./my_model.pt", type="model")








				
			

세계 최고의 AI 팀이 Weights & Biases를 신뢰하고 있습니다

레코드 개발자가 사용하고 싶은 시스템

실험

추적 및 시각화ML 실험

스윕

최적화
초매개변수

시작하다

패키징하고 실행하기
ML 워크플로 작업

모델 레지스트리

등록 및 관리
초매개변수 최적화

자동화

워크플로 트리거
자동으로

모델

빌드 & 벌금-
튜닝 모델

흔적

모니터링 및 디버그
LLM 및 프롬프트

짜다

GenAI 개발
애플리케이션

평가

엄격한 평가
GenAI 애플리케이션의

W&B Core: AI 개발자를 지원하는 기본 프레임워크

유물

ML 파이프라인 버전 관리 및 관리

테이블

ML 데이터 시각화 및 탐색

보고서

ML 통찰력 문서화 및 공유

빠르게 인터그레이션 하고, 추적 및 버전 관리를 자동화하세요

“이전보다 50배 또는 100배 더 많은 ML 실험을 진행하고 있습니다.”

Phil Brown, Director of Applications
Graphcore
				
					import wandb

# 1. Start a W&B run
run = wandb.init(project="my_first_project")

# 2. Save model inputs and hyperparameters
config = wandb.config
config.learning_rate = 0.01

# 3. Log metrics to visualize performance over time
for i in range(10):
 run.log({"loss": 2**-i})
				
			
				
					import weave
from langchain_core.prompts import PromptTemplate
from langchain_openai import ChatOpenAI

# Initialize Weave with your project name
weave.init("langchain_demo")

llm = ChatOpenAI()
prompt = PromptTemplate.from_template("1 + {number} = ")

llm_chain = prompt | llm

output = llm_chain.invoke({"number": 2})

print(output)
				
			
				
					import weave
from llama_index.core.chat_engine import SimpleChatEngine

# Initialize Weave with your project name
weave.init("llamaindex_demo")

chat_engine = SimpleChatEngine.from_defaults()
response = chat_engine.chat(
    "Say something profound and romantic about fourth of July"
)
print(response)
				
			
				
					import wandb
# 1. Start a new run
run = wandb.init(project="gpt5")
# 2. Save model inputs and hyperparameters
config = run.config
config.dropout = 0.01
# 3. Log gradients and model parameters
run.watch(model)
for batch_idx, (data, target) in enumerate(train_loader):
...
   if batch_idx % args.log_interval == 0:
   # 4. Log metrics to visualize performance
      run.log({"loss": loss})
				
			
				
					import wandb
‍
# 1. Define which wandb project to log to and name your run
run = wandb.init(project="gpt-5",
run_name="gpt-5-base-high-lr")
‍
# 2. Add wandb in your `TrainingArguments`
args = TrainingArguments(..., report_to="wandb")
‍
# 3. W&B logging will begin automatically when your start training your Trainer
trainer = Trainer(..., args=args)
trainer.train()
				
			
				
					from lightning.pytorch.loggers import WandbLogger

# initialise the logger
wandb_logger = WandbLogger(project="llama-4-fine-tune")

# add configs such as batch size etc to the wandb config
wandb_logger.experiment.config["batch_size"] = batch_size

# pass wandb_logger to the Trainer 
trainer = Trainer(..., logger=wandb_logger)

# train the model
trainer.fit(...)

				
			
				
					import wandb
# 1. Start a new run
run = wandb.init(project="gpt4")
‍
# 2. Save model inputs and hyperparameters
config = wandb.config
config.learning_rate = 0.01
‍
# Model training here
# 3. Log metrics to visualize performance over time
‍
with tf.Session() as sess:
# ...
wandb.tensorflow.log(tf.summary.merge_all())
				
			
				
					import wandb
from wandb.keras import (
   WandbMetricsLogger,
   WandbModelCheckpoint,
)
‍
# 1. Start a new run
run = wandb.init(project="gpt-4")
‍
# 2. Save model inputs and hyperparameters
config = wandb.config
config.learning_rate = 0.01
...  # Define a model
# 3. Log layer dimensions and metrics
wandb_callbacks = [
   WandbMetricsLogger(log_freq=5),
   WandbModelCheckpoint("models"),
]
model.fit(
   X_train, y_train, validation_data=(X_test, y_test),
   callbacks=wandb_callbacks,
)
				
			
				
					import wandb
wandb.init(project="visualize-sklearn")
‍
# Model training here
# Log classifier visualizations
wandb.sklearn.plot_classifier(clf, X_train, X_test, y_train, y_test, y_pred, y_probas, labels,
model_name="SVC", feature_names=None)
‍
# Log regression visualizations
wandb.sklearn.plot_regressor(reg, X_train, X_test, y_train, y_test,  model_name="Ridge")
‍
# Log clustering visualizations
wandb.sklearn.plot_clusterer(kmeans, X_train, cluster_labels, labels=None, model_name="KMeans")
				
			
				
					import wandb
from wandb.xgboost import wandb_callback
‍
# 1. Start a new run
run = wandb.init(project="visualize-models")
‍
# 2. Add the callback
bst = xgboost.train(param, xg_train, num_round, watchlist, callbacks=[wandb_callback()])
‍
# Get predictions
pred = bst.predict(xg_test)
				
			

팀 전체에 가치를 제공하는 최고의 AI 개발자 플랫폼

FOR ML PRACTITIONERS

중복 작업을 사라지게 하는 사용자 경험

ML 파이프라인의 모든 세부 사항을 자동으로 추적하세요. 관련 컨텍스트와 함께 결과를 시각화하세요. 드래그 앤 드롭 분석으로 인사이트 발견 – 몇 번의 클릭만으로 차선책 모델을 찾을 수 있습니다.

FOR ML PRACTITIONERS

ML 엔지니어와 함께 설계한 ML 워크플로우

간소화된 ML 워크플로우를 점진적으로 구축하세요. 모든 단계를 구성하고 사용자 지정하세요. 지능형 기본값을 활용하여 처음부터 다시 시작할 필요가 없습니다.
FOR ML PRACTITIONERS

모든 이력을 재현하고 검색할 수 있는 기록 시스템

모든 실험을 즉시 재현하세요. 변경 사항을 캡쳐하며 모델 진화를 추적하세요. 팀의 작업을 쉽게 찾아보고 그곳에서 이어 구축하세요.
FOR ML LEADERS

중복 작업을 사라지게 하는 사용자 경험

ML 파이프라인의 모든 세부 사항을 자동으로 추적하세요. 관련 컨텍스트와 함께 결과를 시각화하세요. 드래그 앤 드롭 분석으로 인사이트 발견 – 몇 번의 클릭만으로 차선책 모델을 찾을 수 있습니다.
FOR ML LEADERS

어떤 산업 어떤 유스케이스라도

다양한 산업 분야의 고객들이 다양한 ML 사용 사례로 W&B를 신뢰하고 있습니다. 자율 주행 차량에서 신약 개발, 고객 지원 자동화에서 생성형 AI에 이르기까지 W&B의 유연한 워크플로우는 고객의 모든 맞춤형 요구 사항을 처리합니다.

FOR ML LEADERS

팀이 부가가치 활동에 집중할 수 있도록 지원합니다

핵심 ML 활동에만 집중 – 재현성, 감사 가능성, 인프라 관리, 보안 및 거버넌스 등 지루한 작업은 W&B가 자동으로 처리합니다.

미래 지향적인 ML 워크플로우 – W&B는 OpenAI 및 다른 이노베이터와 공동 설계하여 그들의 비법을 인코딩하므로, 처음부터 다시 시작할 필요가 없습니다.

FOR MLOps

유연한 구축, 간편한 인터그레이션

W&B 관리형 또는 자체 관리형 중 원하는 인프라에 W&B를 구축할 수 있습니다. 공급업체에 종속되는일 없이 ML 스택 및 도구와 쉽게 인터그레이션할 수 있습니다.
FOR MLOps

ML 실무자와 MLOps의 연결다리

하나의 협업 인터페이스에서 ML 워크로드 자동화 및 확장 – ML 실무자는 단순성을, MLOps는 가시성을 확보할 수 있습니다.

FOR MLOps

거버넌스를 통한 ML 프로덕션 확장

모든 ML 프로젝트를 위한 중앙 집중식 기록 시스템. 모델 수명 주기 및 CI/CD를 관리하여 프로덕션을 가속화하세요. 모델 진화를 이해하고 비즈니스에 미치는 영향을 경영진에게 설명하세요.

FOR GENERATIVE AI SOFTWARE DEVELOPERS

소프트웨어 개발자가 안심하고 GenAI 애플리케이션을 배포할 수 있도록 설계되었습니다.

개발자가 동적, 비결정적 대규모 언어 모델을 평가, 이해 및 반복하는 데 필요한 도구입니다.
FOR GENERATIVE AI SOFTWARE DEVELOPERS

간단한 디버깅이 가능하도록 모든 입력, 출력 및 추적을 자동으로 기록합니다.

Weave는 모든 입력 및 출력 데이터를 캡처하고 트리를 구축하여 개발자가 애플리케이션에서 데이터가 어떻게 흐르는지 완벽하게 관찰하고 이해할 수 있도록 합니다.
FOR GENERATIVE AI SOFTWARE DEVELOPERS

강력한 LLM 성능을 제공하기 위한 엄격한 평가 프레임워크

모델 결과에 대한 다양한 평가를 성능의 다양한 관점에서 비교하여 프로덕션 환경에 배포할 때 애플리케이션이 최대한 견고하도록 도와줍니다.

모델을 구축 및 파인튜닝하고, 자신 있게 GenAI 애플리케이션을 개발하세요.