AI 개발자 플랫폼

모델을 훈련 및 미세 조정하고, 실험부터 생산까지 모델을 관리하고, LLM 지원을 추적 및 평가합니다.

세계 최고의 AI 팀은 가중치와 편향을 신뢰합니다.

레코드 개발자가 사용하고 싶은 시스템

실험

추적 및 시각화ML 실험

스윕

최적화
초매개변수

시작하다

패키징하고 실행하기
ML 워크플로 작업

모델 레지스트리

등록 및 관리
초매개변수 최적화

자동화

워크플로 트리거
자동으로

모델

빌드 & 벌금-
튜닝 모델

흔적

모니터링 및 디버그
LLM 및 프롬프트

짜다

GenAI 개발
애플리케이션

평가

엄격한 평가
GenAI 애플리케이션의

W&B Core: AI 개발자를 지원하는 기본 프레임워크

유물

ML 파이프라인 버전 관리 및 관리

테이블

ML 데이터 시각화 및 탐색

보고서

ML 통찰력 문서화 및 공유

빠르게 통합하고, 추적 및 버전 관리를 자동화하세요

“이제 전보다50배 또는 100배 더 많은 ML 실험을 진행하고 있습니다.”

Phil Brown, 애플리케이션 디렉터
Graphcore
    
     import wandb

# 1. Start a W&B run
run = wandb.init(project="my_first_project")
# 2. Save model inputs and hyperparameters
config = wandb.config
config.learning_rate = 0.01
# 3. Log metrics to visualize performance over time
for i in range(10):
 run.log({"loss": loss})
    
   
    
     import wandb
import os

# 1. Set environment variables for the W&B project and tracing.
os.environ["LANGCHAIN_WANDB_TRACING"] = "true" os.environ["WANDB_PROJECT"] = "langchain-tracing"

# 2. Load llms, tools, and agents/chains

llm = OpenAI(temperature=0)
tools = load_tools(["llm-math"], llm=llm)
agent = initialize_agent(
     tools, llm,      agent=AgentType.ZERO_SHOT_REACT_DESCRIPTION,      verbose=True
)

# 3. Serve the chain/agent with all underlying complex llm interactions automatically traced and tracked

agent.run("What is 2 raised to .123243 power?")
    
   
    
     import wandb
from llama_index import ServiceContext
from llama_index.callbacks import CallbackManager,      WandbCallbackHandler

# initialise WandbCallbackHandler and pass any wandb.init args

wandb_args = {"project":"llamaindex"}
wandb_callback =      WandbCallbackHandler(run_args=wandb_args)

# pass wandb_callback to the service context

callback_manager = CallbackManager([wandb_callback])
service_context =      ServiceContext.from_defaults(callback_manager=
     callback_manager)
    
   
    
     import wandb
# 1. Start a new run
run = wandb.init(project="gpt5")
# 2. Save model inputs and hyperparameters
config = run.config
config.dropout = 0.01
# 3. Log gradients and model parameters
run.watch(model)
for batch_idx, (data, target) in enumerate(train_loader):   
...
   if batch_idx % args.log_interval == 0:  
   # 4. Log metrics to visualize performance
      run.log({"loss": loss})
    
   
    
     import wandb
‍
# 1. Define which wandb project to log to and name your run
run = wandb.init(project="gpt-5",
run_name="gpt-5-base-high-lr")
‍
# 2. Add wandb in your `TrainingArguments`
args = TrainingArguments(..., report_to="wandb")
‍
# 3. W&B logging will begin automatically when your start training your Trainer
trainer = Trainer(..., args=args)
trainer.train()
    
   
    
     from lightning.pytorch.loggers import WandbLogger

# initialise the logger
wandb_logger = WandbLogger(project="llama-4-fine-tune")

# add configs such as batch size etc to the wandb config
wandb_logger.experiment.config["batch_size"] = batch_size

# pass wandb_logger to the Trainer 
trainer = Trainer(..., logger=wandb_logger)

# train the model
trainer.fit(...)

    
   
    
     import wandb
# 1. Start a new run
run = wandb.init(project="gpt4")
‍
# 2. Save model inputs and hyperparameters
config = wandb.config
config.learning_rate = 0.01
‍
# Model training here
# 3. Log metrics to visualize performance over time
‍
with tf.Session() as sess:
# ...
wandb.tensorflow.log(tf.summary.merge_all())
    
   
    
     import wandb
from wandb.keras import (
   WandbMetricsLogger,
   WandbModelCheckpoint,
)
‍
# 1. Start a new run
run = wandb.init(project="gpt-4")
‍
# 2. Save model inputs and hyperparameters
config = wandb.config
config.learning_rate = 0.01
...  # Define a model
# 3. Log layer dimensions and metrics
wandb_callbacks = [
   WandbMetricsLogger(log_freq=5),
   WandbModelCheckpoint("models"),
]
model.fit(
   X_train, y_train, validation_data=(X_test, y_test),
   callbacks=wandb_callbacks,
)
    
   
    
     import wandb
wandb.init(project="visualize-sklearn")
‍
# Model training here
# Log classifier visualizations
wandb.sklearn.plot_classifier(clf, X_train, X_test, y_train, y_test, y_pred, y_probas, labels,
model_name="SVC", feature_names=None)
‍
# Log regression visualizations
wandb.sklearn.plot_regressor(reg, X_train, X_test, y_train, y_test,  model_name="Ridge")
‍
# Log clustering visualizations
wandb.sklearn.plot_clusterer(kmeans, X_train, cluster_labels, labels=None, model_name="KMeans")
    
   
    
     import wandb
from wandb.xgboost import wandb_callback
‍
# 1. Start a new run
run = wandb.init(project="visualize-models")
‍
# 2. Add the callback
bst = xgboost.train(param, xg_train, num_round, watchlist, callbacks=[wandb_callback()])
‍
# Get predictions
pred = bst.predict(xg_test)
    
   

제공하는 선도적인 AI 개발자 플랫폼 팀 전체에 대한 가치

ML 프렉티셔너용

중복되는 사용자 경험 일이 사라지다

ML 파이프라인의 모든 세부 사항을 자동으로 추적하세요. 관련 콘텍스트로 결과를 시각화합니다. 드래그 앤드 드롭 분석으로 인사이트를 발견하세요 – 단 몇 번의 클릭으로 차선의 모델을 찾을 수 있습니다

ML 프렉티셔너용

ML 워크플로 co-designed with ML engineers

간소화된 ML 워크플로를 점진적으로 구축하세요. 모든 단계를 구성하고 맞춤화하세요. 지능적인 기본값을 활용하면 바퀴를 다시 만들 필요가 없습니다.
ML 프렉티셔너용

기록을 남기는 시스템 모든 기록은 재현 가능하고 검색 가능합니다.

모든 실험을 즉시 재현하세요. 그 과정에서 설명되는 변경 사항을 통해 모델 발전을 추적하세요. 팀 작업을 쉽게 검색하고 기반으로 구축하세요.
MLOps용

유연한 배포, 쉬운 통합

선택한 인프라에 W&B를 배포합니다(W&B 관리 또는 자체 관리 가능). 공급업체에 종속되지 않고 ML 스택 및 도구와 쉽게 통합됩니다.
MLOps용

브리지 ML 실무자 및 MLOps

단일 협업 인터페이스에서 ML 워크로드를 자동화하고 확장하세요. ML 실무자는 단순성을 얻고 MLOps는 가시성을 얻습니다.

MLOps용

ML 프로덕션 확장 거버넌스와 함께

모든 ML 프로젝트를 위한 중앙 집중식 기록 시스템입니다. 모델 수명주기 및 CI/CD를 관리하여 생산을 가속화합니다. 모델 진화를 이해하고 비즈니스가 리더십에 미치는 영향을 설명합니다.

ML 리더를 위한

중복되는 사용자 경험 일이 사라지다

ML 파이프라인의 모든 세부정보를 자동으로 추적하세요. 관련 컨텍스트를 통해 결과를 시각화합니다. 분석을 드래그 앤 드롭하여 통찰력을 얻으십시오. 단 몇 번의 클릭만으로 차선책 모델을 얻을 수 있습니다.
ML 리더를 위한

어떤 업종이든, 모든 사용 사례

다양한 업계의 고객은 다양한 ML 사용 사례를 통해 W&B를 신뢰합니다. 자율 주행 차량부터 신약 개발까지, 고객 지원 자동화부터 생성 AI까지, W&B의 유연한 워크플로우는 귀하의 모든 맞춤형 요구 사항을 처리합니다.

ML 리더를 위한

팀이 집중하게 해주세요 value-added activities

핵심 ML 활동에만 집중합니다. W&B는 재현성, 감사 가능성, 인프라 관리, 보안 및 거버넌스 등 지루한 작업을 자동으로 처리합니다. 미래 지향적인 ML 워크플로 – W&B는 OpenAI 및 기타 혁신가와 공동 설계하여 비밀 소스를 인코딩하므로 바퀴를 다시 만들 필요가 없습니다.

생성 AI 소프트웨어 개발자를 위한

소프트웨어 개발자가 GenAI 애플리케이션을 자신있게 배포할 수 있도록 설계되었습니다.

개발자가 동적, 비결정적 대규모 언어 모델을 평가, 이해 및 반복하는 데 필요한 도구입니다.
생성 AI 소프트웨어 개발자를 위한

간단한 디버깅을 위해 모든 입력, 출력 및 추적을 자동으로 기록합니다.

Weave는 모든 입력 및 출력 데이터를 캡처하고 트리를 구축하여 개발자가 애플리케이션을 통해 데이터가 어떻게 흐르는지 완벽하게 관찰하고 이해할 수 있도록 합니다.
생성 AI 소프트웨어 개발자를 위한

강력한 LLM 성과를 제공하는 엄격한 평가 프레임워크

모델 결과에 대한 다양한 평가를 성능의 다양한 차원과 비교하여 프로덕션 환경에 배포할 때 애플리케이션이 최대한 강력하도록 보장합니다.

모델 구축 및 미세 조정, 개발 자신감 있는 GenAI 애플리케이션