AIの最先端を走り続ける

Weights & Biasesは、生成AI業界を支えるAI開発者向けプラットフォームです。自社のファウンデーションモデルをトレーニングしたり、他社のファウンデーションモデルをファインチューニングしたり、実験から本番環境までモデルを管理し、最先端のLLMを活用したAIアプリケーションを開発することができます。

WandB Models: モデルを開発しプロダクション化
				
					import wandb
run = wandb.init(project="my-model-training-project")
run.config = {"epochs": 1337, "learning_rate": 3e-4}
run.log({"metric": 42})
model_art = run.log_artifact("./model.pt", type="model")
				
			
WandB Weave: 生成AIアプリケーションの開発
				
					import weave
weave.init("quickstart")
@weave.op()
def llm_app(prompt):
   pass # Track LLM calls, doc retrieval, agent steps
				
			

世界をリードするAIチームがWeights & Biasesを信頼しています

開発者必須の記録システム

Experiments

ML実験を追跡して可視化

Sweeps

ハイパーパラメータを
最適化

Launch

MLワークフロージョブを
パッケージ化して実行

Registry

MLモデルを
登録して管理

Automations

自動的に
ワークフローをトリガー

Models

モデルを構築&
ファインチューニング

Traces

LLMとプロンプトの
監視とデバッグ

Weave

生成AIアプリケーションの
開発

Evaluations

生成AIアプリケーションの
厳正な評価

W&Bの価値:AI 開発者をサポートする基礎フレームワーク

Artifacts

MLパイプラインのバージョン管理

Tables

あなたのMLデータを可視化して分析

Reports

あなたのMLインサイトをレポート化して共有

SDK

大規模なML実験とアーティファクトを記録

すぐに導入し、 トラッキングとバージョン管理を自動化

以前と比べて 50倍から100倍 のML実験を走らせています

Phil Brown 氏、アプリケーション担当ディレクター
Graphcore
				
					import wandb

# 1. Start a W&B run
run = wandb.init(project="my_first_project")

# 2. Save model inputs and hyperparameters
config = wandb.config
config.learning_rate = 0.01

# 3. Log metrics to visualize performance over time
for i in range(10):
 run.log({"loss": 2**-i})
				
			
				
					import weave
from langchain_core.prompts import PromptTemplate
from langchain_openai import ChatOpenAI

# Initialize Weave with your project name
weave.init("langchain_demo")

llm = ChatOpenAI()
prompt = PromptTemplate.from_template("1 + {number} = ")

llm_chain = prompt | llm

output = llm_chain.invoke({"number": 2})

print(output)
				
			
				
					import weave
from llama_index.core.chat_engine import SimpleChatEngine

# Initialize Weave with your project name
weave.init("llamaindex_demo")

chat_engine = SimpleChatEngine.from_defaults()
response = chat_engine.chat(
    "Say something profound and romantic about fourth of July"
)
print(response)
				
			
				
					import wandb
# 1. Start a new run
run = wandb.init(project="gpt5")
# 2. Save model inputs and hyperparameters
config = run.config
config.dropout = 0.01
# 3. Log gradients and model parameters
run.watch(model)
for batch_idx, (data, target) in enumerate(train_loader):
...
   if batch_idx % args.log_interval == 0:
   # 4. Log metrics to visualize performance
      run.log({"loss": loss})
				
			
				
					import wandb
‍
# 1. Define which wandb project to log to and name your run
run = wandb.init(project="gpt-5",
run_name="gpt-5-base-high-lr")
‍
# 2. Add wandb in your `TrainingArguments`
args = TrainingArguments(..., report_to="wandb")
‍
# 3. W&B logging will begin automatically when your start training your Trainer
trainer = Trainer(..., args=args)
trainer.train()
				
			
				
					from lightning.pytorch.loggers import WandbLogger

# initialise the logger
wandb_logger = WandbLogger(project="llama-4-fine-tune")

# add configs such as batch size etc to the wandb config
wandb_logger.experiment.config["batch_size"] = batch_size

# pass wandb_logger to the Trainer 
trainer = Trainer(..., logger=wandb_logger)

# train the model
trainer.fit(...)

				
			
				
					import wandb
# 1. Start a new run
run = wandb.init(project="gpt4")
‍
# 2. Save model inputs and hyperparameters
config = wandb.config
config.learning_rate = 0.01
‍
# Model training here
# 3. Log metrics to visualize performance over time
‍
with tf.Session() as sess:
# ...
wandb.tensorflow.log(tf.summary.merge_all())
				
			
				
					import wandb
from wandb.keras import (
   WandbMetricsLogger,
   WandbModelCheckpoint,
)
‍
# 1. Start a new run
run = wandb.init(project="gpt-4")
‍
# 2. Save model inputs and hyperparameters
config = wandb.config
config.learning_rate = 0.01
...  # Define a model
# 3. Log layer dimensions and metrics
wandb_callbacks = [
   WandbMetricsLogger(log_freq=5),
   WandbModelCheckpoint("models"),
]
model.fit(
   X_train, y_train, validation_data=(X_test, y_test),
   callbacks=wandb_callbacks,
)
				
			
				
					import wandb
wandb.init(project="visualize-sklearn")
‍
# Model training here
# Log classifier visualizations
wandb.sklearn.plot_classifier(clf, X_train, X_test, y_train, y_test, y_pred, y_probas, labels,
model_name="SVC", feature_names=None)
‍
# Log regression visualizations
wandb.sklearn.plot_regressor(reg, X_train, X_test, y_train, y_test,  model_name="Ridge")
‍
# Log clustering visualizations
wandb.sklearn.plot_clusterer(kmeans, X_train, cluster_labels, labels=None, model_name="KMeans")
				
			
				
					import wandb
from wandb.xgboost import wandb_callback
‍
# 1. Start a new run
run = wandb.init(project="visualize-models")
‍
# 2. Add the callback
bst = xgboost.train(param, xg_train, num_round, watchlist, callbacks=[wandb_callback()])
‍
# Get predictions
pred = bst.predict(xg_test)
				
			

チーム全体に価値を提供する、 最先端のAI開発者プラットフォーム

ML開発者向け

無駄な作業をなくす ユーザーエクスペリエンス

MLパイプラインの詳細を自動的に追跡し、関連するコンテキストとともに結果を可視化します。ドラッグ&ドロップで分析し、インサイトを発見 – 最高のモデルは、ほんの数クリックで見つかります。

ML開発者向け

MLエンジニアと共同設計された MLワークフロー

便利なMLワークフローを段階的に構築します。各ステップを設定・カスタマイズし、デフォルト設定を活用することで車輪の再発明を防ぎます。

ML開発者向け

すべての履歴を再現可能かつ 発見可能にする記録の仕組み

どの実験も瞬時に再現でき、モデルのバージョンを変更履歴とともにトラッキングします。チームの成果を簡単に発見し、それを基にさらなる開発を進められます。

MLプロジェクトリーダー向け

無駄な作業をなくす ユーザーエクスペリエンス

MLパイプラインの詳細を自動的に追跡し、関連するコンテキストとともに結果を可視化します。ドラッグ&ドロップで分析し、インサイトを発見 – 最高のモデルは、ほんの数クリックで見つかります。

MLプロジェクトリーダー向け

どの業界の、 どんなユースケースでも

さまざまな業界のお客様が、多様なMLのユースケースでW&Bを信頼しています。自動運転から創薬、顧客サポートの自動化から生成AIまで、W&Bの柔軟なワークフローはあらゆるニーズに対応します。

MLプロジェクトリーダー向け

チームが本当に価値を生む 作業に集中できるように

本当に重要なMLの作業に集中 – W&Bが再現性、監査性、インフラ管理、セキュリティ、ガバナンスといった面倒な作業を自動で処理します。

将来性のあるMLワークフロー – W&BはOpenAIをはじめとしたAI企業のノウハウに基づいて開発されています。

MLOps担当者向け

柔軟なデプロイメント、 簡単なインテグレーション

W&Bをお好みのインフラにデプロイできます。W&B管理または自社管理のデプロイを選択できます。ベンダーロックインなしで、MLスタックやツールとの統合が簡単に行えます。

MLOps担当者向け

ML開発者と MLOpsの橋渡し

共通のインターフェースでMLワークロードの自動化とスケール – ML開発者はシンプルさを、MLOpsは可視性を得られます。

MLOps担当者向け

ガバナンスと共に MLの生産性をスケール

あらゆるMLプロジェクトを記録する中央管理システム。モデルライフサイクルやCI/CDを管理し、生産性を向上します。モデルの進化の過程を理解し、そのビジネスへの影響をリーダーに説明します。

生成AIソフトウェア開発者向け

生成AIアプリケーションのデプロイを自信を持って行えるように設計

開発者が大規模言語モデルを評価し、理解し、改良するために必要なツールを提供します。

生成AIソフトウェア開発者向け

デバッグのためにすべての入力、出力、トレースを自動的に記録

Weaveは、すべての入力データと出力データをキャプチャし、アプリケーションにおけるデータの流れを完全に把握できるツリーを構築します。

生成AIソフトウェア開発者向け

厳密な評価フレームワークで堅牢なLLMパフォーマンスを実現

モデルの結果をさまざまな性観点から評価し、アプリケーションが本番環境でも安定して機能するようにします。

自信を持ってモデルを構築し、 生成AIアプリケーションを開発する