Agenda

12:30 – 12:35

W&Bからのご挨拶

シバタ アキラ
Country Manager at Weights & Biases

12:35 – 12:55

生成AIモデルを本番環境で活用する - 世界最高のAIチームからの教訓

Lukas Biewald
CEO and Cofounder at Weights & Biases

AIは2030年までに世界経済に15.7兆ドルの価値を追加する見込みであり、生成AIはこの革命の最前線に立ち、さまざまなセクターでの変革をもたらしています。この講演では、ルーカス・ビーワルド氏が、生成AIモデルの影響と可能性を解説し、世界のトップレベルの機械学習チームが、どのようにAIを本番環境に実装しているのかについて実践的な洞察を共有します。特に、LLMの評価、データセット管理、モデル実験および最適化に焦点を当て、生成AIモデルの現実世界での展開に関する具体的な洞察を紹介します。このセッションは、AIの可能性を責任を持って最大限に活用し、AIの本番環境への導入を加速させたい機械学習チームへの行動を促すメッセージです。

12:55 – 13:15

アニメやゲームへの生成AIの応用

Jerry Chi
Head of Japan at Stability AI Japan

AIでの画像生成・画像編集・動画生成・3Dオブジェクト・キャラクター生成はアニメやゲームの制作や体験に大きいインパクトをもたらすでしょう。最近の論文、応用例、技術的挑戦について話します。生成AIの活用により、プロクリエイターとカジュアルクリエイターともに、より効率的かつ創造的に魅力的なビジュアルを作れます。

13:15 – 13:35

Google CloudでのGemmaのファインチューニング

Jetha Chan
Technical Solutions Consultant at Google Cloud

特定のユースケースやエンドユーザーに合わせたファインチューニングは、Gemmaのようなオープンモデルの強みの一つです。短いデモでは、Google Cloudのエコシステム内でGemmaをファインチューニングし、さまざまなソリューションを使用してデプロイする方法を紹介します。

13:35 – 13:45

休憩

13:45 – 13:55

W&Bからのご紹介①

鎌田 啓輔
ML Engineer at Weights & Biases

13:55 – 14:15

wandbと生成AIの統合による創薬研究の最適化: BioNeMo-wandbコラボレーション

Natnael Hamda
AI-ML VT Lead at Astellas Pharma

wandbの機能を活用し、競合する変数間のトレードオフを最適化する意思決定ツールとしての能力を基に、創薬における生成AIソリューションとの統合により、その機能を強化しました。特に、wandbをBioNeMoと組み合わせ、この強力なフレームワークを創薬の生成AIプラットフォームとして活用しました。本発表では、これら2つの強力なツールの統合が、de novo創薬における生成と多目的最適化をどのように促進するかを示します。

本ワークフローは反復作業を自動化することで創薬プロセスを大幅に加速させ、科学者が革新的な研究に集中できるようにします。また、このワークフローは、大規模言語モデル(LLM)を統合することで、さらにインタラクティブでユーザーフレンドリーなプラットフォームに進化させることが可能です。

本発表では、この統合アプローチの実際の応用とその利点を強調し、創薬研究をどのように変革し、より効率的で効果的な科学的調査への道を切り開くことができるかを説明します。

14:15 – 14:35

交通事故死傷者ゼロに向けて:自動運転向けML開発とW&Bを活用した大規模プロジェクト管理の革新

小出 粋玄
Tech Lead Manager, MLOp at Woven, by Toyota

T本講演では、交通事故の削減を目指す自動運転技術において、W&Bを用いた大規模MLプロジェクト管理のアプローチを紹介します。頻繁に更新される大量のデータを使用したML開発において、認識性能管理や追跡性の担保など開発状況の見える化の重要性に焦点を当て、ML開発における新たな課題への取り組みを示します。

14:35 – 14:55

LLM推論高速化手法が推論結果に与える影響の分析

松田 寛
Chief Research Scientist at Recruit Megagon Labs

LLMの利用の裾野の広がりとともに、独自に構築したモデルを高速にサービングする技術へのニーズが高まっている。
NVIDIAGPU上でLLMの推論処理を高速に行うためのバッチ推論ライブラリとしてvLLM・DeepSpeed-FastGen・TensorRT-LLMなどが存在し、それらとモデル重み量子化手法を組み合わせることでGPUメモリのさらなる効率的な利用・高速化が可能になっている。ただし、これらの高速化手法は必ずしもモデル本来の出力の再現を保証するものではない。本講演では日本語LLMの評価でよく利用されるllm-jp-evalを題材に、バッチ推論ライブラリや量子化の設定が推論結果に与える影響について報告する。

14:55 – 15:15

より信頼できる医療AI開発に向けて: 内視鏡診断支援AI開発におけるW&Bの活用例紹介

Masahiro Hara
Specialist at Olympus

近年医療分野において、医師の負担軽減や医療水準の向上のために、AI機能による診断・治療へのサポートのニーズが高まっている。 一方、医療AI開発においては、病院からのデータ収集や医療機器承認に関して遵守すべき法令や指針が存在するため、各社対策が求められている状況にある。 これらへの対応が煩雑になることによる開発効率の低下や機能制限への懸念が医療AIにおける共通課題となっており、開発環境を拡充し開発体制の安定性を維持することは、医師からのAI機能への信頼向上に繋がると考える。 本セッションでは、特に内視鏡分野において弊社が直面する開発上の課題を紹介し、その解決に向けたW&Bの活用事例を紹介する。

15:15 – 15:25

休憩

15:25 – 15:35

W&Bからのご紹介②

Hyuwoo Oh
ML Engineer at Weights & Biases

15:35 – 15:55

B2Bイノベーション: 言語拡張を伴うフルスタックLLMとRAGパイプラインの活用

Stan Hwalsuk Lee
CTO at Upstage

このセクションでは、フルスタック大規模言語モデル(LLM)がどのようにリアルなビジネス・ツー・ビジネス(B2B)ソリューションとして活用できるかを見ていきます。プレトレーニング、スケーリング、ファインチューニングなど、最新のトレーニング手法を掘り下げ、言語能力の拡張について検討します。また、光学文字認識(OCR)や特殊な埋め込み技術などのテクノロジーとLLMを組み合わせることで、画像内のテキストなど、さまざまな種類のデータを処理できるようにする方法も解説します。実際の例を通じて、企業がこれらの高度なLLMの能力を活用して、複雑な問題を解決し、業務を改善する方法を示します。最終的には、フルスタックLLMとそのトレーニングおよび統合方法が、どのように本物のB2Bソリューションを提供し、イノベーションと成長を促進するかを明確に理解できるようになります。

15:55 – 16:15

LLMの開発と展開をつなぐ:FriendliAIとWeights & Biasesのインテグレーション

Gon Chun
CEO at FriendliAI

FriendliAIとWeights & Biasesの強力な統合により、LLMのプロダクション化がよりシンプルでコスト効率の高いものになります。この統合は、ファインチューニング、モニタリング、デプロイのワークフローを効率化することで、生産性を向上させます。本講演では、この統合の主な機能と利点について詳しく説明します。

まず、この統合により、MLエンジニアはW&BのモデルリポジトリからFriendli Dedicated Endpointsにカスタムモデルをシームレスにアップロードし、高速かつコスト効率の高い推論が可能となります。

次に、ファインチューニングが簡単になります。ユーザーはFriendli Suiteから直接ファインチューニングジョブを簡単に開始および追跡でき、W&Bのリアルタイムビジュアライゼーションや詳細なレポートの恩恵を受けることができます。

FriendliAIの強力なファインチューニングとデプロイ能力と、W&Bの高度な実験追跡およびコラボレーション機能を組み合わせることで、この統合はLLM開発プロセス全体を革命的に進化させます。

16:15 – 16:35

CyberAgentにおけるマルチモーダルな基盤モデルの開発について

Aozora Inagaki
Machine Learning Engineer at CyberAgent

株式会社サイバーエージェントでは、CyberAgentLMをはじめとした様々な生成AIの研究開発を行っています。本講演では、LLMからマルチモーダル(Vision & Language)なVLMまで、日本に特化した大規模基盤モデル開発の取り組みと広告クリエイティブ領域での活用についてご紹介します。また、大規模モデル開発におけるwandbの活用も併せてご紹介します。

16:35 – 16:45

休憩

16:45 – 16:55

W&Bからのご紹介③

Yuya Yamamoto
ML Engineer at Weights & Biases

16:55 – 17:15

次世代メルカリ市場を支える生成AI

Teo Narboneta Zosa
Senior Machine Learning Engineer at Mercari

AIは、メルカリの製品やサービスの中核を成してきました。メルカリがeコマース市場から製品提供のエコシステム全体へと成長する中で、AIは各事業のすべてに不可欠な存在となり、「すべての人の潜在能力を解き放つ」という使命を支える重要な役割を果たしてきました。

今日、メルカリのeコマース市場は、さらなる可能性を追求し続けています。すでにシンプルさ、使いやすさ、広範なユーザーコミュニティで知られているメルカリは、AIによるユーザーエクスペリエンスの向上や内部の生成AI生産性ツールと関連技術を活用した機能を通じて、強みをさらに強化しています。Weights & Biasesは、メルカリが市場のあらゆる領域の可能性を引き出すことを目指し、最も大胆な機能を迅速に実験・実行する上で重要な役割を果たしています。

17:15 – 17:35

NTT版大規模言語モデル「tsuzumi」の取組について

Kyosuke Nishida
Senior Distinguished Researcher at NTT

大規模言語モデル(LLM)の急速な発展により、実用化への期待が大きく高まっています。本講演では、NTTがLLMの実用化を目指して、小型軽量をコンセプトにスクラッチから作成した大規模言語モデルtsuzumiについてご紹介します。そして、文書を図表などの視覚情報も含めて理解するためのLLMの拡張技術についての我々の成果を示すと共に、LLM分野の今後の展望についてお話しします。

17:35 – 17:55

エージェントAIの進展

Llion Jones
Co-Founder and CTO at Sakana AI

エージェントAIは、ファウンデーションモデルを使用して、単なるチャットボットインターフェースの枠を超え、ホテル予約やソフトウェアエンジニアリングなど、より複雑なタスクを自動化できるAIです。これらのシステムは、まだ十分に堅牢ではありませんが、急速に進歩しています。この講演では、この分野での進展の一部を紹介します。特に、Sakana AIから直接生まれた研究が含まれます。例えば、LLM損失関数の設計を自動化したLLM 2、MLリサーチスタック全体を自動化したAI Scientistのリリース、そしてこれらのエージェントの作成自体を自動化できることを示した最近の研究などです。

17:55 – 18:00

閉会のご挨拶


シバタ アキラ

Country Manager at Weights & Biases

スポンサー

スポンサー

© 2024 Weights & Biases

© 2024 Weights & Biases