샌프란시스코에서 열린 Fully Connected 2024의 모든 세션 영상을 아래에서 확인하실 수 있습니다.
기조연설
생성형 AI의 시대
Lukas Biewald, Weights & Biases CEO, 공동 창업자
Fully Connected 2024는 Weights & Biases의 CEO 이자 공동 창립자인 Lukas Biewald의 기조연설입니다. 영상을 통해 생성 AI 산업에 대해 우리가 나아가야 할 방향성을 공유합니다.
AI 어플리케이션을 구축하기 위한 툴
Shawn Lewis, Weights & Biases CTO, 공동 창업자
모델 개발자, 모델을 구축하는 기업, 생성형 AI 애플리케이션을 개발하는 소프트웨어 개발자들을 위해 새롭게 출시된 Weights & Biases의 제품과 기능을 소개합니다.
Meta는 Llama 3을 어떻게 학습시켰을까?
Joe Spisak, Meta Gen AI, 프로덕트 디렉터
Meta의 Gen AI 프로덕트 디렉터인 Joe Spisak이 Fully Connected에서 발표한 최신 Llama 모델인 Llama 3에 대한 소개 영상입니다.
Llama 3의 학습과정에 대해 확인해 보세요. Llama 3은 MMLU, GSM-K, HumanEval 벤치마크의 오픈 웨이트 카테고리에서 최고의 성능을 보인 모델로 평가되었습니다.
생성형 AI의 복잡성을 극복하기
Kari Ann Briski, NVIDIA Gen AI, 소프트웨어 제품 관리 담당 부사장
모델의 복잡성과 규모가 커질수록 모델 학습에서 직면하는 과제도 증가합니다. 이러한 도전 과제를 NVIDIA만큼 깊이 이해하는 기업은 거의 없습니다.
세계에서 가장 혁신적인 기업들이 실제 활용 사례에 맞춰 대규모 모델을 학습하기 위해 어떻게 과제를 해결하고 있는지에 대해 확인해 보세요
LLM 신뢰의 미래
Richard Socher, You.com, CEO 창업자
You.com과 AIX Ventures의 CEO이자 창업자인 Richard Socher가 프롬프트 엔지니어링의 발명부터 LLM을 통합한 최초의 AI 어시스턴트인 You.com의 설립에 이르기까지, AI와 NLP 분야에서 10년에 걸친 연구 여정을 통해 얻은 통찰을 공유합니다.
또한 실시간 웹 액세스를 통해 정확한 최신 답변을 제공하는 방법에 대해 이야기합니다. LLM이 가지고 있는 가장 큰 과제에 어떻게 대응할 수 있을지 확인해 보세요.
Snowflake Copilot: 세계에서 가장 강력한 SQL LLM을 구축하기
Vivek Raghunathan, Snowflake, 엔지니어링 담당 부사장
Vivek Raghunathan와 함께 Snowflake가 SQL을 위한 강력한 대규모 언어 모델을 구축하기 위해 어떤 접근 방식을 사용했는지, 그 과정에서 직면했던 도전 과제와 이를 어떻게 극복했는지 확인해 보세요.
Adobe에서는 수백 명의 연구자와 엔지니어들이 대규모 생성 AI 모델을 개발하고 있습니다. 이들은 초기 연구 및 프로토타이핑 단계부터 시작해, Photoshop과 같은 Adobe의 주요 제품에서 활용되는 추론 기반의 운영 모델과 서비스 모델 개발까지 다양한 작업을 수행하고 있습니다.
영상을 통해 연구에서 실제 서비스 배포까지의 과정을 가속화하기 위해 Adobe가 머신 러닝 인프라 스트럭처와 워크플로우를 어떻게 재구축하고 확장했는지 확인해 보세요.
Azure AI를 통해 대규모 학습과 LLMOps를 시작하기
Manash Goswami, Microsoft, 프로덕트 매니저
Azure AI는 현재 볼 수 있는 생성 AI 혁신의 기반입니다. OpenAI의 ChatGPT와 Microsoft Copilots는 모두 Azure AI 플랫폼과 툴을 통해 구축되었습니다.
LLM을 구축하고 모델 카탈로그에서 사전 제작된 LLM을 활용하는 방법부터 대규모 학습에 이르기까지 다양한 주제와 모범 사례에 대해 확인해 보세요. 또한, LLMOps와 반복적인 디버깅, 평가, 배포 및 모니터링을 위한 새로운 개발자 도구를 사용하여 프로토타입에서 실제 운영 환경으로 전환하는 방법도 확인하실 수 있습니다.
Lambda Cloud에 NVIDIA GH200 Grace Hopper 슈퍼칩 클러스터를 배포하는 첫 번째 작업
David Hall, NVIDIA, 솔루션 담당 부사장, Lambda
Lambda는 최신 NVIDIA GH200 GPU 클러스터 중 하나를 클라우드에 도입하여, AI 및 머신 러닝(Machine Learning, ML) 훈련 성능을 크게 향상시키고 있습니다. 이 클러스터는 NVIDIA의 ARM 기반 Grace CPU와, Grace CPU와 Hopper GPU 간에 900 GB/초의 초고속 대역폭을 제공하는 NVIDIA NVLink-C2C 인터커넥트를 특징으로 합니다.
ML 학습을 위해 최적화한 GH200 클러스터 디자인과, 이 클러스터에서 수행한 학습의 성능 평가에 대한 결과를 확인해 보세요. GH200 클러스터는 높은 효율성과 성능을 제공하며, 데이터 처리 및 모델 학습에서 중요한 역할을 합니다. Lambda는 이 클러스터를 통해 대규모 AI 모델 학습을 더욱 신속하고 효율적으로 처리할 수 있습니다.
High-quality GenAI 모델 훈련 레시피 및 스케일링 전략
Natalia Vassilieva, Cerebras Systems, 부사장 및 필드 CTO, ML
Cerebras가 대형 모델을 학습하는 방식과 그 과정에서 얻은 교훈을 확인해 보세요. 다양한 LLM과 멀티모달 모델 학습에서 얻은 경험과 통찰력, 고밀도 모델의 계산 효율적인 학습 방법, Cerebras 하드웨어를 활용한 희소 훈련 및 추론의 장점에 대해서도 확인할 수 있습니다.
AI 2024: 앞으로의 여행
Sri Viswanath, Coatue, General 파트너 및 매니징 디렉터
오늘날 AI의 상황과 향후 우리가 어떤 방향으로 나아갈지에 대해 투자자의 관점에서 확인해 보세요. 광범위한 투자 트렌드, 연구에서 배포로, 그리고 비즈니스 가치로의 전환을 다루며 AI에서 일어날 다음 큰 사건에 대해 예측해 보세요.
NVIDIA와 Weights & Biase의 FIRESIDE CHAT
Lukas Biewald, Weights & Biases CEO, 공동 창업자 + Manuvir Das, NVIDIA, 엔터프라이즈 컴퓨팅 담당 부사장
머신 러닝의 방향성, NVIDIA가 NIM에 많은 투자를 하고 있는 이유, NVIDIA와 Weights & Biases의 파트너십, 그리고 두 사람이 내년에 AI에 기대하는 것에 대해 나누는 솔직한 대화를 확인해 보세요.
브레이크 아웃 세션
단계적 변화의 미묘함: 메루카리의 생성형 AI 활용법
Teo Zosa, 메루카리, 시니어 머시 러닝 엔지니어
메루카리는 설립 직후 일본의 전자 상거래 업계에 혁신을 일으키며, 일본 최대의 C2C 온라인 마켓플레이스로 성장했습니다. 최고 품질의 상품을 사용자에게 제공하기 위한 노력의 일환으로, 메루카리는 미묘하지만 중요한 방식으로 AI를 활용하여 뛰어난 고객 가치를 창출하고 일본의 전자 상거래 환경을 재정의하고 있습니다.
W&B 오토메이션을 통한 지속적 도입
Ali Demirci, Rad AI, 시니어 머신 러닝 엔지니어
Rad AI는 온라인 추론 시스템을 통해 매일 수천 건의 방사선 의학 보고서를 생성합니다. Weights & Biases의 모델 레지스트리와 자동화를 활용하여 머신 러닝 모델(LLM 포함)을 구축하고 배포하는 방법에 대해 확인해 보세요.
고성능 컴퓨팅 클라우드 플랫폼 구축
Rahul Talari, CoreWeave, 제품 담당 디렉터, 머신 러닝 플랫폼 엔지니어
최첨단 AI 프로젝트를 지원하는 데 있어 아키텍처 설계, GPU 가속, 확장성이 어떻게 중요한 역할을 하는지 살펴보세요. 또한, Weights & Biases와의 협업을 통해 실험 추적과 모델 최적화가 어떻게 강화되고, AI 개발에 대한 종합적인 접근 방식이 제공되는지 확인하실 수 있습니다.
인간x기계: 모델부터 제품까지
Seth Levine, Loris 머신 러닝 주임 과학자
사용자 중심 제품을 강화하는 모델, 시스템, 특별한 소스의 비하인드 스토리를 확인해 보세요. 사람과 AI 간의 적절한 균형을 찾아 고객이 사랑하는 제품을 구축하는 것이 중요합니다.
산업용 로보틱스 AI
Kyle Coelho & Brian Zhu, Siemens, 연구 엔지니어
산업용 로봇 공학에 AI를 적용한 사례를 확인해 보세요. 컴퓨터 비전(CV)부터 강화 학습(RL)까지, 이러한 기술이 제조와 물류의 자동화를 어떻게 실현하며, 기술적 과제와 경제적 동기를 모두 어떻게 해결하고 있는지 확인하실 수 있습니다.
Samba-1, 엔터프라이즈급 오픈 소스 AI
Anand Sampat, SambaNova Systems, 머신 러닝 담당 시니어 디렉터
최첨단 하드웨어와 플랫폼을 통합하여 견고하고 안전하며 비용 효율적인 AI 솔루션을 제공하는 방법을 확인해 보세요. Samba-1을 사용하여 기업이 대규모 모델과 소규모 모델의 강점을 모두 활용하고 다양한 애플리케이션에 유연성과 정확성을 제공하는 방법을 확인하실 수 있습니다.
Weights & Biases와 Snowpark 컨테이너 서비스를 사용한 Snowflake에서의 LLM 성능 이해
Vino Duraisamy, NVIDIA, Snowflake 개발 커뮤니티 담당자
Weights & Biases와 Snowpark 컨테이너 서비스를 활용한 Snowflake에서의 LLM 성능을 확인해 보세요. 라이브 데모와 실용적인 예제를 통해 모델의 미세 조정과 평가에 관한 귀중한 통찰을 공유합니다. 이 세션은 Snowflake의 AI 및 생성 AI 서비스를 활용하여 데이터 과학 및 기계 학습 프로젝트를 강화하는 데 관심이 있는 사람들에게 추천합니다.