Lukas Biewald, CEO and Co-Founder at Weights & Biases
우리는 Weights &의 기조연설로 Fully Connected 2024를 시작했습니다. Biases CEO 겸 공동 창립자 Lukas Biewald. 그는 생성 AI 산업에 대한 자신의 관점을 공유했습니다. 즉, 우리가 어디에서 왔고, 현재 어디에 있으며, 어디로 향하고 있는지를 공유했습니다.
AI 애플리케이션 구축을 위한 도구
Shawn Lewis, CTO and Co-Founder at Weights & Biases
새 Weights &에 대한 Shawn Lewis의 이야기를 들어보세요. 기초 모델 구축자, 모델을 구축하고 미세 조정하는 기업, 생성 AI 애플리케이션을 개발하는 소프트웨어 개발자를 위한 제품 및 기능을 편향합니다.
Meta가 Llama 3를 훈련시킨 방법
Joe Spisak, Meta Generative AI 제품 이사
Meta의 GenAI 제품 이사인 Joe Spisak이 Fully Connected에서 최신 Llama 모델 제품군인 Llama 3을 공개한 것을 보고 매우 기뻤습니다.
Llama 3의 훈련 프로세스와 정렬에 대해 자세히 알아보세요. , 현재 MMLU, GSM-K, HumanEval 벤치마크의 개방형 가중치 카테고리에서 최고 성능 모델로 평가됩니다.
생성 AI의 복잡성 극복
Kari Briski, VP of Generative AI Software Product Management at NVIDIA
모델이 복잡해지고 범위가 커짐에 따라 모델을 학습시키는 과제도 커집니다. 그리고 NVIDIA보다 이러한 과제를 더 잘 이해하는 기업은 거의 없습니다.
Kari Briski와 함께 세계에서 가장 혁신적인 기업들이 실제 사용 사례에 맞게 대규모 모델을 교육하는 과제와 씨름하고 있는 방법을 안내해 드립니다.
LLM에 대한 신뢰의 미래
Richard Socher, Founder & CEO at You.com
You.com 및 AIX Ventures의 CEO이자 창립자인 Richard Socher는 프롬프트 엔지니어링의 발명부터 LLM을 통합한 최초의 AI Assistant인 You.com 창립까지 AI 및 NLP에 대한 10년 간의 연구 여정에서 얻은 통찰력을 공유합니다. 인용과 함께 정확한 최신 답변을 얻으려면 실시간 웹 액세스를 이용하세요. Richard는 환각부터 일반적인 반응까지 LLM이 직면한 가장 큰 과제를 해결하는 방법에 대해 논의합니다.
Snowflake Copilot: 세계에서 가장 강력한 SQL LLM 구축
Vivek Raghunathan, VP of Engineering at Snowflake
Vivek Raghunathan과 함께 Snowflake가 강력한 SQL용 대규모 언어 모델 구축에 접근하는 방식과 그 과정에서 직면한 과제, 이를 극복한 방법을 알아보세요.
생성적 AI: Adobe Firefly 인프라 및 ML 워크플로우 확장
Ersin Yumer, Sr. Director of Engineering, AI/ML and Data at Adobe
Adobe에서는 수백 명의 연구원과 엔지니어가 Photoshop과 같은 Adobe 주력 제품을 포함하여 많은 애플리케이션이 소비할 수 있도록 초기 연구 및 프로토타입 제작부터 추론 시 모델 제공 및 생산에 이르기까지 대규모 생성 AI 모델을 연구하고 있습니다.
이 강연에서 Ersin은 Adobe가 연구부터 제작까지의 속도를 최적화하기 위해 ML 인프라와 워크플로우를 개선하고 확장한 방법을 소개합니다.
Azure AI에서 대규모 교육 및 LLMOps 시작하기
Manash Goswami, Principal Group Program Manager at Microsoft
Azure AI는 오늘날 볼 수 있는 생성적 AI 혁신의 기반입니다. OpenAI의 ChatGPT 및 Microsoft Copilots는 모두 Azure AI 플랫폼 및 도구를 기반으로 구축되었습니다.
이 세션에서 Manash는 LLM을 구축하고 모델 카탈로그에서 사전 구축된 LLM을 활용하기 위한 대규모 교육의 광범위한 주제와 모범 사례를 다룹니다. 또한 반복 디버깅, 평가, 배포 및 모니터링을 위한 LLMOps와 새로운 개발자 도구를 사용하여 프로토타입에서 프로덕션으로 전환하는 방법도 알아봅니다.
Lambda Cloud에 최초의 NVIDIA GH200 Grace Hopper Superchip 클러스터 중 하나 배포
David Hall, VP of NVIDIA Solutions, Lambda
Lambda는 효율성 향상을 위해 NVIDIA의 새로운 ARM 기반 Grace CPU와 Grace CPU와 Hopper GPU 사이에 900GB/s의 대역폭을 제공하는 일관된 NVIDIA NVLink-C2C 상호 연결을 특징으로 하는 최초의 NVIDIA GH200 GPU 클러스터 중 하나를 클라우드에 도입했습니다. . 프레젠테이션에서는 ML 훈련에 최적화된 Lambda의 GH200 클러스터 설계와 훈련 성능에 대한 연구 결과를 논의합니다.
고품질 GenAI 모델을 위한 훈련 레시피 및 확장 전략
Natalia Vassilieva, VP and Field CTO, ML at Cerebras Systems
Natalia와 함께 Cerebras가 대형 모델을 훈련하는 방법과 그 과정에서 배운 내용을 공유해 보세요. 그녀는 다양한 LLM 및 다중 모드 모델 교육, 밀도가 높은 모델의 계산 효율적인 교육 기술, Cerebras 하드웨어에 대한 희소 교육 및 추론의 이점을 통해 얻은 경험과 통찰력을 공유합니다.
AI 2024: 여기서부터의 여정
Sri Viswanath, General Partner & Managing Director at Coatue
이 마지막 기조연설에서 Sri는 현재 AI의 상태와 내년에 AI 공간이 어디에 있을 것으로 예상하는지에 대한 투자자의 관점을 제시합니다. 그는 광범위한 투자 동향, 연구에서 배포, 비즈니스 가치로의 전환을 살펴보고 AI의 차세대 혁신을 예측합니다.
NVIDIA 및 가중치 & 편견 노변담화
Lukas Biewald, CEO and Co-Founder at Weights & Biases + Manuvir Das, VP of Enterprise Computing at NVIDIA
Manavir와 Lukas와 함께 공간으로서의 머신러닝의 방향, NVIDIA가 NIM에 그토록 많은 투자를 하는 이유, NVIDIA와 Weights & 편견과 두 사람이 내년에 AI에서 보게 될 것으로 기대하는 것.