Sitzungen von Fully Connected 2024 San Francisco

Bleiben Sie auf dem Laufenden, indem Sie sich die Sitzungen auf Abruf ansehen.

Hauptbühne

Das Zeitalter der generativen KI

Lukas Biewald, CEO und Mitgründer von Weights & Biases

Wir starteten Fully Connected 2024 mit einer Keynote von Lukas Biewald, CEO und Mitbegründer von Weights & Biases. Er teilte seine Perspektive auf die generative KI-Branche: woher wir kommen, wo wir heute stehen und wohin wir gehen.

Tools zum Erstellen von KI-Anwendungen

Shawn Lewis, CTO und Mitbegründer von Weights & Biases

Hören Sie von Shawn Lewis mehr über die neuen Weights & Biases-Produkte und -Funktionen für Ersteller von Basismodellen, Unternehmen, die ihre Modelle erstellen und optimieren, und Softwareentwickler, die Anwendungen für generative KI entwickeln.

Wie Meta Lama 3 trainierte

Joe Spisak, Produktdirektor, Generative KI bei Meta

Wir waren begeistert, dass Joe Spisak, Produktdirektor von GenAI bei Meta, bei Fully Connected die neueste Familie von Llama-Modellen, Llama 3, vorstellte. Erfahren Sie alles über die Trainingsprozesse und die Ausrichtung von Llama 3, das jetzt in der Kategorie der offenen Gewichte bei den Benchmarks MMLU, GSM-K und HumanEval als leistungsstärkstes Modell gilt.

Die Komplexität generativer KI überwinden

Kari Briski, VP für Generative AI Software Product Management bei NVIDIA

Mit zunehmender Komplexität und Reichweite von Modellen wird es immer schwieriger, sie zu trainieren. Und nur wenige Unternehmen verstehen diese Herausforderungen besser als NVIDIA. Erfahren Sie von Kari Briski, wie die innovativsten Unternehmen der Welt die Herausforderungen meistern, riesige Modelle für reale Anwendungsfälle zu trainieren.

Die Zukunft des Vertrauens in LLMs

Richard Socher, Gründer und CEO bei You.com

Richard Socher, CEO und Gründer von You.com und AIX Ventures, gibt Einblicke aus seiner zehnjährigen Forschungsreise in KI und NLP, von der Erfindung des Prompt Engineering bis zur Gründung von You.com, dem ersten KI-Assistenten, der einen LLM mit Live-Webzugriff für genaue, aktuelle Antworten mit Zitaten integriert. Richard erörtert, wie man die größten Herausforderungen für LLMs bewältigt, von Halluzinationen bis hin zu generischen Antworten.

Snowflake Copilot: Erstellen des leistungsstärksten SQL LLM der Welt

Vivek Raghunathan, VP of Engineering bei Snowflake

Begleiten Sie Vivek Raghunathan und erfahren Sie, wie Snowflake an den Aufbau eines leistungsstarken großen Sprachmodells für SQL herangeht, welche Herausforderungen dabei auftraten und wie sie diese bewältigten.

Generative KI: Skalierung der Adobe Firefly-Infrastruktur und ML-Workflows

Ersin Yumer, Sr. Director of Engineering, AI/ML und Data bei Adobe

Bei Adobe arbeiten Hunderte von Forschern und Ingenieuren an groß angelegten generativen KI-Modellen von der anfänglichen Forschung und Prototypisierung bis hin zur Produktion und Bereitstellung von Modellen zum Zeitpunkt der Inferenz für viele Anwendungen, darunter auch Adobe-Flaggschiffprodukte wie Photoshop. In diesem Vortrag stellt Ersin vor, wie Adobe seine ML-Infrastruktur und -Workflows überarbeitet und skaliert hat, um die Geschwindigkeit von der Forschung bis zur Produktion zu optimieren.

Erste Schritte mit groß angelegtem Training und LLMOps in Azure AI

Manash Goswami, Principal Group Program Manager bei Microsoft

Azure AI bildet die Grundlage der generativen KI-Innovationen, die Sie heute sehen: ChatGPT von OpenAI und Microsoft Copilots basieren alle auf Azure AI-Plattformen und -Tools.

In dieser Sitzung behandelt Manash eine breite Palette von Themen und Best Practices, von groß angelegten Schulungen bis hin zum Erstellen Ihrer LLMs und zur Nutzung vorgefertigter LLMs aus unserem Modellkatalog. Sie erfahren auch, wie Sie mit LLMOps und neuen Entwicklertools für iteratives Debuggen, Evaluieren, Bereitstellen und Überwachen vom Prototyp zur Produktion gelangen.

Bereitstellung eines der ersten NVIDIA GH200 Grace Hopper Superchip-Cluster in der Lambda Cloud

David Hall, VP von NVIDIA Solutions, Lambda

Lambda hat einen der ersten NVIDIA GH200 GPU-Cluster in seiner Cloud vorgestellt, der NVIDIAs neue ARM-basierte Grace-CPU für verbesserte Effizienz und eine kohärente NVIDIA NVLink-C2C-Verbindung enthält, die 900 GB/s Bandbreite zwischen der Grace-CPU und der Hopper-GPU bietet. In der Präsentation werden Lambdas GH200-Clusterdesign, das für ML-Training optimiert ist, und unsere Erkenntnisse zur Trainingsleistung besprochen.

Trainingsrezepte und Skalierungsstrategien für hochwertige GenAI-Modelle

Natalia Vassilieva, VP und Field CTO, ML bei Cerebras Systems

Begleiten Sie Natalia, wenn sie erzählt, wie Cerebras große Modelle trainiert und was sie dabei gelernt haben. Sie teilt ihre Erfahrungen und Erkenntnisse aus dem Training verschiedener LLMs und multimodaler Modelle, Techniken für recheneffizientes Training dichter Modelle sowie die Vorteile von Sparse-Training und Inferenz auf Cerebras-Hardware.

KI 2024: Die Reise von hier

Sri Viswanath, General Partner und Geschäftsführer bei Coatue

In dieser abschließenden Keynote gibt Sri die Sicht eines Investors zum aktuellen Stand der KI wieder und erläutert, wo er unseren Bereich im nächsten Jahr erwartet. Er betrachtet allgemeine Investitionstrends, den Übergang von der Forschung über die Bereitstellung bis hin zum Geschäftswert und prognostiziert den nächsten großen Trend in der KI.

Kamingespräch über NVIDIA und Weights & Biases

Lukas Biewald, CEO und Mitbegründer von Weights & Biases + Manuvir Das, VP of Enterprise Computing bei NVIDIA

Nehmen Sie an einem offenen Gespräch zwischen Manavir und Lukas teil. Es geht um die Richtung des maschinellen Lernens als Bereich, warum NVIDIA so viel in NIM investiert, die Partnerschaft zwischen NVIDIA und Weights & Biases und darum, was die beiden Männer im kommenden Jahr im Bereich KI erwarten.

Thank you to our sponsors!

Thank you to our sponsors!