Lukas Biewald, CEO und Mitgründer von Weights & Biases
Shawn Lewis, CTO und Mitbegründer von Weights & Biases
Hören Sie von Shawn Lewis mehr über die neuen Weights & Biases-Produkte und -Funktionen für Ersteller von Basismodellen, Unternehmen, die ihre Modelle erstellen und optimieren, und Softwareentwickler, die Anwendungen für generative KI entwickeln.
Joe Spisak, Produktdirektor, Generative KI bei Meta
Wir waren begeistert, dass Joe Spisak, Produktdirektor von GenAI bei Meta, bei Fully Connected die neueste Familie von Llama-Modellen, Llama 3, vorstellte. Erfahren Sie alles über die Trainingsprozesse und die Ausrichtung von Llama 3, das jetzt in der Kategorie der offenen Gewichte bei den Benchmarks MMLU, GSM-K und HumanEval als leistungsstärkstes Modell gilt.
Kari Briski, VP für Generative AI Software Product Management bei NVIDIA
Mit zunehmender Komplexität und Reichweite von Modellen wird es immer schwieriger, sie zu trainieren. Und nur wenige Unternehmen verstehen diese Herausforderungen besser als NVIDIA. Erfahren Sie von Kari Briski, wie die innovativsten Unternehmen der Welt die Herausforderungen meistern, riesige Modelle für reale Anwendungsfälle zu trainieren.
Richard Socher, Gründer und CEO bei You.com
Richard Socher, CEO und Gründer von You.com und AIX Ventures, gibt Einblicke aus seiner zehnjährigen Forschungsreise in KI und NLP, von der Erfindung des Prompt Engineering bis zur Gründung von You.com, dem ersten KI-Assistenten, der einen LLM mit Live-Webzugriff für genaue, aktuelle Antworten mit Zitaten integriert. Richard erörtert, wie man die größten Herausforderungen für LLMs bewältigt, von Halluzinationen bis hin zu generischen Antworten.
Vivek Raghunathan, VP of Engineering bei Snowflake
Begleiten Sie Vivek Raghunathan und erfahren Sie, wie Snowflake an den Aufbau eines leistungsstarken großen Sprachmodells für SQL herangeht, welche Herausforderungen dabei auftraten und wie sie diese bewältigten.
Ersin Yumer, Sr. Director of Engineering, AI/ML und Data bei Adobe
Bei Adobe arbeiten Hunderte von Forschern und Ingenieuren an groß angelegten generativen KI-Modellen von der anfänglichen Forschung und Prototypisierung bis hin zur Produktion und Bereitstellung von Modellen zum Zeitpunkt der Inferenz für viele Anwendungen, darunter auch Adobe-Flaggschiffprodukte wie Photoshop. In diesem Vortrag stellt Ersin vor, wie Adobe seine ML-Infrastruktur und -Workflows überarbeitet und skaliert hat, um die Geschwindigkeit von der Forschung bis zur Produktion zu optimieren.
Manash Goswami, Principal Group Program Manager bei Microsoft
Azure AI bildet die Grundlage der generativen KI-Innovationen, die Sie heute sehen: ChatGPT von OpenAI und Microsoft Copilots basieren alle auf Azure AI-Plattformen und -Tools.
In dieser Sitzung behandelt Manash eine breite Palette von Themen und Best Practices, von groß angelegten Schulungen bis hin zum Erstellen Ihrer LLMs und zur Nutzung vorgefertigter LLMs aus unserem Modellkatalog. Sie erfahren auch, wie Sie mit LLMOps und neuen Entwicklertools für iteratives Debuggen, Evaluieren, Bereitstellen und Überwachen vom Prototyp zur Produktion gelangen.
David Hall, VP von NVIDIA Solutions, Lambda
Lambda hat einen der ersten NVIDIA GH200 GPU-Cluster in seiner Cloud vorgestellt, der NVIDIAs neue ARM-basierte Grace-CPU für verbesserte Effizienz und eine kohärente NVIDIA NVLink-C2C-Verbindung enthält, die 900 GB/s Bandbreite zwischen der Grace-CPU und der Hopper-GPU bietet. In der Präsentation werden Lambdas GH200-Clusterdesign, das für ML-Training optimiert ist, und unsere Erkenntnisse zur Trainingsleistung besprochen.
Natalia Vassilieva, VP und Field CTO, ML bei Cerebras Systems
Begleiten Sie Natalia, wenn sie erzählt, wie Cerebras große Modelle trainiert und was sie dabei gelernt haben. Sie teilt ihre Erfahrungen und Erkenntnisse aus dem Training verschiedener LLMs und multimodaler Modelle, Techniken für recheneffizientes Training dichter Modelle sowie die Vorteile von Sparse-Training und Inferenz auf Cerebras-Hardware.
Sri Viswanath, General Partner und Geschäftsführer bei Coatue
In dieser abschließenden Keynote gibt Sri die Sicht eines Investors zum aktuellen Stand der KI wieder und erläutert, wo er unseren Bereich im nächsten Jahr erwartet. Er betrachtet allgemeine Investitionstrends, den Übergang von der Forschung über die Bereitstellung bis hin zum Geschäftswert und prognostiziert den nächsten großen Trend in der KI.
Lukas Biewald, CEO und Mitbegründer von Weights & Biases + Manuvir Das, VP of Enterprise Computing bei NVIDIA
Nehmen Sie an einem offenen Gespräch zwischen Manavir und Lukas teil. Es geht um die Richtung des maschinellen Lernens als Bereich, warum NVIDIA so viel in NIM investiert, die Partnerschaft zwischen NVIDIA und Weights & Biases und darum, was die beiden Männer im kommenden Jahr im Bereich KI erwarten.
Registrieren Sie sich, um die Breakout-Sitzung auf Abruf anzusehen.