Der Markt für künstliche Intelligenz tritt in eine Phase ein, in der die Skalierung wichtiger ist als einzelne Modelle. Meta und Nvidia haben eine mehrjährige Partnerschaft angekündigt, mit dem Ziel, eine hyperskalierbare AI-Infrastruktur aufzubauen, die in der Lage ist, einige der größten Rechenlasten der Welt zu bewältigen. Dies ist ein Projekt, das über die klassische Bestellung von Grafikkarten hinausgeht. Wir sprechen von einem vollständigen Umbau der technologischen Infrastruktur für die nächste Welle der künstlichen Intelligenz.
Eine Architektur für globale Infrastruktur
Unternehmen arbeiten an einer einheitlichen Architektur, die sowohl eigene Rechenzentren als auch Cloud-Implementierungen von Nvidias Partnern umfasst. Eine Schlüsselrolle spielen Systeme basierend auf der GB300-Plattform, die Rechenleistung, Speicher und Datenspeicherung in einer Struktur integrieren. Parallel dazu erweitert Meta die Nutzung des Nvidia Spectrum-X Ethernet-Netzwerks, um vorhersehbare Latenzen und eine höhere Energieeffizienz zu gewährleisten.
Ein wichtiges Element des Projekts ist die breite Einführung der Nvidia Grace-Prozessoren, die die erste so große Bereitstellung dieser Linie in einer Produktionsumgebung darstellen soll. Parallel dazu optimieren Ingenieure beider Unternehmen die Software und CPU-Bibliotheken, um die Leistung pro Watt zu verbessern und das Training von Modellen der neuen Generation zu beschleunigen.
KI mit Fokus auf Privatsphäre
Meta hat auch angefangen, Nvidia Confidential Computing in Diensten wie WhatsApp zu nutzen. Die Technologie ermöglicht es, Benutzerdaten durch KI-Modelle zu verarbeiten, während ihre Vertraulichkeit und Integrität gewahrt bleibt. Der Plan sieht vor, diese Architektur auf andere Produkte des Unternehmens auszuweiten. Mark Zuckerberg kündigte an, dass der nächste Schritt der Aufbau von Clustern auf der Plattform Vera Rubin sein wird, die die Grundlage für das Konzept der "persönlichen Superintelligenz" bilden sollen, die Milliarden von Benutzern zur Verfügung stehen wird.
Was planen Zuckerberg und Huang?
Die gemeinsame Strategie deutet auf mehr hin als nur auf eine Erhöhung der Rechenleistung. Meta möchte die Entwicklung von KI-Modellen eng mit der Infrastruktur verbinden, indem Hardware und Software parallel entworfen werden. Ein solches Vorgehen soll die Trainingszeit der Modelle verkürzen und deren Effizienz verbessern. Sollten die Pläne umgesetzt werden, könnte Meta einer der größten Betreiber von KI-Infrastruktur weltweit werden, und Nvidia könnte seine Position als Schlüsselanbieter von Technologie für digitale Giganten festigen.
Die Partnerschaft zwischen Meta und Nvidia ist ein Projekt von Maßstäben, die über typische Investitionen in Hardware hinausgehen. Millionen von GPUs, Grace-Prozessoren und die Vera-Rubin-Plattform sollen das Fundament für die nächste Generation von KI-Modellen schaffen. Dies ist ein Schritt, der den globalen Technologiewettbewerb erheblich beeinflussen könnte.
Quelle: techradar.com
Katarzyna Petru












