Ein KI-Experte bespricht die Hardware und Infrastruktur, die zum ordnungsgemäßen Ausführen und Trainieren von KI-Modellen erforderlich sind

Leistungsstarke Server und Prozessoren sind die Arbeitspferde der KI. Hinter den Kulissen, Intel® Xeon® Prozessoren übernehmen Hochleistungsrechnen für eine Vielzahl von Aufgaben, einschließlich KI-Anwendungen, während der Habana® Gaudí® Accelerator bewältigt Deep-Learning-Workloads. Gemeinsam hilft dieses Infrastruktur-Duo dabei, revolutionäre KI-Modelle zu trainieren und einzusetzen.

Transkript:

Monica Livingston:

Wenn Sie überlegen, wie Sie KI in Ihre Anwendung integrieren können, kommt die Hardware-Diskussion erst später. Wenn Sie an dem Punkt angelangt sind, an dem Sie verstehen, was Ihr Workload ist, ob er intern erstellt oder extern entwickelt wurde, Sie wissen, welchen Workload Sie ausführen möchten, dann beginnen Sie, sich mit der Infrastruktur zu befassen.

Worauf führe ich das aus? Bei KI handelt es sich nicht unbedingt um eine speziell angefertigte KI-Box, die Sie an die Wand anschließen und die Ihre KI übernimmt. KI muss auf Ihrer allgemeinen Infrastruktur laufen.

Ich bin Monica Livingston und leite das AI Center of Excellence bei Intel.

Die Möglichkeit, Ihre KI-Anwendungen auf einer allgemeinen Infrastruktur ausführen zu können, ist unglaublich wichtig, da sich dadurch die Kosten für zusätzliche Infrastruktur reduzieren.

Bei Intel verbringen wir viel Zeit damit, unseren skalierbaren Intel Xeon-Prozessoren KI-Leistungsfunktionen hinzuzufügen. Für die Arten von KI, die nicht einfach auf einem Prozessor ausgeführt werden können, bieten wir Beschleuniger an. Wir verfügen über diskrete GPUs von Intel und über unser Habana Gaudi-Produkt, einen KI-ASIC, der auf Deep Learning, Training und Inferenz spezialisiert ist.

Wenn Sie an Xeon und Gaudi denken, würden Sie Gaudi verwenden, um sehr große Modelle zu trainieren. Sie hätten also Ihren Gaudi-Cluster und würden ein sehr großes Modell trainieren – Hunderte Milliarden Parameter. Wenn Ihr Modell weniger als 20 Milliarden Parameter hat, kann damit im Allgemeinen eine Inferenz auf Xeon ausgeführt werden.

Nachdem Sie Ihr Modell also darauf trainiert haben, es tatsächlich auszuführen, können Sie es auf Ihren Xeon-Rechnern ausführen. Diese Prozessorfamilie verfügt über eine Reihe von KI-Optimierungen. Die AMX-Funktion, die erweiterte Matrixerweiterung, ist unsere neueste Funktion in dieser aktuellen Generation von Xeon-Prozessoren und ermöglicht es uns, Deep Learning, Training und Inferenz viel schneller auf den CPUs auszuführen.

Und wiederum würde diese integrierte Beschleunigung es einem Kunden oder einem Unternehmen ermöglichen, diese Modelle auf einer CPU statt auf einem teureren Rechner auszuführen.

Die Zukunft besteht darin, dass Sie in Ihrem Unternehmen über viele generative KI-Modelle für verschiedene Zwecke verfügen werden. Und wenn die Schulung aller davon Millionen erfordert, sieht die Kapitalrendite nicht so günstig aus, als wenn Sie diese kleineren, viel effizienteren Modelle hätten, die auf einer Mehrzweckarchitektur laufen können. Sie müssen also nicht extra dafür eine neue Infrastruktur aufbauen.

Lesen Sie den Originalartikel auf Business Insider

source site-19