Tech News

Technik & Digital

Vergessen Sie Software, denn beim Wettlauf um die KI-Dominanz geht es in Wirklichkeit um die Chipherstellung


Die zentralen Thesen

  • Chips sind für die KI-Leistung in Geräten und Cloud-Servern von entscheidender Bedeutung, da sie schnellere Rechengeschwindigkeiten ermöglichen und anspruchsvollere Arbeitsabläufe unterstützen.
  • Große Technologieunternehmen wie Nvidia, Intel, AMD, Google, Meta und Microsoft konkurrieren allesamt bei der Herstellung von KI-Chips.
  • Der Erfolg bei KI-Software hängt von der Entwicklung fortschrittlicher KI-Chips ab, und Nvidias Vorsprung vor allen anderen zeigt, dass es auch finanzielle Anreize für die Chipherstellung gibt.


Die Anwendungen für künstliche Intelligenz auf Verbraucherebene im Jahr 2024 sind leicht zu erkennen, beispielsweise Softwaretools wie ChatGPT von OpenAI oder Hardwareprodukte wie AI Pin von Humane. Dies ist jedoch nur die Spitze des Eisbergs, wenn es um die KI-Entwicklung geht. Unabhängig davon, ob es sich um KI-basierte Software oder Hardware handelt, ist ihr Erfolg alle auf die Chipherstellung zurückzuführen. Einige dieser Produkte und Dienste nutzen die KI-Verarbeitung auf dem Gerät, andere verlagern die Verarbeitungsanforderungen auf Cloud-Server. In jedem Fall ist maßgeschneiderter Silizium das Rückgrat der KI, und deshalb liefert sich jedes große Technologieunternehmen hinter den Kulissen einen Wettlauf um die besten KI-Prozessoren für großartige KI-PCs und Cloud-Server gleichermaßen.

Verwandt

Was ist ein KI-PC und lohnt sich der Hype?

Entdecken Sie die Welt der KI-PCs und erfahren Sie, ob der ganze Hype gerechtfertigt ist.

Warum Chips für die KI-Leistung entscheidend sind

Sie ermöglichen KI-Anwendungen, egal ob auf dem Gerät oder in der Cloud

HGX B200 Tensor-Core-GPU


Smartphones und Laptops enthalten zunehmend neuronale Verarbeitungseinheiten (NPUs), die speziell für die Verwaltung von KI-bezogenen Aufgaben konzipiert sind. Im Vergleich zu einer herkömmlichen CPU oder GPU kann eine NPU Funktionen viel besser ausführen und Informationen parallel analysieren. Während also eine GPU möglicherweise in der Lage ist, eine Abfrage zu verarbeiten, die tiefes oder maschinelles Lernen erfordert, beschleunigt eine NPU die Dinge. Der Einsatz einer NPU im Vergleich zu anderen Prozessortypen ermöglicht nicht nur eine schnellere KI-Berechnung, sondern ermöglicht auch anspruchsvollere Arbeitsabläufe. Aus diesem Grund liefert Apple seit Jahren System-on-a-Chip mit Neural Engines sowohl auf Smartphones als auch auf Mobilgeräten aus. NPUs sind in letzter Zeit auch ein wichtiger Bestandteil der PC-Hardware geworden. Die beiden größten Namen im Bereich Verbraucherverarbeitung – Intel und AMD – haben beide NPUs in ihre Chips integriert.


NPUs helfen jedoch nur bei der Ausführung von KI-Funktionen auf dem Gerät. Die meisten KI-basierten Softwaretools und -funktionen laufen heute außerhalb des Geräts, wodurch die Verarbeitungsanforderungen auf einen Cloud-Server an einem anderen Ort verlagert werden. Wenn Sie beispielsweise einem KI-Chatbot wie ChatGPT, Copilot oder Gemini eine Frage stellen, sendet dieser diese Anfrage an einen Server und verarbeitet sie. Es ist jedoch wichtig zu bedenken, dass KI-Prozessoren auch für die Stromversorgung der Server in Rechenzentren erforderlich sind. Tatsächlich sind die fortschrittlichen KI-Prozessoren, mit denen Server-Racks in Rechenzentren gefüllt werden, viel gefragter als Chips für Verbraucher. Nvidia ist derzeit Branchenführer bei KI-Prozessoren und seine auf Deep Learning und KI-Aufgaben spezialisierten H100-GPUs sind schwer zu finden und kosten auf dem Gebrauchtmarkt über 40.000 US-Dollar pro Stück.

Verwandt

Nvidia HGX vs. DGX: Was sind die Unterschiede?

Wie sich die Enterprise-GPU-Lösungen von Nvidia für leistungsstarkes KI-Computing unterscheiden

Daher nimmt jeder Akteur in der Technologiebranche zur Kenntnis, was Nvidia mit seinen fortschrittlichen GPUs macht, darunter die bereits erwähnte H100 und die neu angekündigte H200. Diese Chips und die sie enthaltenden Karten sind für den Betrieb der großen Sprachmodelle (LLMs) von entscheidender Bedeutung, die viele generative KI-Funktionen unterstützen. Die offensichtlichsten sind Chatbots, aber es gibt auch Bildgeneratoren, Videogeneratoren und mehr. Die Unternehmen, die diese Softwarefunktionen entwickeln – wie Google, Microsoft, OpenAI und andere – benötigen alle fortschrittliche KI-Chips, um ihre Angebote zu unterstützen. Anstatt also nur um die Entwicklung der besten KI-Softwaretools zu wetteifern, konkurrieren sie auch darum, die Chips zu entwerfen und zu erwerben, die sie zum Leben erwecken.


Jeder möchte ein Stück KI-Chip-Erstellung haben

Nvidia, Intel, AMD, Google, Meta und Microsoft sind alle auf der Jagd

Wenn Sie also den Namen eines beliebigen großen Technologieunternehmens auswählen, ist es wahrscheinlich, dass es in irgendeiner Form an der Herstellung, dem Design oder der Fertigung von KI-Chips beteiligt ist. Google hat letzte Woche einen neuen Prozessortyp namens Google Axion angekündigt, bei dem es sich um einen maßgeschneiderten Arm-basierten Chip handelt, der für Rechenzentren entwickelt wurde, die Google Cloud unterstützen. Microsoft bringt dieses Jahr zwei KI-Prozessoren auf den Markt, Azure Maia und Azure Cobalt, was eine Möglichkeit sein könnte, die Abhängigkeit von Nvidia-Komponenten zu vermeiden. Meta ist letztes Jahr mit dem Meta Training and Inference Accelerator (MTIA) in den Bereich der Chipherstellung eingestiegen und hat letzte Woche auch eine Vorschau auf ein Angebot der nächsten Generation gegeben. Amazon Web Services verfügt über einen neuen benutzerdefinierten Trainium2-Prozessor für KI-basierte Aufgaben und verwendet für seine Rechenzentren auch Nvidia-Chips. Berichten zufolge untersucht Sam Altman, CEO von OpenAI, auch maßgeschneiderte KI-Prozessoren.


Derzeit benötigt jeder die H100-GPU von Nvidia für die KI-Verarbeitung, um Cloud-Dienste bereitzustellen. Amazon Web Services, Microsoft Azure und Google Cloud sind heute drei der größten Cloud-Processing-Anbieter. Sie alle verlassen sich darauf, dass Nvidia ihren Kunden KI-, Maschinen- und Deep-Learning-Berechnungen bietet. Laut CEO Mark Zuckerburg plant Meta heimlich, bis Ende 2024 340.000 Nvidia H100-GPUs zu besitzen, was das Unternehmen ebenfalls zu einem subtilen Konkurrenten macht. Allerdings sind sie vorerst auf Nvidia angewiesen – und haben es auch getan schwer betonten ihre fortgesetzten Beziehungen zu Nvidia, um keine Brücken niederzureißen – das werde möglicherweise nicht für immer der Fall sein. Amazon, Microsoft, Google und Meta entwickeln alle ihre eigenen Alternativen, und das Unternehmen, das Nvidia erfolgreich konkurriert, könnte das KI-Rennen gewinnen.

In der Herstellung von KI-Chips steckt eine Menge Geld

Bisher gewinnt Nvidia das Rennen und die Aktienkurse steigen

Nvidia Geforce RTX 4070 Super Founders Edition aus einem Blickwinkel


Es ist also leicht zu erkennen, dass Unternehmen gegeneinander antreten, um bessere Softwarefunktionen und LLMs zu entwickeln. Oberflächlich betrachtet ist es jedoch weniger offensichtlich, dass Microsoft, Google, Amazon und Meta sich gegenseitig bei der Hardware schlagen müssen, um auch bei der Software zu gewinnen. Diese beiden Aspekte der KI hängen zusammen, zumindest aus der aktuellen Marktlage. Nvidia ist der König der KI und der Erfolg jedes anderen Unternehmens hängt davon ab, Zugang zu Nvidia-GPUs zu erhalten. Auch hier gibt es einen finanziellen Anreiz. Zum Zeitpunkt des Verfassens dieses Artikels sind die Aktienkurse von Nvidia im vergangenen Jahr um 218,50 % gestiegen und das Unternehmen hat sich aufgrund seiner Dominanz bei der Herstellung von KI-Chips zu einem Billionen-Dollar-Unternehmen entwickelt. Wenn es etwas gibt, was wir im Laufe des jüngsten KI-Booms gelernt haben, dann ist es, dass Technologieunternehmen einander wahrscheinlich überdauern werden, wenn sie erfolgreich ihr eigenes Silizium herstellen können.

Verwandt

Nvidia übernimmt die Krone in der KI-Hardware-Szene

Der Kampf um KI-Hardware wird immer hitziger und Nvidia liegt derzeit an der Spitze



Source link