Berichten zufolge baut Microsoft eigene benutzerdefinierte KI-Prozessoren
Laut einem neuen Bericht verfügt Microsoft bereits über eigene KI-Chips zur Verwendung beim Training seiner Produkte, um die Abhängigkeit von Nvidias eigenen Chips zu verringern.
Das neue KI-Wettrüsten bei Technologiegiganten wie Google und Microsoft scheint Unternehmen zu neuen Extremen zu zwingen. Spätestens nach einem Bericht von Die Information (Paywalled), wie entdeckt von Der Rand Microsoft arbeitet bereits an eigenen KI-Chips, mit denen seine Produkte trainiert werden können, um die Abhängigkeit von Nvidias eigenen Serverchips zu verringern.
Anscheinend mit dem Codenamen „Athena“ ist dieser Microsoft-KI-Chip bereits seit 2019 in Arbeit und wird bereits von ausgewählten Microsoft- und OpenAI-Mitarbeitern verwendet, wobei eine breitere interne Einführung möglicherweise im nächsten Jahr erfolgen wird. Es ist jedoch nicht klar, ob die Chips nur für den internen Gebrauch bestimmt bleiben oder auch an die eigenen Kunden versendet werden, die Azure-Cloud-Produkte verwenden. Es sind jedoch auch mehrere zukünftige Versionen des Chips geplant Die Information Und Der Rand Beachten Sie, dass die Chips Nvidias eigene H100-GPUs nicht direkt ersetzen werden.
Ein Bericht von vor einigen Jahren im Jahr 2020 deutete darauf hin, dass Microsoft seine eigenen benutzerdefinierten ARM-basierten Chips für Server in Betracht zieht, aber es ist nicht klar, ob dies überhaupt mit Athena zusammenhängt. Microsoft hat bereits eine eigene SQ-Serie von Arm-basierten Chips in Surface-Geräten, an der es zusammen mit Qualcomm gearbeitet hat. Es arbeitete auch mit AMD an benutzerdefinierten Ryzen-CPUs für die Geräte der Surface Laptop-Serie. Microsoft hat also eindeutig Erfahrung in diesem Chipsatzbereich, da es die künstliche Intelligenz weiterhin in seinen Kernprodukten vorantreibt.
Dieser Schritt sollte für diejenigen, die die Branche verfolgen, nicht allzu schockierend sein. Google verwendet seine eigenen KI-Supercomputer mit über 4.000 TPUs und benutzerdefinierten Teilen, die KI-Modelle ausführen können. Die vollständige Dokumentation wurde kürzlich online veröffentlicht und war seit 2020 in Gebrauch. Amazon verfügt auch über eigene Trainium-Chips, die zum Trainieren von Modellen für maschinelles Lernen in der Verarbeitung natürlicher Sprache verwendet werden. Meta hingegen verwendet Nvidia- und KI-Chips in seinem Supercomputer, dem Research Super Computer.