Zusammenfassung:Nvidia-Chef Jensen Huang reagiert auf die steigende KI-Konkurrenz. I-hwa Cheng/GettyDer Nvidia-CEO J
Nvidia-Chef Jensen Huang reagiert auf die steigende KI-Konkurrenz.
Der Nvidia-CEO Jensen Huang sagt, dass Reasoning-Modelle 100-mal so viele Rechenressourcen benötigen wie herkömmliche Modelle.
„Zukünftiges Reasoning kann noch viel mehr Rechenleistung verbrauchen, sagte er am Mittwoch.
Nvidia hat zuletzt die Umsatzprognosen für das laufende Geschäftsjahr angehoben.
KI-Modelle werden immer hungriger nach Rechenleistung, sagte Nvidia-CEO Jensen Huang am Mittwochabend bei der Bilanzpressekonferenz. Das Unternehmen übertraf erneut die Umsatzerwartungen, doch die Anleger reagierten lau. Seit Deepseek im vergangenen Monat seine effizienten Open-Source-Modelle auf den Markt gebracht hat, war die größte Frage, ob die effizient trainierten Modelle des chinesischen Unternehmens die Nachfrage nach KI-Rechnern verringern würden.
Da es sich bei dem wirkungsvollsten Modell von Deepseek, R1, um ein logisches Modell handelt, war Huangs Antwort ein klares „Nein“. „Reasoning-Modelle können 100-mal mehr Rechenleistung verbrauchen. Zukünftiges Reasoning kann noch viel mehr Rechenleistung verbrauchen”, sagte er in der Telefonkonferenz. Huang nannte Deepseek eine „hervorragende Innovation.
Nvidia übertrifft Erwartungen: Gewinn wächst um fast zehn Milliarden US-Dollar im Vergleich zum Vorjahr
„Aber noch wichtiger ist, dass das Unternehmen ein erstklassiges KI-Modell zur Verfügung gestellt hat. Nahezu jeder KI-Entwickler wendet R1, oder Chain-of-Thought- und Reinforcement-Learning-Techniken wie R1 an, um die Leistung seines Modells zu skalieren, sagte Huang am Mittwoch.
Huang hatte den schwankenden Aktienkurs von Nvidia in einem Interview angesprochen und gesagt, dass die Investoren das Deepseek-Phänomen falsch interpretiert hätten.
Der nachhaltige Einfluss von Deepseek war der Vorstoß in Richtung „ressourcenintensive Schlussfolgerungsmodelle, so Synovus-Analyst Dan Morgan in einer Investoren-Notiz. Er bezog sich dabei auf Ressourcen wie Chips und Strom für Inferenzen – die Art von KI-Computing, das Modelle verfeinert und Schlussfolgerungen und Abfrageantworten generiert.
Der KI-Wettbewerb nimmt zu
Mit der zunehmenden Reife von KI-Anwendungen steigt die Zahl der Inferenzen langsam an. „Die überwiegende Mehrheit unserer Rechenleistung ist heute tatsächlich Inferenz, und Blackwell hebt all das auf ein neues Niveau, sagte Huang am Mittwoch und bezog sich dabei auf die neueste Chipgeneration des Unternehmens.
Obwohl Nvidia immer noch den größten Anteil an allen KI-Computing-Märkten hält, sehen Analysten die Konkurrenz auf dem Markt drängen. „Der Wettbewerb beginnt seinen Tribut an Nvidias Position zu fordern, auch wenn er zu diesem Zeitpunkt nicht sehr bedeutend ist, sagte Lucas Keh, Analyst bei Third Bridge, im Anschluss an Nvidias Konferenz am Mittwoch.
Die Herausforderer von Nvidia zielen seit Jahren auf die Inferenztechnik ab, da man davon ausgeht, dass dies langfristig ein größerer Markt sein wird. Tatsächlich ist in den vergangenen Monaten die Zahl der neuen Inferenzchip-Unternehmen und deren Unterstützung gestiegen. Das Chip-Startup Tenstorrent kündigte fast 700 Millionen US-Dollar (etwa 668 Millionen Euro) an, und Etched meldete letztes Jahr 120 Millionen US-Dollar (etwa 114 Millionen Euro) an frischer Finanzierung.
Weiterhin sind die Investoren zunehmend besorgt, dass die kundenspezifischen KI-Chips, die Cloud-Unternehmen wie Google und Amazon bestellt haben, Nvidias Vorsprung einschränken könnten – vorwiegend im Bereich Inferenz. „Wir haben gehört, dass der Marktanteil von Nvidia im Bereich Inferenz auf 50 Prozent sinken könnte, wenn sich die Landschaft weiterentwickelt, so Keh gegenüber BI per E-Mail. Nvidia lehnte eine Stellungnahme ab.