Deepseek kann ein Kraftmultiplikator für kleinere KI -Chipunternehmen sein

Deepseek hat das von den USA geführte AI-Ökosystem mit seinem jüngsten Modell geklappt und Hunderte von Milliarden in Chip Leader rasiert Nvidia Marktkapitalisierung. Während sich die Branchenführer mit dem Folgen auseinandersetzen, sehen kleinere KI -Unternehmen die Möglichkeit, mit dem chinesischen Startup zu skalieren.

Mehrere KI-bezogene Firmen sagten CNBC, dass Deepseeks Entstehung eher eine “massive” Gelegenheit für sie als eine Bedrohung sei.

“Entwickler sind sehr daran interessiert, die teuren und geschlossenen Modelle von OpenAI durch Open -Source -Modelle wie Deepseek R1 zu ersetzen …”, sagte Andrew Feldman, CEO von künstlichen Intelligenz -Chip -Startup -Cerebras -Systemen.

Das Unternehmen konkurriert mit den Grafikverarbeitungseinheiten von NVIDIA und bietet Cloud-basierte Dienste über seine eigenen Computercluster an. Feldman sagte, dass die Veröffentlichung des R1-Modells eine der größten Spikes von Cerebras erzeugt habe, die nach seinen Dienstleistungen gefragt wurden.

“R1 zeigt das [AI market] Das Wachstum wird von einem einzelnen Unternehmen nicht dominiert-Hardware- und Softwarengräben existieren nicht für Open-Source-Modelle “, fügte Feldman hinzu.

Open Source bezieht sich auf eine Software, bei der der Quellcode für mögliche Änderungen und Umverteilung frei verfügbar ist. Deepseeks Modelle sind Open Source, im Gegensatz zu Konkurrenten wie OpenAI.

Deepseek behauptet außerdem, dass sein R1-Argumentationsmodell mit den besten amerikanischen Technologien konkurriert, obwohl er zu niedrigeren Kosten lief und ohne hochmoderne Grafikverarbeitungseinheiten ausgebildet wurde, obwohl Branchenbeobachter und Wettbewerber diese Behauptungen in Frage gestellt haben.

“Wie auf den PC- und Internetmärkten helfen fallende Preise dazu, die globale Akzeptanz zu fördern. Der KI -Markt hat einen ähnlichen weltlichen Wachstumspfad”, sagte Feldman.

Inferenzchips

Deepseek könnte die Einführung neuer Chip-Technologien erhöhen, indem der KI-Zyklus von der Schulung bis zur “Inferenz” -Phase beschleunigt wird, sagten ChIP-Start-ups und Branchenexperten.

Inferenz bezieht sich auf den Akt der Verwendung und Anwendung von KI, um Vorhersagen oder Entscheidungen auf der Grundlage neuer Informationen zu treffen, anstatt auf dem Gebäude oder der Schulung des Modells.

“Um es einfach auszudrücken, geht es bei KI -Training um das Erstellen eines Tools oder eines Algorithmus, während inferenz es darum geht, dieses Tool für die Verwendung in realen Anwendungen tatsächlich bereitzustellen”, sagte Phelix Lee, ein Aktienanalyst bei Morningstar, mit Schwerpunkt auf Halbleitern.

Während Nvidia eine dominante Position in GPUs für das KI -Training innehat, sehen viele Wettbewerber Raum für die Expansion im Segment “Inferenz”, wo sie eine höhere Effizienz für niedrigere Kosten versprechen.

Das KI-Training ist sehr rechenintensiv, aber Inferenz kann mit weniger leistungsstarken Chips funktionieren, die so programmiert sind, dass sie eine engere Auswahl an Aufgaben ausführen, fügte Lee hinzu.

Drei wichtige KI

Eine Reihe von KI -Chip -Startups teilte CNBC mit, dass sie mehr Nachfrage nach Inferenzchips und Computing verzeichneten, da Clients das Open -Source -Modell von Deepseek anwenden und aufbauen.

“[DeepSeek] hat gezeigt, dass kleinere offene Modelle so geschult werden können, dass sie so fähig oder fähiger sind als größere proprietäre Modelle, und dies kann zu einem Bruchteil der Kosten erfolgen “, sagte Sid Sheth, CEO von AI Chip Start-up D-Matrix.

“Mit der breiten Verfügbarkeit kleiner fähiger Modelle haben sie das Zeitalter der Inferenz katalysiert”, sagte er gegenüber CNBC und fügte hinzu, dass das Unternehmen kürzlich einen Anstieg des Interesses von globalen Kunden verzeichnet habe, die seine Inferenzpläne beschleunigen möchten.

Robert Wachen, Mitbegründer und COO von AI Chipmaker geätzt, sagte, Dutzende von Unternehmen hätten sich an das Startup gewandt, seit Deepseek seine Argumentationsmodelle veröffentlicht hat.

“Unternehmen sind 1738986034 Ihre Ausgaben von Trainingsclustern auf Schluss -Cluster verlagern “, sagte er.

“Deepseek-r1 hat bewiesen, dass der Inferenzzeitberechnung jetzt der ist [state-of-the-art] Ansatz für jeden großen Modellanbieter und Denken ist nicht billig – wir werden nur immer mehr Rechenkapazität benötigen, um diese Modelle für Millionen von Benutzern zu skalieren. “

Jevons Paradox

Analysten und Branchenexperten sind sich einig, dass Deepseeks Leistungen für die KI -Inferenz und die breitere KI -Chipindustrie steigern.

“Die Leistung von Deepseek scheint auf einer Reihe von technischen Innovationen zu basieren, die die Inferenzkosten erheblich senken und gleichzeitig die Schulungskosten verbessern”, heißt es in einem Bericht von Bain & Company.

“In einem bullischen Szenario würden anhaltende Effizienzverbesserungen zu billigerer Inferenz führen und eine größere KI -Einführung anregen”, fügte es hinzu.

Deepseek wird neue Innovationen in der KI ankurbeln, sagt COQ COO

Dieses Muster erklärt Jevons Paradox, eine Theorie, in der die Kostensenkungen einer neuen Technologie die Nachfrage steigern.

Financial Services und Investment Firma Wedbush sagte in einem Research -Hinweis letzte Woche, dass es weiterhin die Verwendung von KI in Unternehmens- und Einzelhandelsverbrauchern weltweit erwartet, um die Nachfrage voranzutreiben.

Sunny Madra, COO bei COQ, der letzte Woche mit CNBCs “Fast Money” gesprochen hat, das Chips für KI -Inferenz entwickelt, schlug vor, dass kleinere Spieler mit zunehmendem allgemeinen Nachfrage nach KI mehr Raum zum Wachstum haben werden.

“Da die Welt mehr Token brauchen wird [a unit of data that an AI model processes] Nvidia kann nicht genug Chips an alle liefern, daher bietet es uns die Möglichkeit, uns noch aggressiver auf den Markt zu verkaufen “, sagte Madra.

Leave a Reply

Your email address will not be published. Required fields are marked *