Chinas Deepseek hat einige große KI -Behauptungen; Nicht alle Experten sind überzeugt

Das chinesische Unternehmen für künstliche Intelligenz, Deepseek, hat diese Woche die Märkte gestrichen und behauptet, dass das neue KI -Modell OpenAI übertrifft und einen Bruchteil des Preises für den Bau gekostet hat.

Die Behauptungen – insbesondere, dass Deepseeks großes Sprachmodell nur 5,6 Millionen US -Dollar für den Training gekostet hat – haben Bedenken hinsichtlich der Augenbrum -Beträge ausgelöst, dass Tech -Giganten derzeit für die Computerinfrastruktur ausgeben, die für die Ausbildung und Ausführung fortschrittlicher KI -Workloads erforderlich ist.

Aber nicht jeder ist von Deepseeks Behauptungen überzeugt.

CNBC fragte Branchenexperten nach ihren Ansichten zu Deepseek und wie sie tatsächlich mit OpenAI, Schöpfer von Viral Chatbot Chatgpt, vergleichbar war und die KI -Revolution auslöste.

Was ist Deepseek?

Letzte Woche hat Deepseek R1 veröffentlicht, das neue Argumentationsmodell, das O1 von Openai von Openai richtet. Ein Argumentationsmodell ist ein großes Sprachmodell, das die Aufforderung in kleinere Stücke unterteilt und mehrere Ansätze berücksichtigt, bevor sie eine Antwort generieren. Es wurde entwickelt, um komplexe Probleme in ähnlicher Weise wie Menschen zu verarbeiten.

Deepseek wurde 2023 von Liang Wenfeng, Mitbegründer des AI-fokussierten quantitativen Hedgefonds-High-Flyer, gegründet, um sich auf große Sprachmodelle zu konzentrieren und künstliche allgemeine Intelligenz oder AGI zu erreichen.

Agi als Konzept bezieht sich lose auf die Idee einer KI, die den menschlichen Intellekt auf einer Vielzahl von Aufgaben entspricht oder übertrifft.

Ein Großteil der Technologie hinter R1 ist nicht neu. Bemerkenswert ist jedoch, dass Deepseek es als erster in einem leistungsstarken KI-Modell mit-laut Unternehmen zufolge-betriebsbereitsbedingte Strombedürfnisse einsetzt.

“Das Mitnehmen besteht darin, dass es viele Möglichkeiten gibt, diese Branche zu entwickeln. Der High-End-Chip-/Kapital-intensive Weg ist ein technologischer Ansatz”, sagte Xiaomeng Lu, Direktorin der Geo-Technologie-Praxis der Geo-Technologie der Eurasien-Gruppe.

“Aber Deepseek beweist, dass wir uns immer noch im entstehenden Stadium der KI -Entwicklung befinden und der von OpenAI festgelegte Weg ist möglicherweise nicht der einzige Weg zur hoch fähigen KI.”

Wie unterscheidet es sich von OpenAI?

Deepseek verfügt über zwei Hauptsysteme, die von der KI -Community gefragt wurden: V3, das große Sprachmodell, das seine Produkte entzündet, und R1, sein Argumentationsmodell.

Beide Modelle sind Open-Source, was bedeutet, dass der zugrunde liegende Code für andere Entwickler kostenlos und öffentlich zur Verfügung steht, um sich anzupassen und umzuverteilen.

Die Modelle von Deepseek sind viel kleiner als viele andere Großsprachenmodelle. V3 hat insgesamt 671 Milliarden Parameter oder Variablen, die das Modell während des Trainings lernt. Und während OpenAI keine Parameter offenbart, schätzen Experten sein jüngstes Modell auf mindestens eine Billion.

Laut Deepseek erzielt das R1-Modell in Bezug auf die Leistung die Leistung, die mit OpenAIs O1 zu Argumentationsaufgaben vergleichbar ist, unter Berufung auf Benchmarks wie Aime 2024, Codeforces, GPQA Diamond, Math-500, MMLU und Sween-Bench verifiziert.

Lesen Sie mehr Deepseek -Berichterstattung

In einem technischen Bericht gab das Unternehmen an, dass sein V3 -Modell die Schulungskosten von nur 5,6 Millionen US -Dollar habe – einen Bruchteil der Milliarden Dollar, die bemerkenswerte westliche KI -Labors wie OpenAI und Anthropic aufgewendet haben, um ihre grundlegenden KI -Modelle zu trainieren und zu betreiben. Es ist jedoch noch nicht klar, wie viel Deepseek kostet.

Wenn die Schulungskosten jedoch korrekt sind, bedeutet dies, dass das Modell zu einem Bruchteil der Kosten von Konkurrenzmodellen von OpenAI, Anthropic, entwickelt wurde, Google und andere.

Daniel Newman, CEO der Tech Insight -Firma The Futurum Group, sagte, diese Entwicklungen deuten auf einen “massiven Durchbruch” hin, obwohl er einige Zweifel an den genauen Zahlen geworfen hat.

“Ich glaube, die Durchbrüche von Deepseek deuten auf eine sinnvolle Beugung für Skalierungsgesetze hin und sind eine wirkliche Notwendigkeit”, sagte er. “Trotzdem gibt es immer noch viele Fragen und Unsicherheiten in Bezug auf das vollständige Kosten der Kosten in Bezug auf die Entwicklung von Deepseek.”

In der Zwischenzeit stellte Paul Triolio, Senior VP für China und Technologiepolitik, bei der Beratungsunternehmen DGA Group fest, dass es schwierig war, einen direkten Vergleich zwischen Deepseeks Modellkosten und den wichtigsten US -Entwicklern zu erreichen.

“Die 5,6 -Millionen -Zahl für Deepseek V3 war nur für einen Trainingslauf, und das Unternehmen betonte, dass dies die Gesamtkosten der F & E nicht darstellt, um das Modell zu entwickeln”, sagte er. “Die Gesamtkosten waren dann wahrscheinlich deutlich höher, aber immer noch niedriger als die Menge der großen US -KI -Unternehmen.”

Deepseek war nicht sofort für einen Kommentar verfügbar, wenn er von CNBC kontaktiert wurde.

Vergleich von Deepseek, Openai über Preis

Deepseek und Openai geben beide die Preise für die Berechnungen ihrer Modelle auf ihren Websites offen.

Laut Deepseek kostet R1 55 Cent pro 1 Million Token von Inputs – “Token”, die sich auf jede einzelne Texteinheit beziehen, die vom Modell verarbeitet wurde – und 2,19 USD pro 1 -Million -Token.

Im Vergleich dazu zeigt die Preisseite von OpenAI für O1, dass das Unternehmen 15 US -Dollar pro 1 Million Input -Token und 60 US -Dollar pro 1 -Million -Output -Token berechnet. Für GPT-4O Mini, das kleinere, kostengünstige Sprachmodell von Openai, berechnet das Unternehmen 15 Cent pro 1 Million Input-Token.

Skepsis gegenüber Chips

Deepseeks Enthüllung von R1 hat bereits zu einer hitzigen öffentlichen Debatte über die Richtigkeit seiner Behauptung geführt – nicht zuletzt, weil seine Modelle trotz der Exportkontrollen aus den USA gebaut wurden, um die Verwendung fortschrittlicher AI -Chips nach China einzuschränken.

Deepseek behauptet, es habe seinen Durchbruch mit reifen NVIDIA-Clips, einschließlich H800- und A100-Chips, die weniger fortschrittlich sind als die hochmodernen H100-Jähren des Chipmachers, die nicht nach China exportiert werden können.

In den Kommentaren an CNBC in der vergangenen Woche sagte der skalierte KI -CEO Alexandr Wang jedoch, er glaubte, dass Deepseek die verbotenen Chips verwendete – eine Behauptung, die Deepseek bestreitet.

Der Mitbegründer von LinkedIn Reid Hoffman: Deepseek AI beweist, dass dies jetzt ein

Nvidia ist seitdem herausgekommen und sagte, dass der GPUs, den Deepseek verwendete, vollständig exportkonform war.

Das echte Deal oder nicht?

Branchenexperten scheinen sich im Großen und Ganzen einig zu sein, dass das, was Deepseek erreicht hat, beeindruckend ist, obwohl einige Skepsis über einige der Behauptungen des chinesischen Unternehmens gedrängt haben.

“Deepseek ist zu Recht beeindruckend, aber das Ausmaß der Hysterie ist eine Anklage gegen so viele”, schrieb der US -Unternehmer Palmer Luckey, der Oculus und Anduril auf X gegründet hat.

“Die Zahl von 5 Mio. USD ist falsch. Sie wird von einem chinesischen Hedgefonds dazu gebracht, in amerikanische KI -Startups zu verlangsamen, ihre eigenen Shorts gegen amerikanische Titanen wie Nvidia zu bedienen und Sanktion Evasion zu verbergen.”

Seena Rejal, Chief Commercial Officer von Netmind, einem Startup mit dem Hauptsitz in London, das über ein verteiltes GPU-Netzwerk Zugang zu Deepseeks KI-Modellen bietet, sagte, er habe keinen Grund gesehen, Deepseek nicht zu glauben.

“Auch wenn es um einen bestimmten Faktor ausfällt, kommt es dennoch so effizient”, sagte Rejal Anfang dieser Woche in einem Telefoninterview. “Die Logik dessen, was sie erklärt haben, ist sehr vernünftig.”

Einige haben jedoch behauptet, dass Deepseeks Technologie möglicherweise nicht von Grund auf neu gebaut wurde.

“Deepseek macht die gleichen Fehler O1, ein starker Hinweis, dass die Technologie abgerissen wurde”, sagte der Milliardärinvestor Vinod Khosla auf X, ohne mehr Details zu geben.

Es ist eine Behauptung, dass Openai selbst auf CNBC in einer Erklärung am Mittwoch mitgeteilt hat, dass es Berichte überprüft, dass Deepseek möglicherweise “unangemessen” aus den Ausgabedaten aus seinen Modellen verwendet hat, um ihr KI -Modell zu entwickeln, eine Methode, die als “Destillation” bezeichnet wird.

“Wir nehmen aggressive, proaktive Gegenmaßnahmen ein, um unsere Technologie zu schützen, und werden eng mit der US -Regierung zusammenarbeiten, um die fähigsten Modelle zu schützen, die hier gebaut werden”, sagte ein OpenAI -Sprecher gegenüber CNBC.

Commoditisierung von AI

Die Prüfung von Deepseek zittert jedoch AI -Wissenschaftler im Großen und Ganzen ein positiver Schritt für die Branche.

Yann Lecun, Chef -AI -Wissenschaftler bei Metasagte, dass Deepseeks Erfolg einen Sieg für Open-Source-KI-Modelle darstellte, und nicht unbedingt einen Sieg für China über das US-Meta hinter einem beliebten Open-Source-AI-Modell namens Lama.

“Für Menschen, die die Leistung von Deepseek sehen und denken: ‘China übertrifft die USA in AI.’ Sie lesen dies falsch.

“Deepseek hat von Open Research and Open Source profitiert (z. B. Pytorch und Lama von Meta). Sie haben neue Ideen entwickelt und sie aufgebaut, weil ihre Arbeiten veröffentlicht werden und Open Source, jeder davon profitieren kann. Das ist die Kraft der offenen Forschung und Open Source. “

In der Zwischenzeit teilte Matt Calkins, CEO des US -amerikanischen Softwarefirgs Appian, gegenüber CNBC, dass Deepseeks Erfolg lediglich zeigt, dass KI -Modelle in Zukunft eher zu einer Ware werden.

“Meiner Meinung nach werden wir eine Commoditisierung von KI sehen. Viele Unternehmen werden wettbewerbsfähige KI erreichen, und eine mangelnde Differenzierung wird für Hochausgaben-First-Mover schlecht sein”, sagte Calkins per E-Mail.

BETRACHTEN: Warum Deepseek Amerikas KI -Führung in Gefahr bringt

Warum Chinas Deepseek Amerikas KI -Führung in Gefahr bringt

– Katrina Bishop und Hayden Field haben zu diesem Bericht beigetragen

Leave a Reply

Your email address will not be published. Required fields are marked *