Jaap Arriens | Nurphoto über Getty Images
Großspracher Modelle wie die von entwickelten von von Microsoft-Backed-Firma OpenAI werden in diesem Jahr unter rasanten Fortschritten zu künstlichen Intelligenzagenten der nächsten Generation und flinkeren, offenen Konkurrenten der nächsten Generation werden.
Letzte Woche veröffentlichte die chinesische KI-Firma Deepseek R1, ein Open-Source-Argumentationsmodell, das behauptet, das O1-Modell von OpenAI sowohl für Kosten als auch die Leistung zu konkurrieren. Open-Source bezieht sich auf Software, deren Quellcode im offenen Web frei verfügbar ist, um eine mögliche Änderung und Umverteilung zu erhalten.
Diese Woche führte das wachsende Bewusstsein für Deepseeks neues Modell zu einem starken Einbruch der Aktien von Nvidia und andere Tech -Riesen, als Anleger eine mögliche Kürzung für die Ausgaben für die leistungsstarken Grafikverarbeitungseinheiten für die Ausbildung und Durchführung fortgeschrittener KI -Workloads befürchteten.
Nvidia verlor am Montag einen Marktkapitalisierung von fast 600 Milliarden US-Dollar-der größte Einzeltagesrückgang für jedes Unternehmen in der US-Geschichte.
In der Zwischenzeit sprechen Führungskräfte und Wissenschaftler in führenden AI-Labors über eine Verschiebung von Großsprachenmodellen zu sogenannten “AI-Agenten”, die in Ihrem Namen Aktionen ausführen können.
LLMs sind die grundlegende Technologie hinter den generativen AI -Apps von heute. Experten glauben jedoch, dass ein Drang auf Agenten -KI -Systeme, die die LLM -Technologie enthalten, in diesem Jahr den Wert dieser Modelle untergraben wird.
Commoditisierung von LLMs
Es wird erwartet, dass LLMs in naher Zukunft eher zu einer Ware werden, da die Technologie zunehmend weiterentwickelt wird und die Kosten für die Ausbildung und das Laufen weiterhin sinken.
Thomas Wolf, Mitbegründer und Chief Science Officer von Sugging Face, schlug LLMs vor, in intelligente Systeme integriert zu werden, die mit den eigenen Datenbanken des Unternehmens verbunden sind.
“Ich denke, die Leute bewegen sich von dieser Verrücktheit um das Modell und verstehen, dass dank Open-Source … viele dieser Modelle kostenlos und frei verfügbar sein werden”, sagte Wolf gegenüber CNBC. Sugging Face ist ein beliebtes Code-Repository für Open-Source-KI-Projekte.

“In der Internet-Revolution wechseln wir vom Bau von Websites als Hauptgeschäft zum bauen im Internet nativen Unternehmen-also als Airbnb von AI, den Streifen der KI”, fügte er hinzu. “Es geht nicht um das Modell. Es geht um das System und wie Sie das Modell für Aufgaben nützlich machen.”
Die Ankunft von Deepseeks R1 -Modell in der vergangenen Woche wird von einigen technischen CEOs als angesehen A Weitere Indikator -LLMs werden zunehmend vermarktet.
R1 enthält einige wichtige Aspekte, die es von anderen Modellen auf dem Markt unterscheiden. Zum Beispiel enthält das Modell ein “gemischtes Präzision” -Frahmen, das eine Kombination aus 32-Bit-Zahlen (FP32) und 8-Bit-Gleitkomma-Nummern mit niedriger Präzision (FP8) verwendet.
Letzteres ist schneller zu verarbeiten, kann aber weniger genau sein. Anstatt sich jedoch auf den einen oder anderen zu verlassen, verwendet Deepseek FP8 für die meisten Berechnungen und wechselt zu FP32 für bestimmte Aufgaben, bei denen ein höherer Genauigkeitsgrad erforderlich ist.
“Wenn die KI effizienter und zugänglicher wird, werden wir sehen, dass ihre Verwendung in die Höhe schnellen und sie in eine Ware verwandelt, von der wir einfach nicht genug bekommen können”, von denen wir einfach nicht genug bekommen können. ” Microsoft CEO Satya Nadella schrieb in einem offensichtlichen Hinweis auf Deepseek auf der Social Media -Plattform X.
In der Zwischenzeit teilte Matt Calkins, CEO des US -amerikanischen Softwarefirgs Appian, gegenüber CNBC, dass Deepseeks Erfolg lediglich zeigt, dass KI -Modelle in Zukunft eher zu einer Ware werden.
“Meiner Meinung nach werden wir eine Commoditisierung von KI sehen. Viele Unternehmen werden wettbewerbsfähige KI erreichen, und eine mangelnde Differenzierung wird für Hochausgaben-First-Mover schlecht sein”, sagte Calkins per E-Mail.
Was sind AI -Agenten?
In den letzten zwei Jahren lag ein Großteil des Fokus auf LLM-Antriebsprodukten, von generativen KI-Chatbots wie dem ChatGPT von OpenAI bis hin zu Tools, die Bilder und Videoinhalte produzieren können.
LLM-basierte generative Apps wie ChatGPT verlassen sich auf eine bestimmte Menge an Handholungen von Benutzern, um sie kontinuierlich für Ausgaben fordern, während AI-Agenten im Gegensatz dazu konzipiert sind, dass sie handelnorientierter sind.
Wenn Sie beispielsweise einen Arzttermin buchen möchten, können Sie ChatGPT um Informationen zu den nächsten GP -Praktiken bitten – ähnlich wie Sie das Web mithilfe der Google -Suchmaschine abfragen würden.
In Zukunft prognostizieren Tech Execs, dass die KI der nächsten Generation Agenten einbeziehen wird, die herausfinden können, wo sich der nächste GP befindet, Ihrem Arzt Zeiten zur Verfügung stellen und Ihnen einen Termin buchen – alles direkt auf einer einzigen Plattform. Dies wird erwartet, dass wir die Art und Weise verändern, wie wir mit dem Web interagieren.
“In den Jahrzehnten, seit das Web erfunden wurde, hat sich die Standardschnittstelle von Webseiten und Menüs nicht wirklich verändert”, sagte Bobby Blumofe, Chief Technology Officer von Akamai, gegenüber CNBC.
“Wir leben in dieser Tyrannei, an einem Bildschirm gebunden zu sein und an Webseiten und Menüs zu binden, die Sie sich daran erinnern müssen, wie man navigiert.”
Die Verschiebung von Modellen zu Agenten
Letzte Woche sagte Arthur Mensch, CEO von Mistral, dass er der Meinung ist, dass der “Fokus auf Systeme”, die sowohl Sprachmodelle als auch kontextbezogene Geschäftsdaten integrieren sollten.
“Dort verändert sich das”, sagte Mensch gegenüber Arjun Kharpal von CNBC auf der jährlichen Versammlung des Weltwirtschaftsforums in Davos, Schweiz.

“Es bedeutet auch, dass die Branche, die sie übernimmt, ihre Fachkenntnisse in diese Systeme intillieren wird – und dort wird dort notwendig sein, um den Wert der KI tatsächlich in diese Branchen zu steigern.”
Mistral, das von unterstützt wird von Microsoftist schnell zu einer der aufregendsten KI -Firmen Europas geworden. Vor zwei Jahren wurde es zuletzt von Investoren im Juni 2024 von rund 6 Milliarden US -Dollar geschätzt.
Der Trend der Agenten hat bereits beträchtliche Traktion erlangt. Letzte Woche hat Openai seinen eigenen Agenten namens Operator gestartet. OpenAI beschreibt es als “einen Agenten, der ins Web gehen kann, um Aufgaben für Sie auszuführen” und fügt hinzu, dass es geschult ist, mit “den Schaltflächen, Menüs und Textfeldern, die Menschen täglich verwenden” im Internet zu interagieren.
Microsoft, das Milliarden von Dollar in Openai investiert hat, hat im November selbst AI -Agenten eingeführt.
Anthropic, ein von Amazon unterstütztes KI-Startup, das von Ex-OpenAI-Research-Führungskräften gegründet wurde, hat im vergangenen Jahr “Computergebrauch” eingeführt. Dies ist eine Fähigkeit, die es seinen KI-Agenten ermöglicht, Computer wie Menschen zu verwenden, um komplexe Aufgaben zu erledigen.
Dario Amodei, CEO von Anthropic, sagte gegenüber Andrew Ross Sorkin von CNBC in Davos letzte Woche, dass Computerverwendung als Vorläufer einer “breiteren Vision” betrachtet werden sollte, die diese Agenten mit häufig verwendeten Anwendungen integriert.
“Wir planen dieses Jahr im Jahr 2025, etwas zu erstellen, das wir als” virtuelle Mitarbeiter “bezeichnen”, sagte Amodei und beschrieb es als “einen Agenten, der auf Ihrem Computer arbeitet”.

“Sie können ihm Aufgaben geben. Sie können sagen, diese Funktion für diese App schreiben, und sie schreibt einen Code, er kompiliert den Code, er wird den Code überprüfen, er wird mit seinen Mitarbeitern auf Slack, ersprüht, erspürt oder auf Google Docs oder auf einer anderen Plattform “, erklärte Anthropics Chef.
Anthropische Pläne, im nächsten Jahr allmählich Teile dieser Sicht aufzubauen – und stellte dennoch sicher, dass sie “sicher und kontrollierbar” sei, fügte Amodei hinzu.
Paul O’Sullivan, Chief Technology Officer von Salesforce für Großbritannien und Irland, prognostiziert, dass die verbale Kommunikation in der neuen Welt der AI -Agenten wichtiger wird. Salesforce war wohl früh mit dem Agentic AI -Spiel, nachdem er im September vor Microsoft, OpenAI oder Anthrop ein eigenes Agentforce -System gestartet hatte.
“Wir werden uns mehr unterhalten”, sagte er kürzlich in einem Interview gegenüber CNBC. “Die Bildschirme werden kleiner, unsere Augen werden schlechter. Aber sie werden wahrscheinlich durch mobile Geräte ersetzt, die ohnehin leistungsfähiger als Laptops sind.”