Google eröffnet Gemini 2.0, das leistungsstärkste KI -Modell, für alle

Visual China Group | Getty -Bilder

Google Am Mittwoch veröffentlichte Gemini 2.0 – seine “am meisten fähigste” Model Suite für künstliche Intelligenz – für alle.

Im Dezember gewährte das Unternehmen Entwicklern und vertrauenswürdige Tester Zugang und wickelte einige Funktionen in Google -Produkte ein. Laut Google ist dies jedoch eine “allgemeine Veröffentlichung”.

Die Modelle Suite umfasst 2,0 Flash, die als “Arbeitspferdmodell, optimal für hochvolumige, hochfrequente Aufgaben im Maßstab” sowie 2,0 Pro experimentell für die Codierungsleistung und 2,0 Flash-Lite, die das Unternehmen experimentiert, in Rechnung gestellt wird. nennt sein “kostwirkigstes Modell”.

Gemini Flash kostet Entwickler 10 Cent pro Million Token für Text-, Bild- und Videoeingänge, während Flash-Lite, die kostengünstigere Version, 0,75 Cent für dasselbe kostet.

Die fortgesetzten Veröffentlichungen sind Teil einer breiteren Strategie für Google, stark in “KI -Agenten” zu investieren, da sich das KI -Wettrüsten unter Tech -Giganten und Startups gleichermaßen erhöht.

MetaAmazon, MicrosoftOpenAI und Anthrope bewegen sich auch in Richtung Agenten -KI oder Modelle, mit denen komplexe mehrstufige Aufgaben im Namen eines Benutzers erledigt werden können, anstatt dass ein Benutzer sie durch jeden einzelnen Schritt führen muss.

Lesen Sie mehr CNBC -Berichterstattung über KI

“Im letzten Jahr haben wir in die Entwicklung von mehr Agentenmodellen investiert, was bedeutet, dass sie mehr über die Welt um Sie herum verstehen, mehrere Schritte vor uns denken und in Ihrem Namen mit Ihrer Aufsicht Maßnahmen ergreifen können”, schrieb Google in einem Blog im Dezember im Dezember. Post, hinzuzufügen, dass Gemini 2.0 “neue Fortschritte in der Multimodalität – wie native Bild- und Audioausgabe – und natives Werkzeuggebrauch” hat und dass die Familie der Modelle “es uns ermöglichen wird, neue KI -Agenten zu bauen, die uns unserer Vision näher kommen, um uns näher zu bringen. Universeller Assistent. “

Anthropic, das von Amazon unterstützte KI-Startup, das von Ex-OpenAI-Research-Führungskräften gegründet wurde, ist ein wichtiger Konkurrent im Rennen um die Entwicklung von KI-Agenten. Im Oktober sagte Anthropic, seine KI -Agenten könnten Computer wie Menschen verwenden, um komplexe Aufgaben zu erledigen. Die Verwendung von Anthropics COMPUTER-Nutzungsfunktion ermöglicht es seiner Technologie, das zu interpretieren, was sich auf einem Computerbildschirm befindet, Schaltflächen auswählen, Text eingeben, Websites durchführen und Aufgaben über eine beliebige Software- und Echtzeit-Internet-Browser ausführen, heißt es in dem Startup.

Das Tool kann “Computer im Grunde genauso verwenden wie wir”, sagte Jared Kaplan, Chief Science Officer von Anthropic, CNBC in einem Interview zu dieser Zeit gegenüber. Er sagte, es könne Aufgaben mit “Zehn oder sogar Hunderten von Schritten” erledigen.

OpenAI hat kürzlich eine ähnliche Funktion veröffentlicht, die als Operator bezeichnet wird, die Aufgaben wie Planungsferien, Ausfüllen von Formularen, das Erstellen von Restaurantreservierungen und das Bestellen von Lebensmitteln automatisiert. Das von Microsoft unterstützte Startup beschrieb Operator als “einen Agenten, der ins Web gehen kann, um Aufgaben für Sie auszuführen.”

Anfang dieser Woche führte OpenAI Deep Research ein, mit dem ein AI -Agent komplexe Forschungsberichte erstellt und Fragen und Themen der Wahl des Benutzers analysiert. Google im Dezember hat im Dezember ein gleichnamiges Tool gestartet – Deep Research -, das als “Forschungsassistent fungiert, komplexe Themen untersucht und Berichte in Ihrem Namen erstellt”.

CNBC berichtete erstmals im Dezember, dass Google Anfang 2025 mehrere KI -Funktionen einführen werde.

“In der Geschichte müssen Sie nicht immer an erster Stelle stehen, aber Sie müssen gut ausführen und als Produkt die besten der Klasse sein”, sagte CEO Sundar Pichai in einem Strategie -Treffen. “Ich denke, darum geht es 2025.”

Verpassen Sie nicht diese Erkenntnisse von CNBC Pro

Leave a Reply

Your email address will not be published. Required fields are marked *