Top-Wissenschaftler warnen vor außer Kontrolle geratener KI

Yoshua Bengio (L) und Max Tegmark (R) diskutieren die Entwicklung künstlicher allgemeiner Intelligenz während einer Live -Podcast -Aufzeichnung von CNBCs “Beyond the Valley” in Davos, Schweiz, im Januar 2025.

CNBC

Künstliche allgemeine Intelligenz, die wie “Agenten” gebaut wurden, könnten sich als gefährlich erweisen, da seine Schöpfer die Kontrolle über das System verlieren könnten, zwei der bekanntesten KI -Wissenschaftler der Welt mitgeteilt CNBC.

In der neuesten Folge des “Beyond the Valley” -Podcasts von CNBC, der am Dienstag veröffentlicht wurde, wurde Max Tegmark, Professor am Massachusetts Institute of Technology und Präsident der Future of Life Institute, und Yoshua Bengio, als einer der “Paten von AI” bezeichnet, als einer der “Paten von AI” bezeichnet. und Professor an der Université de Montréal sprach über ihre Bedenken hinsichtlich der künstlichen allgemeinen Intelligenz oder der AGI. Der Begriff bezieht sich im Großen und Ganzen auf KI -Systeme, die schlauer sind als Menschen.

Ihre Befürchtungen beruhen aus den größten Firmen der Welt, die jetzt über “AI -Agenten” oder “Agenten KI” sprechen – was Unternehmen behaupten, KI -Chatbots zu ermöglichen, sich wie Assistenten oder Agenten zu verhalten und bei der Arbeit und dem Alltag zu helfen. Die Schätzungen der Branche unterscheiden sich, wann AGI entsteht.

Mit diesem Konzept kommt die Idee, dass KI -Systeme laut Bengio eine “Agentur” und eigene Gedanken haben könnten.

“Forscher in der KI wurden von menschlicher Intelligenz inspiriert, maschinelle Intelligenz aufzubauen, und beim Menschen gibt es eine Mischung aus der Fähigkeit, die Welt wie reine Intelligenz und das agentische Verhalten zu verstehen, was bedeutet, Ihr Wissen zu nutzen, um Ziele zu erreichen “Bengio sagte zu CNBCs” Beyond the Valley “.

“Im Moment bauen wir AGI auf: Wir versuchen, ihnen Agenten zu machen, die viel über die Welt verstehen, und können dann entsprechend handeln. Aber dies ist eigentlich ein sehr gefährlicher Vorschlag.”

Bengio fügte hinzu, dass die Verfolgung dieses Ansatzes wie “eine neue Art oder eine neue intelligente Einheit auf diesem Planeten schaffen” und “nicht zu wissen, ob sie sich auf eine Weise verhalten, die unseren Bedürfnissen übereinstimmt”.

“Also können wir stattdessen überlegen, welche Szenarien, in denen die Dinge schlecht laufen und sie alle auf Agentur verlassen? Mit anderen Worten, weil die KI ihre eigenen Ziele hat, könnten wir in Schwierigkeiten geraten.”

Die Idee der Selbsterhaltung könnte ebenfalls eintreten, da KI noch schlauer wird, sagte Bengio.

“Wollen wir im Wettbewerb mit Unternehmen sein, die schlauer sind als wir? Es ist kein sehr beruhigendes Glücksspiel, oder? Wir müssen also verstehen, wie sich die Selbsterhaltung als Ziel in der KI herausstellen kann.”

KI -Werkzeuge der Schlüssel der Schlüssel

Für MITs Tegmark liegt der Schlüssel in der sogenannten “Tool AI”-Systeme, die für einen bestimmten, eng definierten Zweck erstellt werden, aber keine Agenten sein müssen.

Tegmark sagte, ein Tool-KI könnte ein System sein, das Ihnen sagt werde es kontrollieren können. “

“Ich denke, hier können wir in einem optimistischen Hinweis fast alles haben, worüber wir uns mit KI freuen … wenn wir einfach darauf bestehen, einige grundlegende Sicherheitsstandards zu haben, bevor Menschen leistungsstarke KI -Systeme verkaufen können”, sagte Tegmark.

“Sie müssen nachweisen, dass wir sie unter Kontrolle halten können. Dann wird die Branche schnell innovieren, um herauszufinden, wie sie das besser machen können.”

Tegmarks Future of Life Institute im Jahr 2023 forderte eine Pause zur Entwicklung von KI-Systemen, die mit der Intelligenz auf Menschenebene konkurrieren können. Obwohl dies nicht passiert ist, sagte Tegmark, dass die Leute über das Thema sprechen, und jetzt ist es an der Zeit, Maßnahmen zu ergreifen, um herauszufinden, wie man Leitplanken für die Kontrolle der AGI eröffnet.

“Zumindest jetzt reden viele Leute über das Gespräch. Wir müssen sehen, ob wir sie dazu bringen können, den Weg zu gehen”, sagte Tegmark gegenüber CNBCs “Beyond the Valley”.

“Es ist eindeutig verrückt für uns Menschen, etwas schlauer aufzubauen als wir, bevor wir herausgefunden haben, wie wir es kontrollieren können.”

Es gibt mehrere Ansichten darüber, wann AGI eintreffen wird, teilweise durch unterschiedliche Definitionen angetrieben.

Sam Altman, CEO von OpenAI, sagte, sein Unternehmen weiß, wie man Agi baut, und sagte, es werde früher ankommen als die Leute denken, obwohl er die Auswirkungen der Technologie heruntergespielt habe.

“Ich vermute, wir werden Agi früher treffen als die meisten Menschen auf der Welt, und es wird viel weniger wichtig”, sagte Altman im Dezember.

Leave a Reply

Your email address will not be published. Required fields are marked *