Bitget App
Trade smarter
Krypto kaufenMärkteTradenFuturesEarnWeb3PlazaMehr
Traden
Spot
Krypto kaufen und verkaufen
Margin
Kapital verstärken und Fondseffizienz maximieren
Onchain
Onchain gehen, ohne auf Blockchain zuzugreifen
Convert & Block-Trade
Mit einem Klick und ganz ohne Gebühren Krypto tauschen.
Erkunden
Launchhub
Verschaffen Sie sich frühzeitig einen Vorteil und beginnen Sie zu gewinnen
Kopieren
Elite-Trader mit einem Klick kopieren
Bots
Einfacher, schneller und zuverlässiger KI-Trading-Bot
Traden
USDT-M Futures
Futures abgewickelt in USDT
USDC-M-Futures
Futures abgewickelt in USDC
Coin-M Futures
Futures abgewickelt in Kryptos
Erkunden
Futures-Leitfaden
Eine Reise ins Futures-Trading vom Anfänger bis Fortgeschrittenen
Futures-Aktionen
Großzügige Prämien erwarten Sie
Übersicht
Eine Vielzahl von Produkten zur Vermehrung Ihrer Assets
Simple Earn
Jederzeit ein- und auszahlen, um flexible Renditen ohne Risiko zu erzielen.
On-Chain Earn
Erzielen Sie täglich Gewinne, ohne Ihr Kapital zu riskieren
Strukturiert verdienen
Robuste Finanzinnovationen zur Bewältigung von Marktschwankungen
VIP & Wealth Management
Premium-Services für intelligente Vermögensverwaltung
Kredite
Flexible Kreditaufnahme mit hoher Vermögenssicherheit
Vitalik Buterin hebt die Grenzen übermäßiger KI-Autonomie hervor und plädiert für mehr menschliche Interaktion

Vitalik Buterin hebt die Grenzen übermäßiger KI-Autonomie hervor und plädiert für mehr menschliche Interaktion

MPOSTMPOST2025/08/11 15:55
Von:MPOST

In Kürze Ethereum-Mitbegründer Vitalik Buterin betonte, dass KI-Systeme zur Verbesserung von Effizienz und Sicherheit einer verstärkten menschlichen Interaktion und adaptiven Bearbeitungsfunktionen Vorrang vor übermäßiger Autonomie einräumen sollten.

Ethereum-Mitbegründer Vitalik Buterin äußerte kürzlich auf der Social-Media-Plattform X seine Frustration über den Ansatz vieler KI-Entwickler, den „agentischen“ Charakter von KI-Systemen zu maximieren. Er argumentierte, dass die Konzentration auf die Erhöhung der Autonomie von KI nicht so effektiv sei wie die Schaffung von mehr Möglichkeiten für menschliches Engagement, was nicht nur langfristig zu besseren Ergebnissen führe, sondern auch die Sicherheit erhöhe.

„Heutzutage bin ich viel mehr von KI-Modellen mit freier Gewichtung und guten Bearbeitungsfunktionen begeistert als von solchen, die nur dazu dienen, von Grund auf neu erstellt zu werden“, sagte er in einer Veröffentlichung.

„Mittelfristig möchte ich ein schickes BCI-Ding, das mir die Sache während ihrer Entstehung anzeigt und in Echtzeit erkennt, wie ich zu jedem Teil davon stehe, und sich entsprechend anpasst“, fügte er hinzu.

Etwas wiedergeben @Karpathy Wie ich kürzlich sagte, frustriert es mich, dass bei vielen KI-Entwicklungen versucht wird, so „agentenbezogen“ wie möglich zu sein, während die Schaffung *mehrer* Pfade für menschliche Eingaben sowohl zu einem besseren Ergebnis führt (jetzt schon für eine ganze Weile) als auch der Sicherheit zugutekommt.

- vitalik.eth (@VitalikButerin) August 11, 2025

Herausforderungen übermäßiger Autonomie in der KI und das Versprechen interaktiver, benutzeradaptiver Modelle

Vitalik Buterin reagierte auf einen Beitrag des ehemaligen Tesla-KI-Direktors Andrej Karpathy, der darauf hinwies, dass große Sprachmodelle (LLMs) zu autonom werden, da sie für langfristige Aufgaben optimiert sind. 

Andrej Karpathy erklärte, dass diese Modelle beispielsweise beim Codieren dazu neigen, über längere Zeiträume zu argumentieren. Sie zeigen die Tendenz, ganze Repositories zu durchsuchen, wiederholt Websuchen durchzuführen, seltene Randfälle zu überanalysieren, selbst in Code, von dem bekannt ist, dass er unvollständig ist oder sich aktiv in der Entwicklung befindet, und oft Minuten später zurückzukehren, um selbst einfache Abfragen zu beantworten.

„Das mag für langwierige Aufgaben sinnvoll sein, ist aber weniger geeignet für die iterative Entwicklung, die ich immer noch häufig durchführe, oder wenn ich vor dem Ausführen eines Skripts einfach eine schnelle Stichprobe machen möchte, nur für den Fall, dass mir ein Indexierungsfehler oder ein anderer einfacher Fehler unterlaufen ist. Ich ertappe mich oft dabei, die LLMs mit Variationen von ‚Stopp, du denkst zu viel darüber nach. Konzentriere dich nur auf diese eine Datei. Benutze keine Tools. Übertreib es nicht mit der Entwicklung‘ zu unterbrechen“, sagte Andrej Karpathy in einer Veröffentlichung.

Mir fällt auf, dass LLMs aufgrund (glaube ich?) vieler Benchmarkmaxxing-Aufgaben mit langfristigem Horizont standardmäßig etwas zu agentenorientiert werden, etwas über meinen durchschnittlichen Anwendungsfall hinaus.

Beim Codieren beispielsweise neigen die Modelle dazu, ziemlich lange zu argumentieren, sie neigen dazu, …

- Andrej Karpathy (@karpathy) August 9, 2025

Vitalik Buterin stimmte der Ansicht zu, dass übermäßige Autonomie in der künstlichen Intelligenz zu einer verringerten Effizienz führen kann. Er argumentierte, dass Open-Source-Modelle mit Bearbeitungsfunktionen deutlich effektiver seien als solche, die ausschließlich darauf ausgelegt seien, Inhalte von Grund auf neu zu erstellen. 

Der Mitbegründer von Ethereum betonte zudem das Potenzial von Gehirn-Computer-Schnittstellen, die die Reaktionen der Nutzer auf generierte Inhalte in Echtzeit überwachen und entsprechend anpassen. Eine solche Technologie würde es KI-Systemen ermöglichen, die Absichten und Erwartungen der Nutzer besser zu verstehen und darauf zu reagieren. Er wies darauf hin, dass viele aktuelle KI-Modelle diese subtilen Nuancen häufig nicht berücksichtigen, was ihren Nutzen insgesamt einschränkt.

0

Haftungsausschluss: Der Inhalt dieses Artikels gibt ausschließlich die Meinung des Autors wieder und repräsentiert nicht die Plattform in irgendeiner Form. Dieser Artikel ist nicht dazu gedacht, als Referenz für Investitionsentscheidungen zu dienen.

PoolX: Locked to Earn
APR von bis zu 10%. Mehr verdienen, indem Sie mehr Lockedn.
Jetzt Lockedn!

Das könnte Ihnen auch gefallen