Anthropic testet das bislang leistungsstärkste KI-Modell, das je entwickelt wurde, und die Welt sollte es eigentlich noch nicht erfahren.
Ein Datenleck berichtet von Fortune gab am Donnerstag bekannt, dass das KI-Labor hinter Claude ein neues Modell namens "Mythos" trainiert hat, das intern als „bei weitem das leistungsstärkste KI-Modell, das wir je entwickelt haben“ beschrieben wird.
Das Modell wurde in einem Entwurf eines Blogbeitrags entdeckt, der in einem ungesicherten, öffentlich durchsuchbaren Datenspeicher hinterlegt war, zusammen mit fast 3.000 anderen unveröffentlichten Assets, so die Cybersecurity-Forscher, die das Material überprüften.
Anthropic bestätigte die Existenz des Modells nach einer Anfrage von Fortune und bezeichnete es als „einen Quantensprung“ in der KI-Leistung und „das leistungsfähigste, das wir bisher entwickelt haben.“ Das Unternehmen gab an, dass es derzeit von „Early-Access-Kunden“ erprobt wird, und räumte ein, dass ein „menschlicher Fehler“ in seinem Content-Management-System das Leck verursacht habe.
Der Entwurf des Blogbeitrags stellte eine neue Modellstufe namens „Capybara“ vor, die als größer und leistungsfähiger beschrieben wird als die bisher leistungsstärksten Opus-Modelle von Anthropic.
"Im Vergleich zu unserem bisherigen Spitzenmodell, Claude Opus 4.6, erzielt Capybara deutlich höhere Noten bei Tests in den Bereichen Software-Codierung, akademisches Denken und Cybersicherheit, unter anderem," hieß es im Entwurf.
Für die Kryptoindustrie ist die Cybersecurity-Dimension am wichtigsten. Der Entwurf des Blogbeitrags stellte fest, dass das Modell „beispiellose Cybersecurity-Risiken“ mit sich bringt, eine Darstellung, die direkte Auswirkungen auf die Blockchain-Sicherheit, die Prüfung von Smart Contracts und das eskalierende Wettrüsten zwischen Angreifern und Verteidigern im DeFi-Bereich hat.
Allein in dieser Woche kündigte Ripple eine durch KI gesteuerte Sicherheitsüberholung des XRP Ledgers an, nachdem ein KI-unterstütztes Red-Team mehr als 10 Schwachstellen in dem 13 Jahre alten Codebestand entdeckte. Ethereum startete ein spezielles Post-Quantum-Sicherheitszentrum, das auf acht Jahren Forschung basiert.
Und der Resolv-Stablecoin verlor seine Bindung, nachdem ein Angreifer einen Minting-Vertrag ohne Oracle-Prüfungen und mit Einzel-Schlüssel-Zugangskontrolle ausnutzte, eine Art von Infrastrukturausfall, den leistungsfähigere KI-Tools möglicherweise erkennen könnten, bevor ein Angreifer dies tut, oder der schneller ausgenutzt werden kann, als Verteidiger reagieren können.
Für den AI-Token-Markt wirft das Leak eine andere Frage auf. Bittensors dezentrales Netzwerk hat kürzlich Covenant-72B veröffentlicht, ein Modell, das mit Metas Llama 2 70B konkurriert und eine Rallye von 90 % bei TAO auslöste sowie die Subnet-Token auf eine kombinierte Marktkapitalisierung von 1,47 Milliarden US-Dollar trieb.
Eine „Sprungveränderung“ von einem zentralisierten Labor wie Anthropic setzt einen neuen Maßstab, den dezentrale KI-Projekte erreichen müssen. Der Wettbewerbsabstand zwischen dem, was ein gut finanziertes Unternehmenslabor entwickeln kann, und dem, was ein erlaubnisfreies Netzwerk produzieren kann, ist gerade größer geworden.
Anthropic gab an, dass man bei der Veröffentlichung des Modells aufgrund seiner Fähigkeiten „vorsichtig vorgeht“. Der Entwurf des Blogs vermerkte, dass das Modell teuer im Betrieb ist und noch nicht für die allgemeine Verfügbarkeit bereitsteht. Das Unternehmen entfernte den öffentlichen Zugriff auf den Datencache, nachdem Fortune Kontakt aufgenommen hatte.
Das Leck an sich ist eine eigene Mahnung. Ein Unternehmen, das ein KI-Modell mit beispiellosen Cybersicherheitsfähigkeiten entwickelt, hinterließ die Ankündigung dieses Modells aufgrund eines menschlichen Fehlers in einem ungesicherten, öffentlich durchsuchbaren Datenspeicher. Die Ironie bedarf keiner weiteren Erläuterung.