Das Blockchain-Trilemma meldete sich erneut bei Konsens in Hongkong im Februar, bis zu einem gewissen Grad, stellt Charles Hoskinson, den Gründer von Cardano, in der Defensive – wobei die Teilnehmer beruhigt werden mussten, dass Hyperscaler wie Google Cloud und Microsoft Azure nicht ein Risiko für die Dezentralisierung.
Es wurde darauf hingewiesen, dass bedeutende Blockchain-Projekte benötigen Hyperscaler, und dass man sich wegen eines einzelnen Ausfallpunkts keine Sorgen machen sollte, weil:
- Fortschrittliche Kryptographie neutralisiert das Risiko
- Multi-Parteien-Berechnung verteilt Schlüsselmaterial
- Vertrauliches Computing schützt Daten in der Nutzung
Das Argument beruhte auf der Idee, dass „wenn die Cloud die Daten nicht sehen kann, die Cloud das System nicht kontrollieren kann“, und wurde aufgrund von Zeitmangel dabei belassen.
Es gibt jedoch eine Alternative zu Hoskinsons Argument zugunsten von Hyperscalern, die mehr Aufmerksamkeit verdient.
MPC und Confidential Computing reduzieren das Risiko
Dies war gewissermaßen eine strategische Bastion in Charles’ Argument – dass Technologien wie Mehrparteienberechnung (MPC) und vertrauliches Computing stellen sicher, dass Hardwareanbieter keinen Zugriff auf die zugrunde liegenden Daten haben.
Sie sind leistungsstarke Werkzeuge. Aber sie nicht das zugrunde liegende Risiko auflösen.
MPC verteilt Schlüsselmateriaal auf mehrere Parteien, sodass kein einzelner Teilnehmer ein Geheimnis rekonstruieren kann. Dies reduziert das Risiko eines einzelnen kompromittierten Knotens erheblich. Allerdings weitet sich die Angriffsfläche in anderen Bereichen aus. Die Koordinationsschicht, die Kommunikationskanäle und die Governance der teilnehmenden Knoten werden alle kritisch.
Anstatt einem einzelnen Schlüsselinhaber zu vertrauen, verlässt sich das System nun auf eine verteilte Gruppe von Akteuren, die sich korrekt verhalten, sowie auf die korrekte Implementierung des Protokolls. Der einzelne Ausfallpunkt verschwindet nicht. Tatsächlich wird er einfach zu einer verteilten Vertrauensoberfläche.
Vertrauliches Computing, insbesondere vertrauenswürdige Ausführungsumgebungen, bringt eine andere Abwägung mit sich. Daten werden während der Ausführung verschlüsselt, was die Exposition gegenüber dem Hosting-Anbieter begrenzt.
Aber Trusted Execution Environments (TEEs) basieren auf Hardware-Annahmen. Sie sind abhängig von mikroarchitektonischer Isolation, Firmware-Integrität und korrekter Implementierung. Die akademische Literatur, zum Beispiel, hier und hier, hat wiederholt gezeigt, dass Seitenkanal- und Architektur-Schwachstellen weiterhin bei Enklave-Technologien auftreten. Die Sicherheitsgrenze ist enger als bei herkömmlichen Cloud-Lösungen, jedoch nicht absolut.
Wichtiger ist, dass sowohl MPC als auch TEEs häufig auf der Infrastruktur von Hyperscalern betrieben werden. Die physische Hardware, die Virtualisierungsschicht und die Lieferkette bleiben konzentriert. Wenn ein Infrastrukturanbieter den Zugang zu Maschinen, Bandbreite oder geografischen Regionen kontrolliert, behält er operative Einflussmöglichkeiten. Kryptographie kann die Dateninspektion verhindern, jedoch nicht Durchsatzbeschränkungen, Abschaltungen oder politische Eingriffe.
Fortschrittliche kryptografische Werkzeuge erschweren gezielte Angriffe, beseitigen jedoch weiterhin nicht das Risiko von Infrastrukturausfällen. Sie ersetzen lediglich eine sichtbare Konzentration durch eine komplexere.
Das Argument ‚Keine L1 kann globale Rechenleistung bewältigen‘
Hoskinson stellte fest, dass Hyperscaler notwendig sind, da kein einzelnes Layer 1 die rechnerischen Anforderungen globaler Systeme bewältigen kann, und verwies dabei auf die Billionen von Dollar, die zum Aufbau solcher Rechenzentren beigetragen haben.
Natürlich, Layer-1-Netzwerke wurden nicht entwickelt, um KI-Trainingsschleifen, Hochfrequenz-Handelsalgorithmen oder unternehmensweite Analyse-Pipelines auszuführen. Sie dienen dazu, Konsens aufrechtzuerhalten, Zustandsübergänge zu verifizieren und eine dauerhafte Datenverfügbarkeit zu gewährleisten.
Er hat Recht in Bezug darauf, wofür Layer 1 gedacht ist. Doch globale Systeme benötigen vor allem Ergebnisse, die von jedermann verifiziert werden können, auch wenn die Berechnungen an anderer Stelle erfolgen.
In der modernen Krypto-Infrastruktur findet die intensive Datenverarbeitung zunehmend Off-Chain statt. Entscheidend ist, dass die Ergebnisse On-Chain nachgewiesen und verifiziert werden können. Dies bildet die Grundlage für Rollups, Zero-Knowledge-Systeme und verifizierbare Rechennetzwerke.
Die Konzentration darauf, ob ein L1 globalen Rechenbetrieb ausführen kann, verfehlt das Kernproblem, wer die Ausführungs- und Speicherinfrastruktur hinter der Verifizierung kontrolliert.
Wenn die Berechnung Offchain erfolgt, aber auf zentralisierte Infrastruktur angewiesen ist, übernimmt das System zentralisierte Ausfallmodi. Die Abwicklung bleibt theoretisch dezentralisiert, doch der Weg zur Erzeugung gültiger Zustandsübergänge ist praktisch konzentriert.
Das Problem sollte die Abhängigkeit auf der Infrastrukturebene betreffen, nicht die Rechenkapazität innerhalb von Layer 1.
Kryptographische Neutralität ist nicht dasselbe wie Teilnehmersneutralität
Kryptographische Neutralität ist ein starkes Konzept und wurde von Hoskinson in seinem Argument verwendet. Es bedeutet, dass Regeln nicht willkürlich geändert werden können, versteckte Hintertüren nicht eingeführt werden dürfen und das Protokoll fair bleibt.
Aber Kryptographie basiert auf Hardware.
Diese physische Schicht bestimmt, wer teilnehmen kann, wer es sich leisten kann und wer letztlich ausgeschlossen wird, da Durchsatz und Latenz letztendlich durch reale Maschinen und die Infrastruktur, auf der sie laufen, begrenzt sind. Wenn die Hardwareproduktion, -verteilung und -hosting zentralisiert bleiben, wird die Teilnahme auch dann wirtschaftlich eingeschränkt, wenn das Protokoll selbst mathematisch neutral ist.
In hochleistungsfähigen Systemen ist die Hardware der entscheidende Faktor. Sie bestimmt die Kostenstruktur, wer skalieren kann, und die Widerstandsfähigkeit unter Zensurdruck. Ein neutrales Protokoll, das auf konzentrierter Infrastruktur läuft, ist theoretisch neutral, aber in der Praxis eingeschränkt.
Die Priorität sollte sich hin zu Kryptographie in Kombination mit diversifiziert Hardware-Besitz.
Ohne infrastrukturelle Vielfalt wird Neutralität unter Belastung fragil. Wenn eine kleine Anzahl von Anbietern Arbeitslasten beschleunigen, Regionen einschränken oder Compliance-Hürden auferlegen kann, übernimmt das System deren Einfluss. Allein die Fairness der Regeln garantiert keine Fairness bei der Teilnahme.
Spezialisierung schlägt Generalisierung auf den Computermärkten
Die Konkurrenz zu AWS wird oft als eine Frage der Skalierbarkeit dargestellt, doch auch dies ist irreführend.
Hyperscaler optimieren auf Flexibilität. Ihre Infrastruktur ist darauf ausgelegt, Tausende von Workloads gleichzeitig zu bedienen. Virtualisierungsschichten, Orchestrierungssysteme, Tools für Unternehmens-Compliance und Elastizitätsgarantien – diese Funktionen sind Stärken für allgemeine Rechenlasten, aber sie stellen auch Kostenfaktoren dar.
Zero-Knowledge-Beweis und verifizierbare Berechnungen sind deterministisch, rechenintensiv, durch Speicherbandbreite beschränkt und pipeline-empfindlich. Mit anderen Worten, sie belohnen Spezialisierung.
Ein speziell entwickeltes Prüfnetzwerk konkurriert in Bezug auf Nachweis pro Dollar, Nachweis pro Watt und Nachweis pro Latenz. Wenn Hardware, Prüfsoftware, Schaltungsdesign und Aggregationslogik vertikal integriert sind, potenziert sich die Effizienz. Die Beseitigung unnötiger Abstraktionsebenen reduziert den Overhead. Ein kontinuierlicher Durchsatz auf persistenten Clustern übertrifft elastische Skalierung bei engen, konstanten Arbeitslasten.
In Rechenmärkten übertrifft Spezialisierung konsequent Generalisierung bei konstanten, volumenstarken Aufgaben. AWS optimiert für Optionalität. Ein dediziertes Prüfungnetzwerk ist auf eine einzige Arbeitsklasse optimiert.
Die Wirtschaftsstruktur unterscheidet sich ebenfalls. Hyperscaler zahlen einen Preis für Unternehmensmargen und eine breite Nachfragevariabilität. Ein Netzwerk, das auf Protokollanreize ausgerichtet ist, kann Hardware anders abschreiben und die Leistung auf eine dauerhafte Nutzung anstatt auf kurzfristige Mietmodelle ausrichten.
Der Wettbewerb dreht sich um strukturelle Effizienz für eine definierte Arbeitslast.
Nutzen Sie Hyperscaler, aber seien Sie nicht von ihnen abhängig
Hyperscaler sind nicht der Feind. Sie sind effiziente, zuverlässige und global verteilte Infrastruktur-Anbieter. Das Problem ist die Abhängigkeit.
Eine widerstandsfähige Architektur nutzt große Anbieter für Spitzenkapazitäten, geografische Redundanz und Edge-Verteilung, verankert jedoch die Kernfunktionen nicht bei einem einzigen Anbieter oder einem kleinen Anbietercluster.
Abwicklung, endgültige Verifizierung und die Verfügbarkeit kritischer Artefakte sollten auch dann gewährleistet bleiben, wenn eine Cloud-Region ausfällt, ein Anbieter einen Markt verlässt oder politische Beschränkungen verschärft werden.
Hier wird dezentrale Speicher- und Recheninfrastruktur zu einer tragfähigen Alternative. Beweisobjekte, historische Aufzeichnungen und Verifizierungsdaten sollten nicht nach Ermessen eines Anbieters entzogen werden können. Stattdessen sollten sie auf einer Infrastruktur gespeichert sein, die wirtschaftlich mit dem Protokoll ausgerichtet ist und strukturell schwer abzuschalten ist.
Hypescalers sollten als ein verwendet werdenoptional Beschleuniger eher als etwas, das grundlegend für das Produkt ist. Die Cloud kann weiterhin für Reichweite und Spitzenlasten nützlich sein, aber die Fähigkeit des Systems, Beweise zu erstellen und das, worauf die Verifikation angewiesen ist, dauerhaft zu speichern, ist nicht an einen einzigen Anbieter gebunden.
In einem solchen System, wenn morgen ein Hyperscaler verschwindet, das Netzwerk würde sich nur verlangsamen, da die wichtigsten Komponenten von einem breiteren Netzwerk besessen und betrieben werden, anstatt von einem großen Markenengpass gemietet zu werden.
So stärken Sie das Ethos der Dezentralisierung in der Kryptowelt.