Worldcoin belohnt Menschen mit Token dafür, ihre Iris scannen zu lassen. Das dystopisch wirkende Projekt erregt das Misstrauen von Datenschützern in vielen Länder. In Kenia fiel eine Entscheidung, in Korea und Bayern wird noch geprüft.
Ja, es sieht ziemlich gruselig aus. Ein „Orb“ steht in den Stadtzentren, Leute stehen Schlange, halten, wenn sie dran sind, ihre Augen vor eine Kamera, und dann, wenn der Orb den Irisscan abgeschlossen hat, bekommen sie einige Worldcoin-Token (WLC). Krypto geht auch in dystopisch.
Bei vielen Menschen, insbesondere in Entwicklungsländern, kommt dieses Angebot gut an. Schon heute hat Worldcoin die Iris von mehr als 5,8 Millionen Menschen gescant. Doch von Anfang an waren Datenschützer misstrauisch, und an vielen Orten wurde Worldcoin deswegen auch gestoppt.
In Südkorea hat die „Kommission für den Schutz persönlicher Informationen“ am 29. Februar eine Untersuchung eingeleitet. Sie reagierte damit auf Beschwerden über die Sammlung personenbezogener Daten in Südkorea. Noah Kim, der einzige koreanische Mitarbeiter von Worldcoin, antwortete kürzlich auf die Vorwürfe: Der Orb verifiziere ausschließlich die Individualität und Menschlichkeit, sämtliche Daten werden sofort gelöscht. Iris-Scans seien, verglichen mit Gesichtserkennung und Fingerabdrücken, die günstigste und zuverlässige Methode, um einen „Proof of Humanity“ zu generieren.
In Kenia ist man schon einen Schritt weiter. Dort wurde Worldcoin im August 2023 verboten, bis Bedenken hinsichtlich des Datenschutzes ausgeräumt sind. Mittlerweile ist die Untersuchung abgeschlossen; Verstöße gegen Gesetze und Datenschutzvorgaben wurden nicht festgestellt. Damit ist Worldcoin in Kenia wieder erlaubt.
Wenn Worldcoin so arbeitet, wie das Konzept besagt, wären tatsächlich so gut wie keine datenschutzrechtlichen Bedenken angemessen. Wenn der User seine Iris scannt, generiert der Orb einen speziellen Hash daraus, der auf eine Blockchain hochgeladen wird. Man kann aus diesem Hash nicht auf die Iris selbst schließen, man kann ihn einzig nutzen, um zu erkennen, ob dieser User schon einmal an einem Orb war, also verhindern, dass sich jemand doppelt registriert. Auch im Betrieb werden niemals Daten zur Iris enthüllt, da Zero-Knowledge-Proofs verwendet werden. Worldcoin nutzt modernste Kryptographie, um die anfallenden Daten auf ein absolutes Minimum zu reduzieren.
Wenn — wenn es so läuft, wie Worldcoin geplant hat. Denn die einzelnen Orb-Betreiber könnten durchaus Möglichkeit haben, den Prozess zu manipulieren, etwa indem sie die Rohdaten schlicht nicht löschen. Daher hängt viel davon ab, dass Worldcoin – oder entsprechende Aufsichtsbehörden – die Iris-Scans überwachen. Die Bayerische Landesbehörde für Datenschutzaufsicht (BayLDA) ist davon noch nicht überzeugt. Da die Firma hinter der Technologie, Tools for Humanity, im mittelfränkischen Erlangen sitzt, ist sie zuständig. Sie hat im vergangenen Jahr eine Prüfung eingeleitet, diese aber noch nicht abgeschlossen.
Die BayLDA hat vor kurzem ihren Jahresbericht für 2023 veröffentlicht. Darin schreibt sie, man prüfe „aufgrund der hohen Sensibilität der verarbeiteten biometrischen Daten das Vorgehen des Unternehmens.“ Dazu führe man auch „Vor-Ort-Kontrollen, die zum Standardvorgehen bei derartigen innovativen Technologien mit sehr großer Zielgruppe gehören, durch: Zum einen wurde ein Standort in Berlin besucht, an dem Nutzende sich registrieren konnten, zum anderen kontrollierte ein Team des BayLDA den Firmensitz der primär für die Entwicklung
und Testung der Technologie zuständig ist.“ Die Prüfung ist noch nicht abgeschlossen, aber es werden für 2024 Ergebnisse erwartet.
In Spanien haben sich die Behörden und Gerichte bereits ein Urteil gebildet – und Worldcoin verboten.
So gut wie überall, wo Worldcoin auftritt, droht ein Verbot. Jede Datenschutzbehörde wittert instinktiv einen Missbrauch und startet eine Untersuchung, die im besten Fall anstrengend ist um im schlechtesten Fall in einem Verbot endet. Aber bei all dem – warum überhaupt? Warum macht Worldcoin, ein Projekt von OpenAI-Gründer Sam Altman, das alles?
Worldcoin scannt die Iris der Menschen, um einen „Proof of Humanity“ zu generieren, einen „Beweis, ein Mensch zu sein“. Mit diesem soll man sich dann im Internet ausweisen können – und zwar als nicht mehr, als als einzigartiger Mensch, kein Bot, keine Sockenpuppe, sondern ein Mensch. Das ist, so die Vision, notwendig, um im Zeitalter der generativen KIs nicht vollkommen die Orientierung und den Verstand zu verlieren.
Mit der „World ID“ kann man sich bereits heute bei verschiedenen Systemen verifizieren, etwa Discord, Reddit, Shopify, Telegram und anderen. Es sind noch nicht viele, aber es ist ein Start.