AI-Agenten haben ETHDenver 2026 bestimmt, von automatisierten Finanzen bis hin zu Robotern auf der Kette. Während immer mehr Begeisterung für „agentische ÖkonomAI-Agenten haben ETHDenver 2026 bestimmt, von automatisierten Finanzen bis hin zu Robotern auf der Kette. Während immer mehr Begeisterung für „agentische Ökonom

Perle Labs-Chef Ahmed Rashad: Darum braucht KI eine überprüfbare Daten-Infrastruktur

2026/02/22 18:00
11 Min. Lesezeit

AI-Agenten haben ETHDenver 2026 bestimmt, von automatisierten Finanzen bis hin zu Robotern auf der Blockchain. Während immer mehr Begeisterung für „agentische Ökonomien“ entsteht, taucht jedoch eine schwierigere Frage auf: Können Institutionen beweisen, womit ihre KI-Systeme trainiert wurden? Zu den Start-ups, die sich mit diesem Problem beschäftigen, gehört Perle Labs.

Das Unternehmen sagt: KI-Systeme brauchen eine überprüfbare Herkunftskette für das Trainingsmaterial – besonders in regulierten und risikoreichen Bereichen. Perle baut eine überprüfbare und mit Nachweisen ausgestattete Datenstruktur für Unternehmen auf und hat bisher 17,5 Mio. USD eingesammelt. Die letzte Finanzierungsrunde wurde von Framework Ventures geleitet. Zu den weiteren Geldgebern zählen CoinFund, Protagonist, HashKey und Peer VC. Das Unternehmen berichtet, dass über eine Million Annotatoren mehr als eine Milliarde bewertete Datenpunkte zur Plattform beigetragen haben.

BeInCrypto hat mit Ahmed Rashad, CEO von Perle Labs, am Rande der ETHDenver 2026 gesprochen. Zuvor hatte Rashad eine Führungsrolle bei Scale AI während deren starkem Wachstum. Im Gespräch ging es unter anderem um Datenherkunft, Modell-Kollaps, Risiken durch Angriffe und warum er meint, dass souveräne Intelligenz bald Voraussetzung für KI-Einsätze in wichtigen Systemen ist.

BeInCrypto: Du nennst Perle Labs die „souveräne Intelligenz-Schicht für KI“. Was bedeutet das für diejenigen, die nicht mitten im Daten-Infrastruktur-Thema stecken, praktisch?

Ahmed Rashad: „Das Wort souverän ist mit Absicht gewählt. Es hat mehrere Ebenen.

Die direkteste Bedeutung ist Kontrolle. Wenn du als Regierung, Krankenhaus, Verteidigungsunternehmen oder großes Unternehmen KI in wichtigen Bereichen einsetzt, musst du die Kontrolle über die Intelligenz in diesem System haben. Du kannst sie nicht an eine Blackbox abgeben, die du nicht prüfen oder prüfen lassen kannst. Souverän bedeutet: Du weißt, womit deine KI trainiert wurde, wer sie bestätigt hat und du kannst das beweisen. Die meisten in der Branche können das heute nicht sagen.

Die zweite Bedeutung ist Unabhängigkeit. Handeln ohne Einmischung von außen. Genau das brauchen Einrichtungen wie das US-Verteidigungsministerium oder Unternehmen, wenn sie KI in sensiblen Umgebungen einsetzen. Die wichtige KI-Infrastruktur darf nicht von Datenströmen abhängen, die du nicht kontrollierst, nicht überprüfen kannst oder nicht vor Manipulation schützen kannst. Das ist kein theoretisches Risiko. NSA und CISA haben beide Anleitungen zu Risiken in der Datenlieferkette herausgegeben – sie sehen das als Thema der nationalen Sicherheit.

Die dritte Bedeutung ist Verantwortung. Wenn KI nicht nur Inhalte erzeugt, sondern auch Entscheidungen trifft, etwa im medizinischen, finanziellen oder militärischen Bereich, muss jemand beantworten können: Woher stammt das Wissen? Wer hat es überprüft? Ist die Aufzeichnung dauerhaft? Unser Ziel bei Perle ist, dass jeder Beitrag von allen Expertinnen und Experten-Annotatoren auf der Blockchain gespeichert wird. Das kann nicht geändert werden. Diese Unveränderbarkeit macht das Wort souverän passend und nicht nur ein Wunschbild.“

Praktisch bauen wir eine Schicht für Nachweise und Qualifikationen auf. Wenn ein Krankenhaus ein KI-Diagnose-System einsetzt, soll es jeden Trainingsdatenpunkt bis zurück zu einer qualifizierten Person zurückverfolgen können, die ihn bestätigt hat. Das ist souveräne Intelligenz. Das meinen wir damit.“

BeInCrypto: Du warst bei Scale AI in einer Phase dabei, als große Verteidigungsverträge abgeschlossen wurden und Meta investiert hat. Was hast du dabei über die Schwächen klassischer KI-Datenströme gelernt?

Ahmed Rashad: „Scale ist ein tolles Unternehmen. In meiner Zeit dort wuchs es von neunzig Mio. auf jetzt 29 Mrd. USD. Ich konnte aus nächster Nähe sehen, wo Schwachstellen entstehen.

Das Grundproblem: Qualität und Menge der Daten stehen oft im Widerspruch. Wenn du 100-mal wächst, will das Team immer schneller werden: mehr Daten, schnelleres Annotieren, geringere Kosten pro Label. Darunter leiden Genauigkeit und Verantwortung. Am Ende entstehen undurchsichtige Ströme: Du weißt grob, was hineinging, du hast Qualitätswerte für das Ergebnis, aber der Ablauf dazwischen ist eine Blackbox. Wer hat das geprüft? War die Person qualifiziert? Waren die Annotationen immer gleich? Auf diese Fragen gibt es in alten Modellen bei großer Masse fast keine Antwort mehr.

Zudem habe ich gelernt: Der menschliche Anteil wird fast immer als Kostenpunkt behandelt, nicht als Fähigkeit, die man entwickelt. Das reine Bezahlen pro Task und Optimieren auf Menge lässt die Qualität über die Zeit sinken. So verliert man die besten Beitragenden. Personen, die wirklich hochwertige, fachlich korrekte Annotationen liefern können, sind nicht dieselben, die für ein paar Cent immer wieder einfache Mikroaufgaben machen wollen. Wer solche Qualität will, muss anders arbeiten.

Diese Erkenntnis ist die Grundlage von Perle. Das Datenproblem lässt sich nicht durch mehr Arbeitskraft lösen. Man muss Beitragende als Fachleute sehen, überprüfbare Nachweise einbauen und den gesamten Prozess vom Anfang bis zum Ende prüfbar machen.“

BeInCrypto: Ihr habt jetzt eine Million Annotatoren und über eine Milliarde Datenpunkte erreicht. Die meisten Plattformen für Daten-Labeling setzen auf anonyme Crowdarbeit. Was ist an eurem Reputationssystem anders?

Ahmed Rashad: „Der wichtigste Unterschied: Bei Perle gehört dir deine Arbeitshistorie und bleibt für immer. Wenn du eine Aufgabe erledigst, wird die Leistung, das erreichte Qualitätsniveau und wie sie mit dem Experten-Konsens übereinstimmt, auf der Kette gespeichert. Das kann nicht nachträglich verändert, gelöscht oder jemand anderem zugeordnet werden. Im Lauf der Zeit entsteht so ein beruflicher Nachweis, der immer wertvoller wird.

Vergleich das mit anonymer Crowdarbeit – da gilt der Mensch als austauschbar. Die Leute kümmern sich weniger um Qualität, weil sie keine Reputation haben. Jede Aufgabe steht für sich. Das führt zu dem, was man erwarten würde: minimaler Aufwand reicht.

Unser Modell dreht das um. Beitragende bauen überprüfbare Nachweise auf. Die Plattform erkennt Expertenwissen an. Eine Radiologin, die regelmäßig sehr gute medizinische Bild-Annotationen erstellt, baut ein Profil auf, das genau das zeigt. Dieser gute Ruf sorgt dafür, dass sie Zugang zu besser bezahlten, anspruchsvolleren Aufgaben bekommt. Es entsteht ein Kreislauf: Qualität lohnt sich immer mehr, weil sie belohnt wird.

Wir haben inzwischen eine Milliarde bewertete Punkte im Annotator-Netzwerk. Das ist nicht nur eine Mengenangabe, sondern eine Milliarde klar zuzuordnende, nachvollziehbare Datenbeiträge von echten Menschen. Das bildet die Basis für vertrauenswürdige KI-Trainingsdaten. Mit anonymer Crowdarbeit ist das grundsätzlich nicht machbar.“

BeInCrypto: Bei Forschenden wird Modellkollaps oft diskutiert, in der breiten KI-Debatte taucht das kaum auf. Warum denkst du, ist das so? Sollten mehr Leute besorgt sein?

Ahmed Rashad: „Das landet selten in den allgemeinen Diskussionen, weil es eine schleichende Krise ist. Modell-Kollaps bedeutet, dass KI-Systeme immer mehr mit KI-erzeugten Daten trainiert werden und dann an Qualität verlieren, weniger Nuancen zeigen und sich im Mittelmaß angleichen. Das ist kein dramatischer Einzelfall für eine Schlagzeile. Es ist ein langsamer Qualitätsverlust, den man erst merkt, wenn es schon gravierend ist.

Der Mechanismus ist leicht zu verstehen: Das Internet wird immer voller mit KI-erzeugten Inhalten. Modelle lernen nicht mehr von echten Menschen, sondern von ihren eigenen alten Ausgaben. Mit jeder Trainings-Generation werden Verzerrungen stärker. Ein Kreislauf, der sich von selbst nicht korrigiert.

Sollten mehr Leute besorgt sein? Ja. Besonders, wenn es um wichtige Bereiche geht. Wenn Modell-Kollaps einen Empfehlungsalgorithmus trifft, bekommt man nur schlechtere Empfehlungen. Trifft es aber ein medizinisches Diagnosemodell, eine juristische Analyse oder ein Verteidigungs-Intelligenz-Tool, dann sind die Folgen viel schwerwiegender. Der Spielraum für Fehler verschwindet.

Deshalb ist die menschlich geprüfte Datenebene nicht optional, wenn KI in wichtige Infrastruktur-Bereiche vordringt. Du brauchst eine ständige Quelle von echter, vielfältiger, menschlicher Intelligenz für das Training – nicht von KI-Antworten, die von einem anderen Modell weitergegeben wurden. Wir haben über eine Million Prüfer mit echter Fachkompetenz in vielen verschiedenen Bereichen. Diese Vielfalt verhindert das Zusammenbrechen von Modellen. Mit künstlichen Daten oder mehr Rechenleistung kannst du das Problem nicht lösen.“

BeInCrypto: Was ändert sich grundsätzlich bei Risiko, Verantwortung und den Standards, wenn KI nicht nur in digitalen Umgebungen, sondern auch in physischen Systemen genutzt wird?

Ahmed Rashad: Die Unumkehrbarkeit verändert sich. Das ist der Kernpunkt. Wenn ein Sprachmodell falsche Informationen liefert, kommt nur eine falsche Antwort heraus. Du kannst sie korrigieren, markieren, und weitermachen. Macht jedoch ein chirurgisches Robotersystem einen Fehler oder trifft ein autonomes Fahrzeug eine falsche Entscheidung, hat das echte, nicht rückgängig zu machende Folgen. Fehler kommen dann nicht nur peinlich, sondern katastrophal.

Dadurch muss man auch andere Standards anwenden. In digitalen Bereichen durfte sich die KI-Entwicklung bislang schnell verändern und sich selbst verbessern. In physischen Systemen kann man so aber nicht arbeiten. Das Trainingsdaten-Set für diese Systeme muss vor dem Einsatz geprüft werden – nicht erst danach, wenn ein Unfall passiert ist.

Auch die Verantwortung ändert sich. In digitalen Bereichen ist es relativ leicht, die Schuld zu verteilen. War das Modell schuld? Die Daten? Oder der Einsatz des Modells? Bei physischen Systemen, besonders wenn Menschen zu Schaden kommen, verlangen Aufsichtsbehörden und Gerichte klare Antworten. Wer hat das trainiert? Mit welchen Daten? Wer hat die Daten und nach welchen Standards geprüft? Unternehmen und Regierungen, die diese Fragen beantworten können, dürfen weitermachen. Wer das nicht kann, muss mit unvorhergesehenen Problemen rechnen.

Perle haben wir genau für diesen Wechsel gebaut. Menschlich geprüft, von Experten erstellt, auf der Chain nachprüfbar. Wenn KI in Lagerhallen, Operationssälen oder sogar im Militär eingesetzt wird, muss die darunterliegende Intelligenz andere Standards erfüllen. Genau daran arbeiten wir.

BeInCrypto: Wie groß ist derzeit die Gefahr von Datenmanipulation oder gezielten Angriffen auf KI-Systeme, besonders auf nationaler Ebene?

Ahmed Rashad: „Die Gefahr ist real, gut dokumentiert und wird von Menschen mit Zugriff auf vertrauliche Informationen schon jetzt als nationales Sicherheitsproblem behandelt.

DARPAs GARD-Programm („KI-Robustheit gegen Täuschung garantieren“) war jahrelang darauf ausgerichtet, Angriffe auf KI-Systeme, einschließlich Datenmanipulation, abzuwehren. Die NSA und die CISA haben 2025 klare Hinweise veröffentlicht, dass Schwachstellen in der Datenlieferkette sowie böswillig veränderte Trainingsdaten ernstzunehmende Gefahren für die Integrität von KI-Systemen darstellen. Das sind keine theoretischen Papiere. Es sind praktische Hinweise von Behörden, die keine Warnungen ausgeben, wenn nur hypothetische Risiken bestehen.

Es gibt viele Angriffsmöglichkeiten. Wenn du die Trainingsdaten für eine KI zur Bedrohungserkennung, medizinischen Diagnose oder Logistik optimierst, musst du das System selbst nicht mehr hacken. Du prägst bereits, wie es die Welt sieht. Das ist eleganter und viel schwieriger zu entdecken als herkömmliche Cyberangriffe.

Der 300-Millionen-USD-Vertrag von Scale AI mit dem Verteidigungsministerium zur Bereitstellung von KI in geheimen Netzwerken existiert unter anderem deshalb, weil die Regierung versteht, dass KI in sensiblen Bereichen nicht mit ungeprüften öffentlichen Daten trainiert werden darf. Die Frage nach den Datenquellen ist dort nicht theoretisch, sondern entscheidend für den Betrieb.

Was in der öffentlichen Diskussion fehlt: Es betrifft nicht nur Regierungen. Jedes Unternehmen, das KI in einem wettbewerbsintensiven Bereich wie Finanzwesen, Pharmazie oder kritischer Infrastruktur einsetzt, kann von Datenmanipulationen betroffen sein, die oft noch unbekannt sind. Die Gefahr ist real. Die Abwehrmaßnahmen werden gerade erst geschaffen.“

BeInCrypto: Warum kann eine Regierung oder ein großes Unternehmen diese Verifizierungsebene nicht einfach selbst aufbauen? Was ist die ehrliche Antwort, wenn jemand das bezweifelt?

Ahmed Rashad: „Einige versuchen es. Und die, die es versuchen, merken schnell, wo das eigentliche Problem liegt.

Die Technik zu entwickeln ist noch der einfache Teil. Das Schwierigste ist das Netzwerk. Geprüfte Experten, also Radiologen, Sprachwissenschaftler, Juristen, Ingenieure, Wissenschaftler, melden sich nicht automatisch, nur weil es eine Plattform gibt. Du musst sie finden, prüfen, Anreize schaffen, sodass sie langfristig mitarbeiten, und du brauchst Systeme für Qualität, die bei vielen Nutzern funktionieren. Dafür braucht man Jahre und Wissen, das die meisten Behörden oder Unternehmen nicht haben.

Das nächste Problem ist Vielfalt. Baut eine Behörde ihr eigenes Verifizierungssystem, greift sie nur auf einen eingeschränkten, meist sehr homogenen Kreis von Experten zurück. Wertvoll ist aber ein weltweites Netzwerk mit unterschiedlichen Sichtweisen, Sprachen, Kulturen und Fachgebieten – das bekommst du nur, wenn du wirklich im großen Maßstab arbeitest. Wir arbeiten mit über einer Million Prüfern. Das kann niemand schnell nachbilden.

Das dritte Problem ist die Gestaltung der Anreize. Fachleute langfristig gut einzuspannen, klappt nur mit transparenter, fairer und programmierbarer Vergütung. Blockchain macht das möglich: Unveränderbare Beitragsnachweise, direkte Zuordnung und prüfbare Auszahlungen. Ein System für staatlichen Einkauf ist dafür nicht gemacht.

Die ehrliche Antwort: Du kaufst nicht nur ein Werkzeug. Du bekommst Zugang zu einem Netzwerk und einem geprüften System, das über Jahre aufgebaut wurde. Es geht nicht um die Frage ‚selber bauen oder kaufen‘, sondern darum: Entweder nutzt du, was schon besteht, oder du gehst das Risiko schlechter Daten ein.“

BeInCrypto: Wenn KI zur wichtigsten Infrastruktur wird: Wo sitzt dann in fünf Jahren eine geprüfte, staatliche Intelligenzebene?

Ahmed Rashad: „In fünf Jahren wird das so aussehen wie eine Wirtschaftsprüfung heute, also eine unverzichtbare Prüfstelle zwischen Daten und Nutzung – abgesichert durch Gesetze und mit klaren Standards.

Gerade läuft die KI-Entwicklung noch ohne so etwas wie Wirtschaftsprüfer. Firmen berichten selbst, mit welchen Daten sie trainieren. Es gibt keine unabhängige Kontrolle, keine professionelle Prüfung des Prozesses, keinen Nachweis Dritter, dass die Intelligenz eines Modells bestimmte Standards erfüllt. Wir sind in etwa an dem Punkt wie die Finanzwelt vor dem Sarbanes-Oxley-Gesetz: Vieles basiert auf Vertrauen und Selbstauskunft.

Wenn KI für kritische Infrastruktur genutzt wird – Stromnetze, Gesundheitssysteme, Finanzmärkte, Verteidigung – taugt das alte Modell nicht mehr. Regierungen werden Beweisbarkeit fordern. Ausschreibungen verlangen geprüfte Herkunft der Daten als Vertragsbedingung. Wenn Fehler passieren, die mit einer Prüfung hätten verhindert werden können, haften Firmen dafür.

Perle übernimmt dann die Rolle als Prüf- und Zertifizierungsinstanz, die lückenlos dokumentieren kann, womit ein Modell trainiert wurde, von wem und nach welchen Regeln. Das wird in fünf Jahren keine Funktion unter vielen mehr sein – es ist die Grundvoraussetzung.

Wichtiger ist: Staatliche Intelligenz ist kein Nischenthema für Rüstungsfirmen. Sie ist das Fundament, das KI überall dort einsetzbar macht, wo Fehler ernste Folgen hätten. Je mehr KI in solche Bereiche vordringt, desto wichtiger wird dieses Fundament.“

Der Beitrag Perle Labs-Chef Ahmed Rashad: Darum braucht KI eine überprüfbare Daten-Infrastruktur erschien zuerst auf BeInCrypto - Krypto News.

Marktchance
Visa Logo
Visa Kurs(VON)
$323.18
$323.18$323.18
+0.22%
USD
Visa (VON) Echtzeit-Preis-Diagramm
Haftungsausschluss: Die auf dieser Website veröffentlichten Artikel stammen von öffentlichen Plattformen und dienen ausschließlich zu Informationszwecken. Sie spiegeln nicht unbedingt die Ansichten von MEXC wider. Alle Rechte verbleiben bei den ursprünglichen Autoren. Sollten Sie der Meinung sein, dass Inhalte die Rechte Dritter verletzen, wenden Sie sich bitte an service@support.mexc.com um die Inhalte entfernen zu lassen. MEXC übernimmt keine Garantie für die Richtigkeit, Vollständigkeit oder Aktualität der Inhalte und ist nicht verantwortlich für Maßnahmen, die aufgrund der bereitgestellten Informationen ergriffen werden. Die Inhalte stellen keine finanzielle, rechtliche oder sonstige professionelle Beratung dar und sind auch nicht als Empfehlung oder Billigung von MEXC zu verstehen.