Agenci AI zdominowali ETHDenver 2026 – od autonomicznych finansów po robotykę on-chain. Jednak wraz z rosnącym entuzjazmem wokół “agentowych gospodarek” pojawiaAgenci AI zdominowali ETHDenver 2026 – od autonomicznych finansów po robotykę on-chain. Jednak wraz z rosnącym entuzjazmem wokół “agentowych gospodarek” pojawia

Dyrektor generalny Perle Labs, Ahmed Rashad: Sztuczna inteligencja potrzebuje weryfikowalnej infrastruktury danych

2026/03/03 20:30
11 min. lektury
W przypadku uwag lub wątpliwości dotyczących niniejszej treści skontaktuj się z nami pod adresem [email protected]

Agenci AI zdominowali ETHDenver 2026 – od autonomicznych finansów po robotykę on-chain. Jednak wraz z rosnącym entuzjazmem wokół “agentowych gospodarek” pojawia się trudniejsze pytanie: czy instytucje potrafią udowodnić, na czym szkoliły swoje systemy AI?

Wśród startupów mierzących się z tym wyzwaniem znajduje się Perle Labs. Firma uważa, że systemy AI wymagają weryfikowalnego łańcucha pochodzenia swoich danych treningowych, zwłaszcza w środowiskach regulowanych i wysokiego ryzyka. Koncentrując się na budowie audytowalnej, poświadczonej infrastruktury danych dla instytucji, Perle zebrało do tej pory 17,5 mln USD – a ostatnią rundę finansowania poprowadził Framework Ventures. Inni inwestorzy to CoinFund, Protagonist, HashKey oraz Peer VC. Firma podaje, że ponad jeden mln osób oznaczających dane wniosło do tej pory ponad miliard ocenionych rekordów na jej platformę.

BeInCrypto rozmawiało z Ahmedem Rashadem, CEO Perle Labs, na marginesie ETHDenver 2026. Rashad wcześniej pełnił funkcję operacyjną w Scale AI podczas okresu dynamicznego wzrostu. W rozmowie opowiedział o pochodzeniu danych, załamaniu modeli, ryzykach ataków i dlaczego uważa, że suwerenna inteligencja stanie się warunkiem wdrożenia AI w krytycznych systemach.

BeInCrypto: Opisujesz Perle Labs jako „warstwę suwerennej inteligencji dla AI”. Dla czytelników spoza dyskusji o infrastrukturze danych – co to oznacza w praktyce?

Ahmed Rashad: Słowo suwerenna jest tu celowe i ma kilka wymiarów.

Najbardziej dosłowne znaczenie to kontrola. Jeśli jesteś rządem, szpitalem, kontraktorem zbrojeniowym czy dużym przedsiębiorstwem wdrażającym AI w środowisku wysokiego ryzyka, musisz mieć inteligencję za tym systemem na własność, nie zlecać jej na zewnątrz do czarnej skrzynki, której nie da się oglądać czy audytować. Suwerenność oznacza, że wiesz, na czym trenowano twoje AI, kto to zatwierdzał – i potrafisz to udowodnić. Większość branży dzisiaj nie jest w stanie tego powiedzieć.

Drugi wymiar to niezależność. Działanie bez zewnętrznej ingerencji. Dokładnie tego wymagają instytucje, takie jak Departament Obrony czy przedsiębiorstwa, gdy wdrażają AI w wrażliwych środowiskach. Nie możesz opierać infrastruktury krytycznej AI na pipeline’ach danych, których nie kontrolujesz i nie możesz zweryfikować ani zabezpieczyć przed manipulacją. To nie jest teoretyczne ryzyko. NSA i CISA wydali wytyczne operacyjne o podatnościach łańcucha dostaw danych jako problemie bezpieczeństwa narodowego.

Trzeci wymiar to odpowiedzialność. Gdy AI zaczyna podejmować decyzje – medyczne, finansowe, militarne – ktoś musi odpowiedzieć: skąd pochodzi ta inteligencja? Kto ją zweryfikował? Czy zapis jest trwały? Na Perle każdy wkład każdego eksperta-oznaczającego zapisujemy na blockchainie. Nie da się tego zmienić. Ta niezmienność sprawia, że słowo suwerenność jest dokładne, a nie tylko ambicjonalne.

W praktyce budujemy warstwę weryfikacji i poświadczania. Jeśli szpital wdraża AI do diagnozy medycznej, powinien móc prześledzić każdy punkt danych w zbiorze treningowym do poświadczonego specjalisty, który go zatwierdził. To jest suwerenna inteligencja. To mamy na myśli.

BeInCrypto: Byłeś w Scale AI podczas hiperwzrostu firmy, zdobywając m.in. duże kontrakty dla wojska oraz inwestycję Meta. Czego nauczyło cię to doświadczenie o słabościach tradycyjnych pipeline’ów danych AI?

Ahmed Rashad: Scale było niesamowitą firmą. Byłem tam, gdy firma rosła z 90 mln USD do 29 mld USD. Wszystko to się kształtowało i miałem najlepsze miejsce, by zobaczyć, gdzie pojawiają się pierwsze pęknięcia.

Podstawowy problem polega na tym, że jakość danych i skala są przeciwstawne. Gdy rośniesz 100-krotnie, presja zawsze jest, by robić szybciej: więcej danych, szybsze oznaczanie, niższy koszt jednostkowy. Ofiarami tego są precyzja i rozliczalność. Są tu nieprzejrzyste pipeline’y: mniej więcej wiesz, co weszło, masz pewne metryki jakości na wyjściu, a środek to czarna skrzynka. Kto to weryfikował? Czy miał kompetencje? Czy oznaczanie było spójne? Na dużą skalę te pytania są praktycznie nie do rozstrzygnięcia przy tradycyjnych modelach.

Druga rzecz, której się nauczyłem, to fakt, że czynnik ludzki prawie zawsze traktuje się jak koszt do minimalizacji zamiast potencjału do rozwijania. Model transakcyjny: płatność za zadanie i optymalizacja na przepustowość po prostu psuje jakość z czasem. Najlepsi specjaliści szybko odchodzą. Osoby, które mogą zaoferować najwyższą jakość, eksperckie adnotacje, to nie te same, które siedzą przy mikrozadaniach za grosze. Jeśli chcesz tak dobrego wkładu, musisz inaczej budować system.

To właśnie ta świadomość jest podstawą Perle. Problem danych nie rozwiązuje się przez wrzucanie kolejnych ludzi. Rozwiązaniem jest traktowanie współtwórców jak profesjonalistów, budowa poświadczania w systemie i zapewnienie pełnej audytowalności procesu od początku do końca.

BeInCrypto: Osiągnęliście milion osób oznaczających dane i ponad miliard ocenionych punktów. Większość platform do etykietowania danych opiera się na anonimowej pracy tłumu. Czym strukturalnie różni się wasz model reputacji?

Ahmed Rashad: Podstawowa różnica polega na tym, że na Perle historia wykonanej przez ciebie pracy jest twoja i jest trwała. Gdy wykonujesz zadanie, zapis tego wkładu, osiągnięty poziom jakości i porównanie z konsensusem ekspertów trafiają na blockchain. Nie da się tego edytować, usunąć ani przypisać komu innemu. Z czasem to staje się potwierdzeniem profesjonalizmu, które procentuje.

Porównaj to z anonimową pracą tłumu, gdzie człowiek jest wymienny. Nie zależy im na jakości, bo reputacji nie ma; każde zadanie jest oderwane od innych. Struktura wynagradzania daje dokładnie to, czego się spodziewasz: absolutne minimum zaangażowania.

Nasz model to odwraca. Współtwórcy budują weryfikowalną historię. Platforma rozpoznaje wiedzę dziedzinową. Na przykład radiolog, który konsekwentnie tworzy wysokiej jakości adnotacje obrazów medycznych, buduje profil to potwierdzający. Taka reputacja daje dostęp do lepszych zadań, wyższych stawek i ciekawszej pracy. To spirala wzrostu: jakość się nakręca, bo system ją premiuje.

Przekroczyliśmy miliard ocenionych punktów w naszej sieci osób oznaczających. To nie tylko liczba – to miliard poświadczonych, przypisanych wkładów od zweryfikowanych ludzi. To podstawa wiarygodnych danych szkoleniowych AI i nie da się tego skopiować przy anonimowej pracy tłumu.

BeInCrypto: Załamanie modeli (model collapse) jest szeroko omawiane w środowisku naukowym, ale nie trafia do głównego nurtu rozmów o AI. Dlaczego tak jest i czy więcej ludzi powinno się tym martwić?

Ahmed Rashad: Nie pojawia się w głównym nurcie, bo to kryzys rozwijający się powoli, a nie spektakularnie. Załamanie modeli, gdy systemy AI trenowane coraz częściej na danych wygenerowanych przez inne AI zaczynają się pogarszać, tracą niuanse i stają się uśrednione, nie daje nagłego newsa. To stopniowe pogarszanie jakości, które łatwo przeoczyć aż do krytycznego poziomu.

Mechanizm jest prosty: Internet wypełnia się treściami generowanymi przez AI. Modele uczone na tych treściach uczą się od własnych produktów zamiast ludzkiej wiedzy i doświadczenia. Każde kolejne szkolenie wzmacnia zniekształcenia poprzednich. To pętla zwrotna bez naturalnej korekty.

Czy więcej ludzi powinno się tym martwić? Tak, zwłaszcza tam, gdzie stawka jest wysoka. Gdy załamanie modeli dotyczy algorytmu rekomendacji treści, masz gorsze rekomendacje. Gdy dotyka systemu diagnostyki medycznej, modelu prawniczego czy narzędzia wojskowego – konsekwencje są zupełnie inne. Ryzyko błędu nagle przestaje istnieć.

Dlatego warstwa danych zweryfikowanych przez ludzi nie jest opcjonalna, gdy sztuczna inteligencja trafia do kluczowej infrastruktury. Potrzebujesz ciągłego źródła autentycznej, zróżnicowanej ludzkiej inteligencji do treningu; nie danych pochodzących od AI przetworzonych przez inny model. Mamy ponad milion adnotatorów reprezentujących prawdziwą wiedzę ekspercką z wielu dziedzin. Ta różnorodność to antidotum na degradację modeli. Nie naprawisz tego syntetycznymi danymi ani większą mocą obliczeniową.

BeInCrypto: Gdy sztuczna inteligencja wychodzi poza środowiska cyfrowe do systemów fizycznych, co fundamentalnie zmienia się w zakresie ryzyka, odpowiedzialności i standardów jej tworzenia?

Ahmed Rashad: Zmienia się nieodwracalność. To jest klucz. Model językowy, który “halucynuje”, daje błędną odpowiedź. Możesz ją poprawić, oznaczyć, przejść dalej. System chirurgiczny oparty na złej interpretacji, autonomiczny pojazd z błędną klasyfikacją, dron działający po rozpoznaniu złego celu – te błędy nie mają przycisku “cofnij”. Cena błędu przechodzi z żenującej na katastrofalną.

To zmienia wszystko w podejściu do standardów. W środowiskach cyfrowych rozwój AI często dopuszcza szybkie działanie i samokorygowanie. W systemach fizycznych taki model nie działa. Musisz zweryfikować dane treningowe dla tych systemów przed wdrożeniem, nie po wypadku.

To także zmienia odpowiedzialność. W cyfrowym świecie łatwo rozmyć winę – czy to model, dane czy wdrożenie? W systemach fizycznych, szczególnie przy szkodach dla ludzi, regulatorzy i sądy będą domagać się jasnych odpowiedzi. Kto trenował ten system? Na jakich danych? Kto i według jakich standardów to walidował? Firmy i rządy, które będą umiały przedstawić te informacje, będą mogły działać. Ci, którzy nie potrafią, zmierzą się z nieprzewidzianą odpowiedzialnością.

Stworzyliśmy Perle właśnie na tę transformację. Dane weryfikowane przez ludzi, pochodzące od ekspertów, audytowalne na blockchainie. Gdy AI zaczyna działać w magazynach, salach operacyjnych i na polu walki, warstwa inteligencji pod spodem musi spełniać inne standardy. Do takich standardów dążymy.

BeInCrypto: Jak realne jest dziś zagrożenie sabotowaniem danych lub manipulacją wrogą w systemach AI, szczególnie na poziomie państw?

Ahmed Rashad: To realne zagrożenie, udokumentowane i już dziś traktowane jako priorytet bezpieczeństwa narodowego przez osoby z dostępem do informacji niejawnych na ten temat.

Program GARD agencji DARPA (zapewnianie odporności AI na oszustwa) przez lata skupiał się na opracowaniu obrony przed atakami wrogimi na systemy AI, w tym na zatrucie danych. NSA i CISA wydały w 2025 roku wspólne wytyczne, ostrzegając jednoznacznie, że luki w łańcuchu dostaw danych i złośliwie zmodyfikowane dane treningowe stanowią realne zagrożenie dla integralności systemów AI. To nie są teoretyczne artykuły naukowe. To operacyjne wytyczne od agencji, które nie publikują ostrzeżeń o hipotetycznych ryzykach.

Powierzchnia ataku jest duża. Jeśli uda ci się pozyskać dane treningowe systemu AI wykorzystywanego do wykrywania zagrożeń, diagnostyki medycznej czy optymalizacji logistyki, nie musisz już włamywać się do samego systemu. To ty kształtujesz jego sposób widzenia świata. To znacznie bardziej subtelny i trudniejszy do wykrycia wektor ataku niż tradycyjne cyberwłamania.

Kontrakt Scale AI z CDAO Departamentu Obrony na 300 mln USD, dotyczący wdrożenia AI w sieciach tajnych, częściowo wynika z faktu, że rząd rozumie, iż nie może używać systemów AI trenowanych na niezweryfikowanych publicznych danych w środowiskach wrażliwych. Kwestia pochodzenia danych na tym poziomie nie jest kwestią akademicką. To sprawa operacyjna.

W głównym nurcie debaty brakuje zrozumienia, że to nie tylko problem rządów. Każde przedsiębiorstwo wdrażające AI w środowisku konkurencyjnym – finanse, farmacja, infrastruktura krytyczna – ma potencjalną ekspozycję na wrogie dane, którą raczej nie do końca rozpoznano. Zagrożenie jest realne. Obronę dopiero budujemy.

BeInCrypto: Dlaczego rząd lub duże przedsiębiorstwo nie może po prostu samodzielnie zbudować tej warstwy weryfikacyjnej? Jaka jest prawdziwa odpowiedź na taki sceptycyzm?

Ahmed Rashad: Niektóre próbują. I te, które próbują, szybko uczą się, gdzie naprawdę leży problem.

Zbudowanie technologii to łatwa część. Trudnością jest sieć. Zweryfikowani, certyfikowani eksperci dziedzinowi, radiolodzy, lingwiści, prawnicy, inżynierowie, naukowcy nie pojawią się tylko dlatego, że powstała platforma. Musisz ich rekrutować, certyfikować, budować struktury motywacyjne, które ich utrzymają i opracować mechanizmy konsensusu, które nadają ich pracy sens w dużej skali. To zajmuje lata i wymaga kompetencji, których większość urzędów i przedsiębiorstw po prostu nie posiada.

Drugi problem to różnorodność. Agencja rządowa budująca własną warstwę weryfikacyjną z definicji korzysta z ograniczonej, względnie jednorodnej grupy ekspertów. Wartość globalnej sieci to nie tylko certyfikacja, ale zasięg perspektyw, języków, kontekstów kulturowych i specjalizacji, które uzyskasz tylko operując na rzeczywistą skalę i w różnych regionach. Mamy ponad milion adnotatorów. Tego nie odtworzysz wewnętrznie.

Trzeci problem to motywacja. Utrzymanie zaangażowania wysokiej jakości współpracowników przez długi czas wymaga przejrzystego, sprawiedliwego, programowalnego wynagradzania. Infrastruktura blockchain umożliwia to na sposób, którego systemy wewnętrzne zwykle nie potrafią skopiować: niezmienne rejestry wkładów, bezpośrednie przypisanie i weryfikowalne wypłaty. Systemy przetargowe rządu nie zostały zaprojektowane, by robić to wydajnie.

Szczerą odpowiedzią na sceptycyzm jest: nie kupujesz narzędzia, a dostęp do sieci i systemu certyfikacji, którego powstanie zajęło lata. Alternatywą nie jest “zbuduj sam”, tylko “skorzystaj z istniejącego rozwiązania lub zaakceptuj ryzyko gorszej jakości danych”.

BeInCrypto: Jeśli AI stanie się podstawową infrastrukturą państwa, gdzie warstwa suwerennej inteligencji będzie w tym stosie za pięć lat?

Ahmed Rashad: Za pięć lat myślę, że będzie przypominać to, czym dziś jest audyt finansowy: niepodważalna warstwa weryfikacji pomiędzy danymi a wdrożeniem, wspierana wymogami regulacyjnymi i profesjonalnymi standardami.

Obecnie rozwój AI odbywa się bez odpowiednika audytu finansowego. Firmy same raportują swoje dane treningowe. Nie ma niezależnej weryfikacji, brak profesjonalnej certyfikacji procesu, brak trzeciej strony potwierdzającej, że warstwa inteligencji modelu spełnia określony standard. Jesteśmy na etapie wczesnego kapitalizmu, przed reformami w stylu Sarbanes-Oxley – działamy w oparciu o zaufanie i samocertyfikację.

W miarę jak AI staje się infrastrukturą krytyczną – zasilając sieci energetyczne, sektor zdrowia, rynki finansowe, systemy obrony – stary model przestaje mieć rację bytu. Rządy będą wymagać audytowalności. Przetargi będą zawierać wymóg zweryfikowanego pochodzenia danych. Ramy odpowiedzialności nałożą konsekwencje na zaniedbania, którym można było zapobiec poprzez właściwą weryfikację.

Perle będzie właśnie tą warstwą weryfikacji i certyfikacji – podmiotem, który może stworzyć niezmienny, audytowalny zapis, na czym model był trenowany, przez kogo, według jakich standardów. To nie będzie opcja przy rozwoju AI za pięć lat – to będzie warunek konieczny.

Szerszym wnioskiem jest, że suwerenna inteligencja nie jest niszowym zagadnieniem tylko dla kontraktorów wojskowych. To fundament potrzebny do wdrożenia AI wszędzie tam, gdzie błąd niesie faktyczne skutki. W miarę jak AI wkracza w kolejne dziedziny, ten fundament staje się najważniejszą częścią całego stosu.

BeInCrypto Polska - Dyrektor generalny Perle Labs, Ahmed Rashad: Sztuczna inteligencja potrzebuje weryfikowalnej infrastruktury danych

Zastrzeżenie: Artykuły udostępnione na tej stronie pochodzą z platform publicznych i służą wyłącznie celom informacyjnym. Niekoniecznie odzwierciedlają poglądy MEXC. Wszystkie prawa pozostają przy pierwotnych autorach. Jeśli uważasz, że jakakolwiek treść narusza prawa stron trzecich, skontaktuj się z [email protected] w celu jej usunięcia. MEXC nie gwarantuje dokładności, kompletności ani aktualności treści i nie ponosi odpowiedzialności za jakiekolwiek działania podjęte na podstawie dostarczonych informacji. Treść nie stanowi porady finansowej, prawnej ani innej profesjonalnej porady, ani nie powinna być traktowana jako rekomendacja lub poparcie ze strony MEXC.