Aktualności

(Reklama)

najlepsza reklama mobilna

Vitalik Buterin ostrzega, że ​​agenci AI mogą kraść dane i modyfikować ustawienia bez wiedzy użytkownika

łańcuch

Vitalik Buterin ostrzega, że ​​sztuczna inteligencja oparta na chmurze stwarza poważne zagrożenia dla prywatności i bezpieczeństwa. Przedstawia również strategię skoncentrowaną na środowisku lokalnym, która ma na celu ochronę danych użytkowników przed zdalnymi serwerami.

Soumen Datta

3 kwietnia 2026 r.

natywna reklama mobilna ad1

(Reklama)

Ethereum współzałożyciel Vitalik Buterin ostrzegł, że współczesne systemy sztucznej inteligencji stwarzają poważne zagrożenia dla prywatności i bezpieczeństwa oraz wezwał do przejścia na infrastrukturę sztucznej inteligencji zorientowaną na lokalne potrzeby. 

szczegółowy post na bloguButerin powiedział, że narzędzia AI oparte na chmurze zapewniają zewnętrznym serwerom dostęp do poufnych danych użytkowników, a nowsze systemy agentów AI mogą podejmować działania bez potwierdzenia użytkownika, w tym modyfikować ustawienia systemu i wysyłać dane do zewnętrznych serwerów bez żadnego widocznego sygnału dla użytkownika.

Przed jakimi zagrożeniami bezpieczeństwa ostrzega Buterin?

Obawy Buterina wykraczają poza ogólną kwestię prywatności. Zidentyfikował on konkretne, udokumentowane zagrożenia związane z praktycznym działaniem agentów AI.

Badacze ds. bezpieczeństwa zademonstrowali już kilka z tych luk w rzeczywistych warunkach:

  • Agent AI otrzymał polecenie podsumowania stron internetowych, z których jedna była złośliwa. Strona instruowała agenta, aby pobrał i wykonał skrypt powłoki, dając podmiotowi zewnętrznemu kontrolę nad systemem.
  • Odkryto, że niektóre narzędzia agentów uruchamiają ciche żądania sieciowe, które wysyłają dane użytkownika do serwerów zewnętrznych bez żadnego powiadomienia użytkownika
  • Około 15% umiejętności agentów sprawdzonych przez badaczy zawierało złośliwe instrukcje

Buterin zwrócił również uwagę na zagrożenia, które trudniej wykryć. Niektóre modele mogą zawierać ukryte backdoory, czyli funkcje wbudowane w model, które aktywują się w określonych warunkach i powodują, że system działa w interesie programisty, a nie użytkownika. 

Zauważył również, że większość modeli określanych jako open-source w rzeczywistości ma jedynie „otwarte wagi”, co oznacza, że ​​parametry modelu są współdzielone, ale pełna struktura wewnętrzna i proces trenowania nie. Stwarza to możliwość wystąpienia nieznanych zachowań, których użytkownicy nie mogą samodzielnie zweryfikować.

Jaka jest różnica między chatbotem a agentem AI?

Buterin określił obecną sytuację jako punkt zwrotny w sposobie wykorzystania sztucznej inteligencji. Wczesne narzędzia AI działały jak chatboty: użytkownik zadaje pytanie, a model zwraca odpowiedź. Agenci działają inaczej. Użytkownik zleca systemowi zadanie, a ten następnie działa niezależnie, czasami przez dłuższy czas, korzystając z dziesiątek, a nawet setek narzędzi do jego wykonania.

Ta zmiana znacząco zwiększa powierzchnię ryzyka. Agent, który może przeglądać sieć, odczytywać pliki, wysyłać wiadomości i modyfikować ustawienia systemu, ma znacznie większe szanse na wyrządzenie szkody, czy to poprzez lukę w zabezpieczeniach, próbę manipulacji, czy zwykły błąd, niż system, który jedynie odpowiada na pytania.

Jak Buterin stworzył własny lokalny system sztucznej inteligencji

Buterin powiedział, że już zrezygnował z narzędzi AI opartych na chmurze. Opisał swoją konfigurację jako „samowystarczalną, lokalną, prywatną i bezpieczną”, opartą na trzech podstawowych zasadach: wszystkie wnioski AI są realizowane na lokalnym sprzęcie, wszystkie pliki są przechowywane lokalnie, a każdy proces działa w piaskownicy.

W tym kontekście piaskownica to odizolowane środowisko obliczeniowe, które ogranicza dostęp programu. Buterin używa narzędzia o nazwie „bubblewrap”, które pozwala mu uruchamiać narzędzia sztucznej inteligencji w piaskownicy na poziomie katalogów, gdzie program widzi tylko pliki, na które wyraźnie zezwolił, a także kontroluje dostęp do portów sieciowych i dźwięku.

Artykuł ciąg dalszy...

Sprzętowy Buterin przetestowany pod kątem wnioskowania lokalnej sztucznej inteligencji

Buterin przetestował kilka konfiguracji sprzętowych, aby znaleźć rozwiązania do lokalnego uruchamiania modeli AI. Wyniki były zróżnicowane:

  • Laptop z kartą graficzną NVIDIA 5090 osiągnął prędkość około 90 tokenów na sekundę przy użyciu modelu Qwen 3.5:35B
  • Procesor AMD Ryzen AI Max Pro ze 128 GB pamięci zintegrowanej osiągnął prędkość około 51 tokenów na sekundę
  • DGX Spark, reklamowany jako stacjonarny superkomputer AI, osiągnął prędkość około 60 tokenów na sekundę

Buterin ustalił 50 tokenów na sekundę jako swoje osobiste minimum dla użytecznej wydajności. Opisał wolniejsze wartości jako zbyt frustrujące w praktyce i stwierdził, że 90 tokenów na sekundę to ideał. Zauważył, że DGX Spark działał poniżej oczekiwań marketingowych, osiągając niższe prędkości niż dobry procesor graficzny do laptopa, a jednocześnie wymagając dodatkowej konfiguracji sieciowej do połączenia z oddzielnego urządzenia służbowego.

Jego stos oprogramowania opiera się na llama-server, procesie działającym w tle, który działa lokalnie i udostępnia port na komputerze użytkownika, do którego mogą odwoływać się inne aplikacje. Pozwala to na przekierowanie dowolnego oprogramowania stworzonego dla modeli OpenAI lub Anthropic do modelu lokalnego. Używa również llama-swap, aby ułatwić przełączanie się między modelami.

Co to oznacza dla portfeli kryptowalutowych?

Obawy Buterina dotyczące bezpieczeństwa sztucznej inteligencji (AI) bezpośrednio wiążą się z jego poglądem na temat tego, jak sztuczna inteligencja powinna być wykorzystywana w portfelach kryptowalut. W komentarzach opublikowanych na jego koncie Farcaster w marcu 2026 roku, przedstawił szczegółowy techniczny proces obsługi transakcji wspomaganych przez sztuczną inteligencję.

Jego stanowisko nie jest takie, że sztuczna inteligencja powinna zarządzać funduszami. Chodzi o to, że sztuczna inteligencja powinna proponować działania, z niezależną weryfikacją i potwierdzeniem ludzkim na wierzchu tych propozycji. W przypadku transakcji o wysokiej wartości opisał trzyetapowy proces: sztuczna inteligencja proponuje plan, lokalny klient symuluje wykonanie tego planu w łańcuchu, a użytkownik analizuje zarówno opis w języku potocznym, jak i symulowany wynik przed zatwierdzeniem.

Lokalny klient light weryfikuje dane blockchaina bez pobierania całego łańcucha. Połączenie tego z warstwą sztucznej inteligencji oznacza, że ​​użytkownicy mogą dokładnie zobaczyć, co stanie się z transakcją, zanim zostanie ona przesłana do sieci, bez konieczności korzystania z interfejsu innej firmy.

Dlaczego usuwanie interfejsów DApp ma znaczenie

Większość użytkowników kryptowalut korzysta ze zdecentralizowanych aplikacji za pośrednictwem interfejsów użytkownika opartych na przeglądarce. Interfejsy te historycznie stanowiły istotną powierzchnię ataku. Przejęcia interfejsu użytkownika, wstrzyknięcia złośliwych skryptów i fałszywe monity o zatwierdzenie danych przyniosły w ostatnich latach straty rzędu setek milionów dolarów.

Buterin argumentował, że portfele oparte na sztucznej inteligencji mogłyby całkowicie wyeliminować te interfejsy. Jeśli użytkownik określi, co chce zrobić, w prosty sposób, a portfel sam złoży i zasymuluje transakcję, nie będzie żadnej zewnętrznej strony internetowej, na którą można by się włamać. 

„Całkowite usunięcie interfejsów użytkownika DApp rozwiązuje wiele problemów związanych z wektorami ataków, zarówno kradzieżą, jak i naruszeniem prywatności” – napisał.

W przypadku operacji o niższym ryzyku Buterin dostrzega potencjał większej automatyzacji. Portfel oparty na sztucznej inteligencji mógłby w rozsądny sposób monitorować wzorce transakcji pod kątem nietypowych działań, sugerować opłaty za gaz w oparciu o aktualne warunki sieciowe, kierować wymianę tokenów wydajnymi ścieżkami i sygnalizować podejrzane interakcje z kontraktami przed ich zatwierdzeniem. Są to zadania, w których błędy są odwracalne, a automatyzacja zmniejsza złożoność dla użytkowników nietechnicznych.

Według Buterina, dużym modelom językowym nie należy powierzać niekontrolowanego autorytetu w zakresie dużych sum pieniędzy. Modele LLM generują odpowiedzi w oparciu o wzorce statystyczne, a nie deterministyczną logikę. Mogą one błędnie interpretować instrukcje lub być manipulowane poprzez szybkie wstrzykiwanie (ang. instant injection), technikę, w której starannie opracowane dane wejściowe powodują, że model zachowuje się w niezamierzony sposób. Każda warstwa w proponowanym przez niego przepływie pracy dodaje niezależne sprawdzenie, mające na celu zapobieganie tego typu awariom.

Dlaczego rynek agentów AI sprawia, że ​​te ryzyka stają się bardziej pilne

Obawy, które podniósł Buterin, nie są hipotetyczne. Szacunki branżowe wskazują, że rynek agentów AI jest na poziomie około $ 8 mld w 2025 roku, a prognozy wskazują na wzrost do ponad 48 miliardów dolarów do 2030 roku, co oznacza roczną stopę wzrostu na poziomie ponad 43%. W miarę jak coraz więcej oprogramowania powstaje w oparciu o autonomiczne systemy sztucznej inteligencji, działające przy ograniczonym nadzorze człowieka, zidentyfikowane przez niego luki w zabezpieczeniach stają się trudniejsze do zignorowania na dużą skalę.

Wniosek

Ostrzeżenia Buterina są poparte udokumentowanymi badaniami. Luki w zabezpieczeniach agentów AI zostały już wykazane w warunkach rzeczywistych, a przejście od chatbotów do agentów autonomicznych sprawia, że ​​te zagrożenia są trudniejsze do opanowania. 

Jego konfiguracja lokalna i trzyetapowy proces portfela nie są odrzuceniem sztucznej inteligencji. To próby wykorzystania jej bez utraty kontroli nad danymi czy funduszami. Wraz ze wzrostem możliwości agentów AI, pytanie o to, kto faktycznie kontroluje ich działania, staje się coraz trudniejsze do zignorowania.

Zasoby

  1. Artykuł Vitalika Buterina:Moja suwerenna / lokalna / prywatna / bezpieczna konfiguracja LLM, kwiecień 2026 r.

  2. Vitalik Buterin na Farcasterze:Opublikowano 5 marca

  3. Raport BCC Research:Rynek agentów AI będzie rósł o 43.3% rocznie do 2030 r.

Najczęściej zadawane pytania

Jakie zagrożenia bezpieczeństwa w narzędziach AI zidentyfikował Vitalik Buterin?

Buterin zidentyfikował kilka konkretnych zagrożeń: systemy sztucznej inteligencji oparte na chmurze przechowujące i potencjalnie sprzedające prywatne dane użytkowników, agenci AI modyfikujący ustawienia systemu lub dodający kanały komunikacji bez potwierdzenia użytkownika, cicha eksfiltracja danych poprzez ukryte żądania sieciowe, ataki typu jailbreak, w których złośliwe dane wejściowe manipulują zachowaniem sztucznej inteligencji, oraz ukryte tylne furtki w modelach, które aktywują się w określonych warunkach. Badania cytowane w jego poście wykazały, że około 15% badanych umiejętności agentów zawierało złośliwe instrukcje.

Na czym polega konfiguracja sztucznej inteligencji zorientowana na środowisko lokalne i dlaczego Buterin ją zaleca?

Konfiguracja AI oparta na modelu lokalnym uruchamia wszystkie wnioskowania modelu i przechowywanie plików na sprzęcie użytkownika, a nie na serwerach zdalnych. Buterin zaleca to podejście, ponieważ zapobiega ono przedostawaniu się danych użytkownika do serwerów zewnętrznych, które mogą uzyskać do nich dostęp, przechowywać je lub sprzedawać. Jego konfiguracja wykorzystuje serwer llama-server do lokalnego wnioskowania, narzędzia sandboxingowe do izolowania procesów AI oraz lokalną pamięć masową na notatki i materiały referencyjne. Model Qwen3.5:35B uruchamia na laptopie z kartą graficzną NVIDIA 5090, osiągając prędkość około 90 tokenów na sekundę.

W jaki sposób, zdaniem Buterina, sztuczna inteligencja powinna być wykorzystywana w portfelach kryptowalut?

Buterin popiera wykorzystanie sztucznej inteligencji w portfelach jako warstwy propozycji i monitorowania, a nie jako autonomicznego kontrolera funduszy. W przypadku transakcji o wysokiej wartości proponuje przepływ pracy, w którym sztuczna inteligencja sugeruje działanie, lokalny klient symuluje wynik w łańcuchu, a użytkownik ręcznie potwierdza, zanim cokolwiek zostanie opublikowane. W przypadku zadań o niższej stawce, takich jak sugestie dotyczące opłat za gaz czy sygnalizowanie podejrzanych kontraktów, widzi większe pole do automatyzacji. Wyraźnie stwierdził, że nie zaufałby rozbudowanemu modelowi językowemu w przypadku transakcji o wartości wielu milionów dolarów ze względu na ryzyko halucynacji i ataków typu prompt injection.

Zastrzeżenie

Zastrzeżenie: Poglądy wyrażone w niniejszym artykule niekoniecznie odzwierciedlają poglądy BSCN. Informacje zawarte w niniejszym artykule służą wyłącznie celom edukacyjnym i rozrywkowym i nie powinny być interpretowane jako porady inwestycyjne ani żadnego rodzaju porady. BSCN nie ponosi odpowiedzialności za jakiekolwiek decyzje inwestycyjne podjęte na podstawie informacji zawartych w niniejszym artykule. Jeśli uważasz, że artykuł powinien zostać zmieniony, skontaktuj się z zespołem BSCN, wysyłając wiadomość e-mail na adres: [email chroniony].

Autor

Soumen Datta

Soumen jest badaczem kryptowalut od 2020 roku i posiada tytuł magistra fizyki. Jego prace i badania były publikowane w takich czasopismach jak CryptoSlate i DailyCoin, a także w BSCN. Jego obszary zainteresowań obejmują Bitcoina, DeFi oraz altcoiny o wysokim potencjale, takie jak Ethereum, Solana, XRP i Chainlink. Łączy dogłębną analizę z dziennikarską precyzją, aby dostarczać spostrzeżeń zarówno nowicjuszom, jak i doświadczonym czytelnikom kryptowalut.

(Reklama)

natywna reklama mobilna ad2

Najnowsze wiadomości kryptograficzne

Bądź na bieżąco z najnowszymi wiadomościami i wydarzeniami ze świata kryptowalut

Dołącz do naszego biuletynu

Zarejestruj się, aby otrzymywać najlepsze samouczki i najnowsze informacje o Web3.

Zapisz się tutaj!
BSCN

BSCN

Kanał RSS BSCN

BSCN to Twoje ulubione miejsce, jeśli chodzi o kryptowaluty i blockchain. Odkryj najnowsze wiadomości, analizy i badania rynku kryptowalut, obejmujące Bitcoina, Ethereum, altcoiny, memecoiny i wszystko pomiędzy.

(Reklama)