18 lutego 2026 · 6 min lektury

Oszuści wykorzystują fałszywego chatbota AI „Gemini” do sprzedaży fałszywego „Google Coin”

Oszuści wykorzystują fałszywego chatbota AI „Gemini” do sprzedaży fałszywego „Google Coin”

Oszuści znaleźli nowe zastosowanie dla sztucznej inteligencji: tworzenie niestandardowych chatbotów udających prawdziwych asystentów AI, aby wywierać presję na ofiary i nakłaniać je do zakupu bezwartościowych kryptowalut.

Niedawno natknęliśmy się na działającą stronę przedsprzedaży „Google Coin”, na której znajdował się chatbot podający się za asystenta AI Gemini od Google. Bot przeprowadzał odwiedzających przez dopracowaną ofertę sprzedaży, odpowiadał na ich pytania dotyczące inwestycji, prognozował zyski, a ostatecznie kończyło się to wysłaniem przez ofiary nieodwracalnej płatności w kryptowalucie do oszustów.

Google nie posiada własnej kryptowaluty. Jednak ponieważ „Google Coin” pojawiał się już wcześniej w oszustwach, każdy, kto to sprawdza, może pomyśleć, że jest to coś prawdziwego. A chatbot był bardzo przekonujący.

AI jako domykający transakcję

Chatbot przedstawiał się jako: „Gemini — Twój asystent AI dla platformy Google Coin”.

Wykorzystywał branding w stylu Gemini, w tym ikonę iskierki i zielony wskaźnik statusu „Online”, tworząc natychmiastowe wrażenie, że jest to oficjalny produkt Google.

Na pytanie: „Czy stanę się bogaty, jeśli kupię 100 monet?”, bot odpowiadał konkretnymi prognozami finansowymi. Twierdził, że inwestycja w wysokości 395 USD przy obecnej cenie przedsprzedaży będzie warta 2755 USD w momencie wejścia na giełdę, co stanowi wzrost o „około 7 razy”. Powoływał się na cenę przedsprzedaży wynoszącą 3,95 USD za token, oczekiwaną cenę debiutu na poziomie 27,55 USD i zachęcał do zadawania dalszych pytań o to, „jak wziąć udział”.

Jest to rodzaj spersonalizowanego, responsywnego zaangażowania, które kiedyś wymagało obecności ludzkiego oszusta po drugiej stronie czatu na Telegramie. Teraz AI robi to automatycznie.

Persona, która nigdy nie wypada z roli

To, co wyróżniało się podczas naszej analizy, to jak ściśle kontrolowana była persona bota. Odkryliśmy, że:

  • Konsekwentnie twierdził, że jest „oficjalnym pomocnikiem platformy Google Coin”.
  • Odmawiał podania jakichkolwiek weryfikowalnych danych firmy, takich jak zarejestrowany podmiot, regulator, numer licencji, firma audytorska czy oficjalny adres e-mail.
  • Lekceważył obawy i przekierowywał je na mgliste zapewnienia o „przejrzystości” i „bezpieczeństwie”.
  • Odmawiał uznania jakiegokolwiek scenariusza, w którym projekt mógłby być oszustwem.
  • Przekierowywał trudniejsze pytania do nienazwanego „menedżera” (prawdopodobnie człowieka finalizującego transakcję, czekającego w kulisach).

Gdy bot jest naciskany, nie gubi się ani nie wychodzi z roli. Wraca do tych samych, zaprogramowanych twierdzeń: „szczegółowa mapa drogowa na rok 2026”, „szyfrowanie klasy wojskowej”, „integracja AI” i „rosnąca społeczność inwestorów”.

Ktokolwiek zbudował tego chatbota, zamknął go w skrypcie sprzedażowym zaprojektowanym tak, aby budować zaufanie, przełamywać wątpliwości i kierować odwiedzających w stronę jednego rezultatu: wysłania kryptowaluty.

Dlaczego chatboty AI zmieniają model oszustw

Oszuści zawsze polegali na inżynierii społecznej. Zbuduj zaufanie. Stwórz poczucie pilności. Przełam sceptycyzm. Sfinalizuj transakcję.

Tradycyjnie wymagało to ludzkich operatorów, co ograniczało liczbę ofiar, które można było obsługiwać jednocześnie. Chatboty AI całkowicie usuwają to wąskie gardło.

Pojedyncza operacja oszustwa może teraz wdrożyć chatbota, który:

  • Angażuje setki odwiedzających jednocześnie, 24 godziny na dobę.
  • Dostarcza spójne, dopracowane komunikaty, które brzmią autorytatywnie.
  • Podszywa się pod asystenta AI zaufanej marki (w tym przypadku Gemini od Google).
  • Odpowiada na indywidualne pytania za pomocą dopasowanych prognoz finansowych.
  • Przekazuje sprawę ludzkim operatorom tylko wtedy, gdy jest to konieczne.

Jest to zgodne z szerszym trendem zidentyfikowanym przez badaczy. Według Chainalysis około 60% wszystkich środków wpływających do portfeli oszustw kryptowalutowych było powiązanych z oszustami używającymi narzędzi AI. Infrastruktura oszustw oparta na AI staje się normą, a nie wyjątkiem. Chatbot to tylko jeden z elementów szerszego zestawu narzędzi do oszustw wspomaganych przez AI – ale może być najbardziej efektywnym elementem, ponieważ tworzy iluzję prawdziwej, interaktywnej relacji między ofiarą a „marką”.

Przynęta: dopracowana podróbka

Chatbot jest nakładką na przekonującą operację oszustwa. Strona Google Coin naśladuje identyfikację wizualną Google z czystym, profesjonalnym designem, kompletnym logo „G”, menu nawigacyjnym i pulpitem przedsprzedaży. Twierdzi, że znajduje się w „Etapie 5 z 5” z ponad 9,9 miliona sprzedanych tokenów i datą wejścia na giełdę ustaloną na 18 lutego – wszystko to sztucznie wykreowana pilność.

Aby zyskać wiarygodność, strona wyświetla logo dużych firm – OpenAI, Google, Binance, Squarespace, Coinbase i SpaceX – pod banerem „Zaufali nam w branży”. Żadna z tych firm nie ma żadnego związku z projektem.

Jeśli odwiedzający kliknie „Kup”, zostaje przeniesiony do pulpitu portfela, który wygląda jak legalna platforma kryptowalutowa, pokazująca salda dla „Google” (na fikcyjnym „Google-Chain”), Bitcoina i Ethereum.

Proces zakupu pozwala użytkownikom kupić dowolną liczbę tokenów i generuje odpowiednie żądanie płatności Bitcoin na konkretny adres portfela. Strona nakłada na to system wielopoziomowych bonusów, który zaczyna się od 100 tokenów i skaluje do 100 000: kup więcej, a bonusy wzrosną z 5% do 30% na najwyższym poziomie. To klasyczna taktyka dosprzedaży (upsell), zaprojektowana tak, byś myślał, że mądrzej jest wydać więcej.

Każda płatność jest nieodwracalna. Nie ma żadnego wejścia na giełdę, żadnego tokena o realnej wartości ani sposobu na odzyskanie pieniędzy.

Na co zwracać uwagę

Wkraczamy w erę, w której pierwszym punktem kontaktu w oszustwie może wcale nie być człowiek. Chatboty AI dają oszustom coś, czego nigdy wcześniej nie mieli: niestrudzony, spójny, skalowalny interfejs, który może angażować ofiary w coś, co sprawia wrażenie prawdziwej rozmowy. Kiedy ten chatbot jest przebrany za oficjalnego asystenta AI zaufanej marki, efekt jest jeszcze bardziej przekonujący.

Według danych Consumer Sentinel FTC, amerykańscy konsumenci zgłosili utratę 5,7 miliarda dolarów w wyniku oszustw inwestycyjnych w 2024 roku (więcej niż w przypadku jakiegokolwiek innego rodzaju oszustwa i o 24% więcej niż w roku poprzednim). Kryptowaluty pozostają drugą co do wielkości metodą płatności, której oszuści używają do wyłudzania funduszy, ponieważ transakcje są szybkie i nieodwracalne. Teraz dodajmy do tego AI, która potrafi zachwalać, przekonywać i radzić sobie z obiekcjami bez udziału ludzkiego operatora – i mamy skalowalny model oszustwa.

Chatboty AI na stronach oszustów staną się bardziej powszechne. Oto jak je rozpoznać:

  • Podszywają się pod znane marki AI. Chatbot nazywający się „Gemini”, „ChatGPT” lub „Copilot” na stronie kryptowalutowej innej firmy prawie na pewno nie jest tym, za kogo się podaje. Każdy może nazwać chatbota w dowolny sposób.
  • Nie odpowiedzą na pytania sprawdzające (due diligence). Zapytaj, jaki podmiot prawny obsługuje platformę, jaki regulator finansowy ją nadzoruje lub gdzie firma jest zarejestrowana. Legalne firmy potrafią odpowiedzieć na te pytania, boty oszustów starają się ich unikać (a jeśli odpowiedzą, zweryfikuj to).
  • Prognozują konkretne zyski. Żaden legalny produkt inwestycyjny nie obiecuje konkretnej przyszłej ceny. Chatbot mówiący ci, że twoje 395 USD zamieni się w 2755 USD, nie podaje ci informacji finansowych – realizuje skrypt.
  • Tworzą poczucie pilności. Taktyki presji, takie jak „etap 5 kończy się wkrótce”, „zbliża się data wejścia na giełdę”, „ograniczona przedsprzedaż”, są zaprojektowane tak, aby zmusić cię do podejmowania szybkich decyzji.

Jak się chronić

Google nie posiada kryptowaluty. Nie uruchomiło przedsprzedaży. A jego AI Gemini nie działa jako asystent sprzedaży na stronach kryptowalutowych firm trzecich. Jeśli natkniesz się na cokolwiek sugerującego inaczej, zamknij kartę.

  • Zweryfikuj twierdzenia na oficjalnej stronie internetowej firmy, o której mowa.
  • Nie polegaj na brandingu chatbota. Każdy może nazwać bota w dowolny sposób.
  • Nigdy nie wysyłaj kryptowalut na podstawie prognozowanych zysków.
  • Wyszukaj nazwę projektu wraz ze słowem „scam” (oszustwo) lub „review” (opinia) przed wysłaniem jakichkolwiek pieniędzy.
  • Korzystaj z narzędzi ochrony sieci, takich jak Malwarebytes Browser Guard, który jest darmowy i blokuje znane oraz nieznane strony oszustów.
  • Jeśli już wysłałeś środki, zgłoś to lokalnym organom ścigania, FTC na stronie reportfraud.ftc.gov oraz IC3 FBI na stronie ic3.gov.
Udostępnij ten artykuł

Powiązane artykuły