19 lutego 2026 · 5 min lektury

Aplikacja AI na Androida ujawnia prawie 2 miliony zdjęć i filmów użytkowników: każdy może obejrzeć Twoje nagrania

Aplikacja AI na Androida ujawnia prawie 2 miliony zdjęć i filmów użytkowników: każdy może obejrzeć Twoje nagrania

Aplikacja wykorzystująca sztuczną inteligencję, obiecująca kinowe metamorfozy Twoich selfie, zamiast tego ujawniła prawie dwa miliony prywatnych zdjęć i filmów.

AI potrafi ulepszyć Twoje zdjęcia i podkręcić filmy. Jednak powierzenie swoich danych aplikacji zawsze niesie ze sobą ryzyko ujawnienia ich w internecie, nawet jeśli jest to aplikacja pobrana ponad 500 000 razy w Google Play i oceniona na 4,3 gwiazdki na podstawie ponad 11 000 recenzji.

Podczas badania aplikacji AI na Androida w sklepie Google Play, badacze Cybernews odkryli, że aplikacja o nazwie „Video AI Art Generator & Maker” ujawniała dane użytkowników. Z aplikacji wyciekło ponad 1,5 miliona zdjęć i ponad 385 000 filmów użytkowników, a także miliony plików multimedialnych wygenerowanych przez użytkowników przy użyciu sztucznej inteligencji.

Wyciek był spowodowany błędnie skonfigurowanym zasobnikiem (bucket) Google Cloud Storage, który pozwalał każdemu na dostęp do przechowywanych plików bez uwierzytelniania.

Publicznie ujawnione wideo przesłane przez jednego z użytkowników

Zasobnik ten przechowywał i ujawniał każdy plik przesłany od momentu premiery aplikacji. Aplikacja została wydana 13 czerwca 2023 roku, podczas gdy najstarszy plik w zasobniku pochodzi z okresu na trzy dni przed premierą.

Łącznie w niezabezpieczonym zasobniku znajdowało się około 8,27 miliona plików multimedialnych, co stanowi ponad 12 TB danych użytkowników.

Zindeksowane sumy z ujawnionego zasobnika pamięci masowej

Jakie dane wyciekły?

  • 2,87 miliona filmów wygenerowanych przez AI
  • Ponad 386 000 plików audio wygenerowanych przez AI
  • 2,87 miliona obrazów wygenerowanych przez AI
  • Ponad 385 000 filmów przesłanych przez użytkowników
  • Ponad 1,57 miliona zdjęć przesłanych przez użytkowników

Nie jest to odosobniony przypadek. Wcześniejsze dochodzenie Cybernews ujawniło, że popularne aplikacje AI do identyfikacji na zdjęciach, mające 2 miliony pobrań, ujawniły współrzędne GPS swoich użytkowników.

Potencjalne naruszenie RODO (GDPR)

Wyciek danych użytkowników na ogół wskazuje na nieprzestrzeganie obowiązków bezpieczeństwa określonych w unijnym Ogólnym rozporządzeniu o ochronie danych (RODO), które chroni europejskich użytkowników.

Zgodnie z RODO dane osobowe muszą być przetwarzane „w sposób zapewniający odpowiednie bezpieczeństwo danych osobowych, w tym ochronę przed niedozwolonym lub niezgodnym z prawem przetwarzaniem oraz przypadkową utratą, zniszczeniem lub uszkodzeniem, za pomocą odpowiednich środków technicznych lub organizacyjnych”.

Choć żaden system nie jest w 100% bezpieczny, prawo wymaga od właściciela aplikacji wdrożenia „odpowiednich środków technicznych i organizacyjnych” w celu zapewnienia stopnia bezpieczeństwa odpowiadającego ryzyku. Publicznie dostępny magazyn w chmurze z dużym prawdopodobieństwem nie zostanie uznany za odpowiedni środek ochrony prywatnych danych użytkowników.

Naruszenie RODO może skutkować dla firmy karami finansowymi, które mogą sięgnąć nawet 20 milionów euro lub 4% całkowitego rocznego światowego obrotu – w zależności od tego, która z tych kwot jest wyższa.

Dlaczego ten wyciek ma znaczenie?

Aplikacje do generowania multimediów przez AI często przechowują oryginalne pliki przesłane przez użytkowników wraz z przetworzonymi treściami. W tym przypadku prywatne zdjęcia i filmy, których użytkownicy mogli nigdy nie chcieć udostępniać publicznie, były powszechnie dostępne. Mogły one zawierać prywatne i wrażliwe informacje, narażające użytkowników na niebezpieczeństwo.

Zwraca również uwagę skala zjawiska. Przy zaledwie 500 000 pobrań aplikacja zgromadziła i ujawniła ponad 12 TB plików multimedialnych użytkowników. Podkreśla to, jak szybko konsumenckie platformy AI mogą gromadzić ogromne ilości wrażliwych treści.

Metadane aplikacji, w tym wykryte na stałe zakodowane poświadczenia/sekrety

„Ten wyciek danych pokazuje również, jak niektóre aplikacje AI priorytetowo traktują szybkie dostarczenie produktu, pomijając kluczowe funkcje bezpieczeństwa, takie jak włączenie uwierzytelniania dla krytycznego zasobnika pamięci w chmurze używanego do przechowywania danych użytkowników, w tym zdjęć i filmów” – wyjaśnili badacze Cybernews.

Co wiemy o firmie?

Aplikacja została stworzona przez Codeway Dijital Hizmetler Anonim Sirketi, prywatną firmę zarejestrowaną w Turcji. Niektóre aplikacje tej firmy są również publikowane pod szyldem Deep Flow Software Services Fzco, podmiotu zarejestrowanego w Zjednoczonych Emiratach Arabskich. Łącznie aplikacje tej grupy mają ponad 10 milionów pobrań.

Redakcja Cybernews skontaktowała się z firmą, i po wielu próbach nawiązania komunikacji, firma zabezpieczyła dostęp do danych. Przedsiębiorstwo nie udzieliło oficjalnego komentarza.

Lista zasobnika Google Cloud Storage pokazująca pliki w nim przechowywane

Nie jest to pierwszy raz, kiedy z aplikacji tej firmy wyciekły dane użytkowników. Jak donoszono, niezależny badacz ds. bezpieczeństwa odkrył, że inna aplikacja stworzona przez Codeway, Chat & Ask AI, miała błędnie skonfigurowane zaplecze (backend) wykorzystujące Google Firebase. Według badacza uzyskał on dostęp do około 300 milionów wiadomości powiązanych z ponad 25 milionami użytkowników.

Aplikacje AI na Androida nie są bezpieczne

Wewnętrzne, zakrojone na szeroką skalę badanie Cybernews ujawniło, że aplikacje AI na Androida są wysoce podatne na ataki – aż 72% analizowanych aplikacji zawierało co najmniej jeden wpisany na stałe w kodzie sekret (hardcoded secret).

Pomimo faktu, że społeczność zajmująca się cyberbezpieczeństwem konsekwentnie ostrzega, iż takie praktyki należą do najgorszych z możliwych, liczby pokazują, że są one nadal powszechnie stosowane.

Średnio z jednej aplikacji AI wycieka 5,1 poświadczeń/sekretów, a 81,14% wykrytych wycieków było związanych z identyfikatorami projektów Google Cloud, punktami końcowymi (endpoints) i kluczami API.

Oś czasu ujawnienia:

  • Pierwsze zindeksowanie zasobnika w ramach badania aplikacji AI: 2 grudnia 2025 r.
  • Dogłębna analiza i pełne zindeksowanie: 9 grudnia 2025 r.
  • Wstępne ujawnienie: 10 grudnia 2025 r.
  • Kontakt z CERT: 16 grudnia 2025 r.
  • Zabezpieczenie danych: 3 lutego 2026 r.
Udostępnij ten artykuł

Powiązane artykuły