Odkryte niedawno podatności w najpopularniejszych frameworkach do budowy aplikacji AI, LangChain oraz LangGraph, otworzyły napastnikom drogę do wrażliwych zasobów firmowych. Błędy te pozwalają na nieautoryzowany dostęp do systemów plików, wyciek kluczy API oraz manipulację bazami danych SQL, co stawia pod znakiem zapytania bezpieczeństwo tysięcy wdrożeń korporacyjnych.
Najważniejsze w skrócie:
- Zidentyfikowano trzy poważne luki (CVE-2026-34070, CVE-2025-68664, CVE-2025-67644) w ekosystemie LangChain.
- Zagrożone dane obejmują pliki konfiguracyjne Docker, sekrety środowiskowe oraz historie konwersacji z chatbotami.
- Skala problemu jest ogromna, biorąc pod uwagę ponad 80 milionów pobrań komponentów LangChain tygodniowo.
- Wydano już poprawki, a programiści są wzywani do natychmiastowej aktualizacji bibliotek do najnowszych wersji.
Anatomia zagrożenia: Jak "AI plumbing" stało się słabym ogniwem
W marcu 2026 roku badacze cyberbezpieczeństwa z firmy Cyera ujawnili serię krytycznych podatności w fundamentach nowoczesnego oprogramowania GenAI. LangChain, będący de facto standardem w tworzeniu aplikacji opartych na LLM, oraz jego rozszerzenie LangGraph, borykają się z problemami, które wykraczają poza teoretyczne zagrożenia.
Najpoważniejsza z luk, oznaczona jako CVE-2025-68664 (wynik CVSS: 9.3/10), dotyczy niebezpiecznej deserializacji danych. Pozwala ona atakującemu na wstrzyknięcie złośliwego kodu, który przy interpretacji przez system „wyciąga” klucze API i sekrety środowiskowe. Według raportu Cyera, błąd ten, ochrzczony mianem "LangGrinch", wynika z braku odpowiedniego filtrowania danych wejściowych, które aplikacja traktuje jako zaufane obiekty LangChain.
Kolejnym ogniwem zapalnym jest CVE-2026-34070 (wynik CVSS: 7.5/10) – klasyczny błąd typu path traversal. Napastnik, manipulując szablonami promptów, może zmusić system do odczytania dowolnego pliku z serwera, w tym krytycznych konfiguracji kontenerów i baz danych.
SQL Injection powraca w nowej szacie
Choć technika SQL injection wydawała się reliktem przeszłości, w świecie agentów AI zyskała drugie życie. Luka CVE-2025-67644 w LangGraph pozwala na manipulację zapytaniami do bazy SQLite, wykorzystywanej przez framework do przechowywania punktów kontrolnych (checkpoints) procesów agentowych.
W praktyce oznacza to, że atakujący może nie tylko odczytać historię interakcji użytkowników, ale również zmodyfikować sposób, w jaki agent podejmuje decyzje, co w środowisku produkcyjnym może prowadzić do nieobliczalnych skutków biznesowych.
Porównanie: Bezpieczeństwo tradycyjne vs. AI
W tradycyjnych systemach webowych walidacja danych wejściowych odbywa się na poziomie clienta i API. W architekturach typu Retrieval-Augmented Generation (RAG) dane wejściowe często przechodzą przez wiele warstw transformacji, gdzie "zaufany" prompt staje się wektorem ataku. W przeciwieństwie do sztywnych reguł konkurentów takich jak Microsoft Semantic Kernel, LangChain postawił na elastyczność i szybkość adopcji, co – jak widać – odbyło się kosztem rygoru bezpieczeństwa.
Realne ryzyko dla przedsiębiorstw
Eksperci ostrzegają, że LangChain nie istnieje w próżni. Jest on centrum ogromnej sieci zależności, która rozciąga się na setki bibliotek i integracji. Kiedy luka pojawia się w rdzeniu LangChain, "rozlewa się" ona na każde narzędzie, które z niego korzysta.
„To poważne ostrzeżenie dla każdego, kto buduje systemy z użyciem narzędzi AI. Często zakładamy, że nowoczesne frameworki są bezpieczne z założenia (secure by design), ale te incydenty pokazują, że niosą one ze sobą te same ryzyka, co tradycyjne oprogramowanie” – komentuje zespół SQ Magazine.
Szczególnie narażone są firmy korzystające z rozwiązań typu Google Cloud Vertex AI czy AWS, które integrują LangChain do zarządzania przepływem danych między modelami a zasobami wewnętrznymi.
Dlaczego to ważne? (Analiza autorska)
Wybuch popularności systemów agentowych sprawił, że programiści masowo zaczęli łączyć modele językowe z dostępem do systemów plików i baz danych. Incydent z LangChain obnaża fundamentalny problem „ukrytego długu technologicznego” w infrastrukturze AI. W pogoni za funkcjonalnością zapomniano o starej zasadzie informatyki: nigdy nie ufaj danym wejściowym użytkownika.
Problem jest o tyle palący, że LangChain to obecnie najpopularniejsza "hydraulika" (plumbing) łącząca OpenAI czy Anthropic z biznesem. Jeśli fundamenty są nieszczelne, cała nadbudowa – od chatbotów obsługi klienta po zaawansowane systemy analityczne – staje się podatna na infiltrację. Co więcej, fakt, że błędy te dotyczą tak podstawowych mechanizmów jak deserializacja czy SQL injection, sugeruje, że audyty bezpieczeństwa w najszybciej rozwijających się projektach open-source AI wciąż nie nadążają za tempem wdrażania nowych funkcji. Dla liderów technicznych jest to jasny sygnał: implementacja AI wymaga nie tylko wiedzy o promptach, ale przede wszystkim powrotu do korzeni cyberbezpieczeństwa.
Co dalej?
- Bezwzględna aktualizacja: Programiści muszą natychmiast zaktualizować
langchain-coredo wersji co najmniej 1.2.22 orazlanggraph-checkpoint-sqlitedo wersji 3.0.1. - Audyt konfiguracji: Należy sprawdzić, czy w projektach nie są włączone opcje typu
secrets_from_env=Truepodczas deserializacji niezweryfikowanych danych – od teraz domyślna wartość tej flagi toFalse. - Wdrażanie "Zero Trust" w AI: Firmy powinny zacząć traktować wyjścia z LLM (prompt injection) jako potencjalnie złośliwe dane i stosować rygorystyczne filtrowanie przed przekazaniem ich do funkcji systemowych.
Źródła
- The Hacker News – LangChain, LangGraph Flaws Expose Files, Secrets, Databases – https://thehackernews.com/2026/03/langchain-langgraph-flaws-expose-files.html
- TechRadar Pro – LangChain framework hit by several worrying security issues – https://www.techradar.com/pro/security/each-vulnerability-exposes-a-different-class-of-enterprise-data-langchain-framework-hit-by-several-worrying-security-issues-heres-what-we-know
- SQ Magazine – LangGraph and LangChain Bugs Leak Sensitive Enterprise Data – https://sqmagazine.co.uk/langchain-langgraph-bugs-data-exposure-ai/
- CXO Digital Pulse – Critical Flaws in LangChain and LangGraph Expose Sensitive Data – https://www.cxodigitalpulse.com/critical-flaws-in-langchain-and-langgraph-expose-sensitive-data-across-ai-applications/
- SecNews.gr – Hackers exploit critical RCE vulnerability in Langflow – https://www.secnews.gr/en/699604/critical-rce-in-langflow-cisa/





