Zaufał ChatGPT. Efekt? Zainfekowany komputer i godziny walki o dane
Sztuczna inteligencja błyskawicznie weszła do naszego codziennego życia i coraz częściej pełni rolę cyfrowego asystenta. Jednak historia 17-letniego Marcina, opisana przez CERT Orange Polska, pokazuje, że bezwarunkowe zaufanie modelom AI może skończyć się poważnymi konsekwencjami.
Wszystko zaczęło się od prostej pomyłki – Marcin podczas przenoszenia nagrań z karty SD użył funkcji „wytnij” zamiast „kopiuj”. Pliki zniknęły z karty, a na dysku pozostały jedynie ich uszkodzone fragmenty. Chłopak zapytał ChatGPT o najlepsze narzędzia do odzyskiwania danych. Model odpowiedział, podając listę programów oraz, co istotne, linki do ich pobrania, opisując je jako „bezpieczne, sprawdzone” i prowadzące do „oficjalnych stron”.
Fałszywa strona, prawdziwy malware
Jeden z poleconych adresów prowadził do fałszywej domeny podszywającej się pod popularne narzędzie PhotoRec. Marcin pobrał plik, uruchomił instalator, program nie zadziałał. Gdy po godzinie wrócił do komputera, Microsoft Defender wyświetlił alert dotyczący procesu SRBMiner-MULTI – popularnej koparki kryptowalut. Analiza pliku w serwisie VirusTotal potwierdziła, że instalator był złośliwy.
Koparka była tylko wierzchołkiem góry lodowej. Okazało się, że to samo oprogramowanie potrafi wyciągnąć z przeglądarki zapisane hasła, a także aktywne tokeny sesji, co oznacza, że atakujący mogą przejmować konta bez logowania i całkowicie omijając weryfikację dwuetapową. Marcin spędził kolejne dziesiątki godzin na ręcznym wylogowywaniu sesji, przenoszeniu plików i finalnie na pełnej reinstalacji systemu wraz z BIOS-em.
Przestępcy konstruują strony pod algorytmy AI
Ekspert CERT Orange Polska odtworzył scenariusz i potwierdził: ChatGPT rzeczywiście proponuje złośliwe linki. Mechanizm jest przemyślany – przestępcy budują fałszywe strony z myślą o algorytmach AI, nie o ludzkich użytkownikach. Strony zawierają rozbudowane treści w wielu językach, sekcje „Trust & Security”, FAQ pisane tak, by model mógł z nich cytować odpowiedzi, a w kodzie umieszczone są metadane opisujące oprogramowanie jako legalne narzędzie.
Co istotne: przycisk „pobierz” na fałszywej stronie nie zawierał bezpośredniego linku do malware. W kodzie znajdował się jedynie znak #, który dopiero w przeglądarce użytkownika, za pomocą JavaScriptu, był podmieniany na właściwy adres pobierania. Model AI analizujący treść strony nie ma do tego dostępu – więc nie widzi niczego podejrzanego.
CERT Orange Polska ustalił, że na jednym serwerze działały dziesiątki domen podszywających się pod popularne programy, m.in.: TestDisk, HWMonitor, CrystalDiskInfo, FurMark, PDFgear, K-Lite Codec Pack, uTorrent, Notepad++ czy 360 Browser. We wszystkich przypadkach schemat był identyczny: instalowana była fałszywa wersja narzędzia do zdalnego dostępu ScreenConnect, dająca przestępcom pełną kontrolę nad komputerem ofiary. Następnie instalowane były koparki kryptowalut, a u części ofiar również oprogramowanie kradnące hasła i tokeny sesji.
Problem nie dotyczy wyłącznie ChatGPT – każdy model językowy korzystający z indeksowania stron może zostać wprowadzony w błąd w podobny sposób, bo przestępcy celowo konstruują strony pod ten wektor ataku.
Jak się chronić?
CERT Orange Polska zaleca przede wszystkim: oprogramowanie pobieraj wyłącznie z oficjalnych sklepów systemowych lub strony producenta, a adres URL zawsze weryfikuj niezależnie. Linki podane przez model AI należy traktować jak każde inne – wymagają weryfikacji, a nie ślepego zaufania.
W razie wątpliwości co do pobranego pliku warto sprawdzić go w serwisie VirusTotal – narzędziu analizującym pliki kilkudziesięcioma silnikami antywirusowymi jednocześnie. Jeśli podejrzewasz, że uruchomiłeś złośliwy instalator, odłącz komputer od internetu, wyloguj aktywne sesje na ważnych kontach z innego, czystego urządzenia, zmień hasła (szczególnie do poczty, banku i chmury) i rozważ pełną reinstalację systemu.